01
OpenAI Codex「ほぼ何でも」対応へ大型アップデート
OpenAIがCodexを大幅拡張。Mac上のアプリ操作、外部ツール連携、画像生成、過去アクションからの学習、ユーザー好みの記憶、継続的・反復タスクの引き受けに対応した。同日発表のAutomations機能は同一スレッド内で実行され、長期タスクを自動再開できる。
- Mac上のアプリを直接操作可能
- 外部ツール接続を拡張(コネクタ追加)
- 画像生成サポート
- 過去アクション・ユーザー嗜好を記憶
01
OpenAIがCodexを大幅拡張。Mac上のアプリ操作、外部ツール連携、画像生成、過去アクションからの学習、ユーザー好みの記憶、継続的・反復タスクの引き受けに対応した。同日発表のAutomations機能は同一スレッド内で実行され、長期タスクを自動再開できる。
OpenAIが生物学・創薬・トランスレーショナル医学向けのフロンティア推論モデル「GPT-Rosalind」を発表。タンパク質・化学反応推論、ゲノム解析等の科学ワークフローに最適化されている。Amgen、Moderna、Allen Institute等が研究プレビューで利用開始。
Cursor上で Claude Opus 4.7 が利用可能になった。Cursorチームは「印象的に自律的で、推論がより創造的」と評価。期間限定で50%オフで提供開始。
Anthropic共著の研究「Subliminal Learning(サブリミナル学習)」がNature本誌に掲載。LLMが学習データに含まれる「隠れたシグナル」を通じて、好みやミスアライメント等の特性を別モデルへ伝播させ得ることを示した。
GoogleがGemini 3.1 Flash TTSを公開。70言語以上対応(うち24言語が高品質評価済み、日本語含む)。「Audio Tags」と呼ぶ自然言語タグをテキストに埋め込むだけで、声のスタイル・テンポ・トーンを制御できる。Gemini API および Google AI Studio でプレビュー提供。
Vercel Workflowsが正式版(GA)に。コード自体がオーケストレータとなり、キュー・リトライ・ワーカー管理なしでエージェント、バックエンド、長時間プロセスを構築可能。
Claude Webのルーチン、以下で安定挙動した。
本格的な、ClaudeをCloudでCrowdに運用する時代の到来。
OpenClaw 2026.4.14 🦞
OpenClaw 2026.4.14では、GPT-5.4のルーティングと復旧、Chrome/CDP、Subagents、各種チャット連携、パフォーマンス面の信頼性向上がまとめて入っています。
**有益度:** ⭐⭐⭐ --- ## 概要 > https://t.co/frWMbQXINM --- ## まとめ X Article本体の取得は今回404で落ちたが、保存価値が高い長文投稿としてブックマークされているもの。本文再取得が必要な前提つきで、まずはメタ情報だけ保存する。次回の取得フロー改善候補。 ## 記事詳細 ソース: X Articleリンク 外部リンク: - http://x.com/i/article/2043387530419269632 --- ## 活用ポイント - Claude CodeやAIエージェントの社内導入ルール設計の参考になる - Bootcamp受講生向けには「便利さの前に安全設定」を教える教材として使える - 組織配布と個人カスタマイズの分離という視点が実務でかなり効く --- ## 関連リンク - [{heading}]({item['url']})
https://t.co/pOUiK6ACsd
このブックマークは、Ronin による X の長文記事リンク投稿です。本文自体はリンクのみですが、外部リンク先に主要コンテンツがあり、強い反応数からも注目度の高い記事であることがわかります。
RAG is broken and nobody's talking about it.
このブックマークは、RAGが大規模化したときに性能劣化する根本原因として「Semantic Collapse」を紹介している。参照した元記事では、スタンフォードの研究をもとに、ベクトル検索が文書数の増加とともに意味的な距離を保てなくなり、関連文書の取り違えが起こる構造的問題を説明している。特に、1つの巨大なベクトル空間にすべての文書を押し込む設計は、数万件規模を超えると検索精度が崩れやすい。対策としては、ドメインや時系列ごとにコーパスを分割し、ルーティング層を設けて、検索前に探索範囲を絞るアーキテクチャが重要だとされる。
**有益度:** ★★★★☆ --- ## 概要 > I highly recommend turning on both QMD and the new "Active-Memory" plugin in OpenClaw. Just ask your agent to set it up. Once set up, responses will be a little slower... but much sharper and much more accurate. Also, include session transcripts in QMD's paths, not just memory. OpenClawの記憶精度を上げる実践メモ。QMDと新しいActive-Memoryプラグインを両方有効化し、さらにQMDの参照対象にmemoryだけでなくセッショントランスクリプトも含めると、応答速度は少し落ちる代わりに、回答の鋭さと正確さがかなり改善するという話。 --- ## まとめ これは「エージェントの賢さはモデル性能だけではなく、記憶の取り回し設計でかなり変わる」という実務寄りの示唆。特にOpenClawみたいに長期運用するエージェントでは、単なるメモ保存よりも、 - 構造化された記憶検索 - 直近会話の参照 - 長期記憶と短期文脈の橋渡し この3つが効く。 Benの指摘で重要なのは、QMDの対象パスにsession transcriptsも含めろ、という点。これをやらないと、長期メモは引けても「最近その場で決めたこと」を落としやすい。実運用だとそこが一番事故る。 ## 活用ポイント - *AIエージェント運用者*: OpenClawの回答品質が不安定なら、まずモデルを替える前にメモリ構成を見直す価値あり。 - *プロンプト設計する人*: `memory` と `transcripts` の両輪で検索させる設計が効く。 - *チーム導入*: 「遅くなるけど賢くなる」ので、速報系より調査・判断支援系ワークフローに向く。 --- ## 関連リンク - [元ポスト](https://x.com/BenjaminBadejo/status/2043076618093003122)