Mastra の A2A プロトコルサポート Mastra は A2A プロトコルをサポートしています。Mastra サーバーを構築することで A2A プロトコルに準拠したサーバーが立ち上がります。この記事では Mastra を使用して A2A プロトコルに準拠したサーバーを構築し、Mastra のクライアント SDK を使用して A2A プロトコルの仕様に従い通信を行う方法を紹介します。 音声による概要 この音声概要は AI によって生成されており、誤りを含む可能性があります。 A2A プロトコルは AI エージェント間の連携を実現するために設計されたオープンな標準です。異なるチームや組織が開発した AI エージェントが相互に通信し、協力してタスクを実行することを可能にします。 Mastra は TypeScript で AI エージェントを構築するためのフレームワークであり、A2A プ
こんにちは。AI ShiftでWebフロントエンジニアをしている安井です。今回はMastraのメモリに焦点を当てて解説をしていきます。 はじめに MastraはTypeScriptでAIエージェントを構築するためのフレームワークです。エージェント、ワークフロー、RAG、評価といった主要機能だけでなく、直感的にデバッグ可能なplayground uiや運用を見据えたOpsの機能なども豊富に備わっています。 また本記事は2025/05時点での内容に基づいています。 コンテキストウィンドウ メモリは、エージェントが会話の文脈を把握するために重要な情報を整理・保持する仕組みです。これは、すべてのチャットメッセージを圧縮し、言語モデルが任意の時点で見ることができる情報の総量(コンテキストウィンドウ)を効率的に管理します。 Mastraではこのコンテキストは大きく3つに分類されます。 1. メッセージ
Browser Useから新しいブラウザ操作系エージェントが登場しました めちゃくちゃ魅力的だったので紹介します。 従来のブラウザ操作系エージェント browser-useに限らず、従来のブラウザ操作系エージェントはユーザーからの自然言語な指令をもとにブラウザを操作します。 AIエージェントは画面キャプチャ + DOMの取得 → キャプチャを解析 → クリックすべき要素を推論 → playwrightで操作をループしてタスクを行います。 現在僕もよく使っているのですが、何点か課題があります。 どうしてもアクションに揺らぎがある 自然言語での指示である以上仕方ないのですが、「〇〇をクリックして〇〇をしてほしい」と言った細かい指示はプロンプトのチューニングが不可欠であり使用モデルの賢さにも依存します。 処理に時間がかかる 画面キャプチャ + DOMの取得 → キャプチャを解析 → クリックすべ
2023年には手作業だった多くの工程が、今では高精度なAIモデルによって自動化されつつある。このようにAI技術の進化は、ソフトウェア開発の現場にかつてない変化をもたらしているのが実情だ。こうした状況に対し、「エンジニアの定義そのものが変わりつつあるのではないか」と指摘するのが、GitHub Japanの服部佑樹氏である。目まぐるしく環境が変わるなかで、それでも失われない「本質」はあるのか──生成AI時代におけるチーム開発の実践と、これからのエンジニアに求められるスキルセットについて、服部氏が自らの経験を交えて語った。 AIエージェントの進化が変えるエンジニアの役割 セッションの冒頭、服部佑樹氏は「AI技術の進化は、インダストリー全体としても驚異的なペースで進行している」と強調。特にここ数年で著しい変化を見せているのが、GitHub Copilotをはじめとした生成ツールにおけるAIの性能向
Mastraについて MastraはオープンソースのTypeScriptエージェントフレームワークです。 AIアプリケーションや機能を構築するために必要なプリミティブを提供するように設計されています。 Mastraを使用して、記憶を持ち関数を実行できるAIエージェントを構築したり、決定論的なワークフローでLLM呼び出しを連鎖させたりすることができます。Mastraのローカル開発環境でエージェントとチャットしたり、RAGでアプリケーション固有の知識を提供したり、Mastraの評価で出力を採点したりすることができます。 主な機能は以下の通りです: モデルルーティング : MastraはVercel AI SDK をモデルルーティングに使用し、OpenAI、Anthropic、Google Geminiなど、あらゆるLLMプロバイダーと対話するための統一されたインターフェースを提供します。 エー
"MCP is an open protocol that standardizes how applications provide context to LLMs. Think of MCP like a USB-C port for AI applications. Just as USB-C provides a standardized way to connect your devices to various peripherals and accessories, MCP provides a standardized way to connect AI models to different data sources and tools." ― Anthropic TL;DR I would like for this to turn out to be a skill
はじめに:AI開発の新潮流、マルチエージェントの世界へAI技術、特に大規模言語モデル(LLM)の進化は、私たちの働き方や創造性を根底から変えようとしています。ChatGPTやClaudeのような対話型AIが日常に浸透し、その能力の高さに驚かされた方も多いでしょう。しかし、AI開発の最前線は、すでに次のステージへと進み始めています。それが「マルチエージェントAI」の世界です。 単一の万能なAIにすべてを任せるのではなく、それぞれ異なる役割や専門性を持った複数のAIエージェントが、まるで人間のチームのように協調し、より複雑で大規模なタスクを達成しようとするアプローチ。これがマルチエージェントAIの基本的な考え方です。 ソフトウェア開発、コンテンツ制作、データ分析、研究開発など、様々な分野でこの新しいパラダイムが注目を集めています。なぜなら、単一のAIでは難しかった「専門性の深化」と「プロセスの
【Genspark】スーパーエージェント登場/電話でレストランのアポ取り/セリフ入り動画生成/データ取得からプレゼン資料まで全自動 はじめにGensparkの新しい機能にスーパーエージェントが登場しました。以下で詳しくご紹介しますが、スーパーエージェントがレストランに電話をかけて人数や時間を調整し、ベジタリアン等の好みを伝えた上で人間の店員と話し合って予約を完結してくれます。 他にも動画作成したい内容をスーパーエージェントに伝えると、内容を調べて台本を作成し、動画も作成し、動画にセリフ入れを行って1本の動画にまとめてくれます。これほど一貫して作業を行ってくれるAIエージェントはこれまでありませんでした。 データ分析についても同様です。データ操作を調べてまとめて分析した結果をプレゼンテーションに落とす。しかもそのプレゼンテーション資料が非常によくできています。 私も1個作ってみたので、以下に
Gensparkから「スーパーエージェント」が登場!汎用AIエージェントの中でもかなり優れていると思います AIは今、私たちの指示を受けて実際に「行動」するエージェントへと、驚異的なスピードで進化しています。 その中でも今回紹介するのが、AI検索エンジンで知られるGensparkが発表した「Gensparkスーパーエージェント」 です。最近話題のAIエージェント「Manus」を超えるのでは?とも噂されるその実力は、まさに未来を感じさせるものです。 筆者の所感: Gensparkというサービスは元々検索系AIサービスではあるものの画像生成など幅広く色々できる何でも屋としてポジショニングしているサービスでした。今まではそれが器用貧乏感がありましたが、AIエージェントとして考えるなら、魅力に変わっているように思いました。 Genspark”スーパーエージェント"とは?Gensparkは元々、高精
ちなみに先日、Mastra製のAIエージェントをMCPと連携させてみた、という記事も書いたのでこちらも合わせて読んで頂けると嬉しいです(今回の内容と一部被っている部分があります)。 MastraとはMastra(マストラ)は、AIエージェント開発を効率化するためのオープンソースフレームワークです。 TypeScriptで実装されており、LLMを利用して外部APIやツールを呼び出すAIエージェントをシンプルなコードで作成できます。 OpenAI、Anthropic、Google Geminiなど複数のAIサービスに対応しているので、用途に合わせたモデル選択が可能です。 環境構築するそれでは、まずはMastraの実行環境を作りましょう。 環境構築と言っても、公式の方法に従えば簡単に作成できます。 任意のフォルダで npx create-mastra@latest を実行すると色々質問されるので
はじめに 今回は、Devinに作業を指示してから自動でスリープ状態になるまでのコストについて、簡単な動作確認を行ったので紹介します。 Devinは非同期でタスクを依頼できることが大きなメリットですが、コストを気にすると、進捗を頻繁にチェックしたくなります。ただし、実際にはコストがあまりかからないという話もあるため、SLEEPを入れた場合と入れない場合で、実際にどの程度コストが変わるのか検証してみました。 パターン1:CLIの実行のみ 簡単な作業依頼をDevinに対して行い、そのまま放置します。 コストは実行した作業のステップの単位で赤枠のように表示されるので、確認して合算します。 作業完了時点のコストは、0.23ACUでした。これをSLEEPせず、auto-sleepになるまで放置してみます。放置した後、Usage & LimitsでいくらACUが増えているのか確認してみます。 最終的にセ
写真左から:Tony Kovanen 氏、Tyler Barnes 氏、Shane Thomas 氏、Ward Peeters 氏、Nik Aiyer 氏、Abhi Aiyer 氏、Mastra 創業者の Sam Bhagwat 氏。(写真提供:Mastra) YC W25 バッチから誕生した Mastra は、今、現実世界を大きく変えようとしている AI エージェントの開発者向けツールとして大きく話題になっている。彼らに出資している RICE Capital の福山太郎氏によるとそのトラフィックの3割はなんと日本からだそうだ。 特にアプリ開発者が好む TypeScript ネイティブのオープンソース SDK とクラウドサービスで、企業の AI 導入におけるボトルネックであるワークフロー構築を劇的に簡素化する Mastra。 カスタマーサポート自動化や商品検索エンジンなど、多彩なユースケー
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く