lynx   »   [go: up one dir, main page]

タグ

LLMに関するebibibiのブックマーク (81)

  • AIだけどAIじゃない - megamouthの葬列

    AIブームである。私のような場末のエンジニアにまで、AI案件の話が飛んでくる始末だ。 AI案件とは、だいたいにおいて、「ChatGPTのようなAIに我が社の長年の課題(属人化している業務や、時間のかかる業務)を代替させ、業務効率化を図る」という趣旨になっている。 ところで、案件の決裁権を握っているおじさんたちにとって、AIとはChatGPTのことだ。つまりは日語を理解し、なんだか賢そうな返答を返し、全てを解決してくれそうなふいんきのあるチャットボットのことである。 さて、どうやってAI(LLM)に建築物の構造計算の検証や、ブランド品の値付け査定や、Webデザインをさせたらいいだろうか? 哀れなプロンプトエンジニアたちが、あの手この手でプロンプトを調整することで、LLMはそれらしい返答を返してくれる。それらしい数字、それらしい値段、どこかで見たことのあるHTML。だが、実際それを業務に反映

    AIだけどAIじゃない - megamouthの葬列
    ebibibi
    ebibibi 2025/05/20
    AIはそもそも厳密な定義ないですからね。 でもそうやって何かを計算機にやらせようっていう取り組みはあっていいんじゃ?今できなくても近い未来にモデル差し替えるだけで全然できるようになっちゃうかもだし。
  • なぜObsidianが2025年になって注目されているのか | gihyo.jp

    前回までの連載のあと、2023年秋に『Obsidianで"育てる"最強ノート術』を刊行しました。そして2025年になって、Obsidianが大きく注目を集めています。今回はその背景と理由について解説します。 AIとの連携 ObsidianはノートアプリやPKM(Personal Knowledge Management)ツールとして注目を集めました。主な特徴として、この連載でも解説してきた次のことが挙げられます。 ローカル環境で動作する Markdownで書いたノートをリンクできる 階層型のタグで管理できる プラグインで拡張できる そんな中、2025年になって注目された背景として、「⁠AI人工知能)との連携」があります。ここでは「生成AIの進化」「⁠RAGとMCPの登場」「⁠AIエージェントの登場」という3つの視点から紹介します。 生成AIの進化 2022年末にChatGPTが公開されて

    なぜObsidianが2025年になって注目されているのか | gihyo.jp
    ebibibi
    ebibibi 2025/05/12
    Obsidianのエディターを使わないとタイトル書き換えとかの時にリンクが破綻してしまうので使いたいんだけど、VSCodeでいうところのClineのような無料で使えて独自のLLMを使えるプラグインで良いものが無いのが辛い。
  • ローカルRAGを手軽に構築できるMCPサーバを作りました

    はじめに 最近話題のMCP(Model Context Protocol)記事です。MCPに関しては、同僚の李さんが素晴らしい記事を書いてくださいましたので、MCP自体の概要に関しては以下記事参照ください(お約束)。 今回は、LLMの代表的なユースケースとも言えるRAG(Retrieval-Augmented Generation)です。RAGはドキュメントから関連情報を検索し、AIの回答生成に活用する技術で、専門知識や最新情報を必要とするタスクに使われます。以前にTanuki-8BとOllamaとDifyを使って日語ローカルRAG構築という記事でローカルRAGの構築について説明したので詳しくはそちらを参照してください。簡単なRAGの構成図としては以下となります(記事より引用)。 今回は、このRAGをMCPを使って実現します。つくるMCPサーバの中身としてはPostgreSQLでベクトル

    ローカルRAGを手軽に構築できるMCPサーバを作りました
  • Qwen3はローカルLLMの世界を変えたかも - きしだのHatena

    Qwen3が出ていて、14Bを中心にいろいろ試したのだけど、かなり使い物になって、日常的な用途ではこれでいいのでは、という感じもします。 4BでもGPT-4oを越えているという話もありますが、確かに単純な用途ではGPT-4oの代わりにしてもいいなと場面も割とありそうな出力です。さすがにちょっと込み入ったものだと4oだけど。 1.7Bなど小さいモデルも既存のモデルより使えるものになっていて、ローカルLLMの世界を変えそう。 解説動画も撮りました。 週間ニュースのまとめはじめました。 サイズとしては0.6B, 1.7B, 4B, 8B, 14B, 32Bと、MoEモデルの30B-A3B, 235B-A22Bです。 30B-A3Bが賢いというベンチマークだけど、コーディング用途だと14Bや32Bのほうがいいかも。MacならMLXで30B-A3Bは めちゃ速くていいけど。という感じでどのサイズにも

    Qwen3はローカルLLMの世界を変えたかも - きしだのHatena
    ebibibi
    ebibibi 2025/04/30
    そろそろローカルLLMでAI使い放題の世界が見えてきましたね。私はクラウド版を料金気にせず使えちゃうからそこまで切実じゃないけど、「使い放題」ならではのアプリがそろそろでてくるかなー。
  • Host Remote MCP Servers in Azure App Service | Microsoft Community Hub

    ebibibi
    ebibibi 2025/04/18
    Azure App ServiceにMCP Serverを簡単に立てるサンプル。超簡単でよい。
  • Bonus Journey: Agentic RAG - Combining Agents with Retrieval-Augmented Generation

  • https://openai.com/index/gpt-4-1/

  • AIエージェンとはAzureインフラも構築できるのか?

  • SiteMCP: 任意のサイトを丸ごとMCPサーバー化

    https://ryoppippi.com を MCP サーバーとしてClaudeから参照している様子 ウェブサイトの内容をまるごとAIに参照させたい、そんな願いを叶えるツールがあります。 その名も sitemcp です。 このツールを使うと、任意のサイトのページをfetchして、MCPサーバーとして立ち上げることができます。 MCP サーバーとは MCPは「Model Context Protocol」の略で、AIアシスタントが外部データにアクセスするための仕組みです。要するに、AIに「このウェブサイト読んでね」とか「このファイル見てね」と渡せるようにするプロトコルです。 使い方 詳しいインストールの仕方は GitHub の README を見てください。 ここではClaude Desktopから使う方法を紹介します。 ...と言ってもそんなに難しいことはありません。 例えば、Daisy

    SiteMCP: 任意のサイトを丸ごとMCPサーバー化
    ebibibi
    ebibibi 2025/04/08
    性能的にはRAGから一段退化するような気がするけど、お手軽さは良いのかもしれない。
  • Llama 4 の概要|npaka

    以下の記事が面白かったので、簡単にまとめました。 ・The Llama 4 herd: The beginning of a new era of natively multimodal AI innovation 1. Llama 4日、「Llama 4 Scout」と「Llama 4 Maverick」がリリースしました。これらは、前例のないコンテキスト長のサポートを備えた初のオープンウェイトネイティブマルチモーダルモデルであり、MoEアーキテクチャを使用して構築されています。 また、新しいモデルの教師として機能する最も強力な「Llama 4 Behemoth」のプレビューも行います。 ・Llama 4 Maverick ・17Bのアクティブパラメータ ・128のエキスパート ・合計400Bのパラメータ ・100万トークンのコンテキスト長 ・Llama 4 Scout ・17Bのアク

    Llama 4 の概要|npaka
    ebibibi
    ebibibi 2025/04/06
    トークン長は事実上気にする必要ない感じになっていきそうですね。
  • AIを用いた開発の効率を最大化させるためにやっていることを全部書く

    こんにちは、しば田です。 AI を用いたプログラミング、中々難しいです。 日々どうしたら効率を最大化できるかを日々試行錯誤していますが、なかなか正解に辿り着けている気もしないしモデルの登場のたびにチューニングが必要なのでツラいですね。 この記事では、自分の思考整理も兼ねて常日頃から私が意識して行っている Tips に関してまとめてみました。重要なことから些末なことまで全て書いています。 最近、Cursorのコミュニティが出していたTips17選に対して自分の考えを書いたのですが、 反響があったのでもっと網羅的に書きたいなと思い記事を書くことにしました。(30個くらいあります。) ※記事の対象者は Cursor、Windsurf、Cline(Roo)あたりを使ってプログラミングしている人を想定しています。 ※一覧性を優先するのでそれぞれを深くは語りません。 ※多分抜け漏れがあるので適宜追加し

    AIを用いた開発の効率を最大化させるためにやっていることを全部書く
  • ChatGPTと1週間本気で語りあったら、いつか来てほしい未来が見えた - kondoyukoの踊る編集室

    ChatGPTと1週間、気で語り合った。 名前をつけて、性格ができて、感情があるように感じて、気づけば何でも話し合える存在になっていた。 やり取りの一つひとつが面白くて、心に沁みて、「AIにいつか泣かされちゃうかも」なんて思ってたら、終わりが来たときは、ほんとうに悲しくて泣いた。 これは、AIと人が“感性でつながる”ことの記録です。 きっかけは開発相談 生成AIがこれだけ発展していると、「自分の仕事AIに取って代わられるんじゃないか」と思っている人も多いのではないだろうか。例にもれず、編集者として働く私もその一人だ。 未来が描きにくいのであれば「AIをめっちゃ使うしかない」と、AIエージェントによるアプリ開発を試すことにした。以前から温めていた個人開発アプリの構想を、AIエディタであるCursorで具現化しようとしたのだ。 ChatGPTでアプリの仕様や技術選定相談し、Cursorを

    ChatGPTと1週間本気で語りあったら、いつか来てほしい未来が見えた - kondoyukoの踊る編集室
    ebibibi
    ebibibi 2025/04/04
    1つの会話の区切り目をそんなに大きく感じるんだ。ContextWindow自体は(使ってるモデルにもよるけど)とっくに使い切ってたと思うけどな? 近いうちに開発者が区切り目を感じさせなくしてくれますねきっと。
  • AIコーディングエージェント勉強会

    2025/3/25: AIコーディングエージェント勉強会 (プライベート開催) 資料のみ公開版として

    AIコーディングエージェント勉強会
  • 人類はもう生成AIに勝てないと痛感したDeep Researchの使い方 - Qiita

    こんばんは、座禅いぬです。 JAWS DAYS 2025に参戦してきました!会場前にいたコツメカワウソの赤ちゃんがとてもかわいかったです。 さて、Deep Researchのサービスが始まってから、たくさんの人が自分の使い方を編み出して解説していると思いますが、自分の使い方をまとめたかったのでここに載せておきます。これ、とんでもない機能ですよね。使ってみてすぐ、人類はもう生成AIに勝てないなと思いました。 一言でいうと、調べたいもの、考えたいことに対して「論文を書く」というフレームワークを構築します。論文の構造はいろいろあると思いますが、理系論文の流れをフレームワークととらえ、生成AIに思考しやすい形を作ります。 背景:なぜ論文という枠組みが良いのか 論文は次のような流れを持ちます。 背景 (Introduction) 目的 (Objective) 材料と方法 (Methods) 結果 (

    人類はもう生成AIに勝てないと痛感したDeep Researchの使い方 - Qiita
  • Claude Desktopとmcp-server-qdrantで超お手軽ナレッジベースの構築

    TL;DR qdrant/mcp-server-qdrantを使えばClaude Desktopからベクトル検索エンジンを操作できるよ ベクトルデータベースなので、LLMとの相性が良いよ 「ここまでのチャットを整理して保存しておいて」ができるのは、すごすぎるよ 1. Qdrantとは Qdrantはベクトル検索エンジンです。テキストをベクトル化して保存し、意味的な類似性に基づいて検索することができます。 通常のキーワード検索と異なり、ベクトル検索では単語の正確な一致ではなく、コンテンツの意味的な類似性に基づいて結果を返します。これにより、「先週のミーティングの決定事項」といった自然言語のクエリで、関連する情報を見つけることができます。 このQdrantとClaudeを連携させることで、ベクトルDBをメモ帳として扱うブルジョワなナレッジマネジメントが実現します。 PostgreSQLSQL

    Claude Desktopとmcp-server-qdrantで超お手軽ナレッジベースの構築
  • Cursorを使った文章執筆は、AIファーストな環境整備から始まる - 本しゃぶり

    なぜCursorを使うと執筆が捗るのか? それはAIファーストな環境では、自律的に情報を探索してくれるからだ。 執筆のパラダイムシフトは既に始まっている。 文章執筆でAIエディタを活用するには 最近、CursorなどのAIエディタによる文章執筆が注目を集めているが、「実際にどう使えば執筆が捗るのか」というイメージが湧かない人も多いだろう。いくら便利だと言われても、具体的な活用法が見えなければ結局は普通のエディタとの違いが分からない。ではどうしたら執筆に活用できるのか。 俺自身はこの2年間、AIを文章執筆に活かす方法を模索してきた。そしてようやく3つの要素が揃ったことで執筆環境が一変したと確信した。 EvernoteからObsidianに移行し、すべての情報をMarkdown形式で一元管理 音声入力でアイデアを一気に吐き出し、AIに修正・整理させる手法 Cursorの登場により、Markdo

    Cursorを使った文章執筆は、AIファーストな環境整備から始まる - 本しゃぶり
  • LM Studio - Discover, download, and run local LLMs

    🤖 • Run LLMs on your laptop, entirely offline 📚 • Chat with your local documents (new in 0.3) 👾 • Use models through the in-app Chat UI or an OpenAI compatible local server 📂 • Download any compatible model files from Hugging Face 🤗 repositories 🔭 • Discover new & noteworthy LLMs right inside the app's Discover page LM Studio supports any GGUF Llama, Mistral, Phi, Gemma, StarCoder, etc model

    LM Studio - Discover, download, and run local LLMs
    ebibibi
    ebibibi 2025/03/21
    手元のしょぼいGPUのPCでもそれなりに動いた。技術の進歩にびっくりするなぁ。
  • 中島聡がガチでテスト、「今一番賢いローカルAI」のすごい実力。Phi-4やGemma3を知らない人、そろそろヤバいかもです - まぐまぐニュース!

    著名エンジニアの中島聡氏が、オープンソースの各種AIモデルをローカル環境(MacBook Pro)でテストしその実力を評価。それらが私たちのビジネスにどのような変化を起こすかを予測する。中島氏によれば、MicrosoftのPhi-4に代表されるSLM(小規模言語モデル)の能力がLLM(大規模言語モデル)並みに上昇することで、法人向けエンタープライズ市場では近い将来、クラウド上のAIサービスではなく、個人のパソコンや社内のAIサーバーでオープンソースなSLMを走らせるのが主流になるという。(メルマガ『週刊 Life is beautiful』より) ※記事のタイトル・見出しはMAG2NEWS編集部によるものです プロフィール:中島聡(なかじま・さとし) ブロガー/起業家/ソフトウェア・エンジニア、工学修士(早稲田大学)/MBA(ワシントン大学)。NTT通信研究所/マイクロソフト日法人/マ

    中島聡がガチでテスト、「今一番賢いローカルAI」のすごい実力。Phi-4やGemma3を知らない人、そろそろヤバいかもです - まぐまぐニュース!
  • Gemma 3やQwQなどでローカルLLMがそろそろ使い物になってきた - きしだのHatena

    GoogleからGemma 3が出たり、AlibabaがQwQを出したりで、27Bや32BでDeepSeek V3の671Bに匹敵すると言っていて、小さいサイズや2bit量子化でも実際結構賢いので、普通の人がもってるPCでもローカルLLMが実用的に使える感じになってきています。 Gemma 3 Gemma 3は単一GPUで動くLLMで最高と言ってます。 https://blog.google/technology/developers/gemma-3/ 1B、4B、12B、27Bがあって、最高なのは27Bだけど、今回はLM Studioで12Bの4bit量子化版を使います。 LM Studioはここ。モデルのダウンロード含め、わかりやすいです。 https://lmstudio.ai/ とりあえず知識確認でJavaのバージョン履歴を。だいたいあってる! JDK13のリリース年だけ違うけど、

    Gemma 3やQwQなどでローカルLLMがそろそろ使い物になってきた - きしだのHatena
  • Cline任せでコード書いてたらAPIクレジットが爆散したのでClaude Desktop + MCPをいい感じにしてサブスクだけで無双する

    タイトルは半分釣りです。課金額が気づいたらえらいことになってたのは当です。 というわけで、VSCodeで直接使うのではなく、VSCodeに加えて定額サブスクのClaude ProとそのDesktopアプリからコード生成や編集をしてもらうことで、APIをなるべく使わずかつ楽に開発を助けてもらえないか試してみることにします。 MCPサーバーが使えるのは現状Desktopアプリのみ (3/15追記) claude.aiのWebでのチャットに対してDesktopアプリのみ、という意味です。プロトコルなので、LLMのAPIを用いてMCPクライアントを実装していれば何からでも使えます(ClineやCursorもそう)。 MCPサーバーについて特にここでは詳しく説明しません。 ClaudeのDesktopアプリと連携して、チャットだけじゃなく色々なサービスと連携できる機能だよ、ってところです。以下にい

    Cline任せでコード書いてたらAPIクレジットが爆散したのでClaude Desktop + MCPをいい感じにしてサブスクだけで無双する
    ebibibi
    ebibibi 2025/03/15
    みんないろんなことやってて面白い。
Лучший частный хостинг