lynx   »   [go: up one dir, main page]

2025-05-22

生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違い

1.生成AI活用方法

現在AIにおいて絶対に間違っちゃいけないのは、それは独立した発火点を決して持ってはいないということ

AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

なので、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と思う

ただし私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思っていて、それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考えます

存在様式のもの構造の中に宿り得るというのが私の見解です

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えます

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべき

2.LLMとは確率分布マッピング

結局、LLMってのは入力に対する出力の確率分布マッピングしかないんだけど

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計できて、

確率分布の仕方を意図的設計出来るってわけよ

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだったりする

汎用LLMと将棋AIみたいなね

使い方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間と話すのと違って考えさせるというよりはどう構造化してほしい出力を得られるような形に設計するかということを考える必要がある

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御ってのは物理的な分離よってではなくあくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解

この設定内容と言う記憶領域トークンには強い影響を受けてね

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね

っていうような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作できて、意図したLLMの確率分布誘導出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だけど、正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収束していくもの

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん
Лучший частный хостинг