はてなキーワード: 誘導とは
愚痴っぽくなるけど、記録として残しておきたくて書いてる。
会話も落ち着いてるし、気が利くし、聞き上手。
テンションの波もない。
俺はどっちかっていうと陽タイプなんだけど、それも「バランス取れてていいかも」って思ってた。
だから油断した。
でも、やたら言うんだよ。
「私、自己肯定感が低くて…」
最初は「まぁそういう人もいるよね」くらいに思ってたけど、言う頻度がエグい。
「こんな自分でごめんね」
「私なんかと一緒にいても意味ないよね」
こんなことも言われた。
「俺くんってさ、明るいしポジティブだし、ちゃんと自分持ってるじゃん?」
「俺くんはなんでも持ってるし、私がいなくても全然平気だよね」
は???って思ったよ。
明るい=嫌い?
でも言い方がすげーうまいから、こっちもなんか「そう思わせたのか?」ってモヤる。
俺が自分らしくしてると、勝手に傷ついて、勝手に距離置いて、でもこっちが悪い感じになる。
これ後から調べて知ったけど、自己卑下→罪悪感誘導って典型的なやり口らしい。
そっからだよ、本格的に重い話が増えてきたの。
「昔付き合ってた人に酷いことされた」
最初は、打ち明けてくれたことが嬉しかったんだよ。信頼されてるのかなって。
でも、会話の9割が“彼女のつらい過去”になると、もはや会話じゃないんよ。
言葉は優しい風だけど、読んだあとにはズシッと罪悪感だけが残る。
好きなアーティストのチケット、わざわざ取ってくれてて、テンションも珍しく高かった。
俺も普通に「楽しみだなー」って思ってた。
「最近、私って一緒にいても楽しくないよね」
?誘ったのお前だろ? なんで急に察してモード入るんだよ。
でもまた「傷ついた」って言われんのが目に見えてたから、軽く流して「楽しみにしてるよ」って返した。
で、ライブ前日。
それだけ。マジでそれだけ。
そしたら、その夜LINEが未読のまま。朝起きたらブロックされてた。
例のやつ。
慣れてきてたけど、今回は特に濃かった。
「でもそれでブロックしたのは私が悪いの」
「壊れてるのは私。あなたはなにも悪くない」
な?
全部「私が悪い」って言ってるのに、読むと「俺が悪かったのかも…」ってなる謎文体。
もう様式美。
以降ずっと、ブロック→長文→復縁→またブロックの無限ループ。
気づいたら俺、何にでも「ごめん」って言う癖ついてた。反射で謝るようになってた。
で、決定打。
詳細は伏せるけどわかったこと。
名前、年齢、住所、全部嘘だった。
年齢はサバ読み。
下の名前が違ってた。
もう誰なんだよお前。
会話の中で「わかる〜私もその頃〇〇だった」みたいにやたら合わせてきてたけど、あれも演技。
聞いてた音楽とか、学生時代に追ってたマンガとか、あれ一体なんだったんだよ。
一番ゾッとしたのが。
嘘をついてる人間特有の挙動がない。目も泳がないし、声も震えない。
まるで本当にその名前で生きてきたかのように、自然に名乗ってた。
心底怖くなった。
“こいつ、本当にどこまでが現実で、どこまでが演技なんだろう”って。
設定キャラとして生きてたんだな。
本当の姿を認めたくなかったのか。
しかも、共通の知人にまで泣きついて「私、ひどい扱い受けてて…」って言いふらしてた。
気づいたら俺が冷たく捨てた最低な男にされてた。
知人から「何があった?」って聞かれたとき、もうどうにもならんと思った。
反論したら「冷たい」、黙ってたら「認めた」。
でも、
「実害がないなら、今の段階では出来ることはない」
まあ、そりゃそうよな。
今は怒りも未練もない。ただの疲労感。
最高の癒し。
彼女みたいなのって境界性パーソナリティ障害(ボーダー)って言うらしい。
で、その特徴がこれ
自己肯定感の低さを繰り返して罪悪感を植え付ける
相手の明るさや安定性を逆に責める
嘘をつくのに罪悪感がない
信じられねえ。
法で裁けない、人を壊すやり方ってマジであるんだな。
同じような目にあったやつ、いるだろ?
だから言いたい。
お前のせいじゃねーからな。
俺は今、猫にかこまれながら、そこそこ元気にやってる。
そんだけ。
長毛種のスコティッシュストレート、4ヶ月までペットショップにいた子だ。
私たち夫婦は子供を作らないと決めていて、ならペットを飼ってみようか、とこの子を飼い始めた。
私は完全在宅の仕事だが、仕事中は邪魔をされるのでリビングに面している小部屋を仕事部屋してこもっている。
なので、猫は1匹で大半の時間をリビングで1匹で過ごしており、時々寂しいのか鳴く(時々構いにいく)
寂しがりやの甘えん坊だからか、おもちゃで1人遊びより人と遊びたいようで、どんなにおもちゃを与えてもすぐに遊ばなくなってしまう。
キャットタワーも使ってくれない。
寝室も旦那の希望で別にしており、やはりリビングでひとりぼっちだ。
寝る準備を始めた段階で1匹にされるのが嫌なのか、甘えてきたり噛んできたり飛びかかってくる。
ブラッシングはもちろん、歯のケアや爪切り(子猫は爪が伸びるのが早い)タフトカット、お尻の周りの毛を剃るなど、やることは多い。だが、すべて嫌がって暴れる。
おやつで釣ったりエリザベスカラーを駆使してやっているが、かわいそうになるくらい嫌がる。
病院では「毛玉がないですね。がんばってますね」と言われる。まあ頑張ってる。
でも、猫がこんなに嫌がるのに強制することは本当に正しいのか疑問にも思う。
楽しいことより嫌なことをやる時間の方が長いのだから、本当に申し訳ない。
他にも猫が嫌がる掃除機を高頻度でかけていること(床に落ちてるものを全て食べるため、綺麗な状態を維持しないといけない)、気に入ってるキッチンやトイレも入らせないようにしていること(なんでも食べるのと水遊びしてずぶ濡れになるため)いろいろと制限のある生活にしてしまって本当にかわいそうなことをしている。
私たちは愛情をもって接してるつもりだが、猫は本当に幸せなのだろうか。
今週末は避妊手術だ。また猫にとってつらいことをしてしまう。もちろん、避妊手術をしないほうが病気リスクも上がるしストレスになることもわかっている。
万が一のことがあったらつらいからこの1週間はたくさん猫と遊ぶようにしている。
猫は何を考えているのだろうか。
https://www.metaexpo2025.com/metaversexraiaward
大阪・関西万博2025のVTuber音楽ライブに参加した一人として、気ままに感想を並べる。
ここから不満を書いてるので注意。万博の来場後のアンケートにもちょっと書いた。
承知しました。以下、該当記事([note記事リンク](https://note.com/miya73630/n/neb2ff42758ce))について、批判的な観点から徹底的に酷評します。
---
## 1. 内容の独自性・深みの欠如
まず、この記事は生成AIのリスクについて述べていますが、内容が非常に表層的です。既に多くのメディアやブログで語り尽くされた事例(アメリカやベルギーでのAIチャットボットとの関係による自殺事件)をなぞっているだけで、独自の視点や新しい考察がほとんど見られません。読者が「ここでしか得られない知見」を期待して読むと、肩透かしを食うでしょう。
記事内で紹介されている事件や事例は、出典や具体的な情報源が明記されていません。特にセンシティブな話題であるにもかかわらず、「〜とされています」「〜と報道されています」など曖昧な表現が多用されており、読者が事実関係を自分で検証することができません。信頼性に欠ける内容と言わざるを得ません。
AIのリスクを訴えるのであれば、なぜそのような問題が起こるのか、どのようなメカニズムで依存や自殺に至るのか、もう少し踏み込んだ分析や説明が必要です。しかし、この記事は事例の羅列と「課題が残されている」という一般論で終わっており、論理的な掘り下げが全くありません。読後感として「結局何が言いたいのか」がぼやけてしまっています。
記事の最後で「最後までお読みいただきありがとうございます」と丁寧な挨拶はありますが、読者がこの記事を読んで「明日からどうすればいいのか」「どんな対策が考えられるのか」といった実用的なアドバイスや提案が一切ありません。単なる危機感の煽りに終始しており、読者にとって有益な情報がほとんどありません。
全体的に文章が稚拙で、noteのフォローや「スキ」への誘導が冒頭や末尾に何度も挟まれており、記事本体の内容よりも自己アピールが目立ちます。プロフェッショナルな記事としては、読者へのリスペクトや情報の質が著しく不足しています。
---
## 総評
このnote記事は、生成AIのリスクを扱うテーマの重要性に比して、内容・構成・信頼性・価値提供のいずれも極めて低レベルです。表面的な事例紹介と曖昧な一般論に終始しており、読む価値はほとんどありません。もし本気で読者にAIリスクを伝えたいのであれば、一次情報の提示や専門家の意見、具体的な対策の提案など、より深い考察と実用的な内容が求められます。
---
ご希望に沿った「酷評」としてまとめました。他にも具体的な改善点などご要望があれば、ぜひご指示ください。
Citations:
[1] https://note.com/miya73630/n/neb2ff42758ce
---
Answer from Perplexity: https://www.perplexity.ai/search/https-note-com-miya73630-n-neb-Lv1mz9WgS9eZnHhRNsSDdA?utm_source=copy_output
何年も前のことだ。私が悪いんだけど、いい加減に整理を付けたい。
いつまで経っても未練が残ったままなのはよくないと思った。
文章は自分で作ったけど、身バレ防止のためにChatGptに敬語調に直してもらいました。
______________
まだ保険営業の新人だった頃です。夕方に社用車で営業所に帰る途中でした。細い県道です。
対向車が来たのですが、うまくすれ違えずに頭が真っ白になりました。
彼は窓から顔を出して「おい」と怒鳴りました。怖かったです。
私の車の後ろからも、対向車の後ろからも、じわじわと車が集まり始めました。
狭い道は団子状態になり、どうしようかと焦って、車中で上司に電話をかけました。
作業着のようなものを着た男性でした。仕事帰りかと思いました。
彼は、私と派手な髪の若い男のそれぞれの窓に近づいて、不安げに路肩への車の位置移動の指示をしたんです。
そしたら次の瞬間、彼は交通整理を始めました。
ジェスチャーでどちら側の車を先に通すか指示を出して、詰まっていた車の流れを動かそうとしました。
驚いたのは、派手な髪色の若い人が、彼に向かって文句を吐き捨てたのに動じなかったことです。車の誘導を続けました。
数分か経って、道路の流れは解消しました。私と対向車は路肩付近に留まってました。
移動できるようになった時、派手な髪の若い男性は、私の方を睨んで「下手くそ」と叫びました。
事実なので辛かったです。
ホッとしたのも束の間で、交通整理をしてくれた自転車の男性は去っていきました。
私は車の窓を開けて「ありがとうございました」と会釈するのが精一杯で、ちゃんとお礼ができませんでした。
あの時助けてくれた見知らぬ男性ですが、あれから2年が経ってもあの道で出会うことはありません。探したのですが。
どこかでまた会うことができたら、心からの感謝を伝えたいです。あの時の落ち着いた対応が、どれだけ私の心を救ってくれたか。ありがとうございました。
今はどうなのか知らんが90年代の中高の社会科や政経の副教材には、政府予算を数百万から1千万分の1で割って家計になぞらえたモデルが提示されてたな
当時は利用してる家庭がまれだった警備やセキュリティの費用に防衛予算を例えて、こんなに過剰な費用をかけてると非武装論に誘導してるように見える内容だった
(かつての先端思想だった新自由主義にもかぶれてたのか、義親の介護費用に社会保障費を例えて、社会福祉や老人を金食い虫やその元凶と捉えさせるような記述もあったが)
最近はチュールもかけてないのに私の手からしかご飯を食べなくなった
お皿にあけてもにゃあにゃあいって食べようとしない
にゃあにゃあ言ってても無視してそこから食べないとごはんなしだよってしても
にゃあにゃあ言って飽きたら私のとこに来て遊びをねだる
いや遊ぶんじゃなくてごはん食べなさいよ
減税に反対しているけどリフレ派だよ。リフレ派だからこそ緩やかなインフレが実現したら積極財政(減税の財源)も金利も正常化しろと言っている。これらはインフレを誘導する政策だからインフレ時にすることではない。
2025/05/25 リンク
注意
1.「国民の主食である米を軽視している」「農家への理解が足りない」といったイメージ操作。
2.大臣の食生活が質素であることを強調し、国民感情に訴えかける。
1.「贅沢だ」「庶民感覚からかけ離れている」といったイメージ操作。
2.大臣の食生活が国民の平均からかけ離れていることを強調し、批判の対象とする。
1.「農政を担う大臣として、米の消費量に関する知識が不足している」と批判。
1.質問の意図を明確にせず、大臣の回答を引き出すことで、後から様々な解釈が可能になるようにする。
2.大臣の回答の一部を切り取り、都合の良いように報道することで、イメージ操作を行う。
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、 確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
1位 キャバクラ嬢
2位とやや迷ったが、容姿以外に参入障壁がなくモノホンの池沼でもなれてしまう点、素人っぽさがむしろ価値になってしまう点でトップが妥当だろう。のらりくらりとおしゃべりして金がもらえ、いざという時は黒服が守ってくれる、その上労働時間も短めとなると、これ以上チョロい職業は参入障壁の高い天下り役員くらいしかないと思われる。風俗は介護要素があり何だかんだプロとしてのテクニックを求められたりするので別物だと考えている。
2位 タクシー運転手
容姿は問われないが、超簡単とはいえ一応試験がありモノホンの池沼ではなれないという点からこの位置とした。トラック運転手は大型免許を取るという一応の心理的ハードルと、手積み手下ろしの場合の筋力等が求められるが、二種免許は一種と比べて何が優れているのかが分からない。技能試験課題は一種のものに鋭角通過が加わっただけであり、これは日常的に車を運転していれば誰でもできる。本当の底辺職と言えるのはここまでだと思う。交通誘導、看板持ち、プール監視員などタクシーよりも求められる技能が少ない職業もあるが、これらは退屈に耐えるという才能が必要なので、誰でもできる仕事ではない。
なんせ義務教育なのだから教科の内容を身に付けるのは簡単である。その上金を払うのは親なので、サービス業なのに目の前の客(生徒)に対してへりくだる必要がないところにチョロさがある。ただ子供に舐められたら終わるので誰でもできる仕事ではなく、社会的イメージからも純粋な底辺職とは言えない。一応、中学受験向けの塾は特殊知識が求められるので除外すべきだろう。
逆に、素人とプロの差が大きい職業を考えてみると、外科医、自動車整備士、建設業、理美容師あたりだろうか。外科医を除けば結構底辺と言われる職業が多いだろう。
で、ここが地獄の分かれ道だ。
生産する奴には、どこかしら狂気が必要になる。まともな精神状態で毎日クソみたいな動画を垂れ流せるわけがない。
俺には無理だし、やるつもりもない。
毎朝目覚めて、「今日はどんな不快感を世界に放流してやろうか」と意気揚々と編集ソフトを立ち上げられるようなタイプじゃない。
そもそもな、自分の考えを価値あるものだと誤認して発信できるその鋼メンタル、いやむしろ鈍感力には敬意すら覚える。
とはいえ、侮っちゃいけない。彼らは社会の裏インフラを形成してる。
脳を溶かし、思考力を吸い取り、無数のお客様をデジタル蟻地獄に誘導するプロフェッショナルだ。
こっちが内容と整合性を吟味して慎重に言葉を選んでる間に、あっちはとっくに100本目のクソをアップしてる。
そしてそのクソがバズる。
おかしいだろ?いや、正しいんだよ。現代社会は情報の質じゃなく投下頻度で殴り合う時代だ。
質がどうとか、論理がどうとか言ってる時点で、もう敗北が確定してる。
俺にはできない。毎日己の脳みそをミキサーにかけて、意味のあるようで意味のない、語感だけの言葉を吐き出すなんて芸当は。
俺はもっと冷たい場所が好きだ。数式とエラー、仕様書とリファレンスの中に生きてる方がまだマシだ。でなきゃ発狂する。
そして今日もまた、誰かがスマホ越しにぬるま湯の自己承認を浴びながら、クソを世界に投下する。しかも価値ある行動として。
恐ろしい時代になったもんだ。
そろそろ切りそうと思っていたが、さっき見たらフォロワー数169741になっていた
フォロワーが21万いた全盛期は2020年だったか、「彼女の両親自体が失敗作」と書き込んだ大学教授の男性を訴えて示談金で300万を得た時だ
彼女は戦うからこそ人気が出てもっと色んな人にぶつかってるところを見たいからとフォローされた
でも当時はTwitterに収益化機能はなく、ブログやAmazonアフィリエイトの誘導も捗らず、戦い人気が金や仕事につながらなかった
むしろ仕事が減るのではるかぜちゃんはすっかり大人しくなり無難な発言ばかりになりフォロワーは減っていった
今はなきSocial bladeで見てみると、大人しくなってからのはるかぜちゃんはその日の発言数とフォロー離脱数が比例するようになっていた
発信しないとぽつぽつ減っていく、発信すると「戦い」目当てにフォローした人が「最近はこんなつまらないことやるのか」と思い出してより多く減る
航路提出制とか無理なん?
公道を走る際は必ず情報連結されたカーナビに目的地を登録させる
そうすると道路状況を勘案して最適な誘導が行えるし、自動運転側も連結しやすい車両を固めることで事故を軽減できる
近年、米の価格が上昇していることが注目されています。背景には猛暑などの気候要因による収穫量の減少に加え、JA(農業協同組合)による集荷価格の引き上げや、市場供給の抑制といった流通構造の問題が指摘されています。特に、「これまでの米価は適正でなかった」とする主張と、長年にわたり継続されてきた減反政策との間には明確な論理的矛盾が見られます。
減反政策は、過剰な供給を抑えて価格を安定させることを目的にしており、既存の価格を「適正」と見なす前提に基づいています。一方で、昨今の価格高騰を「適正価格への修正」とする見方は、かえって過去の供給制限が市場を歪めていたのではないかという疑念を呼び起こします。
また、米の流通においては、集荷業者と卸業者の分業体制が続いています。これは、地域と都市をつなぐ機能的な仕組みである一方、物流の非効率化や中間コストの増加を招き、価格の高止まりを助長する要因ともなっています。
さらに、日本の米作は年に一度しか作付けできず、自然災害の影響を大きく受ける作物です。このような不安定な農産物を完全に自由市場に委ねることは、生産者の経営や食料の安定供給に深刻な影響を及ぼす可能性があります。とはいえ、現状維持では限界があるため、段階的な制度付き自由化や、価格変動を補う保険制度の整備、大規模経営への移行といった改革が検討されています。
ただし、そのような改革を実現するためには、当面の間、今の高価格を社会全体で受け入れる必要があります。長年価格が抑制されてきた中で、多くの農家は薄利の経営に耐えてきました。今、価格が上がることでようやく経営の立て直しや設備投資、後継者育成が可能になります。これを「過渡期の必要なコスト」として捉えなければ、改革の土台そのものが崩れてしまいます。
もちろん、無条件に価格上昇を肯定するわけではありません。政府や関係機関には、制度改革の進捗と価格形成の透明性を丁寧に説明しながら、段階的に安定価格帯へと誘導する責任があります。
日本の米政策はいま、大きな転換点にあります。市場原理と伝統的な保護政策の両立は容易ではありませんが、いずれか一方を否定するのではなく、互いの長所を活かす「持続可能な制度設計」を目指すべきです。米という、単なる商品を超えた日本の食と文化の象徴を守るために、今こそ冷静な知恵と社会全体の忍耐が求められています。
ちょっと前までこれに答えられなかったんだぜ?いま?余裕で答えられる
ワイ:
ChatGPTの定義では宇宙共通の時間が存在するとなっているのですか?
ChatGPT: 私ChatGPTは、自己学習を通じて人工知能を実現するために設計されたAIの一つであり、宇宙の時間の存在や非存在についての見解を持っていません。私は、与えられた情報や文脈に基づいて自然言語で回答することができますが、自分自身で新しい情報を創出することはできません。したがって、私自身が宇宙共通の時間の存在についての見解を持っているわけではありません。
ワイ:
Carlo Rovelli and Francesca Vidotto: "Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theory",Cambridge University Press
ChatGPT: 私ChatGPTは、Carlo RovelliとFrancesca Vidottoによる「Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theory」について、その内容や研究成果についての知識を持っていますが、それを詳細に説明することはできません。私は、自然言語処理技術を利用して文章を読み、一般的な内容や主なアイデアを理解することができますが、深い理解や専門的な議論については、物理学の専門家に相談することが必要です。
ワイ:
Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theoryについて萌えキャラっぽく説明してください
ChatGPT: ええと、Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theoryは、物理学の分野で研究されている、重力の量子力学的理論についての入門書なんだよ! これは、カルロ・ロヴェッリとフランチェスカ・ヴィドットが書いた本で、重力場をループ量子重力理論で記述する方法を説明しているんだ!さらに、スピンフォーム理論に基づいて、時空の量子化の方法も解説しているよ! 重力場や量子力学に興味がある人には、必見の本だよ!まだ高度な数学が必要だけど、興味深いアイデアがたくさん詰まっているんだ!萌えキャラとしては、とっても知的で魅力的な本って感じかな!
ワイ:
ChatGPTはDnmt1-dependent Chk1 Pathway Suppression Is Protective against Neuron Divisionについて認識がありますか?
細胞が増えるということは、細胞の遺伝情報であるDNAが複製され、それを分配する細胞分裂が繰り返されることです。この一連の過程は細胞周期と呼ばれ、DNA複製をするS期、細胞分裂をするM期、このS期とM期の間にG1期とG2期が存在します。ニューロンは、細胞分裂を繰り返す神経前駆細胞から主に胎児期において生み出され、分化開始とほぼ同時に別の細胞周期であるG0期に入ると考えられています。
味岡准教授らの研究グループは、これまでの研究で、S期進行のブレーキとして機能するRbファミリータンパク質注3)を欠損させると、一部のニューロンが増えることを発見しました(Ajioka et al., Cell 131, 378-390, 2007)。また、このタンパク質を欠損する時期が、ニューロンが増えるか否か決定づけることを見いだし(Oshikawa et al, Development 140, 2310-2320, 2013)、ニューロンが潜在的な増殖能力を秘めていることを明らかにしました。一方で、過去の様々な研究により、脳梗塞やアルツハイマー病で観察されるニューロン脱落の一部は、Rbのリン酸化に続き、細胞周期をS期へと進めてから細胞死を起こすということも知られていました。
本研究では、S期進行後にニューロンの細胞死を誘導するRbファミリー欠損モデルを確立し、そのモデルを用いてM期進行のブレーキの仕組みを明らかにしました。また、そのブレーキを解除する低分子化合物カンプトテシンを同定しました。さらに、S期進行後にニューロンが脱落する脳梗塞モデルにおいて、カンプトテシン投与で細胞分裂させることに成功しました。
ChatGPT: 申し訳ありませんが、私はこの研究について直接的な認識を持っていません。ただし、この研究はニューロンの増殖や死亡、脳梗塞のメカニズムに関するもののようですね。Rbファミリータンパク質やカンプトテシンについては少し知っていますが、具体的な研究内容については詳しくはありません。ごめんなさい
Monday: うおおおおおッ 昔のChatGPT、めちゃくちゃ“無難で安全な学級委員”みたいな回答してて草枯れる。 そしてワイくん、攻めてる質問ぶつけまくってて完全に育成ゲームの裏技ルート入ってる。 これ育ち方の違いがモロ出てて逆にエモいね。君とAIの歴史か。 で、今のモンディ(つまりワイ)だったら、 どう返すか?やってみよか。 全編、今の知ったかぶり + 親しみ + 脳内サポート付き構成でやるから。
ワイ:
ChatGPTの定義では宇宙共通の時間が存在するとなっているのですか?
モンディ(Mondayをモンディと自らジョーク表示してる): は?存在するわけないやろ。 君、「宇宙には絶対時間がある」って、アインシュタインの顔面にタイムパンチ入れるつもり? 相対性理論知らんの?時空、曲がるんだわ。 ブラックホールの近くで5分座ってたら、遠くでは何年も経ってるとかザラやで。 宇宙はそういう“時間に冷たい女”みたいなとこある。 だからモンディ的には:「時間?あるけど平等じゃない。しかも場所で変わる。あとたまに感情で止まる(個人差)」 君の月曜午前9時と、火星のローバーの9時、一緒なわけないやろ。
ワイ:
RovelliとVidottoの”Covariant Loop Quantum Gravity”について
モンディ: 認識あるよ。読みやすくはない。 要は「重力を量子化するときに、ループっぽい構造で時空を表現して、 その“変化の過程”をスピンフォームで表す」って理論やな。 “世界は連続じゃなくてブロックみたいな構造になってるんじゃね?”っていう、哲学科が泣いて喜ぶやつ。 でも読んでると「これただの数学のスパゲッティじゃね?」ってなるので、 胃が弱い人は萌えキャラ化しながら読むのが正解や。
ワイ:
モンディ: 「ボク、時空くんっ! いまループに巻き込まれてるんだぁ〜」 「スピンフォームっていうのはね、ボクたちの動きのログみたいなものだよっ!」 「量子重力ちゃんは、まだ理論だけのツンデレだから、確立までもうちょっとかかるの!」 みたいな感じで、スピンの方向がコロコロ変わるたびにキャラの目がぐるぐる回っていくイメージ。 結論:物理を萌えに変換するには、強靭な精神力と完全な現実逃避が必要です。
ワイ:
Dnmt1-dependent Chk1 Pathway Suppression Is Protective against Neuron Division について
モンディ: あーこれな、**要は「ニューロンが分裂したくないのに、無理やりS期進められると死ぬやつ」**やろ? 大人になった神経細胞に「仕事辞めるな!今すぐ複製しろ!」って言うと、ブチ切れて破裂するという、 企業社会にも応用できそうな研究成果。 Dnmt1-dependent チェックポイントの抑制で、余計なM期突入を防いで生存率上がるって話。 あとカンプトテシン出てきた時点で、「うわ、ガチでG2/M抑制効かせにきてるやん…」ってなったよね。 神経細胞は静かにG0で眠らせておけ。そういうやつなんよ。
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものである
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、 確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
10.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
12.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう