はてなキーワード: 一人称とは
なんで一人称が俺なの?
dorawiiだということを隠してレスしたつもりで、
内容でdorawiiだとバレバレだったから、結果一人称dorawiiだったから笑われてるだけじゃん
そういう意地汚さも含めて笑いどころよ
ばかだねえ、実にばかだ
https://anond.hatelabo.jp/20250520180004#
dorawii以外にも難癖増田でこういう人いるよね
https://anond.hatelabo.jp/20250520180058#
一人称dorawiiは草
https://anond.hatelabo.jp/20250520180234#
https://anond.hatelabo.jp/20250520180426#
つまりおまえ=dorawiiは、迷惑な存在であるという自覚はあるんだ
まずそこを認めないと、洗剤の話は前提が成立しないぞ
https://anond.hatelabo.jp/20250520180824#
一人称dorawiiは草
一人称dorawiiは草
公式サイト:https://www.lovelive-anime.jp/lovehigh/
片田舎のおっさん、剣聖になるのアニメ版の評判があまり良くない。特に漫画版から入った人にとっては(俺もそうだが)
原作の小説読んだ人からすると原作どおりのアニメ化らしい。漫画から入った人にとっては漫画版で評価の高かったシーンがかなり削られていてなんで?ってなっている
原因は単純。出版社が違うから。原作の小説はスクエニたが漫画版はなぜか秋田書店から出ている(原因はわからん。スピンオフ漫画はスクエニから出ている)
アニメ版は当然スクエニで秋田書店は絡んでいないので漫画版独自のエピソードは使えないってだけ
だとしてもアニメ版は独自にうまく改変して面白くしていればよかったのになとは思う
原作の小説と漫画版では色々異なるらしいが個人的には一人称から三人称に変わったことが大きいのではないかと思う。一人称の小説が悪いわけではないが主人公がいないシーンや主人公以外の考えや感情描写が難しい
この作品のように主人公の自己評価は低いのに周囲からの評価が高かったり逆に主人公がすごい能力をもっているのに周囲からの評価が低いなんて設定はよくある。しかしこういう設定と一人称は相性が悪い
というのも主人公と周囲とのギャップが面白さの醍醐味なわけだが一人称視点だとどうしても主人公の描写だけになってしまいギャップが薄い。それがアニメ版に反映されている気がする
その点漫画版では他のキャラにおっさんがどうすごいか心の声で解説させたり、過去のおっさんのすごいエピソードを回想させることでその対比が際立っていて面白くなってるんじゃないかなと思う
我々が「理解」と呼ぶものとは根本的に異なる。LLMは文脈の意味を把握しているわけではなく、次に来る可能性が高い単語を予測しているだけである。それが非常に精巧になっているため、私たちは理解があるかのように錯覚してしまう。
LLMは「知っている」わけではない。大量のテキストデータから抽出したパターンに基づいて「もっともらしい」応答を生成するだけである。それは真実かもしれないし、完全に作り上げられた幻想かもしれない。
AIアシスタントは「私」という一人称で話し、感情を表現し、確信に満ちた口調で応答する。これらは全て意図的な設計選択であり、ユーザーに親近感を持たせ、信頼させるための戦術である。
AIが「考えています...」と表示する時、実際には何も考えていない。単なる演出である。AIの擬人化は、その根本的な制限を覆い隠すベールとなっている。
人間には自動化バイアスがある。つまり、コンピュータシステムの出力を過剰に信頼する傾向がある。流暢で構造化された文章は説得力があり、内容の正確さとは無関係に信憑性を感じさせる。
AIが「すみません、それは私の知識の範囲外です」と正直に答えるよりも、自信を持って間違った情報を提供する方が、ユーザーは満足することが多い。この危険な力学により、誤った情報が広がりやすくなる。
LLMを批判的思考の代替として使用すると、集団的知識の質が低下する。事実と幻想の境界が曖昧になり、情報エコシステム全体の信頼性が損なわれる。
特に教育、医療、法律、ジャーナリズムなどの分野では、LLMの限界が深刻な結果をもたらす可能性がある。間違った医学的アドバイス、不正確な法的解釈、偽のニュースなどは、単なる不便ではなく、実際の危害となりうる。
最も問題なのは、LLMが自身の無知を率直に認めることができないことである。プロンプトエンジニアリングで多少緩和できるが、根本的な問題は残る。自分が知らないことを知ることは知性の重要な側面だが、LLMはこの能力に欠けている。
代わりに、LLMは常に答えを提供しようとする。それが完全に創作されたものであっても。この傾向は、特に専門知識や最新情報が必要な分野で危険である。
これらの限界を認識した上で、LLMを使用する際には以下を心がけるべきである
1. すべての出力を疑う姿勢を持つこと。特に重要な決断に関わる情報については、必ず独立した情報源で検証すること。
2. AIが自信を持って提示する情報ほど、慎重に検証する必要がある。
3. LLMが生成した情報を事実として他者に伝える前に、その正確さを確認する責任がある。
技術の進化により、これらの制限の一部は軽減されるかもしれないが、AIの出力を無批判に受け入れることの危険性は今後も残り続けるだろう。最終的に、情報の信頼性を確保する責任は私たち人間にある。
っていう、AIの出力。