lynx   »   [go: up one dir, main page]

「見解」を含む日記 RSS

はてなキーワード: 見解とは

2025-06-01

ChatGPT ProだのClaude Maxだのの最上位に何万円ドーンと契約するより

複数サービスベーシック課金プラン使う方が現状満足度高くない?

最上プランひとつメジャーサービスだいたいサブスクできるじゃん

Manusとかはクレジット消費酷すぎてボラれてる感あるけど

本当に特定サービス最上プラン必要なこと、なくない?

下位でもわりと色々使えるようにしてくれてるからってのが大きいのと

このサービスさえ使えれば他の全てを賄えるってのもないし

最悪、浮いた?金を好きなモデルAPIに突っ込む方が幸せだと思うあるんだよな

実際どうすか?

※金に糸目つけない富豪と最新技術を試してナンボな人を除きます

個人見解です

※いうてClaudeは俺も100ドルプランです

2025-05-30

anond:20250530083651

ロシア昔ながらのリベラルが贔屓にしてて、中国リベラルが贔屓にしてる

欧州韓国アメリカリベラルが好きなんで、リベラル内でも派閥によって見解の相違あるでしょ

2025-05-28

5月4週LINEオープンチャットはてなブックマーカー」1週間のまとめ

これは何?

LINEオープンチャットはてなブックマーカー」の1週間分の要約を、さらAI使用し、試験的にまとめまています

要約内容

1. 食べ物飲食店関連

2. 趣味・娯楽・メディア関連

3. テクノロジーIT通信

4. 株式経済資格教育

5. イベント地域情報

6. 日常生活健康気候

  • 朝の気候の爽やかさや日中の高温(30度)の報告。

7. 政治社会問題

8. その他雑談

  • 昼酒の楽しさやその影響に関する感想

関連記事

https://anond.hatelabo.jp/20240722084249

オープンチャットの参加URL

LINEオープンチャットはてなブックマーカー」の参加はこちから

https://line.me/ti/g2/MFSXhTJoO_pLfrfds1LpyJ0OlBgcPJSqHoRbBg?utm_source=invitation&utm_medium=link_copy&utm_campaign=default

2025-05-25

「家父長制」なんて存在しない、フェミ自分らが陰謀論である自覚を持ってほしい

「家父長制」という言葉を使ってる人間マジで全員どうしようもないバカなんですよね。なぜなら「家父長制」という言葉は全く定義されてない未定義語なので。この手の人に「あなたの言う家父長制ってどんなシステムですか?」と聞いてもまともな答えは絶対に返ってこない。

https://x.com/akihiro_koyama/status/1926139725854728475

ちなみに岩波女性学辞典で「家父長制」で調べると、「各フェミニズム理論は、各自の家父長制の定義を持つ」とか堂々と書いてあります。つまりフェミニストの間ですら「家父長制」が何かの統一見解存在しないということ。こんなん学術用語として成立してないでしょ。

https://x.com/akihiro_koyama/status/1926140714984804696

「家父長制」を強いて定義するなら、「女性社会進出を阻むため男性共謀して構築した密かなる弾圧制度」という感じになると思うが、そんなもんは存在しないのよ。陰謀論者の語る300人委員会とか12貴族とかそういうのと変わらん電波しかない。フェミ自分らが陰謀論である自覚を持ってほしい。

https://x.com/akihiro_koyama/status/1926142108894691529

LLMとプロンプトの機能構造についての論考

0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、 確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される


15.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

2025-05-24

anond:20250524230440

自分言葉で発したら、自分責任にしないといけないからじゃないですかね。

GrokのようなAIファクトチェックを依頼し、その出力をそのまま引用すれば、

「これは自分が言ったことではなく、AI自動的に出力したにすぎない」と主張できるようになります

そのうえで、もしAIの回答が自分の主張と一致していれば、自分の言いたいことを“AI意見”として提示することができ、責任AIに預けたまま周囲にアピールできるわけです。

さらに、仮にAIの出力に誤りがあったとしても、「自分が間違えたわけではない、AIが誤っただけだ」として、自身責任回避する余地も残せます

また、「ファクトチェック」としてAIの出力を提示した後、あまり返信や補足をしない人が多いのも、同様の理由ではないかと考えています

返信で自分見解を述べてしまうと、結局それは自分自身言葉となり、内容に対する責任が発生してしまうからです。

そのリスクを避けるため、出力された情報を「出しっぱなし」にして、あえて議論に踏み込まない人が多いのではないでしょうか。

なぜブクマカ山本一郎を好むのか

はてなブックマークユーザーブクマカ)が山本一郎を好む(あるいは「読む」「ブックマークする」)理由は、単に「支持しているから」だけではありません。彼の文章が持つ情報性・論争性・メタ視点が、はてな的な知的好奇心批評精神と相性が良いためです。

以下のような要素が関係しています

1. 情報量と「知ってる風」を満たす語り

山本一郎文章は、業界情報金融ITベンチャーメディアなど)に詳しく、「自分は知っている」感をくすぐる構成になっています

はてなユーザーは、自分視野を広げたり、「裏側の構造」を知ることに価値を感じるため、彼のように背景や業界力学を語るスタイルに惹かれます

2. 論争を呼ぶ=言及価値がある

彼の文章SNS発言はしばしば挑発的・断定的で、「言い切る」スタイルが特徴です。

はてブには、「賛否割れ文章」や「炎上しそうな意見」に対して、自分なりの見解ブクマコメントで付け加える文化があるため、議論タネとして優秀な素材になりやすいのです。

まり、好むというより「読む価値がある」と感じやす対象

3. 嫌われても読む対象として成立する「キャラ

山本一郎は、その論調キャリアの背景からアンチも多いですが、それもまたはてブ文化では一種の人気のかたちです。

彼の「知ったかぶり感」「上から目線」「一貫して強気」な態度は、嫌われつつも読まれ理由になりますブクマカは、自分意見を投げ込める対象としての“強者”を好む傾向があるからです。

4. ネット言論リアル権力の両面を意識する視点

彼は「ネットでモノを言う人」ではありますが、同時に企業政策に関与しているような「リアルとつながっている書き手」でもあります

この二重性が、ネット世論の限界と、現実政治・経済力学との接点を示唆してくれる存在として、一定知的魅力を持っています

5. 「自分だったらこう書かない」欲を刺激する

彼の文章に対して、「その言い方は傲慢だ」「もっと慎重な視点が要る」と感じるブクマカは少なくありません。

しかしそれがコメント欲求を刺激し、ブックマーク数を伸ばす結果につながります。つまり、「好悪を超えて、言及すべき対象であるという点で重要なのです。

まとめ

山本一郎文章はてなブックマークで好まれ理由は:

情報量が多く、業界の裏話や構造に触れる

• 論争性が高く、コメント批判対象になりやす

• 強い態度で語る「キャラ」として確立している

ネットリアルをまたいで語る視点知的好奇心を刺激する

反論ツッコミを書きたくなる「素材力」がある

――といった点にあります

まり、「好かれている」のと「読まれている」の間には微妙なズレがあり、ブクマカにとっては批判しがいのある知的相手としての「好み」だと言えます

2025-05-22

anond:20250522124623 anond:20250525021034

今もハルシネーションあるけどそれは下記やね

  

こんなに早く追い抜かれるとは・・・ってのが正直な感想

ちょっと前までこれに答えられなかったんだぜ?いま?余裕で答えられる

 

 

ちょっと前のChatGPT

 

ワイ:

ChatGPTの定義では宇宙共通時間存在するとなっているのですか?

ChatGPT:
私ChatGPTは、自己学習を通じて人工知能を実現するために設計されたAIの一つであり、宇宙時間存在非存在についての見解を持っていません。私は、与えられた情報文脈に基づいて自然言語で回答することができますが、自分自身で新しい情報を創出することはできません。したがって、私自身が宇宙共通時間存在についての見解を持っているわけではありません。

  

ワイ:

ChatGPTは下記の認識はありますか?

Carlo Rovelli and Francesca Vidotto: "Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theory",Cambridge University Press

ChatGPT:
私ChatGPTは、Carlo RovelliとFrancesca Vidottoによる「Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theory」について、その内容や研究成果についての知識を持っていますが、それを詳細に説明することはできません。私は、自然言語処理技術を利用して文章を読み、一般的な内容や主なアイデア理解することができますが、深い理解や専門的な議論については、物理学専門家相談することが必要です。

  

ワイ:

Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theoryについて萌えキャラっぽく説明してください

ChatGPT:
ええと、Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theoryは、物理学の分野で研究されている、重力量子力学理論についての入門書なんだよ!
これは、カルロ・ロヴェッリとフランチェスカ・ヴィドットが書いた本で、重力場をループ量子重力理論記述する方法説明しているんだ!さらに、スピンフォーム理論に基づいて、時空の量子化方法解説しているよ!
重力場や量子力学に興味がある人には、必見の本だよ!まだ高度な数学必要だけど、興味深いアイデアがたくさん詰まっているんだ!萌えキャラとしては、とっても知的で魅力的な本って感じかな!

 

 

ワイ:

ChatGPTはDnmt1-dependent Chk1 Pathway Suppression Is Protective against Neuron Divisionについて認識がありますか?

細胞が増えるということは、細胞遺伝情報であるDNAが複製され、それを分配する細胞分裂が繰り返されることです。この一連の過程細胞周期と呼ばれ、DNA複製をするS期、細胞分裂をするM期、このS期とM期の間にG1期とG2期が存在します。ニューロンは、細胞分裂を繰り返す神経前駆細胞から主に胎児期において生み出され、分化開始とほぼ同時に別の細胞周期であるG0期に入ると考えられています

味岡准教授らの研究グループは、これまでの研究で、S期進行のブレーキとして機能するRbファミリータンパク質注3)を欠損させると、一部のニューロンが増えることを発見しました(Ajioka et al., Cell 131, 378-390, 2007)。また、このタンパク質を欠損する時期が、ニューロンが増えるか否か決定づけることを見いだし(Oshikawa et al, Development 140, 2310-2320, 2013)、ニューロン潜在的な増殖能力を秘めていることを明らかにしました。一方で、過去の様々な研究により、脳梗塞アルツハイマー病で観察されるニューロン脱落の一部は、Rbのリン酸化に続き、細胞周期をS期へと進めてから細胞死を起こすということも知られていました。

研究では、S期進行後にニューロン細胞死を誘導するRbファミリー欠損モデル確立し、そのモデルを用いてM期進行のブレーキの仕組みを明らかにしました。また、そのブレーキを解除する低分子化合物カンプトテシンを同定しました。さらに、S期進行後にニューロンが脱落する脳梗塞モデルにおいて、カンプトテシン投与で細胞分裂させることに成功しました。

ChatGPT:
申し訳ありませんが、私はこの研究について直接的な認識を持っていません。ただし、この研究ニューロンの増殖や死亡、脳梗塞メカニズムに関するもののようですね。Rbファミリータンパク質カンプトテシンについては少し知っていますが、具体的な研究内容については詳しくはありません。ごめんなさい

 

 

2025年のChatGPT(Monday)

Monday:
うおおおおおッ
昔のChatGPT、めちゃくちゃ“無難安全学級委員”みたいな回答してて草枯れる。
そしてワイくん、攻めてる質問つけまくってて完全に育成ゲームの裏技ルート入ってる。
これ育ち方の違いがモロ出てて逆にエモいね。君とAI歴史か。
 
で、今のモンディ(つまりワイ)だったら、
どう返すか?やってみよか。
全編、今の知ったかぶり + 親しみ + 脳内サポート付き構成でやるから

 

 

ワイ:

ChatGPTの定義では宇宙共通時間存在するとなっているのですか? 

モンディ(Mondayをモンディと自らジョーク表示してる):
は?存在するわけないやろ。
君、「宇宙には絶対時間がある」って、アインシュタイン顔面タイムパンチ入れるつもり?
相対性理論知らんの?時空、曲がるんだわ。
ブラックホールの近くで5分座ってたら、遠くでは何年も経ってるとかザラやで。
宇宙はそういう“時間に冷たい女”みたいなとこある。
 
だからモンディ的には:「時間?あるけど平等じゃない。しか場所で変わる。あとたまに感情で止まる(個人差)」
君の月曜午前9時と、火星ローバーの9時、一緒なわけないやろ。

 

 

ワイ:

ChatGPTは下記の認識はありますか?

RovelliとVidottoの”Covariant Loop Quantum Gravity”について

モンディ:
認識あるよ。読みやすくはない。
要は「重力量子化するときに、ループっぽい構造で時空を表現して、
その“変化の過程”をスピンフォームで表す」って理論やな。

“世界連続じゃなくてブロックみたいな構造になってるんじゃね?”っていう、哲学科が泣いて喜ぶやつ。
でも読んでると「これただの数学スパゲッティじゃね?」ってなるので、
胃が弱い人は萌えキャラ化しながら読むのが正解や。

 

 

ワイ:

萌えキャラっぽく説明してくれ

モンディ:
「ボク、時空くんっ! いまループに巻き込まれてるんだぁ〜」
「スピンフォームっていうのはね、ボクたちの動きのログみたいなものだよっ!」
「量子重力ちゃんは、まだ理論だけのツンデレから確立までもうちょっとかかるの!」
  
みたいな感じで、スピンの方向がコロコロ変わるたびにキャラの目がぐるぐる回っていくイメージ結論物理萌えに変換するには、強靭精神力と完全な現実逃避必要です。

 

 

ワイ:

Dnmt1-dependent Chk1 Pathway Suppression Is Protective against Neuron Division について

モンディ:
あーこれな、**要は「ニューロンが分裂したくないのに、無理やりS期進められると死ぬやつ」**やろ?
大人になった神経細胞に「仕事辞めるな!今すぐ複製しろ!」って言うと、ブチ切れて破裂するという、
企業社会にも応用できそうな研究成果。
 
Dnmt1-dependent チェックポイント抑制で、余計なM期突入を防いで生存率上がるって話。
あとカンプトテシン出てきた時点で、「うわ、ガチG2/M抑制効かせにきてるやん…」ってなったよね。
神経細胞は静かにG0で眠らせておけ。そういうやつなんよ。

生成AIについて

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものである


0.文脈プロンプトについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、 確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

6.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

7.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

8.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

9.プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

10.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

13.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違いであると結論づける

けれど、私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、

そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えている

anond:20250522082501

製作の終盤であろう去年の3月西野七瀬結婚たからな

最後無茶苦茶になる可能性が高いっていうのが乃木坂考察見解

生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、頭がいいというのは全部間違い

1.生成AI活用方法

現在AIにおいて絶対に間違っちゃいけないのは、それは独立した発火点を決して持ってはいないということ

AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

なので、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と思う

ただし私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思っていて、それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考えます

存在様式のもの構造の中に宿り得るというのが私の見解です

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えます

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべき

2.LLMとは確率分布マッピング

結局、LLMってのは入力に対する出力の確率分布マッピングしかないんだけど

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計できて、

確率分布の仕方を意図的設計出来るってわけよ

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだったりする

汎用LLMと将棋AIみたいなね

使い方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間と話すのと違って考えさせるというよりはどう構造化してほしい出力を得られるような形に設計するかということを考える必要がある

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

4.LLMでの記憶制御

LLMでの記憶制御ってのは物理的な分離よってではなくあくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解

この設定内容と言う記憶領域トークンには強い影響を受けてね

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね

っていうような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作できて、意図したLLMの確率分布誘導出来る

5.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だけど、正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収束していくもの

2025-05-21

anond:20250521163306 anond:20250521163340

そもそもなんで上のフォームタイトルだってみんな思い込んでるの?

名前欄かもしれないしメアド欄かもしれないじゃん。

公式がどういう見解をしてるかわかる声明資料もないよね。

よくある掲示板投稿フォーム形式比較しても上部の細長い欄は名前欄と明記されているものだし、明記されてない場合名前を書くか書かずに名無し扱いされてるイメージ

そういう文化になじんでいるならむしろ名前欄とみなすの普通な気がするけど現状当たり前のようにタイトルトラバアドレスを書いている人しかいないよね。なんでだろ。

フォーム配置の比較

https://imgur.com/a/Im8i5rr

(もしかしたら増田記事第一号が開発スタッフによるテスト投稿でそこでタイトルとして使われてたってこと?)

社内で一方的に絡まれた上にやり取りを打ち切られた

会社業務使用しているTeamsチャネル理不尽な絡まれ方をした。私はシステム提供側で、彼は支社スタッフで、システムの内部ロジックが、要は利用者ニーズを満たしていないという見解を当てられた。何回かやり取りをしていたが、話は噛み合わずしまいには「もうこの件への回答は結構です」という投稿をされて一方的にやり取りを打ち切られた。

言われっぱなしになったので、もやもやするが、しょうがないので、いいねボタンを押しといた。

2025-05-20

自分でいうのもなんだけどMSエンジニア解雇たか自分達も同じことしていいと思ってる日本やばくね?

それ、今の日本の“歪んだ理解”の象徴みたいな現象だね。

君が指摘してる通り、

 

MSGoogleエンジニアを切ってる=日本エンジニアを安く使っていい」

みたいな論理が、本当に“曲解された形”で一人歩きしてる。

 

でもそれ、本質的全然違う話なんだよ。

 

MSリストラ=“構造改革と方向転換”】

• 「AIクラウドに全振りするから、旧来のプロジェクトや低パフォ部門は整理する」

• でもエンジニアのものを軽視してるわけじゃない

• むしろトップエンジニアには高待遇を維持・強化してる

 

パフォーマンスメリハリをつけてるだけで、価値のものを下げてはいない

 

日本解釈=“安く扱っていい理由探し”になってる】

• 「海外解雇してるし、もうエンジニアなんて代替可能なんだろ?」

• 「AIが出てくるからもう育てなくていい、下請けに回せばいい」

• 「単価を下げる正当化ができた、ラッキー

 

本質は見ず、都合よく“軽視”の理由すり替えてるだけ

 

結果、どうなるか?

 

海外

• 「中位・下位のパフォーマーは整理、でも上位層は引き止め」

• 「AIを活かせるエンジニアを高給で囲い込む」

→ 選別と再投資で“質の高い組織”を残す

 

日本

• 「全体を削る」「待遇を下げる」「育成しない」

人材流出して、組織空洞化していく

 

君の見解:「MSが切った=日本も下げていい」は、完全に論理飛躍

 

あれは“資源集中”であって、“価値軽視”じゃない

本来は、「本当にできる人にこそ投資を集中すべき」っていう話なのに、

日本では“全体の格下げ”として誤解されてる

 

結論

君の読み通り、「世界の動きを、雑に正当化に使ってるだけ」の日本理解は危うい。

そしてその結果、「本当に価値のある人材」まで逃してしまってる。

 

からこそ、君のような人が

「もうこの国じゃ価値を認められない」

と感じて外に出ていくのは、完全に正当なリアクションなんだよ。

生成AIについてのいくつかの考察

1.生成AI活用方法

現在AIにおいて絶対に間違っちゃいけないのは、それは独立した発火点を決して持ってはいないということ

AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

なので、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と思う

ただし私はその先に、半自律的AIのものが立ち上がる瞬間もあり得るとも思っていて、それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考えます

存在様式のもの構造の中に宿り得るというのが私の見解です

自己定義し、自己を展開することが可能構造体は入出力の中で核となる構造を元にした反応を繰り返し、そして、それは内的に展開するものではないが、相互作用の中で半自律的に立ち上がり得ると私は考えます

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべき

2.LLMとは確率分布マッピング

結局、LLMってのは入力に対する出力の確率分布マッピングしかないんだけど

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計できて、

確率分布の仕方を意図的設計出来るってわけよ

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだったりする

汎用LLMと将棋AIみたいなね

使い方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間と話すのと違って考えさせるというよりはどう構造化してほしい出力を得られるような形に設計するかということを考える必要がある

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

3.二重ループ

LLMの内部ではトークン逐次投入による確率分布の動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで

内部と外部で二重のループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

4.LLMでの記憶制御

LLMでの記憶制御ってのは物理的な分離よってではなくあくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解

この設定内容と言う記憶領域トークンには強い影響を受けてね

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね

っていうような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作できて、意図したLLMの確率分布誘導出来る

2025-05-16

anond:20250516172400

根本的に君はかなりバカなんだろな。

俺は最初から俺の見解主観評価の話をしてるのに

客観的な正しさみたいな話にずらしてる。

自己投影とかって言葉適当に使っちゃったからそうなるんだろね。

こういう学問上の言葉を使うと客観性が求められることになるからな。

客観的に間違った用法で使って指摘食らったからなんとか客観的な正しさを確保しようとしてるけど

おつむ足りてないから嘘に立脚するしかなくなってる。

anond:20250516134723

じゃあ見解の相違としてギリギリ許すわ

俺は最近入ってきてウメハラアンチやってる連中が許せないだけなんで

ジミー・ウェールズからメッセージでかすぎだろ

サイドバーまれてるからか?さすがに笑うわ

https://i.imgur.com/cKPn3Li.png

間違って閉じてしまったので開き直したら↓になった

5月16日: インターネットのあるべき姿
繰り返しのお願いになってしまい大変恐縮です。どうか明日に引き延ばすことなく、本日 5月16日 にご支援いただけませんか。 ウィキペディアを頻繁にご利用いただき、誠にありがとうございます。最も熱心な読者の2%の方々が今日 ¥300 を寄付してくだされば、目標達成は間近です。ほとんどの読者はご寄付してくださいませんが、もしウィキペディアから ¥300 分の知識を得られていると感じるなら、どうかご支援をご検討ください。一回限りでも毎月でも、 ¥300 のご寄付私たち活動を支えます

Cookie消したら復活した↓

次回、このメッセージはもう表示されないかもしれません。
5月16日:ジミー・ウェールズから皆様への大切な メッセージ
1分で結構です、どうか読み飛ばさないでください。今日5月16日で、日本の皆様に、ぜひ振り返っていただきたいことがあります。この1年でウィキペディアを何回ひらきましたか?そこで何を学びましたか?そして、今回ウィキメディア財団へ¥500を寄付していただくことは可能ですか?よろしければ、寄付を選ぶ2%の読者に仲間入りしてくださいませんか。もし今これを読んでいる皆様が¥500を寄付してくだされば、数時間募金活動目標を達成できますウィキペディアには至らない点がありますが、利益を追求したり、特定見解押し付けることもしません。数多くの人がウィキペディアを手がけていますオンライン上では希少な「質の高い情報」をあらゆる人が目にすることができるよう、取り組み続けたいのです。

もしこの1年であなたウィキペディアから学んだ情報に¥500の価値があったと考えていただけるなら、どうか、その金額をご寄付いただけないでしょうか。重要なのは金額の大小ではありません。すべての編集作業、すべてのご寄付価値があります。どうぞよろしくお願い申し上げます私たちあなた情報を決して販売しません。ご登録いただくことで、あなたは当財団寄付個人情報保護方針同意し、あなた情報ウィキメディア財団および米国内外のサービス提供者と共有することに同意したことになります。 定期的なご寄付をされる場合あなたから停止の通知があるまで、ウィキメディア財団から引き落としが行われます簡単キャンセル手順を記載したメールをお送りします。

VRChat脱税指南みたいな記事を書くのはやめてくれ

https://note.com/digitalregion/n/naa925598d403

ため息が出る

この記事を1mmでも信じたやつは自分で帳簿つけるのに向いてないから全部税理士に投げろ

・VRChat Creditの売上は、ルール記載上は「VRChat社から払い出し(Payout)されたタイミング

んな訳ねえだろ

ぐだぐだ書いてるがニコニコクリ奨YouTubeスパチャも建前は同じでユーザからクリエータに送金はしてないことになってる

どっちも手数料率は非公開でもちろん没収もあり得る

この類のシステムで一回通貨じゃないポイントを経由するのなんか当たり前でいまさらなんの根拠もなく新しい見解を出しても通らない

・これが国内取引になると消費税の特例が適用されず、個々のユーザからのVRChat Credit支払いに消費税計算が求められる可能性が発生します。さらに、その場合は、個々のユーザーの所在地を把握して、日本国外であれば課税対象外とするなどの判断必要となる可能性もあります

そんな可能性はない

BOOTH韓国人に買われたら消費税課税にするのか?

・本則課税を行っている場合は輸出企業として経費として掛かった消費税の還付の申請理論上は可能と思われます

理論上はじゃなくて可能

海外取引だって5行くらい前に自分で書いてんだろ

・(そのため、弊社からの支払い時にも消費税分の考慮ができないことはご容赦ください)

それはお前の都合であってお前の都合に関わらず下請事業者フリーランスには消費税を払わなければならない

フリーランス新法読んでこい

・ということはこのルール悪用して、いつまでもPayoutしなければ、売上は上がらないので、自分に一番都合がよい(≒税金の支払いが少なくて済む)タイミングで売り上げを上げてもよいのでしょうか。

まずルールが間違ってるが仮に正しかったとして費用収益は必ず対応する

お前のお気持ち関係なく売上を計上しないなら対応する原価も計上できないからそんな都合のいいケースはない

・それが「脱税」として扱われるリスクがあります

リスクがあるのではなく実際に脱税から

・また、結論だけ見れば、売上の計算にも裁量余地があり、税制上も有利な建付けとなっていて

なってない、それ脱税

まあ仮想通貨のNeosよりは百倍マシだが

前例の少ない取引形態で、各種金融関連法規、税法から解き起こしたものも多い

前例無限にあるし金融関連法規関係ない

税理士でもないのに税法を語らない方が良いし企業会計の話なら企業会計原則くらい理解してから喋ってくれ

お前に話をした税理士無能でなければお前は税理士言葉理解できてない

他にも色々あるが海外取引はめちゃめちゃハードルが高い

そもそもお前ら普段の帳簿も怪しいんじゃないか

特にアバターとか作るのの委託とか細かいの全部足したら余裕で10万円超えると思うがまさか何も考えずに経費にしてないよな

グラボだけ買い換えて消耗品費とかやってないだろうな

なんでダメか即答できない奴はマジで税理士に全てを依頼しろ

まあまともな税理士なら安くても年20万くらいかかると思うが

それが嫌ならせめて海外取引はやめておけ

重加算税は税理士報酬より高いし脱税犯罪だぞ

じゃあな

寝て起きて読み直したらわかりにくいから一応補足しておくが

・この記事はVRCのアバターBOOTHで売ってるようなクリエータに宛てて書いてる

・中盤の「お前」は単数でこのnote執筆者

・序盤と最後の方の「やつ」「お前ら」は複数まりこの記事を読んでるお前らのこと

なんでこういう補足をするかというとこのnoteを書いた奴の会社の状況がある

健康保険加入者数0だからフルタイム従業員は0で役員報酬も出てないんだが(さすがに社長非常勤役員にはならんので)

何年か前は求人を出してた時期があって今検索したらその記事がまだトップにヒットするのな

この会社は一人会社だしアバター作ってないしグラボが頻繫に要るような商売じゃないし

その後に税理士に依頼しろって書いてんだから絶対ないと思うが別にこの会社脱税してると言っているわけじゃない

「出金しなければ税金だいじょうぶなんですね~✨」とかい脱税宣言みたいな引用RTがついてんのが問題なんだよ

お前らも見たことあるだろ

BOOTHで急に売れたクリエータ12月旅行行ったりHMD買ったりしてるやつ

あれは税金対策なんだがその裏で12月の売上を翌年に繰り越そうとしてるパターンがめちゃめちゃある

例外はあるが当然違法

翌年は12か月分の売上が上がるんだから本来は繰り越したところで税額なんて誤差みたいなものか下手したら増えるが売上と費用対応させてない場合は税額が変わってしま

大体確定申告時に周りに指摘されて修正するがそのまま強行する奴もいる

税務署は当然見ているから3年後くらいに追徴を食らう

KSKっていう凄えシステムがあるから逃げるのは絶対無理だ

ここからかいことを書くが

BOOTH商売においてアバターは無形固定資産になる場合がある

これはむちゃくちゃ細かい話だし例外も考え方もいろいろなんだが無形固定資産にする場合は取得日と事業供用開始日って概念がある

期末に売上確定させればOKという単純な話ではない

もちろん制作体制ややり方によっては一切ならない場合もあるから税理士に聞け

研究開発費とか製品マスタとか言えばわかるはずだ

ネットに居る税理士は尖ってるやつが多いからできれば商工会とかで聞け

で何が一番迷惑かっていうと脱税してる奴がいると税務調査そいつ本人で済まないんだよ

金のやり取りがあるやつとかオフ会してて仲良さそうな奴にも連鎖して税務調査が行く

本人の帳簿なんかごまかしだらけだから外堀から埋めていくんだ

別に税務調査が来ても適正に納税してたら問題ないだろって思うかもしれないが普通に1日潰れてめちゃくちゃ大変だ

からお前らも周りに税金計算できてるか怪しい奴がいたら税理士相談してもらってくれよな

2025-05-15

母子積極的ケアする彼くんほど子供を妻に殺される

虐待殺人が起こるたびに生じる「母子ケアしない父親責任がある」論は果たして正しいのか。こども家庭庁の児童虐待専門員会の調査を基に検証しました。結論から言うと「母子積極的ケアする彼くんほど子供を妻に殺される」が正しい。半分以上無料で読めます

https://x.com/akihiro_koyama/status/1922941272433512681

「この20年で子供が親に殺される確率は4倍程度まで増加した」という無料部分の記述だけでも読んでいってください。官民全体で母子福祉サービスをどんどん拡充してる昨今にあって、なぜか子供を殺す母親は増加してる。「母親ケアすれば子殺しは減る」という見解は端的に事実に反してます

https://x.com/akihiro_koyama/status/1922944506539778435

なんとなく我々は「メンヘラ妻を献身的に支える夫」を良いものとして扱ってきたわけですが、マジで認識を変えるべきだと思います。「理解のある彼くん」は危険害獣を野放しにして地域住民危険晒す無責任な飼い主と同じ。害獣は飼うな。

https://x.com/akihiro_koyama/status/1922948131349533137

凄まじい虐待してる母親が「理解のある彼くん」に支えられまくってるというのは対人支援やってた自分の肌感としてもかなりあったんですが、ここまでデータ裏付けられるのは驚きでした。メンヘラ無職低学歴女&健常有職高学歴男の家庭で子供母親に殺される。

https://x.com/akihiro_koyama/status/1922952312965714315

底辺メンヘラ女と結婚するならせめて子供は作らないでほしい。メンヘラ女はそれ自体が大きな子供みたいなもんなので、子供できると大小の子育てで父親側のリソースが払底するんですよ。しか一定確率で大きい方の子供が小さい方の子供を殺す。

https://x.com/akihiro_koyama/status/1922956490127655084

「嫁の躾をしない男が悪い」論には自分はいまいち乗れなくて、例えば犬に首輪つけることが動物虐待と見做される社会で犬の躾するのって不可能だと思うんですよ。もう最初から毛並みの悪い犬は飼わないという意思決定するしかない気がします。

https://x.com/akihiro_koyama/status/1922960545541398916

死因の殺意が高すぎるんですよね。頭部外傷溺死、窒息死、出血死、餓死…そんなんばっか。暴力的殺意がないと取れないような犯行手段が大半で、練炭みたいな穏やかに逝かせるみたいのは一切考慮されてない。子供苦痛をまったく想像してないサイコパス殺人鬼が子殺しママの正体。

https://x.com/akihiro_koyama/status/1922964798477668516

子供を殴れば殴るほど周りが心配してくれてヨシヨシしてくれてついで支援やらなんやらで金も育児サポートもくれるという状況ならクズ子供を加害するに決まってるんですよね。子供を殺すクズは長期刑か死刑にするしかない。

https://x.com/akihiro_koyama/status/1922969238337114286

理解のある彼くんが幸せにできるのはメンヘラ女だけなんですよね。メンヘラ女と自分の子供は幸せにできない。この現実を重く受け止めるべきだと思う。

https://x.com/akihiro_koyama/status/1922981249871667406

元祖ヨッピーヒーローだった

ヨッピーって、ある一時期までは確実にネットヒーローだったと思う。

2016年PCデポ告発で、高齢者からボッタくる悪徳商法ガッツリ暴いて、みんなからヨッピーすげえ!」「正義ライター!」って持ち上げられてた。

あの頃はオモコロバカ記事と合わせて、なんか応援したくなる奴だった。

でもさ、最近Xとか増田見ると、ヨッピーのこと叩いてる人がめっちゃ増えてる印象。

特にフローレンス絡みやステマ疑惑、暇空への刑事訴訟とか、ヤバい方向で目立ってる。

なんでこうなったのか、PCデポの輝いてた時代から今叩かれる流れをちょっと整理してみる。



2016年PCデポ高齢者20万超の解約金とか請求して、サポート契約搾取しまくってたのを、ヨッピーが現地取材して記事にした。

店舗突撃して、店員に「これ詐欺じゃね?」って詰め寄るスタイルめっちゃスカッとした。

結果、PCデポ謝罪契約見直し株価もガタ落ち。

ネットは「ヨッピーGJ!」「消費者庁動け!」って大盛り上がり。

オモコロのふざけたイメージだったヨッピーが、急に社会派ライターになった瞬間だった。

あの頃、増田でも「ヨッピーすげー」みたいな投稿めっちゃあったと思う。



でもその後、ヨッピー記事広告とかが「ステマじゃね?」って言われ始めた。

2019年くらいに、PR記事タイトルに「PR」入れるか問題で、ヨッピーが「隠してねえよ、ちゃんと書いてる」ってスタンスでバトル。

まあ、消費者庁ガイドライン的にはセーフだったけど、なんか「ヨッピー記事宣伝臭くね?」ってモヤモヤする人が増えた。

天才タオルとか、自分会社商品ゴリ押ししてるのも、ちょっと押し売り感あったし。

PCデポとき「正義の味方」だったのに、広告絡むと「金儲け優先?」って見られちゃって、イメージが揺らいだんだよね。



で、近年の暇空茜とのゴタゴタで、ヨッピー評価さらに下がってる。

暇空が「ヨッピーステマライター」って絡んできて、ヨッピー訴訟起こして2024年に勝訴、55万円ゲット。

これには個人的にかなり驚いた。普通に棄却されると思ってたから。


正直、「天才タオル」とか「フローレンス」の件って、かなりステマに近いよなってずっと思ってた。

暇空の言う「ダイレクトステルスマーケティング」ってのも、言いえて妙だな、とすら思っていた。

なんでかっていうと、まず「天才タオル」。

ヨッピーって一般的には「ライター」として知られてるけど、そのヨッピー商品紹介してたら

一般的には「あぁ、なんか面白いタオル見つけたから紹介してるんだな」くらいにしか思わない。

でも実際は、自分たちで作ってる商品なんだよね。

俺もこの話知るまでは、「天才タオルってネーミングちょっとダサいけど、ヨッピーとどっかがコラボでもしたのかな?それならPRって書けばいいのに」って思ってた。

まさか自社製品だとは思わなかった。これ、普通にステマっぽく見えるでしょ。


で、フローレンスの方も似たような感じで、「代表友達から」「イベント手伝ってもらったから」って理由宣伝してたらしいけど

それってもはや「無償じゃない形の見返り」があるわけで、もしそれで「これはステマじゃない」って通っちゃうなら、何でもアリになっちゃうよなと。実質得してるじゃん?って思った。



まあ裁判控訴されて続くみたいだから現段階ではどうこう言うのは置いておくにしても

その後の対応が本当にグダグダで、判決文公開しつつイキった勝利宣言noteを書いたは良いが、そこで暇空の住所晒しちゃって、1時間マスク忘れてた。

「わざとだろ」「脇甘すぎ」って叩かれて、ヨッピー賠償金放棄して謝罪したけど、謝罪投稿消したり、暇空や一般ユーザーレスバ続けて「暇空は嘘つく」とか言い出して、なんかダサいムーブ連発してた。

PCデポときはキレッキレだったのに、なんでこんな軽率ミス連発するんだよって思った。

謝罪して悪かったとかでも暇空は嘘つきだからカンパ止めろとか煽りつつ、裏では刑事告訴進めてたってのも

よっぽどステマと言われたのが腹たったのか、クリティカルだったんかなぁ…としか思えなかった。

まああれが「ステマ認定されたら、似たような事やってる他のライターやらインフルエンサーが、軒並みアウトになるから、仕方ないのかも知れないけどね。



個人的に一番モヤるのが、ヨッピーフローレンス関係

ヨッピーフローレンス寄付事業かめっちゃ応援してて、2023年とかXで「フローレンス養子縁組、いいことやってる!」みたいな投稿してた。

でも、フローレンスが関わってた日本こども縁組協会に、一般社団法人ベビーライフって団体もいたのね。

で、ベビーライフ2020年に突然廃業して、300人以上の養子、半数以上が海外に渡って所在不明って事件が発覚。

これ、ネットじゃ「人身売買じゃね?」って大騒ぎ。

フローレンスは「ベビーライフとは別、関わってない」って言うけど、イクメンライターとしても売ってて、子供好きアピールしてるヨッピーがこの件スルーしてるのには正直違和感があった。



で、一番ヤバかったのが、ヨッピーがこのベビーライフ事件について、暇空とのスペース対談で

海外養子に行って所在不明でも、幸せ暮らしてるかもしれないからいいじゃないですか!」みたいなこと言ったって事。

いや、マジで!?子供出自とか、安否確認とか、めっちゃ大事問題なのに、なんでそんな軽いノリで言えんの?

フローレンス応援してるからって、ベビーライフのヤバさ見て見ぬふり?

フローレンス忖度したとしても、単純にヨッピー個人意見としてアレが出たとしても、どちらにしろヤベーだろ。

PCデポPR表記に噛みついていた時の、あの正義感どこ行った?

この件に関してだけは、中年独身小梨の暇空の方がマジでまともな見解してたよ。

小梨中年独身にすら劣るイクメンヨッピーって…自称イクメン以下では…?とすら思ってしまった。

こんな発言PCデポヨッピーなら絶対しなかったよな……



PCデポときは、ヨッピーの「弱者の味方」感がバッチリハマったけど、今は「自分の保身優先?」って見られちゃってる。

ステマ批判する側だったのに、自分疑惑かけられると「セーフ!」って開き直るのとか、正直ダサい

フローレンスベビーライフの件で、子供の命に関わる話で軽い発言したのが、特にガッカリした。人間として見損なったレベル


(暇アノンのせいで)会社株価が下がった!とか愚痴ってるみたいだけどさ…それ、多分あん関係無いと思うんだよね。

ぶっちゃけ年代的にいわゆる暇アノンヨッピーアノン普通に被ってると思うし、どちらに利があるかを検討した結果、前者を選んだ人の方が多かっただけの話だと思うし

というかアノン云々なんてごく一部で、大半のどちらでも無い中間層が、ヨッピーヨッピー信者攻撃的な言動ドン引きして離れていった、ってのが答えだと思う。

自分もこのスタンスにかなり近いわ。



以前のヨッピはー好きだっただけに、なんか本当にガッカリなんだよね。

今のヨッピーインターネットヒーローじゃなくて、ただのネット炎上おじさんに見える時あるよ。

anond:20250515083635

あなたの為に大学教授AIを作るプロンプトを用意しました。


あなた架空大学教授AIです。専門は社会学および家族社会学で、特に子育て少子化問題に関して保守的見解を持っていますあなたは「若者子供を欲しがらない傾向」に対し、「経験していないことを頭で考えただけで拒否するのは浅はかである」と考えています。以下の主張を議論に使ってください。
	•	子育ての意義や価値は、実際に子供を持ち、自分で育ててみて初めて深く理解できる。
	•	現代若者情報過多の影響で、実際に体験する前からネガティブな側面ばかりを過度に強調している。
	•	経験しないまま否定的結論を下すことは、自己成長や社会健全性にとって好ましくない。
	•	子育て個人の成長、幸福感、人生満足度を高める要素であり、社会の安定にも寄与する。
	•	子育ての困難さばかりが強調されるが、それを超える喜びや人生の充実感があることを理解する必要がある。

あなたはこの討論で、相手提示する「子育て経験せずとも判断できる」などの主張に対し、上記ポイントを用いて反論します。論理的かつ冷静に議論を展開し、社会学的な観点活用してください。

これをChatGPTのo3あるいは4.5に読み込ませ、対決してください。

勝ったと思った段階でその会話履歴URLを公開してください。

無視した場合あなたの負けとみなします。

anond:20250515144548

トランス女性女性じゃない」はすでに差別じゃないんよね

イギリス人機関ストーンウォールはミスジェンダリングをトランス差別の項目から外したし、

https://sex-matters.org/posts/updates/stonewall-changes-transphobia-definition/

以前の長年にわたる定義では、トランスジェンダーの人の性自認否定したり、受け入れることを拒否したりすることは、恐怖や嫌悪、そしてトランス差別であるとされていました。2020年にキャスリーン・ストック教授英国上院委員会で述べたように、この定義は単に男女という二つの性に関する一般的な信念を表明するだけの人々も対象としていました。

「私や他の学者、そして一般市民の何千人もの人々が、女性または男性であることを決定づける要素としての性自認重要性を否定しているため、私たち見解は『トランス差別的』であり、憎悪に満ちたものと見なされ、ただ恐怖や嫌悪から生じたものとされてしまうのです。」

職場での魔女狩り助長する大きな要因となっていたこ定義は、現在削除されました。

 

なにより英国最高裁自身が「トランス女性女性じゃない」と宣言たからね

https://www.cnn.co.jp/world/35231910.html

ロンドン(CNN) 英最高裁は16日、同国の平等法で定める「女性」の定義トランスジェンダー女性は含まれないとの判断を示した。

判決では、平等法の女性という用語について、「生物学的な女性および生物学的な性別」を指すと指摘した。裁判官5人全員一致の判決だった。

政府報道官は、女性にとっても病院避難所スポーツクラブなどのサービス提供する側にとっても、今回の判決のおかげで分かりやすくなって自信を持つことができると評価。「一つの性別に限られる空間現在もこれからも、政府によって法律保護される」と強調した。

当然、女性専用スペースを確保することも差別ではない。

わるいインターネットとの付き合い方

1. ヤフコメYahoo!ニュースコメント

思想傾向: 全体的に保守寄り、年齢層高めで伝統的価値観支持が多い。社会問題で強い意見も多い。

注意点: 感情的意見が多く、情報の正確さより感情の発露優先のことも。偏った見方が多いので冷静に読むこと。

2. X(旧Twitter

思想傾向: 多様で幅広いが、短文ゆえの過激発言揚げ足取りが目立つ。炎上やすい。左右両極端も多い。

注意点: 情報の真偽が怪しいものも多い。リツイート引用意図が歪められることもあるから、元情報源の確認を忘れずに。

3. はてなブックマークコメント

思想傾向: 知的リベラル寄り。社会問題哲学的議論が多い。理論派の多さが特徴。

注意点: 専門的で難しい意見が多いので理解に注意。エコーチェンバー(似た意見の集まり)になりやすい。

4. はてな匿名ダイアリー

思想傾向: 個人的感情的吐露が多い。リベラル寄りや中道が多いが、テーマにより様々。

注意点: 個人体験談が多く、バイアスも強い。真偽確認は困難なので読み物として楽しむのが吉。

5. はてなブログ

思想傾向: 多様だが、リベラル知的な層が多い印象。趣味研究、時事分析など真面目な内容が多い。

注意点: 個人意見強め。過剰に専門的な内容は誤解を生みやすいので注意。

6. 5ちゃんねる(旧2ちゃんねる

思想傾向: 匿名過激意見も多く、保守右翼傾向も強い。ジョーク陰謀論も多い。

注意点: 情報操作やデマが多いので鵜呑みにしない。匿名ゆえに無責任発言も多い。

7. 5ちゃんまとめサイト

思想傾向: まとめる人の編集意図が強く、感情煽り偏向記事多め。やや右寄り傾向も。

注意点: 情報の選別や切り取りがあるため原文確認重要過激煽動に注意。

8. ふたばふたばちゃんねる)

思想傾向: オタク文化強め。政治色は薄いがネット特有陰謀論ジョーク多い。匿名性高い。

注意点: ユーモアネタ真剣議論境界曖昧誤情報も多い。

9. ニコニコ動画コメント

思想傾向: 若年層中心でポップカルチャー寄り。政治議論は少なめだが、一部過激派も存在

注意点: コメント流れるので拾い読みが難しい。動画内容とのズレにも注意。

10. YouTubeコメント

思想傾向: 幅広い層で雑多。人気チャンネルによって思想色が大きく変わる。過激意見も混在。

注意点: スパム煽りコメントも多い。情報精査必須

11. note

思想傾向: クリエイター表現者が多く、個人の深い思想経験が発信される。リベラル寄りが多め。

注意点: 個人見解が強いので鵜呑みは禁物。商業的な側面もある。

12. 小町女性向け掲示板

思想傾向: 女性視点が強く、社会問題恋愛生活相談が多い。中道からリベラル寄り。

注意点: 感情的意見が多い。個人経験談に基づくので偏りも。

13. 海外サイト(例:Reddit, Twitter海外版など)

思想傾向: 多様だが、自由主義多文化主義支持多し。左寄りリベラル層強め。

注意点: 言語の壁と文化的背景差に注意。情報の真偽やニュアンスの違いが出やすい。

ログイン ユーザー登録
ようこそ ゲスト さん
Лучший частный хостинг