ウィトゲンシュタイン 2
レス数が1000を超えています。これ以上書き込みはできません。
>>949-951
お前のイチャモンは哲学者ですら誰も対策してませんwwwwww
だって無職の妄想に対策は不要だからwwwww
そんなイチャモンつけるやつが100%キチガイだってキチガイ以外にはわかるから誰も相手にしないんだよ障害者年金wwwwww
あまりにも知能が低すぎて自分の思いついた「最終兵器」が全ての哲学者も殺す事を理解出来てないwwwwwwwwww
頭悪すぎて無職ってすげえwwwwwwww
こんなバカリアルじゃ死ぬまで会えないwwwwwwwww
何やらせても無能だな
何なら出来るんだ? >>951
全く意味のない形而上学
乱数表と厳密に同じ バカすぎて全ての仕事がクビになるとか凄すぎるwwwwwww そもそも科学は認識そのものを許して無いことすら知らないらしい
これ確実に中卒無職ですわwwwwwwww 知能が0なので形而上学の定義を示されてもそれに当てはまるかどうかわからない模様wwwwww >>949
ちなみにこの障害者年金
隠れた変数とか言ってる時点で低学歴無職脳障害確定してる
EPR実験により否定されたのは
「局所的隠れた変数理論」であって
「非局所的隠れた変数理論」は一切否定されてない
そして「非局所的隠れた変数理論」は誰も発見などする必要がない
なぜならそれは標準的な量子力学で測定系を記述すれば良いだけだからなwwwwwww
とっくにあるものを発見するバカなどいないwwwww >>949
そのマルチバースとやらに哲学者は何も言えてないので
お前の主張は
「全ての哲学者はゴミ」
になってるけど
障害者年金なので自分が何言ってるのか理解できてないwwwwww 横レス君です
カントも読まずに哲学批判するな
→割合としては理解してない科学用語を無分別に使用する哲学崩れのほうが多いと思われる。ソーカル事件参照
1000年後の科学
→1000年後も現在も物理法則が変わらないのであれば1000年待たずに今現在科学的手法で研究できる。形而上学的手法では現在でも1000年後でも事実と照合できないのでムリ。
勾配降下法
→バックプロパゲーションで使われる学習
モデルを調整するアルゴリズムだがニューラルネットワークを模倣するAI一般で利用される手法で言語モデルと関係ない
というかトップダウンの言語モデルを与えなくても実際のデータからの学習で高精度の出力を出せるのが今のAIの特徴 言語学者の言う言語学の性質を取り入れたモデルは全て性能が落ちたのウケる そのマルチバースとやらのわけのわからん妄想で
別の宇宙では哲学者が存在すら出来なかったらどうすんの?
懐疑のレベルが低いから低学歴なんだろ あまりにも頭が悪いので科学者だけに効く武器を思いつけなかったらしいwwwwww
哲学者も皆殺しwwwwwwww >>962
生成文法なんて哲学的にはまったく相手にする価値がなく、言語の表現解釈にも役立たないと最初から明示的に指摘されてきたはずだが、なぜか、チョムスキーの生成文法だけが科学的であると主張する言説が何の根拠もなくまかりとおって、そのチョムスキーが優れた知性の代表者であるかのような扱いで、言語学とは無関係の政治的な発言において人々に影響を及ぼすようにメディアによって大々的に利用されてきた。 生成文法に科学の要素なんて何もないけどな
共産主義者が自称して「科学的社会主義」とか吠えてるのと何も変わらん チョット博学な人たちがいるみたいなので、>>708 と同じ質問を皆さんにしたいのだが、どうなんだろう? >>967
そもそも量子力学に哲学とか解釈は要らないんよ
だって情報理論の定義からして
「確率分布の変化が情報量」
なんだから
決定論の量子状態に比べて古典的状態は情報が失われているのだから確率分布で表すのは当たり前
失われた情報=確率
それで終わる話なので他に何も必要ない
コペンハーゲンとか多世界とかどんなものも全く必要ない
情報理論の定義を読め
それだけ
そして古典力学は近似理論なので「量子力学の奇妙な性質」は量子力学の性質ではなく近似理論の持つ性質なんよ 古典的な物理量の測定で失われた情報とは何かというと測定系の持つ量子的位相や測定系と測定対象の持つ量子相関のこと
そこを普通の量子力学で普通に考えれば不思議なことなど何も無い つまり情報と確率の理解が足りてないことからくる妄想に過ぎないので
学べばいいだけ 量子論理とか量子言語というのはロジカルには間違ってないのかもしれないが
そもそも情報と確率の関係を知ってたら不要なので考える必要がない
時間の無駄 >>969
これが「非局所的隠れた変数理論」ということ
これはEPR実験で否定されてない
何も新しくない普通の教科書に書かれた普通の量子力学なので
これが不思議に見えているなら勉強が足りてないだけ 情報と確率の関係を知るとはどういうことかは、何に含まれるのかな? 分かっていることの効果が他人にもはっきりと伝わるように明示できないなら、分かっていることにならない。 >>973
情報理論という文字が読めないのか?
情報理論における情報量の定義そのものだ どこにも書かれてない誰もわからないこと→聞く価値がある
誰にでもわかるように書かれた文字が読めないから聞く→小学校からやり直すか死ね 情報理論の定義って2回も書かれてるのにそれを読めない
お前がやるべきなのは量子力学でも哲学でもない
まず童話を読めるようにしろ
それから小学校の国語の教科書 >>976
981 考える名無しさん[] 2023/11/21(火) 15:33:09.36 0
情報理論の定義って2回も書かれてるのにそれを読めない
お前がやるべきなのは量子力学でも哲学でもない
まず童話を読めるようにしろ
それから小学校の国語の教科書 無駄のない話をしたらバカは絶対にわからないからわざわざ同じことを3〜4回繰り返して言ってんのにそれでもわからんならそれは脳障害ってこと 物理とか哲学に手を出しても文字すら読めないバカは治らんよ 俺が、今からウィトの新スレに確率を信じる馬鹿やバカ丸出し君の
ような人間の持つ誤謬性について書いてみるから、読んでみろ >>967
哲学の大きな未解決問題(ゼノン、ヒューム、ヘンペルのカラス、ファジー論理、分析・総合命題、波束の収縮等)を
すべて解いたという主張だから、各々をチェックしてみないと何とも言えない。
それには、数物系大学院以上の学力が必要 >>987
お前の障害者年金が有名になるだけの話
そもそも誤謬性とか言ってる時点でバカ確定 >>987
GPTに確率なんて出てこねえよ
即自殺しとけ知ったかぶり障害者年金wwwwwww >>967
これ0点だね
ハイゼンベルグカットを理解してない 「測定のタイミング」は現実世界の出来事と無関係に自由にずらせることを理解できてない
これは量子力学の基本中の基本
測定を現実世界とか言ってる時点で何一つ学んでないと言える
ハイゼンベルグカットも知らねーのに観測問題はウケるなwwwwww >>987
論文読めない低学歴バカがメディアで知ったかぶりしてGPTは確率だとかデタラメ垂れ流してるのをそのまま盲信wwwww
まさにハルシネーションwwwww GPT4のハルシネーションは障害者年金の1万分の1くらいしかないだろうなwww 逃げたのはお前だよハルシネーション障害者年金wwwww
論文のどこに確率が出てくるのか引用しろ
論文のどこに確率が出てくるのか引用しろ
論文のどこに確率が出てくるのか引用しろ >>995
Amortizing intractable inference in large language models
https://arxiv.org/abs/2310.04363
A standard method to sample approximately from intractable posterior distributions is Markov chain
Monte Carlo (MCMC), but it is difficult to craft good proposal distributions that would mix between
the modes quickly for language data (Miao et al., 2019; Zhang et al., 2020a; Lew et al., 2023), and
inference on a new input may be prohibitively slow. >>996
それ大規模言語モデル関係ねーよ知ったかぶりwwww
さっさと自殺しとけ論文すら読めない障害者年金wwww 知ったかぶりとハルシネーションしかねえwwwwwww >>996
むしろ使えないって書かれてんのにこんな簡単な英語すら読めないwwwww
but it is difficult to craft good proposal distributions 中卒無職はdifficultの意味すら知らないのかwwwwwwww このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 1056日 9時間 8分 25秒 5ちゃんねるの運営はUPLIFT会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《UPLIFT会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
4 USD/mon. から匿名でご購入いただけます。
▼ UPLIFT会員登録はこちら ▼
https://uplift.5ch.net/
▼ UPLIFTログインはこちら ▼
https://uplift.5ch.net/login レス数が1000を超えています。これ以上書き込みはできません。