英語のディープラーニング その99 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
>結果的に自分で悪評広める
媒体が報道しているだけだ。
全国に報道中だ。
https://www.atpress.ne.jp/news/132036 >結果的に自分で悪評広める
媒体が報道しているだけだ。
全国に報道中だ。
https://www.atpress.ne.jp/news/132036 @Pressというサービスに金払って、
各メディアに記事(風の広告)が載るように
してもらっただけじゃんww
必要経費考えると赤字になるだけじゃんw >必要経費考えると赤字になるだけじゃんw
まだ広告をする段階ではない。
いろいろ集客方法やLPを試している段階だ。 >各メディアに記事(風の広告)が載るようにしてもらっただけじゃんww
260媒体に配信したが、全媒体が載せる訳ではない。
それでも10数社がニュースとして取り上げてくれた。
大企業だって、260媒体にあれだけの広告を出稿できる訳がない。
社会を知らないバカニート。 >各メディアに記事(風の広告)が載るように
どの媒体も広告は広告であると表示する義務がある。
どこに広告だと言う文字が見えるのだ。
この基地外。
ニュースの価値も分からない、社会のクズ。 単なるステマダロウw
@Pressに金払えば、単なる広告を報道記事の扱いにしてもらって、
色んなメディアに配信してもらえる仕組みダロウ。
でも如何せん、桜井のチープラーニングの場合は、単なる広告だから
報道として認めてもらえず
250/260社に掲載を断られた訳だろう?
ウケるww ディープラーニングが英会話に有効なら、我々人間が機械の真似して学習をやるより
さっさとディープラーニングで完璧な翻訳ソフトでも作った方が早いと思うの。
それをsiriでもAlexaにでも実装すれば、人類の言語という壁はなくなるでしょ。
2ちゃんみたいな掃き溜めに来てないで、シリコンバレーのベンチャーキャピタルに
売り込んで来なよ。 medium.comやdatatauのようなところで、
deep learningの記事を読みながら語学習得するスレじゃないの? >でも如何せん、桜井のチープラーニングの場合は、単なる広告だから
>報道として認めてもらえず
>250/260社に掲載を断られた訳だろう?
広告なら260社全部が掲載する。
広告を断る代理店は存在しない。 >ディープラーニングが英会話に有効なら、我々人間が機械の真似して学習をやるより
人間が機械の真似をしているのではない。
機械が脳のディープラーニングを真似ている。
脳の方が効果的なディープラーニングができるから、機械翻訳にそれを使う事はできない。 池谷裕二の記憶に関する本をタネ本にして、
エビングハウスの忘却線に沿って単語や短文を流すだけで良かったんじゃない?
deep learningなんてキャッチーなバズワードを出すだけで信頼が落ちる >人類の言語という壁はなくなるでしょ。
バカを言うな。
機械が脳を真似る事ができたのはディープラーニングだけだ。
人工知能は脳の並列分散処理とか報酬系とか感情を持つとか、個性を持つという、
脳の特性はグーグルやiriでもAlexaでもこれから先も無理な事だ。 >エビングハウスの忘却線に沿って単語や短文を流すだけで良かったんじゃない?
エビングハウスの忘却線はランダムな数値に関する記憶だ。
エビングハウスの忘却線はディープラーニングとはほぼ無縁だ。 >deep learningなんてキャッチーなバズワードを出すだけで信頼が落ちる
ディープラーニングが実践できれば英語学習が大きく変わる。
ディープラーニング、アクティブラーニング、ソーシャルラーニングの時代になる。 >池谷裕二の記憶に関する本をタネ本にして、
池谷裕二はディープラーニングの前の時代の脳科学者だ。
池谷裕二はディープラーニングを完全に理解していないし、
基本的な脳の知識をディープラーニングを生かせていない。 ディープラーニングの学習器に渡す訓練データだってランダムだろう
boltzmann machineに反ヘブ学習というそれらしいタームはあるけれど、
生理学に基づいた人の神経回路網に模倣できているなんて聞いたことがない。 >ディープラーニングの学習器に渡す訓練データだってランダムだろう
だから機械学習は効果的な学習ができない。
ディープラーニングの本質は特徴の抽出だから訓練データはランダムではなく、
達人のデータが理想だ。
人間は効果的な訓練データを選択できる。
AlphaGo もランダムでなく、囲碁の達人のデータを効果的に使っている。 >生理学に基づいた人の神経回路網に模倣できているなんて聞いたことがない。
少なくともニューロチップが特徴の抽出だけは成功している。
学習において、脳の神経回路のやっている事はディープラーニングだけではない。 >生理学に基づいた人の神経回路網に模倣できているなんて聞いたことがない。
すべてを模倣できる訳はない。
ナイロンだって絹の一部の特徴を真似ただけだ。
現在では模倣ができているのはディープラーニングだけだ。 知識的な記憶は海馬を介した中期記憶(1週間程)のものと、長期間(側頭葉に保持される)に渡るものにわかれる
deep learningがやってるのは人間の視覚野的な自己組織化みたいなもので、人の脳の知識記憶のような忘却が起こらない
海馬のモデルはhopfield networkと言われてるけど、保持できる記憶(2値データのコード)には容量がある。
deep learningは特徴量を抽出する部分しかモデル化できてないから、人の複雑な学習の助けには成り得ない >海馬のモデルはhopfield networkと言われてるけど、保持できる記憶(2値データのコード)には容量がある。
海馬は重要な情報と判断すると無限とも言われる大脳新皮質の長期記憶に保存する。
反復練習をすると脳は重要な情報と判断して、手続き記憶とてして
長期記憶に保存する。
これがディープラーニングだ。 >人の複雑な学習の助けには成り得ない
脳は無数の並列分散処理が可能だから複雑な事が可能だ。
超絶技巧ができのもそのためだ。
人工知能では脳のような並列分散処理はまだ当分無理だ。
並列分散処理可能はニューロチップはまだ当分無理な事だ >知識的な記憶は海馬を介した中期記憶(1週間程)のものと、
知識的な記憶であろうと、脳はルールで学習するのではなく、
特徴を抽出して学習しているのが脳の学習だ。 >海馬のモデルはhopfield networkと言われてるけど、保持できる記憶(2値データのコード)には容量がある。
脳が処理できるデータは2値データのコードのようなデジタルデータではなく、
アナログデータの特徴抽出だけだ。 >>366
>人工知能では脳のような並列分散処理はまだ当分無理だ。
コネクショニストモデルって、並列分散処理への応用のために研究されてたようなもの
PDPぐらいなら何かに実用化されてんじゃね >>368
DNNもDBMも、元の論文で使われてる入力ベクトルのデータは2値なんだけど
何かリファレンスあるの? ダメだ、このおっさん、多分swiftでhello world.も書けない人だ。
結局誰かが生み出したり改良しているプログラムの表面だけさらって虚偽を並べて自分の英語教材を売りたいだけ。
全ての事象も全ての技術革新も、自分の教材の宣伝と自己肯定に使いたいだけの哀れなおじいさんだ。
ディープラーニングを連呼しても、Alpha Goと英会話におけるDL活用の違い、プロセスの違いを説明できてない。 >DNNもDBMも、元の論文で使われてる入力ベクトルのデータは2値なんだけど
画像の認識でも使っているデータが2値のデータだ。
しかし、認識しているのは正しい間違いの2値ではなく、
猫の画像とか人間の画像と認識している。
ディープラーニングとは画像の結果ではなく、学習するプロセスだ。
現在の人工知能の多くはデジタルデータを使いディープラーニングさせている。
そしてディープラーニングさせた結果をデジタルで利用している。 >結局誰かが生み出したり改良しているプログラムの表面だけさらって
ディープラーニングとは基本的な人間の脳の学習メカニズム。
誰かが生み出したり改良しているプログラムではない。 >Alpha Goと英会話におけるディープラーニングの活用の違い、
茂木 健一郎がPRESIDENTでこう言っています。
今回は、英語の学習の仕方を、少し変わった視点から検討してみたいと思う。すなわち、
「人工知能から学ぶ英語学習法」である。
すでに、コンピュータが人間に追いつきつつあると見なされていたチェスや将棋に比べて、
囲碁は可能な打ち手の数が格段に多く、計算量が爆発的に多い。人工知能が人間に
追いつくのは、早くて10年先くらいのことではないかと予想されていた。
しかし、脳が実行する学習則を、地道に繰り返すことによって、人工知能は成功している。
そこには、何のマジックもない。
一方、人間は、学習法がわかっていても、それを徹底しないことが多い。画期的に新しい
学習法を考案する必要などない。ただ、基本を繰り返し、やればいいだけの話なのであるが。
たとえば、最近の人工知能は「達人」に学ぶ。囲碁の打ち方でも、自動車の運転の仕方でも、
達人と呼ばれる人たちが実際にどのような選択をし、行動をとるかを、ビッグデータで取り込み、解析する。
人間が英語を学ぶ際にも、同じ姿勢が必要である。ネーティブなどの、英語が達者な人の発音を
ひたすら聞く。そのことで上達するはずなのに、徹底してやることができない。
人工知能の学習において大切なことの1つは、実際の行動と正解の間の「誤差」を検出して、
それが小さくなるように修正することである。これを繰り返すことで、急速に正解率が高まっていく。
達人の英語のパターンの徹底的な反復学習と、誤差の修正。この、基本中の基本という
学習法に徹することによって、人間もまた、英語力を飛躍的に向上させることができるだろう。
そう、まるで、「人工知能」のように。
私が脳の研究を始めた24年前、まさか、人間が人工知能に学ぶ日が来るとは思わなかったが、
時代は変わった。
人工知能の「学習の基本」の誠実な繰り返しに学ぶべきだろう。英語習得に、マジックなどない。
敢えて言えば、繰り返しが魔法となるのだ。 >>372
>画像の認識でも使っているデータが2値のデータだ。
デジタルデータじゃん w
バカなのか? >デジタルデータじゃん
だから何だ?
デジタルデータなら、デジタル学習にはならないだろう。
ディープラーニングとは学習の仕組みであり、 データ形式を論じているのではない。
現在のすべての人工知能はデジタルデータを処理してディープラーニングさせている。
デジタルデータだからディープラーニングではない事にはならないだろう。
バカなのかって、誰がバカさえも分からない。 >ディープラーニングとは学習の仕組みであり、
ノイマン型計算機はルールを基本としてプログラムする。
そのルールを採用するために、データは2値の、離反したデータを使う。
ルールを適用するのに適しており、0や1の2値ならオンとオフで表現できるからだ。 >ディープラーニングとは学習の仕組みであり、
ディープラーニングをノイマン型計算機でやらせると
CPUとメモリ間の転送速度が微妙にボトルネックになる。
そのためにディープラーニングは脳の仕組みを真似たニューラルネットワークを使う。
CPUに演算させる方式ではない。
ニューロチップの素子それぞれがメモリを持ち、処理できるからだ。 >Alpha Goと英会話におけるディープラーニングの活用の違い、
AlphaGo が脳の学習のディープラーニングを真似しているのだから、違いがある訳はない。
英会話学習のとの違いはあるはずはない。 http://itpro.nikkeibp.co.jp/atcl/ncd/14/457163/052001464/
米Googleが深層学習専用プロセッサ「TPU」公表、「性能はGPUの10倍」と主張
>韓国のプロ棋士イ・セドル氏に勝利した囲碁AIの「AlphaGo(アルファ碁)」も、TPUを使用していたという
>Holzle氏は本誌の取材に対して「TPUは(これまでのCPUなどと同じ)ノイマン型アーキテクチャだ」と説明する。。
>現在はIBMなどが、ニューロン(脳神経細胞)の働きを模した「ニューロシナプティック・コンピュータ・チップ」などの非ノイマン型アーキテクチャのプロセッサの研究開発も進めているが、「TPUは脳型プロセッサのようなものではない」(Holzle氏)。 またお前のインチキがバレたけど、どうすんの? バカ桜井
いつものように遁走する?
それとも支離滅裂な言い訳する?w >>292
>AlphaGo はニューラルネットワークを応用しているというから、
>ノイマン型コンピュータでないことは明白だ。
>>297
>ノイマン型コンピュータをいくつ並べても、いくつつなげても、
>絶対にニューラルネットワークにならんだろう。
>>308
>グーグルの発表さえ否定するアホ。
>>330
>脳のようなディープラーニングをノイマン型計算機上でできる訳がない。
自身の過去の発言に対して、どう言い訳するんだ? バカ桜井よ(笑) >>292
>AlphaGo はニューラルネットワークを応用しているというから、
>ノイマン型コンピュータでないことは明白だ。
>>297
>ノイマン型コンピュータをいくつ並べても、いくつつなげても、
>絶対にニューラルネットワークにならんだろう。
>>308
>グーグルの発表さえ否定するアホ。
>>330
>脳のようなディープラーニングをノイマン型計算機上でできる訳がない。
自身の過去のマヌケ発言に対して、どう言い訳するんだ? バカ桜井よ(笑) http://itpro.nikkeibp.co.jp/atcl/ncd/14/457163/052001464/
>Holzle氏は本誌の取材に対して「TPUは(これまでのCPUなどと同じ)ノイマン型アーキテクチャだ」と説明する。。
>>292
>AlphaGo はニューラルネットワークを応用しているというから、
>ノイマン型コンピュータでないことは明白だ。
>>297
>ノイマン型コンピュータをいくつ並べても、いくつつなげても、
>絶対にニューラルネットワークにならんだろう。
>>308
>グーグルの発表さえ否定するアホ。
>>330
>脳のようなディープラーニングをノイマン型計算機上でできる訳がない。
自身の過去のマヌケ発言に対して、どう言い訳するんだ? バカ桜井よ(笑) >韓国のプロ棋士イ・セドル氏に勝利した囲碁AIの「AlphaGo(アルファ碁)」も、TPUを使用していたという
AlphaGo の基本構成
1.MCTS:モンテカルロ木探索(Mote Calo Tree Search)。モンテカルロ=ランダム
2.ConvNet:畳み込みニューラルネットワーク
TPUを使用していたというのはMCTSの方の勝率計算だ。
ディープラーニングは.ConvNetでやっている。
このバカ、TPUを使用とあるだけで、ディープラーニングをやった事にはならないのだろう。
お前はMCTSとConvNetの2つの目的の違うマシンが使われている理由が理解できない。 >脳のようなディープラーニングをノイマン型計算機上でできる訳がない。
AlphaGo のディープラーニングは、ConvNet:畳み込みニューラルネットワーク を使っている。
脳のようなディープラーニングをノイマン型計算機上でできる訳がない。 >韓国のプロ棋士イ・セドル氏に勝利した囲碁AIの「AlphaGo(アルファ碁)」も、TPUを使用していたという
AlphaGo がどのようなパーツを使っていたかはまったく関係ない。
AlphaGo が何を使ってディープラーニングをさせていたかの問題だ。
脳のようなディープラーニングをノイマン型計算機上でできる訳がない。
ディープラーニングをノイマン型計算機でやらせると
CPUとメモリ間の転送速度が微妙にボトルネックになる。
そのためにディープラーニングは脳の仕組みを真似たニューラルネットワークを使う。
CPUに演算させる方式ではない。
ニューロチップの素子それぞれがメモリを持ち、処理できるからだ。 桜井の腐ったウンコのような脳みそでは
ノイマン型コンピュータのプログラム上で動く
人工ニューラルネットワークというものを
理解することが不可能らしいということはわかった 無知、無能って悲しいな バカ桜井
お前の場合は不治の病だから、
他人に何かを納得させる作業は諦めろ >お前の場合は不治の病だから、
それは働こうとも、学ぼうも、学校に行こうともしないお前だろう。
俺は学んでいるだけではなく、教えている。
そして73才を過ぎても自分で稼いでいる。 桜井のバカさ加減が、桜井が唱える呪文である なんとかラーニング で一向に矯正されない事実 >一向に矯正されない事実
73才の俺は音のストリームからディープラーニングへ成長した。
バカニートは以前のままだ。
それは働こうともしないだけでなく、学ぼうとも、学校に行こうともしない。
社会のクズ、ゴミ。 >>395
>社会のクズ、ゴミ。
桜井さんの自己紹介は、いつも楽しいですね(半笑) ここでこういう書き込みすると荒らし認定されちゃうと思うけど、ドンすらとか大特訓とか毎日が良いと知って、瞬間英作文に明け暮れて1年経ったけど、
好きな海外ドラマを見ても理解度の進歩はほとんど変わらないし、ネイティブ(日本語話せないアメリカ人)と会話しても、言いたいことを言うという
レベルには全く到達していないことを痛感して、マップの勉強法をヤメた。
そしたらものすごく進歩した。
いわゆる瞬間英作文系の本を何周もしてた時には気づかなかったけど、ようは同じ短文を何度も繰り返して、結果、使えもしない短文を記憶してるだけだったんだよな。
自分のやり方が悪かったのかもしれないけど、瞬間英作文という、一つの流行りの学習法を盲信してやってて、効果をあまり感じられない人は
一旦やめて違う勉強をしてみるのをお勧めする。
じゃ出勤します。 ディープラーニングによる、英会話革命が始まりました。 ただ、ディープラーニング開発者の桜井が英語を話せない件 桜井恵三って最近出てこない印象だけど、5chにブロックされたか身体でも悪くしてるの?
このまま死んでくれたらいいのにね 私は高校生ですけど、この板で桜井先生に英語で語りかけましたが、毎回うまく逃げられました。
英語が苦手でいらっしゃるようです。 ディープラーニングによる、英会話革命が始まりました。 >桜井恵三って最近出てこない印象だけど
ディープラーニングによる、英会話革命が始まりました。 バッハのインベンション全15曲をAIにディープラーニングさせると
今のAIレベルとバッハのインベンション15曲程度の情報量では
現代音楽のようなフレーズの応酬になってしまうようだ
https://soundcloud.com/tsu-nera/deep-invention01
人間がバッハのインベンションからインスパイアされて
バッハの後に生まれた音楽と比べてみるのも面白い
おそらく人間が作り出した音楽は、トラディショナルな音楽もインプットされていたうえで
12音階を使って生み出されたものだと推定される
というかバッハのインベンションは、ある意味では12音階を使った
実験音楽的な意味合いがあったと個人的に思っているのだが
人間の解釈とAIの解釈の違いに注目したい >バッハのインベンション全15曲をAIにディープラーニングさせると
音楽は最も創造性を必要とする。
しかし、言語はネイティブを真似る事で学習する。
言語の表現数は、音楽の曲の数の何万倍も多い。 国広氏の只管朗読は、英語を音読することによって脳と体に起こる変化
というか英語を音読によりディープラーニングした時に起こる変化の課程が
具体的に示されているような気がする
@只管朗読の必要に目覚め、テキストを決める。
Aテープ(今ならCD)を聞き、テキストの意味を理解する。
B単語レベルの発音をクリアする。
Cつっかえずに読めるようになる。
D次第に構文的な切れ目がわかってくる。
E日本語に頼らずに意味が文の先頭から自然にとれる。
Fイメージが生き生きと実感できる
G朗読していて、自然さと楽しさが感じられる。
Hテキストの例文の応用可能性にどんどん気づく。
I自分の英語力が広がっていく可能性を実感する。 ただし、国広氏の只管朗読の弱点は、誰かと英語でコミュニケーションを取るトレーニングがないことだな
自分の英語力が広がっていく可能性を実感できるレベルまで到達するかもしれないが
その自分の英語力が広がっていく可能性を試したり実践してみるところまでは入っていないんだよな >というか英語を音読によりディープラーニングした時に起こる変化の課程が
>具体的に示されているような気がする
音読でもそれなりに覚える事ができるから、多少のディープラーニングの効果がある。
しかし、発音を自然な音で覚えないから、累積効果は低く、
使われている英語のパターン認識やパターン学習が効果的にできない。
何より、上達が分からないから、モチベーションを保つのが難しい。 >国広氏の只管朗読の弱点は、誰かと英語でコミュニケーションを取るトレーニングがないことだな
最悪な事は自然な英語の音を学ぼうとしない事だ。
ネイティブの発音こそ、最適化された理想の音だ。 >その自分の英語力が広がっていく可能性を試したり実践してみるところまでは入っていないんだよな
文字を読むだけで、
自然な音で覚えていないから、英語を運用する事でメンテナンスができない事だ。
ディープラーニングであれば、ある程度覚えると、
母語のように、
英語を運用するだけで新しい表現を覚える事ができる。 >自然な音で覚えていないから、英語を運用する事でメンテナンスができない事だ。
それは疑問だ
自然な音で覚えれば、英語を運用するメンテナンスが自然にできてしまうものだろうか?
そうはいかないと思う
言語はツールであって、ツールとして使いこなすためには別のディープラーニングが必要と感じる
つまり脳内でイメージした事柄を覚ええたての言語にして相手に伝えるためのディープラーニングが必要
だけどそのレベルに達するに何が必要なのか、しきい値は何処にあるのか
いまいちオレにはまだ分からないけどな
具体的にそれを示してくれて目から鱗が取れるようなのを期待してるけど
でも、第二言語をコミュニケーションツールとして使いこなせるようになった人には
ある程度の共通点があることがやっとなんとなくわかってきたところなので >自然な音で覚えれば、英語を運用するメンテナンスが自然にできてしまうものだろうか?
>そうはいかないと思う
母語である日本語は運用しながらメンテナンスをしている。
日本人の全員は国語を勉強しなくても、新しい単語や表現を覚えており、
そしてどんどん使う事ができる。
それは多くの単語や表現が記憶にあるから、どんな単語や表現でも
数回も聞けば、覚えて使えるようになるから、勉強する必要はない。 >しきい値は何処にあるのか
理屈的には記憶が海馬から大脳新皮質の長期記憶に保存される段階。
一般的には海馬は重要を思われる記憶を長期記憶に保存する事が知られている。
反復回数はその要因の一つではあるが、それだけではない。 >第二言語をコミュニケーションツールとして使いこなせるようになった人には
>ある程度の共通点があることがやっとなんとなくわかってきたところなので
それはただ一つ、多くの表現を使えるように記憶して事。
どんな方法でも忘れない学習にはなる。
しかし、文法や音読や訳読は効果的な方法ではない。
忘れないように覚えるなら最初からその方法や手段を意識した学習が効果的だ。 >具体的にそれを示してくれて目から鱗が取れるようなのを期待してるけど
現在サイトを構築中で、来年の2月から募集を始める予定。
まず100名程の1年間無料の創業会員の募集する。
もし、興味があればせひ、参加して欲しい。
英語学習者のSNSも運用しており、そこでソーシャルラーニングをしてもらう。 >それはただ一つ、多くの表現を使えるように記憶
なるほど、言わんとしていることを深層理解できたような気持になった
でもそれは、従来からある学習法には明示的に示されていないことだと感じるが >でもそれは、従来からある学習法には明示的に示されていないことだと感じるが
最大の理由は覚えるのを嫌がるから。
だから森沢もゴリゴリ暗記はするなと言っている。
そしてルールを学べば、つまり教える先生がいれば暗記をしないくても済むと言えるから。
先生主導の教材だから、当然学習ではなく、教育をする方法が提唱された。 >でもそれは、従来からある学習法には明示的に示されていないことだと感じるが
次の理由は脳がどうやって英語(言語)を習得するかが理解されていなかったから。
チョムスキーでさえ、人間には生まれつき言語を習得する機械を持つと誤解していた。
脳が生まれて、まったくゼロから学習する事が理解できなかった。
つまり脳科学の知識が今程理解されていなかったから。 >次の理由は脳がどうやって英語(言語)を習得するかが理解されていなかったから。
そのために第二言語習得理論が生れ、第一言語の母語とは違うと思われていた。
最大の理由は子供は言語を100%習得できるのに大人はほとんどが習得できないから。
臨界期以降は学習が方法が変わるから、大人は言語は言語を習得できないと考えた。
そして大人な論理的だから、論理つまり文法等の教えが必要だと思われた。 >最大の理由は子供は言語を100%習得できるのに大人はほとんどが習得できないから。
その理由は脳の学習方法が変わるからではない。
子供も大人も脳の学習方法はディープラーニング。
脳は一生成長をするから、脳の基本的な学習の仕組みは一生変わらない。
学習方法が同じだが、覚える表現は子供は短い簡単な表現から覚える。
その結果、英語を話せる環境があれば言語習得が可能。
しかし、大人は最初からかなり複雑な表現から覚える必用があるので、
英語を話すためには、話す環境ではなく、大人の表現を覚える時間が必要になる。
そして覚えるための教材も必要になる。
最適な教材は文法を基盤にしたものではなく、子供と同じようにネイティブの使う表現を真似る。 >子供も大人も脳の学習方法はディープラーニング。
人工知能から学ぶ「英語学習法」
http://president.jp/articles/-/17438 英語脳を手に入れる第一歩を解説しました。
http://blog.livedoor.jp/matrix_x/
商用サイトではありません。 >英語脳を手に入れる第一歩を解説しました。
英語脳は英語でなんと言うのですか?
日本人には日本語脳があるのですか?
サンキューと言われたら、英語脳が反応するのですか、
それとも日本語脳が反応しますか。 人工知能の研究により、人間の脳の学習方法が明確になった。
それがディープラーニング。
言語の場合はネイティブを真似る、そしてフィードバックで矯正する。
このディープラーニングは機械学習と呼ばれるが、人間の脳を真似たもの。 「英語脳を作成」 し、ペーパーバック(洋書)を 「英語のまま読める」 ようになる方法を提案しました。商用サイトではありませんので、安心して読んでください。
ガラパゴス English からの脱出!
http://blog.livedoor.jp/matrix_x/ >「英語のまま読める」
日本語だって日本語のまま理解していない。
言語は思考言語で理解している。 ディープラーニングの開発者の桜井氏が英語を話せない件 >それ普通に今までもやってたろ。
日本語ならそうだ。
しかし、英語なら文法を基本に教える。 人工知能の研究により、人間の脳の学習方法が明確になった。
それがディープラーニング。
言語の場合はネイティブを真似る、そしてフィードバックで矯正する。
このディープラーニングは機械学習と呼ばれるが、人間の脳を真似たもの。 >子供も大人も脳の学習方法はディープラーニング。
人工知能から学ぶ「英語学習法」
http://president.jp/articles/-/17438 ■ このスレッドは過去ログ倉庫に格納されています