X



ラーニング・ソサイエティ その01
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@英語勉強中 (ワッチョイ 31bf-zM96)
垢版 |
2017/11/04(土) 15:01:17.96ID:jb8IYYN70
英会話革命によるラーニング・ソサイエティが始まります。
0722名無しさん@英語勉強中 (ワッチョイW 3933-zITu)
垢版 |
2018/04/30(月) 09:01:39.02ID:fnf/ym7C0
>>717
>ソロバンは揺らぎのある珠の動きを
>意図時に上と下の値だけを使うだけで、
>揺らぎの問題を解消している。

桜井はこの文でソロバンが離散値を使う事を認めている。
実はソロバンがデジタル計算機だと気付いているんじゃねえの?

流石に 今まで 桜井の説を援護する人間はひとりもいなかった事からも察する事が出来ない?
0723名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 09:21:13.48ID:VO6wsHMc0
>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

http://www.itmedia.co.jp/news/articles/1803/27/news053_2.html

そんな中、2016年に現れたWaveNetが、精度良くゆらぎを表現した「自然な音声」を実現した。
「こんなことができるとは多分皆思っていなかったし、私も思っていなかった」と戸田教授はその衝撃度合いを表現する。

鍵は音声を「点」として考える“ディープラーニング”
WaveNetはどのように「自然な音声」を作っているのか。戸田教授はインフラ的な側面として「データ量と計算能力」と、
アルゴリズム的な側面として「音声を『点』の時系列として捉え、ディープラーニングに入力するということ」があると指摘する。
0724名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 09:23:03.07ID:VO6wsHMc0
>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

園児じゃあるまいし、否定だけするな、このバカ。
人間の音声に近づけるのはどうやって、合成音を作っているのだ。
音声合成の事も何も知らない。
単なる無学なキチガイ。
0725名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 09:27:32.84ID:VO6wsHMc0
>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

そんな中、2016年に現れたWaveNetが、精度良くゆらぎを表現した「自然な音声」を実現した。
鍵は音声を「点」として考える“ディープラーニング”

ゆらぎをディープラーニングさせているのは間違いない事実だ。

WaveNetを作ったのはAlphaGoでディープラーニングの学習効果を証明した、
Deepmindだ。
0726名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 09:29:19.10ID:VO6wsHMc0
>園児じゃあるまいし、否定だけするな、このバカ。

否定しかできない幼児。
そしてその幼児の否定が無理、無学からくる、
大間違いの否定。

お粗末。
大笑い。
0727名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 09:35:55.58ID:VO6wsHMc0
>D/A変換する時に量子化量

このバカ、量子化するならなぜD/A変換するのだ。
基本的な知識もない、無学なバカ。

これはある音声波形から1秒間に4万4100回、波形の「一瞬」を切り取り(標本化)、
その波形の値を2の16乗の種類、すなわち、6万5536種類の値に置き換え(量子化)、
1秒間の空気振動を4万4100個の6万5536種類からなる点というデジタルデータで
表しているということだ。

点で表現しているから、あくまでも多数の離散したデータだ。
無数の離散したデータでアナログのような特徴を持たせているだけだ。
アナログのように聞こえるだけで、デジタルデータのままだ。
0730名無しさん@英語勉強中 (ワッチョイW 3933-zITu)
垢版 |
2018/04/30(月) 10:14:37.00ID:fnf/ym7C0
>>727
>>D/A変換する時に量子化量
>このバカ、量子化するならなぜD/A変換するのだ。
>基本的な知識もない、無学なバカ。

デジタル化した音を自然な音としてスピカーから出すには
再度アナログ化する必要があるんだよ。

デジタル値は量子化されているからそれをアナログ値としてスピーカーに与える必要がありそれがD/A変換だ。

その際の処理にディープラーニングで得られた揺らぎなんてものを与える事はない。
そんなものがあったらお目にかかりたい。
何処のメーカーのなんて言うD/Aコンバーター?
データシートのURLを示してくれ。

万が一ディープラーニングから得られた値で揺らぎを与えるようなアルゴリズムがあった
としてもそれはデジタル値に対してデジタル演算する
もので量子化誤差を隠蔽して自然に聞こえるようにするものではない。
0731名無しさん@英語勉強中 (ワッチョイW 3933-zITu)
垢版 |
2018/04/30(月) 10:20:29.43ID:fnf/ym7C0
>>725
>そんな中、2016年に現れたWaveNetが、精度良くゆらぎを表現した「自然な音声」を実現した。
>鍵は音声を「点」として考える“ディープラーニング”

WaveNetが実施するのはデジタル化された後の処理だよ。
デジタル値そのものが変わっている。
出力段のD/A変換には絡まない。
0733名無しさん@英語勉強中 (ワッチョイW 3933-zITu)
垢版 |
2018/04/30(月) 10:23:47.19ID:fnf/ym7C0
>>ソロバンは揺らぎのある珠の動きを
>>意図時に上と下の値だけを使うだけで、
>>揺らぎの問題を解消している。
>桜井はこの文でソロバンが離散値を使う事を認めている。

で桜井は
ソロバンが上、下の値だけ使う事は認めるんだな?
0734名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 10:42:31.23ID:VO6wsHMc0
>桜井のA/D変換、,D/A変換に対する無知がバレバレ

音声を量子化するのは音声をデジタルで加工するだけだ。
変換はまったく含まれていない。

>WaveNetが実施するのはデジタル化された後の処理だよ。

勿論その通りだ。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタル化された後に、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。
0735名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 10:50:54.97ID:VO6wsHMc0
>桜井のA/D変換、,D/A変換に対する無知がバレバレ

デジタル録音の時代に
A/D変換、,D/A変換とか持ち出すバカ。
アナログを変換すると思っている、無知と無学なバカ。

>WaveNetが実施するのはデジタル化された後の処理だよ。

音声は最初からデジタルで録音するから
昔のようにデジタル化された後と言うのは間違いだ。

最初からデジタル録音だから、デジタル化の必要はない。

デジタル録音の時代に
A/D変換、,D/A変換とか持ち出すバカ。
0736名無しさん@英語勉強中 (ワッチョイ 2b81-luqG)
垢版 |
2018/04/30(月) 10:58:51.00ID:NB1fG6Sq0
>>735
>アナログを変換すると思っている、無知と無学なバカ。

出ました究極の無知と無学なバカ桜井

音楽で言えばオーケストラの各楽器から
直接デジタルデータが
取得できるとでも思ってるのか?

どうして桜井はこんなにバカなんだ
0737名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:14:02.62ID:VO6wsHMc0
>音楽で言えばオーケストラの各楽器から
>直接デジタルデータが
>取得できるとでも思ってるのか?

現在はアナログの自然音を直接デジタル録音している。
それはA/D変換ではなく、デジタル録音と言うのだ。

録音した段階ではもうデジタルデータの状態だ。

デジタル録音すれば、デジタル化はまったく無用の言葉だ。

デジタル録音の時代に
A/D変換、,D/A変換とか持ち出すバカ。
アナログを変換すると思っている、無知と無学なバカ。
0738名無しさん@英語勉強中 (ワッチョイ 2b81-luqG)
垢版 |
2018/04/30(月) 11:18:25.46ID:NB1fG6Sq0
>>737
>現在はアナログの自然音を直接デジタル録音している。

残念ながら、この世にはデジタルマイクは未だ存在しない

音波をマイクでアナログデータ化してA/D変換し、
デジタルデータとして記録するのが「デジタル録音」
残念だったな

どうして桜井はこんなにインチキでバカなんだ
0739名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:18:53.54ID:VO6wsHMc0
>D/A変換する時に量子化量

デジタル録音なら
量子化 サンプリングした電圧の値を、何段階かの値に変換する作業で
量子化されている。

デジタル録音の時代に
A/D変換、,D/A変換とか持ち出すバカ。
アナログを変換すると思っている、無知と無学なバカ。
デジタル録音なら、D/A変換する必要はまったくない。
0743名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:26:46.14ID:VO6wsHMc0
>音波をマイクでアナログデータ化してA/D変換し、
>デジタルデータとして記録するのが「デジタル録音」
>残念だったな

「デジタル録音」 で既にデジタルデータがあるなら、
A/D変換、,D/A変換とか持ち必要がないだろう。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタル化された後に、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。
0744名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:28:43.70ID:VO6wsHMc0
>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。
0745名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:30:44.68ID:VO6wsHMc0
>デジタル化した音を自然な音としてスピカーから出すには
>再度アナログ化する必要があるんだよ。

話しをすり替えるな。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。
0746名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:32:24.43ID:VO6wsHMc0
>デジタル化した音を自然な音としてスピカーから出すには
>再度アナログ化する必要があるんだよ。

そうだ。
人間は音もソロバンもアナログでないと使う事はできない。

話しをすり替えるな。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。
0747名無しさん@英語勉強中 (ワッチョイ 2b81-luqG)
垢版 |
2018/04/30(月) 11:32:52.66ID:NB1fG6Sq0
>>743
>「デジタル録音」 で既にデジタルデータがあるなら、

だから、そのデジタルデータはどうやって作られるかって話だよ
楽器音はA/D変換無しでいきなりデジタル化されて媒体に保存されんのか?w

どうして桜井はこんなにバカなんだ
0748名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:34:03.75ID:VO6wsHMc0
>演奏家のバイオリンの音がどうやったらデジタル化されるか言ってみろ桜井

そうだ。
人間は音もソロバンもアナログでないと使う事はできない。

話しをすり替えるな。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。
0749名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:35:21.45ID:VO6wsHMc0
>楽器音はA/D変換無しでいきなりデジタル化されて媒体に保存されんのか?w

卑怯者、話しをすり替えるな。

>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。
0750名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:36:10.41ID:VO6wsHMc0
>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。
0752名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:41:13.50ID:VO6wsHMc0
>楽器音はA/D変換無しでいきなりデジタル化されて媒体に保存されんのか?w

卑怯者、話しをすり替えるな。

>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。
0754名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:41:53.15ID:VO6wsHMc0
>楽器音がA/D変換無しでデジタル化される珍説を
>ここで堂々と述べてみろ

卑怯者、話しをすり替えるな。

>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。
0756名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:42:50.29ID:VO6wsHMc0
>演奏家が演奏する楽器音はアナログか デジタルか どっちだ?
>これくらいわかるよな 桜井

キチガイ。
卑怯者、話しをすり替えるな。

>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。
0757名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:44:34.80ID:VO6wsHMc0
>演奏家のバイオリンの音がどうやったらデジタル化されるか言ってみろ桜井

そうだ。
人間は音もソロバンもアナログでないと使う事はできない。

話しをすり替えるな。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。
0758名無しさん@英語勉強中 (ワッチョイ 2b81-luqG)
垢版 |
2018/04/30(月) 11:44:43.40ID:NB1fG6Sq0
>>752
>卑怯者、話しをすり替えるな。

そりゃ お前だっての 桜井

>>737
>現在はアナログの自然音を直接デジタル録音している。

A/D変換無しでデジタル録音されるって珍説を披露したのは桜井だからな

堂々とその珍説について原理や仕組みを語ってもらおうじゃないのw

どうして桜井はこんなにバカなんだ
0759名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:46:08.91ID:VO6wsHMc0
>そうだ。
>人間は音もソロバンもアナログでないと使う事はできない。

自然界はアナログばかりだ。
人間が扱えるのはアナログだけだ。
もちろん、ソロバンも典型的なアナログ計算器だ。
0760名無しさん@英語勉強中 (ワッチョイ 2b81-luqG)
垢版 |
2018/04/30(月) 11:46:40.88ID:NB1fG6Sq0
>>752
>卑怯者、話しをすり替えるな。

そりゃ お前だっての 桜井

>>737
>現在はアナログの自然音を直接デジタル録音している。

A/D変換無しでデジタル録音されるって珍説を披露したのは桜井だからな

堂々とその珍説について原理や仕組みを語ってもらおうじゃないのw

どうして桜井はこんなにバカなんだ
0761名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:46:58.02ID:VO6wsHMc0
>A/D変換無しでデジタル録音されるって珍説を披露したのは桜井だからな

キチガイ。
卑怯者、話しをすり替えるな。

>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。
0762名無しさん@英語勉強中 (ワッチョイ 2b81-luqG)
垢版 |
2018/04/30(月) 11:48:42.87ID:NB1fG6Sq0
>>752
>卑怯者、話しをすり替えるな。

そりゃ お前だっての 桜井
逃げてないで、とっとと答えな

>>737
>現在はアナログの自然音を直接デジタル録音している。

A/D変換無しでデジタル録音されるって珍説を披露したのは桜井だからな

堂々とその珍説について原理や仕組みを語ってもらおうじゃないのw

どうして桜井はこんなにバカなんだ
0763名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 11:51:11.15ID:VO6wsHMc0
>A/D変換無しでデジタル録音されるって珍説を披露したのは桜井だからな

キチガイ。
卑怯者、話しをすり替えるな。

>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。
0764名無しさん@英語勉強中 (ワッチョイ 2b81-luqG)
垢版 |
2018/04/30(月) 11:53:50.50ID:NB1fG6Sq0
>>752
>卑怯者、話しをすり替えるな。

そりゃ お前だっての 桜井
逃げてないで、とっとと答えな

>>737
>現在はアナログの自然音を直接デジタル録音している。

A/D変換無しでデジタル録音されるって珍説を披露したのは桜井だからな

堂々とその珍説について原理や仕組みを語ってもらおうじゃないのw
自分の発言に責任を持て キチガイ

どうして桜井はこんなにバカなんだ
0765名無しさん@英語勉強中 (ワッチョイW 3933-zITu)
垢版 |
2018/04/30(月) 12:04:24.29ID:fnf/ym7C0
>>734
>>桜井のA/D変換、,D/A変換に対する無知がバレバレ
>音声を量子化するのは音声をデジタルで加工するだけだ。
>変換はまったく含まれていない。

含まれないどころか量子化はA/D変換の基本手順の1つで変換過程そのものです。
(基本的な教科書や一般の解説hpに出ているレベルの話)
0766名無しさん@英語勉強中 (ワッチョイ 2b81-luqG)
垢版 |
2018/04/30(月) 12:06:39.00ID:NB1fG6Sq0
ソロバンの扱っている値が1,0じゃないからアナログだなんて
言っていた桜井のデジタルに関する知識ってこんなもんなんだよ

どうして桜井はこんなにバカなんだ
0767名無しさん@英語勉強中 (ワッチョイW 3933-zITu)
垢版 |
2018/04/30(月) 12:13:33.21ID:fnf/ym7C0
>>735
>音声は最初からデジタルで録音するから
>昔のようにデジタル化された後と言うのは間違いだ。

きちっと勉強したほうがいいですよ。
マイクは音の信号を電圧の強弱に変換する。
この時点の電圧は必ず「アナログ値」である。

録音する為にCPUやDSPに処理を渡すにはこのアナログ信号をデジタル値に一旦変換する必要がある。
一般にデジタル機器と言われるものはこの部分でA/D変換が行われる。
最初からデジタルで録音すると言っているが必ずA/D変換されるのだよ。
これが終わった後にニューラルネット系の処理に回す。
0768名無しさん@英語勉強中 (ワッチョイW 3933-zITu)
垢版 |
2018/04/30(月) 12:25:50.34ID:fnf/ym7C0
音声データを機械学習でディープラーニングする場合の流れ

(1)空気の振動を検出する素子で読み取る
→ アナログ値として電圧変化を検出
(2)A/D変換する
(最近のMEMSマイクはA/D変換器を内蔵していたりする。)
→ デジタル値が出てくる。
(量子化誤差等はここで既にある)
(3)CPUはデジタルデータを受け取りTensorflow等のライブラリを使い多段(ディープラーニングはここの階層が深い事を意味する)のラーニングを行う。

ディープラーニングをするのはあA/D変換後です。
0770名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 18:02:42.57ID:VO6wsHMc0
>>そのの揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

つまり揺らぎの学習はもちろん人間の音声を真似るディープラーニングでやっている。

>>ディープラーニングをするのはあA/D変換後です。

揺らぎの学習に関して人間の音声を真似るディープラーニングをしているか
どうかの話しだ。

ディープラーニングをするのはA/D変換後だから
ディープラーニングをしている事は間違いない。
0771名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 18:04:12.73ID:VO6wsHMc0
>>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

間違いなくやっている。

>ディープラーニングをするのはあA/D変換後です。

A/D変換後にディープラーニングをやっている。
0772名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 18:05:58.17ID:VO6wsHMc0
>A/D変換無しでデジタル録音されるって珍説を披露したのは桜井だからな

キチガイ。
卑怯者、話しをすり替えるな。

>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。

>ディープラーニングをするのはあA/D変換後です。

ディープラーニングをやっているのは紛れもない事実だ。
0773名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 18:07:41.70ID:VO6wsHMc0
>そうだ。
>人間は音もソロバンもアナログでないと使う事はできない。

自然界はアナログばかりだ。
人間が扱えるのはアナログだけだ。
もちろん、ソロバンも典型的なアナログ計算器だ。
0774名無しさん@英語勉強中 (ワッチョイ 2b81-luqG)
垢版 |
2018/04/30(月) 18:30:00.68ID:NB1fG6Sq0
>>737
>現在はアナログの自然音を直接デジタル録音している。

A/D変換無しでデジタル録音されるって珍説を披露したのは桜井だからな

堂々とその珍説について原理や仕組みを語ってもらおうじゃないのw

どうして桜井はこんなにバカなんだ
0777名無しさん@英語勉強中 (ワントンキン MMd3-x1HS)
垢版 |
2018/04/30(月) 20:54:56.66ID:kuq914uiM
>>737
>デジタル録音の時代に
>A/D変換、,D/A変換とか持ち出すバカ。
>アナログを変換すると思っている、無知と無学なバカ。

桜井の表層的で薄っぺらい知識レベルを
表す代表的なレスだよな

どうして桜井は、こんなにバカなんだ
0779名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 21:29:13.65ID:VO6wsHMc0
>A/D変換無しでデジタル録音されるって珍説を披露したのは桜井だからな

キチガイ。
卑怯者、話しをすり替えるな。

>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。

>ディープラーニングをするのはあA/D変換後です。

ディープラーニングをやっているのは紛れもない事実だ。
0780名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/04/30(月) 21:30:04.57ID:VO6wsHMc0
>そうだ。
>人間は音もソロバンもアナログでないと使う事はできない。

自然界はアナログばかりだ。
人間が扱えるのはアナログだけだ。
もちろん、ソロバンも典型的なアナログ計算器だ。
0783名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/05/01(火) 05:53:38.78ID:vRZoRqdh0
>A/D変換無しでデジタル録音されるって珍説を披露したのは桜井だからな

キチガイ。
卑怯者、話しをすり替えるな。

>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。

>ディープラーニングをするのはあA/D変換後です。

ディープラーニングをやっているのは紛れもない事実だ。
0784名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/05/01(火) 05:53:57.73ID:vRZoRqdh0
>そうだ。
>人間は音もソロバンもアナログでないと使う事はできない。

自然界はアナログばかりだ。
人間が扱えるのはアナログだけだ。
もちろん、ソロバンも典型的なアナログ計算器だ。
0785名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/05/01(火) 06:45:30.20ID:vRZoRqdh0
>何が言いたいのか コピペじゃわかんないよな

どうせ何を言っても分からんウソつきだが、何度でも言ってやる。
5才の孫なら1回言えば理解できる。

キチガイ。
卑怯者、話しをすり替えるな。

>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。

>ディープラーニングをするのはあA/D変換後です。

ディープラーニングをやっているのは紛れもない事実だ。
0786名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/05/01(火) 06:48:05.16ID:vRZoRqdh0
>それがお前の限界なんだって

話しをすり替えるお前には限界はないだろう。
ウソを言って、次は話をすり替える。
こんなバカ、コピペするのも面倒だ。
0788名無しさん@英語勉強中 (ワッチョイW 3933-zITu)
垢版 |
2018/05/01(火) 10:21:02.59ID:s5qRRiqL0
>>779
>>ディープラーニングをするのはあA/D変換後です。
>ディープラーニングをやっているのは紛れもない事実だ。

アナログ値からデジタル値に変換して時の誤差を
修正するためにやっているわけでない事を認めたね。
0789名無しさん@英語勉強中 (ワッチョイW 3933-zITu)
垢版 |
2018/05/01(火) 10:25:20.11ID:s5qRRiqL0
>>737
>現在はアナログの自然音を直接デジタル録音している。
>それはA/D変換ではなく、デジタル録音と言うのだ。

桜井さん

またまた 「トンデモ理論 」発明しましたね。

現在の機器では音声をA/D変換せずに直接デジタル録音しているとは…。

ちなみにどのメーカーの何て装置でこれを行なっているんですか?
大発見だと思うので是非教えてください。
0790名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/05/01(火) 16:25:21.01ID:vRZoRqdh0
>何が言いたいのか コピペじゃわかんないよな

どうせ何を言っても分からんウソつきだが、何度でも言ってやる。
5才の孫なら1回言えば理解できる。

キチガイ。
卑怯者、話しをすり替えるな。

>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。

>ディープラーニングをするのはあA/D変換後です。

ディープラーニングをやっているのは紛れもない事実だ。
0791名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/05/01(火) 16:25:44.88ID:vRZoRqdh0
>そうだ。
>人間は音もソロバンもアナログでないと使う事はできない。

自然界はアナログばかりだ。
人間が扱えるのはアナログだけだ。
もちろん、ソロバンも典型的なアナログ計算器だ。
0792名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/05/01(火) 17:28:59.69ID:vRZoRqdh0
>アナログ値からデジタル値に変換して時の誤差を
>修正するためにやっているわけでない事を認めたね。

誤差に関して何も話してもいない。
単に揺らぎのディープラーニングをしている事が正い事を証明しただけだ。

>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。
0793名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/05/01(火) 17:30:36.06ID:vRZoRqdh0
>単に揺らぎのディープラーニングをしている事が正い事を証明しただけだ。

ついでにソロバンがアナログ計算器であることも証明した。

>そうだ。
>人間は音もソロバンもアナログでないと使う事はできない。

自然界はアナログばかりだ。
人間が扱えるのはアナログだけだ。
もちろん、ソロバンも典型的なアナログ計算器だ。
0795名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/05/01(火) 23:02:35.95ID:vRZoRqdh0
>いやぁ桜井がデジタルについてどれだけ無知か

ついでにソロバンがアナログ計算器であることも証明した。

>そうだ。
>人間は音もソロバンもアナログでないと使う事はできない。

自然界はアナログばかりだ。
人間が扱えるのはアナログだけだ。
もちろん、ソロバンも典型的なアナログ計算器だ。
0797名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/05/02(水) 06:01:07.78ID:6zaXzmxI0
>で、どうやってA/D変換なしで
>デジタル録音するんだっけ?www

キチガイ。
卑怯者、話しをすり替えるな。

>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。

>ディープラーニングをするのはあA/D変換後です。

ディープラーニングをやっているのは紛れもない事実だ。
0798名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/05/02(水) 06:01:43.11ID:6zaXzmxI0
>単に揺らぎのディープラーニングをしている事が正い事を証明しただけだ。

ついでにソロバンがアナログ計算器であることも証明した。

>そうだ。
>人間は音もソロバンもアナログでないと使う事はできない。

自然界はアナログばかりだ。
人間が扱えるのはアナログだけだ。
もちろん、ソロバンも典型的なアナログ計算器だ。
0800名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/05/02(水) 14:00:06.92ID:6zaXzmxI0
>面倒だったら早く死ぬといいですよ(微笑)

ついうい、無知、無学、無気力のバカニートをボコボコニするのが楽しくて・・・
(大高笑い)
0801名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/05/02(水) 14:00:46.88ID:6zaXzmxI0
キチガイ。
卑怯者、話しをすり替えるな。

>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。

>ディープラーニングをするのはあA/D変換後です。

ディープラーニングをやっているのは紛れもない事実だ。
0802名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/05/02(水) 14:01:02.89ID:6zaXzmxI0
ついでにソロバンがアナログ計算器であることも証明した。

>そうだ。
>人間は音もソロバンもアナログでないと使う事はできない。

自然界はアナログばかりだ。
人間が扱えるのはアナログだけだ。
もちろん、ソロバンも典型的なアナログ計算器だ。
0803名無しさん@英語勉強中 (ワッチョイ 21bf-J6fI)
垢版 |
2018/05/02(水) 14:50:19.71ID:6zaXzmxI0
>面倒だったら早く死ぬといいですよ(微笑)

ついつい、無知、無学、無気力のバカニートをボコボコニするのが楽しくて・・・
(大高笑い)
0804名無しさん@英語勉強中 (ワッチョイ 21bf-XMtE)
垢版 |
2018/05/02(水) 20:33:14.22ID:6zaXzmxI0
キチガイ。
卑怯者、話しをすり替えるな。

>>その揺らぎの学習はもちろん人間の音声を真似るディープラーニングです。

>D/A変換する時に量子化量に対して揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力するなんて事はしません。

デジタルデータに、ディープラーニングで揺らぎを与えて 学習した人間の音声に近づけてスピーカーから出力する事は
紛れもない事実だ。

>ディープラーニングをするのはあA/D変換後です。

ディープラーニングをやっているのは紛れもない事実だ。
0805名無しさん@英語勉強中 (ワッチョイ 21bf-XMtE)
垢版 |
2018/05/02(水) 20:33:33.92ID:6zaXzmxI0
>面倒だったら早く死ぬといいですよ(微笑)

ついつい、無知、無学、無気力のバカニートをボコボコニするのが楽しくて・・・
(大高笑い)
0806名無しさん@英語勉強中 (ワッチョイ 21bf-XMtE)
垢版 |
2018/05/02(水) 20:42:56.89ID:6zaXzmxI0
>桜井曰く、

>>ウソを続けるのは大変な事だ。

>らしいからなwww
>ソロバンがデジタル計算器なのは真実なので
>こっちはいくらでも言い続けられるけど

ソロバンが離散値を使って計算している根拠と、
自然界に存在しない、離散値を使うメリットは何もない。

お前はちっとも言い続ける事ができていないから
ソロバンがデジタル計算器なのは真実ではなかった事が証明できる。

お前の言う事はウソだらけだが、行動はウソをつけなかった。

ソロバンがデジタル計算器でないことをお前も十分に理解しているようだ。
お前のようなウソつきでも、ウソを続けるのは大変な事だ。
0807名無しさん@英語勉強中 (ワッチョイ 21bf-XMtE)
垢版 |
2018/05/02(水) 20:43:43.95ID:6zaXzmxI0
桜井様
ソロバンはアナログ計算機である事を世界中に知らしめる時が来たのではないでしょうか?

5ちゃんだけで解いているのでは勿体無すぎる真理です!

世界中のソロバンはデジタルだと言う間違った認識を今こそ正す時です。

誰一人気づかなかった真理に桜井様だけが到達されたのですから。
0808名無しさん@英語勉強中 (ワッチョイ bbbf-UBB+)
垢版 |
2018/05/03(木) 07:23:06.84ID:Ay7i4eZC0
>面倒だったら早く死ぬといいですよ(微笑)

ついつい、無知、無学、無気力のバカニートをボコボコニするのが楽しくて・・・
(大高笑い)
0809名無しさん@英語勉強中 (ワッチョイ bbbf-UBB+)
垢版 |
2018/05/03(木) 08:02:36.77ID:Ay7i4eZC0
>桜井曰く、

>>ウソを続けるのは大変な事だ。

>らしいからなwww
>ソロバンがデジタル計算器なのは真実なので
>こっちはいくらでも言い続けられるけど

ソロバンが離散値を使って計算している根拠と、
自然界に存在しない、離散値を使うメリットは何もない。

お前はちっとも言い続ける事ができていないから
ソロバンがデジタル計算器なのは真実ではなかった事が証明できる。

お前の言う事はウソだらけだが、行動はウソをつけなかった。

ソロバンがデジタル計算器でないことをお前も十分に理解しているようだ。
お前のようなウソつきでも、ウソを続けるのは大変な事だ。
0810名無しさん@英語勉強中 (ワッチョイ bbbf-UBB+)
垢版 |
2018/05/03(木) 08:02:56.97ID:Ay7i4eZC0
桜井様
ソロバンはアナログ計算機である事を世界中に知らしめる時が来たのではないでしょうか?

5ちゃんだけで解いているのでは勿体無すぎる真理です!

世界中のソロバンはデジタルだと言う間違った認識を今こそ正す時です。

誰一人気づかなかった真理に桜井様だけが到達されたのですから。
0812名無しさん@英語勉強中 (ワッチョイ 039b-EzQi)
垢版 |
2018/05/04(金) 22:04:04.59ID:a/HVdLqm0
deschooling societyのパクり。
0813名無しさん@英語勉強中 (コードモ bbbf-UBB+)
垢版 |
2018/05/05(土) 06:39:05.81ID:m+pevNs400505
>deschooling societyのパクり。

このバカはディープラーニングの意味が理解できない。
deschoolingとディープラーニングは同じではない。
学校を無くすのが目的ではない。
アクティブラーニングとディープラーニングを促進するのが目的だ。
そのためには理論とか教材とか学習環境が必要だ。
0814名無しさん@英語勉強中 (コードモ bbbf-UBB+)
垢版 |
2018/05/05(土) 06:43:08.64ID:m+pevNs400505
>deschooling societyのパクり。

学校がある事が問題ではない。
先生が教えて、生徒が教えてもらう事が大きな問題だ。
アクティブラーニングとディープラーニングを促進するのが目的だ。
そのためには正しい、理論とか教材とか学習環境が必要だ。
0816名無しさん@英語勉強中 (コードモ bbbf-UBB+)
垢版 |
2018/05/05(土) 18:45:18.75ID:m+pevNs400505
>deschooling societyのパクり。

このバカはディープラーニングの意味が理解できない。
deschoolingとディープラーニングは同じではない。
学校を無くすのが目的ではない。
アクティブラーニングとディープラーニングを促進するのが目的だ。
そのためには理論とか教材とか学習環境が必要だ。
0817名無しさん@英語勉強中 (コードモ bbbf-UBB+)
垢版 |
2018/05/05(土) 18:45:46.54ID:m+pevNs400505
>deschooling societyのパクり。

学校がある事が問題ではない。
先生が教えて、生徒が教えてもらう事が大きな問題だ。
アクティブラーニングとディープラーニングを促進するのが目的だ。
そのためには正しい、理論とか教材とか学習環境が必要だ。
0820名無しさん@英語勉強中 (ワッチョイ bbbf-UBB+)
垢版 |
2018/05/06(日) 06:17:32.53ID:P5HQV+Rq0
>deschooling societyのパクり。

このバカはディープラーニングの意味が理解できない。
deschoolingとディープラーニングは同じではない。
学校を無くすのが目的ではない。
アクティブラーニングとディープラーニングを促進するのが目的だ。
そのためには理論とか教材とか学習環境が必要だ。
0821名無しさん@英語勉強中 (ワッチョイ bbbf-UBB+)
垢版 |
2018/05/06(日) 06:17:55.21ID:P5HQV+Rq0
>deschooling societyのパクり。

このバカはディープラーニングの意味が理解できない。
deschoolingとディープラーニングは同じではない。
学校を無くすのが目的ではない。
アクティブラーニングとディープラーニングを促進するのが目的だ。
そのためには理論とか教材とか学習環境が必要だ。
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況