TOEIC900点オーバーをもぎとる次世代シャドウイング ~人体実験結果

☆記事のシェアOK

毎日生きていると、いろいろな発見があるのですが、今週も新しい発見をしました。

今日TOEICを4年ぶりに受けてきたんですが、

試験時間も5分くらいあまって、920点とれました

ちなみに最後にTOEICを受けたのは4年前くらいで800点ちょいくらいでした。

なぜ簡単に点数が上がったのかといえば、

今回は英語の認識を塗り替える実験をしてみたからです。

これまでは、英語を「目で視て」いましたが、

英語を「音で視て」いくことにしました。

どういうことか?

このきっかけとなるある経験があります。

3年前くらいに音声認識の自動学習プログラムや言語解析に強いイギリス企業の

音声認識ソフトをある会社に売ろうとした事があったんですが、

そのときは日本での販売実績もなく、

だれもそのソフトウェアのことを知らなかったので、

なにもわからない若かりし頃の私は、

音声認識の歴史からリサーチしました。

ケンブリッジ大学の教授が半世紀以上前に書いた論文が、

今の音声認識技術の基礎になっていたのですが、
(いまもたぶん変わっていないと思われます…専門じゃないので定かではないですが)

コンピューター、または人工知能(AI)はどのように言語を学び、アウトプットするか?

どのように処理をするのかが言語処理において一番効率的なのか?

ということに関する論文だったと思います。

音声認識の仕組みは噛み砕いていえば、

音の要素⇒言語辞書 の順番で処理されます。

たとえば、「わ」=WAの音が一番最初に発音されたとき音声認識ソフトウェアは、

WAの音素が最初に来る言葉を言語辞書から引っ張ってきて、

WA   ( TASHI) ⇒私?

WA    (SABI) ⇒わさび?

WA   (SSHOI) ⇒わっしょい?

と予測をします。

そして、

WA のつぎにSがくると、

(次はわさびかわっしょいだな!!!)

と予測して、WATASHIを予想から切り落とします。

WASSまでくると WASABIも切り落として、

もうこれはわっしょい(WASSHOI)しかない!!!!ということで、

わっしょい!と音声認識するわけです。

つまり音声認識の仕組みは、簡単に言うと、

言語を「音素(音の要素)」と、「言語辞書」の二つにわけて、

音素をベースに辞書を検索するという流れになります。

いまは3通りの辞書しか出ていませんが、

実際には10000時間くらいの音の波形と、
(ネイティブスピーカーを数十人連れてきてひたすら文章を発音させる)

数十万単位の言語辞書を紐付けて覚えさせます

ながながとなぜこんな説明を書いているかというと、

論文が書かれているくらいなので、

これが人間の言語習得においても情報処理上もっとも効率的なのではないかと思うからです。

人間もおそらく言語を習得する際に最も効率的な検索エンジンを脳内で作り上げて認識をしているとおもいます。

今回のTOEICの実験から人間も、おそらく「音素」をベースに、「言語辞書」を参照しているんじゃないかと感じるわけです。

今回のTOEICを受けるときにある実験をしました

音素をベースに言語辞書を作りあげるいうことをしました

具体的にやったことは、

TOEIC問題の文章を複数のネイティブスピーカーが読んでくれる参考書を買う

⇒答えを見ながら文章をとりあえず全て音で聞く

⇒英文をみながら耳で聞こえるものを全部まねしてシャドウイングする

これだけです。

最初はもちろん、全然ついていけないで、

あかちゃんがあぶあぶと英語っぽいリズムを取っているような感じになります

ちなみに「全部まねしてシャドウイングする」の「全部」がキーです

本当に、

声色とか男性・女性で変えますし、

感情移入とかも全部やります

それはもう、ものまね芸人になったかのように、

たとえばこんな英文があったら

How are the speakers going to the event?
(A)By bus

こんな感じで全部まねします

How are the speakers going to the event 女性の声

(A) 
渋い男性の声  By bus しゃがれた男性の声

こんな感じで、瞬時に声まねをしていくんです

そうすると、

シャドウイングするときに、音や単語、感情、現場のイメージ、声色等、

もろもろの周辺情報を脳は一緒に再現しようとしているので

再現しようとした記憶がうまくのこります (実際に発音できているかどうかは関係ない)

そうすると、英語の「雰囲気」が体に染み込んできます

これを1時間くらいやっていると、

全然発音とかはできてないけど、

耳で聞いた声をしっかり発音したような錯覚になって

なんだかしゃべったきになるんですよ

爆音でイヤホンでミスチルの彩りとかを聴きながら、

あわせて声を出して歌ってると、自分が桜井さんくらい歌がうまいんじゃないかって思うアレに似てます

次世代シャドウイングで、耳から入ったリズムの完全再現をしばらくして、

そのあと新しい英語の文章を聞いてみると、

リズムとして英語が入ってくるので

なんとなく意味がつかめるような気がするんです(あまりわからなくても、かなり分かる気がする)

そして、文章を読んでみると、読むスピードが格段にあがっています

たぶんこういう仕組みです

リーディングに関して、これまでは、目で見て、意味で理解していました

これが音節で認識できるようになると、読解のスピードがあがります

Rapid economic development in Indi and other parts of Asia has led to a rise in competition among corporations for highly- skilled technical workers.

という文章を意味で読んでいると、

上の単語を目で追うことになります。

でもこの文章を音で捉えると、

Ra pi  e no mi  dv p mn inIndi  an oth pa tf Asi ha le t a ri sin comp ti o na mo co po rt io fo hily sk  technica workers.

このように(あくまでイメージですが)2分の1くらいに情報量を減らす事ができます

脳内データベース検索のキーとなる音をベースに英語を見ると、

脳の中で予測変換機能がつくんです。

見るべき文字数が減って、理論上のスピードは倍以上になるということです。

さらにこの速度を上げたい場合は、音を認識するスピードを上げる。

さっきのシャドウイングを続ければいいです。

さらに速度をあげるには、様々な構文を覚えこませていけばよいです。

そうすれば写真記憶として瞬時に捉えることも可能です。

ベースとして、

音素をキーとした検索手法とそれに対応した言語辞書を持っていれば、

速読スピードは上がります。

この検索手法で英語を読むと、

頭から順に英文を読み進める事ができ、

英文を読み直す必要もなく、

意味はあとから抽象的に再統合されます。

再統合というプロセスはそこまで難しくないはずです

(日本語で日常的にやっている)

スピーキングに関しても同じ事が言えて、

目から入った情報は口から出ないけど、

耳から入った情報は口からでるんですよね。

プレゼン資料だけ作ってぶっつけ本番でしゃべろうとしても、

なかなかうまくいかないのはこの理由だと感じます。

プレゼンも、一回全部自分の口でしゃべったのを耳で聞いておくと、

スピーキングとして再現できるんですが、

目だけで理解していると経験上すらすらと再現できませんね。

すこし脱線しましたが、英語を処理するとき、

音素をベースに言語の連なりを検索するという効率的な手法をとる

≒人工知能が言語を学ぶのと同じように処理をすれば

≒赤ちゃんが自然に言葉をしゃべりだすのと同じ順番でインプット処理をすれば、

言語能力は飛躍的にあがるのではないかという

個人的な実験結果の発表でした☆

The following two tabs change content below.
ヘルスィーTANA☆AKK

ヘルスィーTANA☆AKK

タナーク株式会社/代表取締役社長売上UP実績はこちら
趣味:呼吸。住所:地球。東京大学法学部卒。生命と宇宙を感じながら、体を緩め歩いています。街中で見かけたらラッキー。経営顧問を常時10社以上兼任。プロフィール・会社概要はこちら