TOEICで990点満点中、900点を超えるための言語学習方法とは?

4年ぶりに受けたTOEICで試験時間が5分くらい余り、920点でした。

最後にTOEICを受けたのは4年前で800点程でした。

ちなみに、勉強時間は試験前の30日×1時間/日くらいです。

なぜ簡単に点数が上がったのかといえば、

今回は英語の認識を塗り替える実験をしてみたからです。

これまでは、英語を「目で視て」いましたが、

英語を「音で視て」いくことにしました。

 

 

どういうことか?

このきっかけとなる、ある経験があります。

社会人2年目のときに、人工知能に強いイギリス企業の音声認識ソフトを販売していました。

そのときは日本での販売実績もなく、

国内では誰もそのソフトウェアのことを知らなかったので、

なにもわからない若かりし頃の私は直接、研究開発部門長のMahaさんという人に聞きました。

 

すると、Mahaさんは英語の論文を送ってきました。

半世紀以上前に書かれた論文が、今の音声認識技術の基礎になっていたのですが、

 

コンピューター、または人工知能(AI)はどのように言語を学び、アウトプットするか?

どのように言語処理をすれば一番効率的なのか?

ということに関する論文でした。

 

音声認識の仕組みは噛み砕いていえば、

音⇒単語辞書 の順番で処理されます。

たとえば、「わ」=WAが一番最初に発音されたとき音声認識ソフトウェアは、

WAの音素が最初に来る言葉を言語辞書から引っ張ってきて、

WA   ( TASHI) ⇒私?

WA    (SABI) ⇒わさび?

WA   (SSHOI) ⇒わっしょい?

と予測をします。

そして、

WA のつぎにSがくると、

(次はわさびかわっしょいだな!!!)

と予測して、WATASHIを予想から切り落とします。

WASSまでくると WASABIも切り落として、

もうこれはわっしょい(WASSHOI)しかない!!!!ということで、

わっしょい!と音声認識するわけです。

 

つまり音声認識の仕組みは、簡単に言うと、

言語を「音素(音の要素)」と、「言語辞書」の二つにわけて、

音素をベースに辞書を検索するという流れになります。

 

いまは3通りの辞書で説明しましたが、

実際には10000時間くらいの音の波形と、
(ネイティブスピーカーを数十人連れてきてひたすら文章を発音させる)

数十万単位の言語辞書を紐付けて覚えさせます

 

なぜこんな説明を書いているかというと、

論文が書かれているくらいなので、

この音→単語という順番が人間の言語習得においても、自然な流れなのではないかと思うからです。

 

人間もおそらく言語を習得する際に最も効率的な検索エンジンを脳内で作り上げて認識しています。

人間も、おそらく「音素」をベースに、「言語辞書」を参照しているんじゃないかという予測のもと、

今回のTOEICを受けるときにある実験をしました。

人工知能と同じように、音素をベースに言語辞書を作りあげました。

 

 

具体的に行ったことは、

TOEIC問題の文章を複数のネイティブスピーカーが発声している参考書を買う

⇒答えを見ながら文章をとりあえず全て音で聞く

⇒英文をみながら耳で聞こえるものを全部まねしてシャドウイング(まねして発声)する

これだけです。

 

最初はもちろん、全然ついていけないので、

あかちゃんがあぶあぶと英語っぽいリズムを取っているような感じになります

ちなみに「全部まねしてシャドウイングする」の「全部」がキーです

 

本当に、

声色とか男性・女性で変えますし、感情移入もします。

それはもう、ものまね芸人になったかのように、

 

たとえばこんな英文があったら

How are the speakers going to the event?
(A)By bus

こんな感じで全部まねします

How are the speakers going to the event 女性の声

(A) 
渋い男性の声  By bus しゃがれた男性の声

こんな感じで、瞬時に声まねをしていくんです

そうすると、

シャドウイングするときに、音や単語、感情、現場のイメージ、声色等、

もろもろの周辺情報を脳は一緒に再現しようとしているので

再現しようとした記憶がうまく残ります (実際に発音できているかどうかは関係ない)

そうすると、英語の「雰囲気」が体に染み込んできます

これを1時間くらいやっていると、

発音はうまくできなくても、耳で聞いた声をしっかり発音したような錯覚になります。

 

 

たとえば、爆音でイヤホンでMr.childrenのgiftなどを聴きながら、

あわせて声を出して歌ってると、自分が桜井さんくらい歌がうまいんじゃないかと錯覚する状況に似ています。

 

耳から入ったリズムの完全再現をしばらくして、

そのあと新しい英語の文章を聞いてみると、

リズムとして英語が入ってくるので

なんとなく意味がつかめるような気がするんです(あまりわからなくても、かなり分かる気がする)←これが重要

そして、文章を読んでみると、読むスピードが格段にあがっています。

 

 

おそらく、音がわかっていると、検索スピードが上がります。

発音できるものは速く読めるという脳の仕組みなのでしょう。

 

リーディングに関して、これまでは、目で見て、意味で理解していました

これが音節で認識できるようになると、読解のスピードがあがります

Rapid economic development in India and other parts of Asia has led to a rise in competition among corporations for highly-skilled technical workers.

という文章を意味で読んでいると、

上の単語を目で追うことになります。

でもこの文章を音で捉えると、

Ra pi  e no mi  dv p mn inIndi  an oth pa tf Asi ha le t a ri sin comp ti o na mo co po rt io fo hily sk  technica workers.

このように(あくまでイメージですが)2分の1くらいに情報量を減らす事ができます

脳内データベース検索のキーとなる音をベースに英語を見ると、

脳の中で予測変換機能がつくんです。

見るべき文字数が減って、理論上のスピードは倍以上になるということです。

 

さらにこの速度を上げたい場合は、音を認識するスピードを上げ、単語辞書を増やせばよいです。

音で聞き、発音をまねすることが重要です。

 

 

 

人間の言語学習も人工知能のそれと同じように、

音素をキーとした検索手法とそれに対応した言語辞書を持っていれば、

速読スピードは上がるということではないでしょうか。

 

この検索手法で英語を読むと、

頭から順に英文を読み進める事ができ、

英文を読み直す必要もなく、

意味はあとから抽象的に再統合されます。

 

抽象的な再統合というプロセスはそこまで難しくないはずです。

(日本語で日常的にやっている)

 

日本人が苦手なスピーキングに関しても同じ事が言えて、

目から入った情報は口から出ないけど、

耳から入った情報は口から自然と出るんですよね。

 

たとえば、プレゼン資料だけを作って本番で流暢に話そうとしてもなかなかうまくいきません。

しかし、一回自分でしゃべっているのを録音し、耳で聞きなおすと本番もうまく再現できます。目だけで理解していると再現できませんが音で理解していると再現できます。

 

 

 

 

まとめると、

英語を学習するとき、音で学び、発音する訓練を主に行うのがよい

→音素をベースに言語の連なりを検索するという効率的な手法をとる

≒人工知能が言語を学ぶのと同じように処理をすれば

≒赤ちゃんが自然に言葉をしゃべりだすのと同じ順番でインプット処理をすれば、

言語能力は飛躍的に高まるのではないか?という

個人的な実験結果でした!