この研究にはアメリカ英語を母国語とする75人が参加した。研究者らは、口の左右に接着剤のストリップと糸を取り付けた。次に、参加者の口角を上、下、または後ろに引っ張りながら、言葉をかけて聞かせました。参加者は聞いたことを報告しました。
似た響きの単語「had」と「head」の間で人工的に作成された 10 個のバリエーションが再生されました。 「had」の母音は「head」よりも少し深く聞こえ、発音するときの口は丸くなります。実際、参加者は、口角が下を向き、口が丸くなっているときに、より頻繁に「ハッド」を聞いていました。ロボットが口角を上げると、「頭」という音がより頻繁に聞こえます。ただし、この効果は、決定母音を発音するのにかかる時間と同じくらい口を歪めた場合にのみ発生しました。
音声知覚に関するこれまでの研究では、話された言葉を理解する際に、音声装置の動きを制御する脳のサブシステムが機能することがすでに示唆されている。新しい実験はこの理論を裏付けています。顔の筋肉からの神経信号は、聞こえた言葉の処理に直接影響を与えます。

