偽造音声でのなりすまし、実現は間近

【転載】

テクノロジー犯罪被害者 のりぴよとポンポン
http://noripiyotoponpon.blog.fc2.com/

「偽造音声でのなりすまし、実現は間近」
http://noripiyotoponpon.blog.fc2.com/blog-entry-5109.html?sp

ーーーーーーーーーーーーーーーーーーーーー

http://itpro.nikkeibp.co.jp/atcl/idg/17/053100041/053100001/?ST=cio-security

http://itpro.nikkeibp.co.jp/atcl/idg/17/053100041/053100001/?ST=cio-security&P=2
上記サイトから引用です。詳細は上記サイトでご覧下さい。

 まだ完璧ではないが、そのような技術は、既に驚くほど目前まで来ている。米Adobe Systemsが2016年秋に開催したカンファレンス「Adobe MAX 2016」では、「声のPhotoshop」という触れ込みの新技術「VoCo」の実演があった。この時は、「I kissed my dogs and my wife.(うちの犬と妻にキスをした)」と録音した男性の声を基にして、「I kissed Jordan three times.(Jordanに3回キスをした)」という発言を同じ声で自動生成し、会場は大受けだった。

 「20分間の音声サンプルがあれば、誰の声で何を言わせることもできる」というのがVoCoのうたい文句だ。

引用終了。

http://itpro.nikkeibp.co.jp/atcl/idg/17/053100041/053100001/?ST=cio-security&P=3
上記サイトから引用です。

 2017年4月には、カナダ・モントリオール大学のMILA(Montreal Institute for Learning Algorithms)に在籍する大学院生が設立したスタートアップLyrebirdが、模倣音声を生成するソフトウエアへの出資者を探していることを発表した。本人の声の録音が1分間あれば、その声を再現して好きなことを言わせられるソフトだという。

 米Scientific American誌では、Lyrebirdの技術の基盤について次のように説明している。「Lyrebirdのアプローチの鍵は、人工ニューラルネットワークである。人間の脳のように機能させるためのアルゴリズムを使っている。その基盤にはディープラーニングの手法があり、音の断片を発話に変換する」

 創業者らによると、Lyrebirdのシステムは、わずか1分間の録音だけで、誰の声にも順応できる。

 その刺激的な(あるいは不気味な)影響は、Scientific Americanの言葉を借りればこうだ。「Lyrebirdのシステムは、文字、音素、単語の発音を、その声を問わず学習できる。(中略)そこから、推定によって、まったく新しい文を生み出すことや、別のイントネーションと感情を加えることすらできる」

 これが完成の域に達したら、さまざまな手口による悪事の可能性が考えられる。お気に入りの有名人の声を模したお笑い動画を作るといった程度では済まない。例えば、声を使った本人確認が揺らいで、ID盗難などの詐欺につながる可能性がある(声での本人確認といえば、米Santander Bankも、つい最近そのような広告を流していた)。さらには、法廷での証拠から、録音や録画が除外されることにもなりかねない。

引用終了。

偽造音声でのなりすまし、実現は間近(中)

http://itpro.nikkeibp.co.jp/atcl/idg/17/053100041/053100002/?ST=cio-security&P=1
http://itpro.nikkeibp.co.jp/atcl/idg/17/053100041/053100002/?ST=cio-security&P=2
上記サイトから引用です。詳細は上記サイトでご覧下さい。

2017/06/07 Taylor Armerding CSO
 またSchneier氏は、自らのブログ記事で次のように述べている。「攻撃者が標的の人物に電話をかける時に、その人の知り合いになりすませるとしたらどうなるか、ソーシャルエンジニアリングでの影響を想像してみてほしい。我々はこれへの準備はできていないと思う」

 だが、この言葉に対しては、記事のコメント欄で多少の反論もあった。読者の1人は次のようにコメントしている。「種の1つとして、来たるべきものに対して人類が準備できているということは決してない。経験を通じて適応するよう学習していく。それはおそらく、人類にとって最も強力な生存スキルだ」

 別の読者は、この懸念は新しいものではないとコメントし、2003年にオレゴン健康科学大学が発表した別の文章に言及している。この文章では、テロ事件の首謀者とされたOsama bin Laden容疑者の肉声としてたびたび登場した録音テープが本物かどうかという点について、同大学の教授が疑問を提起している。

 この文章で、同大学のOGI School of Science and Engineeringの数理心理学者、Jan van Santen氏は、「音声変換技術が次第に利用可能になりつつあることから、偽造された音声かどうかを見破るのは難しくなってきている」と話していた。

引用終了。


ある女性のテクノロジー犯罪被害者の報告ですが、何者かが被害者女性の声を用いて勝手に電話してでたらめを話したせいで、その相手との関係が悪くなってしまったという話を、ブログで見ました。
最初、私はその女性が、夢遊病状態だったのではないか、あるいは記憶喪失かと考えました。

誰かが勝手に彼女の音声を利用することなどできるのでしょうか?

科学的には可能でありその技術はすでに利用されています。

被害者女性が嘘つきの精神病患者と決めつけられ、望まぬ対応をされてきたことを考えると、大変気の毒で言葉を失います。

少しずつではありますが、テクノロジー犯罪被害者が訴えてきた被害に、科学的な裏付けができてきたようです。

不可能な事が可能であったことで、今までうけてきた誤解が解け、正常な人間として扱われるようになってほしいと思います。

またそれだけにとどまらず正しく犯罪被害者として保護され救助されることを望みます。

以前に書いた偽造音声についての記事もおいておきます。

自分の声をキャラクターの声にリアルタイム変換するSFのような技術、リアチェンvoiceが楽器フェアに登場!
http://noripiyotoponpon.blog.fc2.com/blog-entry-4754.html

一日も早く被害が解決され、被害者が救済されますように。

(^-^)

ーーーーーーーーーーーーーーーーーーーーー

(KUMA)
今聴こえる声は、殆どがコンピューター口調の男性or女性・時々人間の男性の声ですが、被害初期の頃に聴こえていた声は、様々な知り合いの声でした。

兄の声、母の声、昔の会社で一緒に働いていた人の声、2004年に絶交した元友達の声等が有りました。

加害者がどうやってそんな声を出しているのか不思議でしたが、巷ではもう既にそんな事が出来うる技術が有るのですね。

しかもこれは決して新しい技術ではないというのも↑に書かれています。

便利な技術であっても、悪用されたら恐ろしい凶器になります。

オレオレ詐欺も未だ被害が後を経ちません。
こんな技術があれば「自分は絶対に騙されない」と思っていても、騙されてしまうのでは無いでしょうか。

私もそんな被害者の一人です。