未来の紅白歌合戦は、人工知能が作ったヒット曲だらけになる?

  • 6,243

    • X
    • Facebook
    • LINE
    • はてな
    • クリップボードにコピー
    • ×
    • …
    未来の紅白歌合戦は、人工知能が作ったヒット曲だらけになる?

    コンピューターにヒット曲は書けるのか?

    ロボット技術や人工知能の進歩により、数年後には多くの職業が失われるのでは?なんて話題をよく耳にします。

    これまでアートなどの分野は不可侵と思われていた部分もありましたが、「まるで悪夢」と話題となったグーグルのDeep Neural Net Dreamsを見る限り、安全領域はないのかもしれません。

    そして次は「音楽」です。

    今回、自動作詞・作曲システムを使った番組が、NHK総合テレビ「データなび」で放送されます。「NHK紅白歌合戦」の過去65年で歌われてきた約3,000曲を最新技術で解析し、再構築することにより、1950~60年代、1970年代、1980年代、1990年代、2000年代、2010年代それぞれの「平均的な曲」が生まれたのだとか。

    使われたのは、明治大学教授・東京大学名誉教授の嵯峨山茂樹先生が開発した「Orpheus(オルフェウス)」。入力した歌詞に合わせて自動で作曲し、合成音声で出力してくれるシステムです。その仕組は、「言葉のイントネーション解析」によるもの。例えば、「橋」と「端」のように、イントネーションによって言葉の意味は大きく変わります。それは歌詞も同じ。歌詞の内容を正しく伝えるためには、歌詞のイントネーションに従ってメロディを作る必要があります。この言葉のイントネーションを元に、メロディが作りだされるというわけです。また、調や拍子の指定、伴奏楽器の選択など細かい設定が可能なため、ジャンルを問わない幅広い曲を生み出すことができます。ではオルフェウスを作って具体的にどうやって平均曲を作っていったのでしょうか?

    「平均ソング」の作り方とは?

    20151218gizmodo_nhk_higuchi copy.jpg

    1. データ解析

    立命館大学の樋口耕一准教授が開発したソフトウェア「KHコーダー」を使い、これまでの紅白で歌われた約3,000曲の全歌詞データを、データマイニング手法により解析。それぞれの時代を象徴する“頻出ワード”をリストアップします。1970年代の頻出ワードは以下のとおり。

    1970年代の出現率上位ワード

    1位:恋、2位:人、3位:女、4位:愛、5位:涙

    20151218gizmodo_nhk_sakushi copy.jpg

    2. 作詞

    続いて、その”頻出ワード”を、亜細亜大教授の堀玄先生が組んだ特別プログラムに入力し、自動的に「作詞」します。

    1970年代の「紅白 The 平均ソング」歌詞

    恋は忘れるわ あああの人を待ちきれないで

    待ちますかと二人 そんな男涙

    あなたのように涙を愛す あなたのような女の愛

    涙忘れればよ あなたが泣いた恋

    20151218gizmodo_nhk_orpheus copy.jpg

    3. 作曲

    こうしてデータ解析と自動プログラムによって作られた詞を、嵯峨山茂樹先生が開発したソフト「オルフェウス」に入力し、メロディーを自動生成します。

    20151218gizmodo_nhk_arrange copy.jpg

    20151218gizmodo_nhk_recording copy.jpg

    4. アレンジメント&演奏

    各時代によって使う楽器や演奏テクニックも異なるので、データとプログラムにより自動的に作詞作曲された楽曲を、一流アレンジャーが編曲し、プロミュージシャンが演奏します。

    20151218gizmodo_DSC06223.jpg

    そして各時代の雰囲気を出す歌唱が必要ということで、モノマネでも歌声でも高い定評があるタレント、“ぐっさん”こと山口智充さんと、ものまねタレントの福田彩乃さんがボーカルとして起用されました。

    今回ギズはスタジオでボーカルのお2人が歌う現場に潜入。山口さん、福田さんほか、作詞作曲プログラムを制作された堀先生と嵯峨山先生にもお話を伺いました。

    コンピュータが作ったメロディーは歌いにくい?

    20151218gizmodo_DSC06206.jpg

    ーー山口さんはご自身でも作詞作曲をされますが、今回データ解析とコンピュータによって作られた楽曲は、人間の作る楽曲とは違いますか?

    山口さん「一番最初に聴かせていただいたときに、まったくメロディーが入ってこなかったんですよね。人間の僕たちがいままで聴いてきた”なじみのメロディー”というものがあると思うんですけど、今回の曲はそうじゃなくて。まあ、お引き受けした以上やらないといけないということで、業務的に必死に覚えたんですけど(笑)でも、『お前たちが囚われている音楽の殻を破りなさいというコンピュータからの挑戦状だと受け止めましたね。

    ーー今聴かせていただいた1950~60年代の楽曲はそんなに違和感はありませんでしたけど。

    山口さん「これは大丈夫なんですよ。50~60年代のは違和感ないんですけど、この後の時代は本当にめちゃくちゃ(笑)すごく気持ち悪い感じの曲が出ててきます。でも、くやしいかな、だんだん歌えてくるようになると心地よくなってくるんですよね(笑)とはいえ、僕は人間が作ったメロディーのほうが好きですね(笑)」

    先生、今後ミュージシャンやアーティストはいなくなりますか?

    20151218gizmodo_DSC06240.jpg
    明治大学教授・東京大学名誉教授の嵯峨山茂樹先生

    ーー今回プロミュージシャンやタレントの方がレコーディングされましたが、オルフェウスを使って自動作曲した曲を生演奏されるのを聴いたことはありましたか?

    嵯峨山先生「今回が初めてでした。歌いづらそうで気の毒だなと思いましたね(笑)自動作曲された曲は、聴く分には違和感はないんだけど、歌うには難しいんですね。でも、あくまで音楽理論に則った楽曲なんですよ。人が作曲するとき、自分が歌えるかどうか、もしくは人が歌いやすいように、という意識が働いているんですよ」

    ーー人の作った詞や曲と、コンピュータが作ったものとで、それぞれメリットやデメリットがあると思いますか?

    嵯峨山先生「曲というのは音の並びですので、人には思いもつかないようなものがシステムでやると出てきます。またルールとして音楽理論に則っているから不自然ではありません。でも人が作る場合は、一度生成して終わりではなく、繰り返し繰り返し時間をかけてその楽曲を磨き上げていくんですよね。ただし甲乙をつけるのも難しくて、オルフェウスのユーザーのなかには、一人で何千曲も作っている人がいて、そういう人は曲を生成するまえの設定の仕方が上手く、本当に良い曲を作れるんですよ」

    堀先生「今回作詞プログラムから出てきた詞について『それなりにまとまっているけど、意味が無い無味乾燥なものだ』という意見がありました。これをネガティブに捉えられる方もいらっしゃるかもしれませんが、歌詞から魂を抜き去るような作業ができるかもしれないと私は思いました。生楽器がシンセサイザーになっていったように、ダンス系の音楽などむしろ歌詞に心が必要ないものがあるんですよね。だから、そうしたものを作るときに役立つかもしれないと感じています」

    20151218gizmodo_DSC06228.jpg
    亜細亜大教授の堀玄先生

    ーー今後テクノロジーの進化は、ミュージシャンやアーティストの仕事を奪っていくと思いますか?

    嵯峨山先生「いいえ、思いません。絵描きとカメラの違いがありますよね。カメラは肖像画を描くのが人間よりも上手で、肖像画というジャンルはほとんど無くなりましたが、絵画は、被写体に似ているかどうかということを基準としないような方向にいきました。だから、作詞家や作曲家は絶対に残ると思います。むしろコンピュータが作るものを参考にしてもらえるようになるんじゃないかと思っています。今回の番組では、コンピュータが作詞作曲したものをそのまま使いましたが、実際はそこで出てきたものを人が磨き上げていっていいんですよ。作詞でも『ここは意味不明だ』というところがあれば、そこに手を加えてもらえばいいんです」

    堀先生「実際の作詞家に頼むにしても『なんでもいいから詞を作ってください』という依頼はしないですよね。こういう人が歌いますとか、そういった条件は必ずあるはずです。オルフェウスにしても、実際は条件を指定して作曲できるので、人が使う道具なんです。楽譜を書けなくても音楽に造詣があって、こういう音楽をやりたいというビジョンがあれば、音楽を作る手助けをしてくれるんですよ」

    嵯峨山先生「コンピュータはとにかくアイデアを出してくれるので、使うことによって煮詰まっていたものが一歩進む。そうなればいいんじゃないかと思います。電車は行き先が決まっていますが、自動車は運転して自分の好きなところに行けますよね。道具に求められているものって、そういうことなんです」

    テクノロジーは現状「道具」。でも未来は…?

    今回の取材を通した限りは、現状では音楽においてテクノロジーはあくまで「道具」、というのが最前線にいる方々の見方のようです。

    ただしテクノロジーの進歩はまさに日進月歩。今後はジョン・レノンの思考を再現し、彼が書けなかった新曲を生成することも可能になるかもしれません。この記事、そして番組を5年後振り返ったらどんな感想を抱くのか、楽しみなような不安なような…。どちらにしろ目が離せない分野なのは間違いないでしょう。

    20151218gizmodo_nhk_matome.jpg
    各楽曲にはミュージックビデオも制作されている

    以上、最新テクノロジーと一流のスタッフやミュージシャンが集結し、各年代の平均的ヒットソングを制作するプロジェクトを紹介しましたが、気になる楽曲はNHK制作による特別番組「日本人が“なぜか”気持ち良くなる歌をデータで探るスペシャル」にて、12月26日(土)の生放送で公開されます。

    また各楽曲はWebサイトでも公開され、カラオケバージョンもダウンロード可能になるようです。現時点での最新技術をたしかめてみませんか?

    日本人が“なぜか”気持ち良くなる歌をデータで探るスペシャル

    【放送】12月26日(土)午後9時~9時59分 (総合テレビ)

    過去65年の紅白楽曲データから生まれた「紅白 The 平均ソング」を初公開。“ぐっさん”こと山口智充さん、モノマネ師・福田彩乃さんが歌いあげる!

    膨大なビッグデータを、これまでにないビジュアルで表現し続けているNHK総合テレビ「データなび」。12月26日(土)は夜9時から10分拡大の59分間、生放送。2015年を締めくくる「NHK紅白歌合戦」の直前ということで、「紅白直前!日本人が“なぜか”気持ち良くなる歌をデータで探るスペシャル」と題してお届けします。

    今回の目玉は、過去の紅白で歌われた「全楽曲」のデータを徹底解析して、独自に作った、その名も『紅白The平均ソング』。最新技術を駆使して、各時代の平均ソングを制作しました。歌うのは、“ぐっさん”こと山口智充さん、モノマネ師・福田彩乃さんのお二人。データ分析から生まれた曲をお二人が歌い上げ、生放送で初公開します。

    source:NHKデータなび

    (執筆・撮影、照沼健太)