Share!

「OK Google、プレゼント用のオリジナル曲を作ってよ。」

なんてCMの中で言われる日は来るでしょうか?

最近、職業作曲家の方と話すと「自分たちの仕事はいつAIに乗っ取られるんだろう?」なんて冗談交じりに尋ねてきたりします。しかし、実際そんなことを言っておきながら、その現状とどう付き合うか、果たして今AIでどれくらいのことができるのか?っていうこと自体、プロの作曲家達にしてもまだあんまりピンと来てないのが現状です。実際、私自身も作曲家の一人でもありますし、他人事ではありません。

実は長い自動作曲の歴史

現代音楽におけるアルゴリズムを使った音楽も自動作曲と言えますし、東大で開発されているオルフェウスやカリフォルニア大学サンタクルーズ校の音楽家・研究者である David Cope によるバッハをはじめとした作曲家の模倣を行うEmmy(またはEMI、Experiments in Musical Intelligenceの略、実際の音源は上の動画を再生)や、Sony Computer ScienceのFlow Machines(実際の音源は、下の動画を再生。下の動画は株式会社ライトトラックス 菊地智敦氏がFlow Machineを使って制作し、AIが作ったメロディーラインを人間の音楽家がプロデュース、アレンジしています)などなど、たくさんの試みがあります。

幸か不幸か現在(2018年時点)ではまだ、人間の仕事を置き換えるということにはなっていません。しかし、実際には「作曲」以外の音楽制作の分野に目を向けてみるとAIはものすごい勢いで実用化されています。例えば、マスタリング、トラックダウンといった音楽制作の工程はかなりAIと相性が良く、iZOTOPE neutronLANDRといったツールなどが実際にすでに使用されています。

これらは音楽エンジニアやアレンジャーの仕事をすでに一部置き換え始めています。また実際作業工程を省く便利なツール、として利用されている現場の方々も多いでしょう。

さて、それに対して作曲はどうでしょう。ここでは実際に「ユーザー自身が作曲ができる」サービスをいくつか試して、考えてみましょう。

Amper Music

まず最初にご紹介するのは世界初のAI作曲サービスとしてサービスインして話題になったAmper Music。(2018年10月25日で一旦β版のサービスは停止となっています。)

基本的な操作方法として、まず「スタイル」と長さを選びます。「スタイル」はHipHop、Cinematic、Classic Rock、Modern Folk、90’s Popの5種類から選択します。続けて「ムード」をCool、Driving、Exciting、Happyなどから選択し、「秒数」を設定します。

そしてRENDER MUSICのボタンを押すだけで、自動で指示したスタイル・ムードにあった音楽を生成してくれます。

楽器やテンポは後からの変更が可能です。その場合はリアルタイムで生成というわけではなく、一旦レンダリングが必要になります。


実際に作成された音源は下記のような感じです。


Amper_RockExciting.mp3


Classic Rock、Exciting、長さ60秒で生成


Amper_HipHipChill.mp3


Hiphop、Chill、長さ60秒で生成

Juke Deck

同様のサービスには後発のJuckDeckもあります。

こちらもインターフェースとしては似たような感じなので、Amper Musicを試した方なら、すんなりと使用できるでしょう。スタイルにJ-popがあるのも興味深いですね。実際いくつか作ってみましたが、どうもJ-Popは8Bit風味のエレクトロポップをイメージしているようです。へー、J-Popってそういうイメージなんだ。

そしてこちらには、「クライマックス機能」があるのも特徴です。秒数で曲のクライマックス箇所を指定すると、その部分に盛り上がるパートを作ってくれます。


JuckDeck_Jpop.mp3


クレジット表記・Music from Jukedeck – create your own at http://jukedeck.com

8bit, 長さ60秒で45秒に盛り上がりを指定


JuckDeck_Cinematic.mp3


クレジット表記・Music from Jukedeck – create your own at http://jukedeck.com

Cinematic,長さ60秒で45秒に盛り上がりを指定


内部のロジックは公開されていないので正確にはわかりませんが、おそらくMIDI情報を(オーディオではなく)学習・生成し、それをMIDI音源を通して鳴らしていると思われます。そのため、アレンジやテンポなどの自由度は高く、機械学習部分と人間の指示による部分を上手にミックスしているようです。

実際に曲を聞いてみた感想

さて、これらの曲を実際聞いてみますと、作曲として優れている点と、改善の余地がまだまだある点とあることに気がつきました。良い点と悪い点にまとめるとこんな感じです。


良い点


  • コードはきちんと生成されている、教科書通りだけでなく、意外性のある進行も生成できる。
  • 指定したイメージの再現力はそこそこある
  • 楽器指定や、テンポなどマニュアル操作の部分も加えている

悪い点


  • 起承転結がない、場所ごとの役割分担がはっきりしなく、のっぺりした印象をうける。
  • はっきりとしたメロディがない

紹介した二つのサービスを比較すると、Juck Deckの方がややクオリティが高い印象を受けます。この辺りは、内部のロジックをどの程度機械学習で、どの程度をマニュアル的な作業でやっているかわからないので、必ずしもクオリティ=人工知能の精度とは言えません、しかしながら結果を聞くと、とりあえずちょっとしたBGMには十分使えそうです。企業における簡単な研修ビデオや動画編集などそれほどクオリティを求められないところならば、すぐ利用できそうです。

しかし、決定的に足りない何かがある。その何かとは!?

BGMには十分使えそうとは書きましたが、正直に言うと、これらのサービスは作曲というには少し物足りない、と言えます。なぜなら「はっきりとしたメロディがない」からです。

もともとコード進行などはある程度の法則性があるものです。

C調の曲であれば、導入のトニック(C)盛り上がりに繋ぐ、サブドミナント(F)、盛り上がり部分、調性を確立する部分のドミナント(G)、といったように、役割分担がはっきりしています。調性や音の跳躍のさせ方など、これらのことは「楽典」や「コード理論」のような教科書がたくさんあるくらいですから、そもそも調性音楽(普段耳にする音楽はだいたいこれですね)というものは、もともと非常に数学的、論理的で、AI的なアプローチとも相性はバッチリなものだと思います

しかし、これがことAIかという話になってくると、結果を見ても現状自動伴奏機能とどう違うのかというとちょっと疑問符がつくところです。コード、進行等を機械学習+自動伴奏機能という感じでしょうか。そしてこのアプローチが今後どれだけのクリエイティブ性を持ってくれるか、というのは楽しみではありますが、まだ未知数です。

これらのサービスは現状映像のバックや授業での使用といった用途をメインとしているため、そういった用途には十分に実用的と思われます。

しかし、個人的には、自動作曲というからには、やはりメロディを作ってほしい!!!という気持ちでいっぱいです。

tensorflowによるメロディ生成を試してみた

というわけで、今度はもっとメロディに重視した生成ができないかということに話を絞って見ていきましょう。「BGM」から「歌物」的なものに話題が切り替わったと思ってください。次に取り上げるのは、tensorflowというGoogleがオープンソースで提供している機械学習ライブラリ上で動く、magentaというプロジェクトです。

magentaはtensorflowを芸術分野、音楽や絵画などの分野に応用しよう、というプロジェクトで、メロディ生成のような音楽分野以外にも、絵画作成やドローイング認識などのさまざまな芸術分野の開発が行われています。メーリングリストでもエンジニア、芸術家たちの情報交換が日夜なされており、非常に活発なプロジェクトの一つです。昨年公開されて大きな話題になりました、手描き絵認識の「Quick,Draw」などもこの技術を下敷きにしています。

アーティストやエンジニアが人工知能を能動的に学び利用していくのにとても良い入り口でしょう。実際に利用するにはPythonや機械学習の基礎的な知識など、少し技術的なハードルがありますが、そこは今回は割愛し、どんな音楽ができるかみてみましょう。

ここでのアプローチはまず最初に2小節程度のモチーフを与え、その後を作らせるという形になります。では誰もが知ってるモチーフを与えて、それがどう展開するか見てみましょう。

しかしこの場合著作権はどうなるんでしょうね、もし既存楽曲を与えて、作らせた場合・・・・。というのもややこしいので、童謡から引用しましょう。そして学習データは洋楽・邦楽・童謡等取り混ぜたMIDIデータボーカル部分のみ100曲程度を使用します。

今回はモチーフとして「かごめかごめ」をチョイスしてみました。

冒頭の「かーごめかごめ」だけ与えてあります。

そしてそこから生成させたものが以下になります。それぞれ10パターンほど生成させて、一番良さそうなのをピックアップしました。(リズムがわかりづらいので、少しだけドラムを入れてあります)

どうでしょうか?

メロディだけなので正直Amper MusicやJuck Deckの作る音楽に比べて少しピンとこないかもしれません。しかしこちらにもしっかりと調性があり、終止形、展開等のモチーフを読み取ることができます。モチーフを変奏して行くことでバリエーションを作って行く、という本来の人間のメロディ作成過程に極めて近い印象を受けます。

これは学習データを増やす・精度をあげる、などするとより強化されていくと思われます。ちなみに最初に学習に少し時間がかかるのですが、それを終えてしまえば、10パターンでも1000パターンでもほとんど時間がかからずに作ることができます(現実問題としてそんなにたくさんは聞けないというのはありますが)。

実際、どういう使い方ができそう??

最初にとりあげた、AmperMusicやJuckDeckはあくまでも自動伴奏アプリ、コード提案アプリの延長線上という感じではありますが、ビデオ編集のBGMなどでの利用はすぐにでもできるでしょう。今後はCM音楽なども視野に入ってくると思います。

クオリティについてはまだ人間と同等とはいかなくても、イメージを具体的に伝えられるし、リテイクが何度でも素早く可能というメリットもあるわけです。そうなると早くも「作曲家の仕事を奪う」状況になるでしょう。実際にAmper Musicで製作されたサウンドに手を加えたものがリリースされています。(下記の動画:Break Free – Song Composed with AI | Taryn Southernがそれです。)

そして、magentaのようなメロディ作成アプローチの方向は、そのまま楽曲を自動で生成させるまでは少し時間がかかりそうですが、早い段階で作曲家の補助ツールとして威力を発揮しそうです。

一瞬にして何十、何百といったメロディを生成してくれるわけですから、あとは作曲家はそれを取捨選択してつなぎ合わせるだけ、のようなことが可能になります。Aメロ・Cメロは作ったけど、BメロはAIに任せよう、といったような利用法も考えられます。さらに自動伴奏などの技術はある程度枯れてきていますし、Amper Music的な技術を組み合わせれば、かなり様々な音楽の生成ができそうです。

論理的作業だけでなく、音楽や絵画など正解が一つじゃない、従来コンピューターが苦手とされていた感性的世界にまで踏み込んできたAI達。この分野においてもひょっとして人間はもうすぐ勝てなくなるかもしれません。

しかし、冒頭の「OK Google、プレゼント用のオリジナル曲を作って」で、作成した楽曲を誰かにプレゼントした場合、その楽曲は果たして喜んでもらえるでしょうか????

アーティストも「アーティストが作ってるから心がこもってる!」なんてファンに言われてしまう時がくるかもしれませんね。

この部分だけはかろうじて人間にまだ軍配が上がりそうです。

ライター:早川大地

アプリ・音楽・メディア制作を行う株式会社バイラルワークス代表。

東京大学大学院学際情報学府修士課程。自身も音楽プロデューサー、作曲家としての顔を持つ。アーティスト活動に加え、ドラマ主題歌、ゲームなどヒット作多数。現在は仕事をしながら1〜2カ月ごとに国を移り、十数カ国を渡り歩く「移住生活」を行っている。

この記事を読んだあなたにおすすめのタグ

この記事を読んだあなたにおすすめのタグ

人気のカテゴリ