Magenta:人工知能と作曲

magenta_002_R

Magenta

magenta_001_RGoogleには、「Google Brain」と呼ばれるディープラーニング(深層学習)研究プロジェクトがあります。2011年にスタンフォード大学のアンドリュー・ング(Andrew Ng))教授によって始められたプロジェクトで、2012年に、1000万枚のネコの画像を見せられたコンピュータが、人間に教えられなくても、ネコの特徴をつかむことに成功したことで有名になりました。
そのGoogle Brainが、人工知能によって音楽・芸術・映像などを生成する新たな試み「Magenta(マゼンタ)」をスタートすることを発表しました。

ウェブページには、マゼンタには2つの目標があり述べられています。
一つは、音楽と芸術を生成できる最先端の段階まで機械知能を進める研究プロジェクトで、機械学習は、既に音声認識または翻訳のように、内容を理解するために広く使用されているが、マゼンタでは芸術と音楽を生成する方法を学び、自ら芸術的なコンテンツを作ることができるアルゴリズムを開発するとしています。
二つ目は、アーティスト、プログラマーや機械学習の研究者のコミュニティを構築しようとする試みです。同社が2015年11月に公開した機械学習システム「TensorFlow」を活用し、当初は、オーディオおよびビデオ機能、MIDIなどのフォーマットに対応したツール、アーティストが機械学習モデルにアクセスするためのプラットフォームなどを提供するとしています。

これまでもスペインのマラガ大学のアルゴリズムによりわずか8分で作曲をする人工知能「ラムス(lamus)」や、バッハ調の曲を創作するEmmyなどがありました。Googleのマゼンタは、事前に入力されたプログラムに沿うのではなく、自ら音楽や芸術を創作する方法を学習し進化していくというものです。つまり、芸術(音楽)を生成する方法を学ぶアルゴリズムを開発して、そのアルゴリズムで芸術を創作するというわけです。90秒間のデモ演奏が公開されていますが、今のところ芸術的レベルははるかに人間より劣るとはいうものの今後が期待されます。

 

 

(https://www.youtube.com/watch?v=6ZLB2-_0Hxw より)

人工知能と作曲

作曲にコンピュータのアルゴリズムを用いた最初の例は、イリノイ大学のルジャレン・ヒラー(ejaren Hiller)とナード・イサクソン(eonard Issacson)が、1957年にイリノイ大学アーバナ・シャンペーン校にあったコンピュータ、イリアック・ワン(ILLIAC I)を利用して作った「弦楽四重奏のためのイリアック組曲」と言われています。今では、人工知能の技法で作曲された音楽が、私たちの気づかないところで生活の中に溶け込んできています。

 

(https://www.youtube.com/watch?v=n0njBFLQSk8 より)

〇 emily howell

エミリー・ハウエル(emily howell)は、カリフォルニア大学サンタクルーズ校デビッド・コープ(David Cope)氏が開発した、音楽を聞く人のフィードバックを受けて作風を修正するコンピュータ作曲プログラムです。Emily Howellは、別の作曲ソフトウェア「Experiments in Musical Intelligence (EMI)」と連携して動きます。EMIが音楽の短いフレーズを作曲し、Emily Howellがこれらの音楽ピースからパーツを寄せ集めて全体を構成します。Emily Howellが作曲した音楽は、AmazonやApple iTunes Store で販売されているとのことです。

〇 lamus

スペインのマラガ大学が開発した「ラムス(lamus)」は、アルゴリズムによりわずか8分で楽曲を自ら作成し、MP3や楽譜などの形式で書き出すことができます。実際に作曲された楽曲はCDや音源として販売もされているそうです。

〇 deepjazz

Ji-Sung Kim氏がハッカソンで開発した自動ジャズジェネレーターです。Python製のディープラーニングライブラリである「Keras」と「Theano」を使用して作り上げられた2層構造の「Long short-term memory(LSTM)」で、MIDIファイルを与えると音楽を学習して自動でジャズ調の楽曲を生成します。LSTMというのはリカレントニューラルネットワークの一種です。作曲した音源はSoundCloud上で公開されています。

〇 Jukedeck

Ed Rex氏とPatrick Stobbs氏を中心とする音楽家やエンジニアが運営するオリジナルの音楽を自動生成でしてくれるオンラインサービスです。音楽のジャンル、曲調、曲の長さなどの項目を指定すると数十秒でオリジナルの曲を自動制作してくれます。1ヵ月に5曲までならば「無料」で作成できるとのことです。SNS上でのシェアやダウンロードすることも可能で、著作権フリーのためさまざまな場面での活用が可能です。

〇 Kulitta

アメリカのエール大学のドーニャ・クイック氏らが開発した作曲用音楽ソフトです。クリッタとJ.S.バッハの作品を並べて聞いてもらい、聴衆にどちらが作った曲かを当ててもらったところ、音楽に詳しい人でも間違える人がいたとのことです。

〇 オルフェウス

現在、明治大学総合数理学部の嵯峨山茂樹教授が開発した歌詞を入力すると自動で楽曲をつくって、合成音声で歌ってくれる人工知能です。

〇 Melomics

MelomicsはAlgorithmic Composition (アルゴリズム作曲法)研究では世界のトップクラスであるUniversity of Málagaが開発しました。Melomicsは大規模な音楽データベースから、メロディーの遺伝子 (Genomics of Melodies) を抽出して新曲を構成し、それはさらに進化を繰り返しながら完成度を上げ、プログラミングが完了すると、Melomicsは人間の手を借ることなく、自動で音楽を生成するとのことです。作曲した音楽をプロの音楽家が演奏した模様はYouTubeで公開されています。また、Apple iTunesやAmazonで販売されているそうです。

商業的にはこうした人工知能を用いた芸術(音楽)の創作は成功したとしても、それが果たして文化的な活動といえるのか、真に芸術的な活動といえるのか疑問を呈する人も多くいるようです。文学にしろ絵画あるいは音楽にしろ、芸術作品が生まれるためには、生み出す人の苦悩や人生観など様々な背景あるいは物語というべきものがあ。人工知能の創作はその過程がブラックボックスであるというわけです。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です