人工知能で曲を作ってみた

陶芸体験の電動ろくろ体験教室はこちら。

**********************

人工知能とアートの融合を実現するべく、日夜奮闘しているのだが、今回はAIを使って楽曲を作ってみたいと思う。

さて、どうやって作るかだが、かのGoogleが人工知能tensorflowを利用した「Magenta」という楽曲生成プロジェクトをやっているらしいので、それを利用することにした。

インストール方法は、「ubuntu magenta インストール」等でググってみてください。

ああっと。ubuntuのOSが入っていないwindowsの方は、vmwareなどの仮想ソフトを入れてubuntuを導入してみてください。
もしくはwindows10の方は、ubuntuを直接入れられるのでチャレンジして欲しい。
ここら辺も検索すれば出てくるので、ググってみてください。

さて、今回はubuntuがすでに搭載済みの通常のノートパソコンで作ってみることにした。

インストール作業が予想外に手間取り、時間を掛けている暇もないので、dockerを使った簡単インストールの方法を選択した。
インストしたい方は、「docker magenta インストール」等でググってみて欲しい。

さてインストール完了後、コマンドラインを立ち上げて、まずmagentaを起動してみる。

以下、1行です。
$ docker run -it -p 6006:6006 -v /tmp/magenta:/magenta-data tensorflow/magenta

するとmagentaが起動する。

使い方を調べてみると、単音生成とか和音生成など、いろいろあるようだ。
単音生成をやってみたのだが、イマひとつな感触なので和音生成を紹介しよう。

下記のコマンドを入力。
なんでもバッハ調のメロディらしい。

以下、1行です。
# polyphony_rnn_generate –bundle_file=/magenta-models/polyphony_rnn.mag –output_dir=/magenta-data/ –num_outputs=5 –num_steps=256 –primer_pitches=”[62, 65, 68]” –condition_on_primer=true –inject_primer_during_generation=false

出力先は/tmp/magentaディレクトリにMIDI音源として出力されるようだ。

早速、別のコマンドラインを立ち上げて移動する。

$ cd /tmp/magenta
$ ls

すると下記のように、5曲ほどの楽曲が自動生成されている。
2019-04-18_110206_1.mid
2019-04-18_110206_2.mid
2019-04-18_110206_3.mid
2019-04-18_110206_4.mid
2019-04-18_110206_5.mid

ちなみに下記の画像には2回分の10曲が表示されている。

とりあえず適当に聞いてみよう。
下記のコマンドを入力する。

$ timidity 2019-04-18_110206_1.mid

名前がわかりずらいので、リネームしたものをアップしておきました。30秒ちょいの短いやつですが、聞いてみてください。↓

このシリーズはピアノ音源らしいですね。

人工知能の面白い所は、自分で集めたデータを学習させて、オリジナルのモデルが作れるところなんですね。

例えば、HIPHOPの音源をたくさん集めてこのAIに学習させるとします。
すると、HIPHOPの特徴をつかんだAIが出来上がるので、そいつに曲を作らせるとHIPHOP調の曲になるわけです。

今回はデータが揃っていないので、AIに学習させていません。
インストールした時に、すでに学習済みのモデルが入っているので、それを利用して曲を作ったわけです。

時間をみてオリジナルのモデルを作りたいですね。
ゲームに使う音源などは、これで十分作れるでしょう。

このようにAIってのは、自分の足りない部分をアシストしてくれる便利な道具として使えば、非常に使いがいのあるツールなんですね。
曲が作れない、絵が描けない、文章が書けないなど、できないことがあれば、AIに助けてもらって、それらができるようになる。
そんな便利な道具なんです。
みなさんもガンガンに使いこなしてください。

さてこのMagentaですが、好きな楽曲を学習させて、そのうちに名曲を作ってくれるのではと期待しております。
それにはデータ音源集めないとですけどね。

いつかこれで教室のテーマソングでも作ろうかと、計画中です。

起動しなくなったノートパソコンからデータを取り出す方法

陶芸体験の電動ろくろ体験教室はこちら。

**********************

先日手持ちのノートパソコンを立ち上げようとスイッチを入れたのだが、真っ黒画面のままで、何も表示されない。
ファンは回っているので、画面トラブルは想像がつくのだが、デスクトップのモニターに繋げても何も表示されない。

近所のパソコンショップに持っていったのだが、どうも画面関係のトラブルらしい。

必要なデータがあったので、データ取り出しの値段を聞いたら結構な金額がかかる。
値段云々よりデータ漏洩が気になったので自分でやることにした。

まず必要な機械は、サンワサプライ製のハードディスクをUSBに繋げてパソコンに接続するケーブル。

サンワサプライ SATA-USB3.0変換ケーブル 0.8m USB-CVIDE3

これを繋げればパソコンに外部記憶装置を繋げたのと同じ動作をする。

 

最近のパソコンは容量が少ないものが多いので、外部記憶装置を繋げてバックアップを取ってる方も多いでしょう。
それと同じように扱えます。

じゃあやってみよう。

まずはノートパソコンのバッテリーをはずす。
もちろんコンセントケーブルも外しておきます。

お次は裏蓋のネジを取って、小さめのフタを外します。

出ましたね。このパソコンは、右側がメモリ、左側がハードディスクになってますね。

ハードディスク周辺のネジを取り外して、ハードディスク本体を取り出します。

取り出したディスクに先ほどのUSBケーブルを接続。
そして動くパソコンに繋げると、外部記憶装置として認識されます。

ここまでくればあとは目的のデータを取り出すのみ。
所要時間30分位ですかね。かかった経費はケーブル代の2千円のみ。

これで大事なデータを取り出せて、とりあえず一件落着。
ご参考までに。

*************************

陶芸体験の電動ろくろ体験教室はこちら。

*************************

google home miniとポケトークで、外人さん いらっしゃい!

陶芸体験の電動ろくろ体験教室はこちら。

**********************

さて、熊谷では今年2019年にラグビーのワールドカップを迎える。
2020年には東京でオリンピックがある。
当然、連想できることは、外国人の方をどう接客するかだろう。

ウチの場合、陶芸体験に訪れる外国人接客として、まず通訳をどうするかを検討した。
自分が英会話ペラペラならなんてことない話だが、昔の受験英語のみでは心もとない。
しかもネイティブの英語は、日本人の話す英語とはスピードや発音が全然違う。みなさんも映画やテレビを見て、実感として感じていることだろう。

さあ、どうするか。

そこで、以前に考えたのがポケトークという翻訳機器なのだが、じつはひとつ問題が。
ポケトークは本体を手で操作しないといけないので、陶芸のろくろ作業中は使えないことが判明。
ハンズフリー機能はないようで、このままだと操作担当者が別に必要になってしまう。

なんかいい方法はないのかなあと探していたら、ネット上にあるニュースを発見。
スマートスピーカーのgoogle home で、通訳機能が始まったとのこと。

このgoogle homeのminiってやつを、ちょっと前に購入して使ってはみたものの、これといった使い道を見つけられず、飼い猫の寝る部屋のラジオ代わりに使っていたのだが、ある日突然ネットに接続できなくなり、面倒でそのまま引き出しの荷物になっていた。

こいつが通訳に使えるなんて。

早速、引き出しから取り出し電源コードに繋げてみる。

で、「オッケー、グーグル」「英語で通訳して」と2語を投げかける。

「それではどうぞ」とgoogle home が話す。

私「おはようございます」

google home「good morning(英語)」

おおー、通訳してくれてるではないか。

私「あなたの名前は何ですか」

google home 「what’s your name?」

その後、何度も日本語で話かけてみるが、ものの見事に全て通訳してくれる。

が、疑問点が2つ。
一つ目は、果たしてこの訳は合っているのだろうかってこと。

ポケトークなら日本語が表示されてから英語に訳されるので確認が取れるのだが、google homeは正解の確認が取れない。

しかし、ここは世界のgoogleを信じることにしよう。

で、もう一つの疑問というより感じたことは、
こっち側の日本語は訳せるが、相手の英語は訳せない。
そう、2方向の同時通訳ができないのだ。

googleさん、何か方法はあるのでしょうか。
私が知らないだけで、2方向の通訳機能はあるのでしょうか。

考えた対策として、
この機器を2つ同時に使って、一方は日本語→英語。
もう一方は、英語→日本語という作戦。

ただこの機器は音声をしっかりと拾うので、訳を訳したりの、ハチャメチャになりそうな気がして止めた。

他の方法は…。

相手の英語訳は、こちらの手に泥が付いてる時は、ポケトークにジップロック。
これなら泥で汚れても大丈夫。
どうでしょう。

さあ、このgoogle home とポケートークがあれば、鬼に金棒!?
となればいいのだが…。
あとは実戦あるのみ!

AIアートが面白い!

陶芸体験の電動ろくろ体験教室はこちら。

**********************

ホームページを更新したので、流れでこちらもアップしときましょう。

昨今は人工知能でAIアートってやつを制作しています。
えっ、何それって感じでしょうか。

百聞は一見にしかずで、まずは作品群を見てください。

https://www.instagram.com/ai_artist_k2

なかなか面白いでしょ。

ちなにみAIはgoogleのtensorflowというフレームワークを使ってます。
このAIのジャンルもgoogle、Facebookなど各社で熾烈なシェア競争を繰り広げてますよねえ。

当方もtensorflow、 chainer、 darknetなど、用途に応じて、いろんな種類のAIを使い分けています。

シェア的にはgoogleのtensorflowが有利ですかねえ。
tensorflowとkerasのコンビが使ってても扱いやすいし楽ですね。
ここでシェア握ると、AI界での覇者になるだろうから、各社とも必死ですね。

さて、上記インスタグラムの画像たちですが、以下の手法で制作しています。

●ある写真をベースにしてAIにスタイル変換させる

●GANという手法を使って、AIに独自の絵画を描かせる。

GANもいろんな派生系があり、高解像度のものを制作してたりするのですが、これだとめっちゃ時間がかかります。

マシンにはGPU搭載は必須。通常のパソコンのCPUではスタイル変換すら数ヶ月とかかかります。
まして、GANをやるにはCPUでは現実的ではないですね。

ちなみにGPUってのは、画像処理する時の専用グラフィックボードで、3Dゲームとかやる時に通常のパソコンでは描画スピードが遅過ぎるじゃないですか。
それを早く描画するために作られたやつなんですが、これがAIの演算に使えるってことがわかったんですね。

通常のCPUマシンを数千台繋げて並列処理させなきゃできないような処理でも、
GPUたった1枚で難なくこなしてしまうっていう優れものです(処理内容にもよりますが)。

GPU搭載マシンなら、スタイル変換は数分。GANで低解像度の画像生成なら数時間で仕上がります。

結局、AIアートは作ってみないといいものかショボいものかわからないので、1作作るのに日数がかかり過ぎると、次のステップにいけないんですよね。
なので、これからAIアートやりたいって方は、まずはGPU搭載のマシンを導入しましょう。

ちなみにアマゾンのAWSというレンタルサーバ的なものがあるのですが、
こちらは最新鋭のGPU搭載のAIマシンが1時間100円程度で借りられます。

まずはそちらで試しにやってみて、本格導入するべきかを判断すればよいと思います。

さて、作品についてはこちらなんか面白いですよね。

no  image

葛飾北斎の有名な富嶽36景の絵図にゴッホの画風をあててスタイル変換させたものです。
北斎とゴッホの共演ですね。

オリジナルの写真画像を変換させたものがこちら。

海辺の画像に同じく北斎スタイルで変換したものです。

今後のテーマはGANを使って、「いかに高解像度の画像を作るか」ってところですかね。

画像変換のみならず、作曲や文章作成など、AIは創造の世界にも進出し始めました。
これからのAIはアーティストの道具として、思う存分使いこなしましょう!

映画マスカレードホテルを見てきた

陶芸体験の電動ろくろ体験教室はこちら。

**********************

東野圭吾さん原作の映画「マスカレードホテル」を見てきました。

いやー、結論から言うと面白かったですね。
犯人がまさかあの人とは。

最近は推理小説を頻繁には読まなくなりましたが、それでも昔はよく読んだものです。

登場人物の中に犯人がいるのはわかっているのですが、ああいう方法もあるのかと。
流石ですね。

これは早速、原作も読んでみたくなりました。

それと、キムタクがかっこよかったですね。
刑事役がビシッとハマってました。

指導役の長澤まさみも適役でしたね。
映画の冒頭からスッと感情移入ができました。

ただ、最後の食事シーンは要らないのではと。
個人的には事件解決した後の、キムタクがホテルの前で深々と頭を下げるシーンがあったのですが、あれで終わって欲しかったです。
その後の、シーンがちょいと長すぎて間が抜けてしまうというか。

まあ、二人の仲がどうなるのかも結構大事なんですかねえ。
原作がどうなってるのかわかりませんが、女性ファンに見てもらうには必要なのかなあ。

あとそうだ。友情出演とかで明石家さんまさんが出てるらしいのですが、どこにいたのでしょう。
ホテルですから登場人物のどっかにいたのでしょう。
それを探すのも、またよろしいかと。

いずれにせよ。面白い映画であることは間違いないです。
ぜひ劇場で!

ポケトークを使ってみた

陶芸体験の電動ろくろ体験教室はこちら。

**********************

体験教室もグローバル化を想定して、自動翻訳機のポケトークなるものを導入してみた。 (いっちょまえに。笑)

で、ひと言で言うと、使いづらいですね。

まずボタンがタッチ式で反応が悪いです。
歳をとると指先が乾燥してタッチが反応しない場合がありますが、どうにも反応が鈍い。
よく見たら薄いびビニール状のものが貼り付いている。画面保護のビニールだろう。

こいつを剥がそうと思うのだが、これがまたなかなかはがれない。
ジョブスなら、即やり直しを命じるところだろう。

なんとかはがしてみたものの、はがし跡が残ってしまった。なんだかなあ。

表面は小さい液晶画面があり、その下にタッチボタンがある。
このボタンの操作方法がわかりづらい。

原因のトップはホームボタンがないこと。

なんでもいいから押せばホーム画面に戻る専用ボタンがないのだ。
説明書を見ると、左矢印ボタンがホームボタン兼用のようなのだが、
押してみると別の動作をする時がある。
これはいけませんねえ。

結構この手のデバイスは好きで、いろんな機種を使っている当方でも使いづらいんだから、機械音痴の人にはもっとキツイでしょう。

こういった類のやつは、直感で使えるボタンにしないといけません。

ただ、翻訳機能はバッチリですね。
wifi につなげて使うのですが、全くストレスを感じない翻訳スピードです。
これは使える。

しかし、ここでも欠点が一つ。
翻訳した後、もう一回同じフレーズを聞きたい時ってありますよね
そんな時に直感で真ん中ボタンを押せばリピートされると思いきや、これがダメ。
もう一度日本語を吹き込まないといけない。めんどくさー。

履歴ボタンがあって、履歴からリピートできるようだが、そんな面倒なことしますか。
普通はその辺のボタン押してリピートできないと意味がないでしょう。

コストの問題なんかな。
それとも開発期間が短くて、仕方なく次のバージョンで実装するとか。
よくわかりませんが、ここは直して欲しいポイントですね。

ただ、翻訳機能は文句ないので、使えるデバイスであることは間違いない。
スマホのアプリだと起動したり、バッテリーの関係で面倒なんですよね。
それに比べれば専用の端末だけにいろんな場面で使えそうです。

これは必須の小道具になりそうかな。