FutureInsight.info

AI、ビッグデータ、ライフサイエンス、テクノロジービッグプレイヤーの動向、これからの働き方などの「未来」に注目して考察するブログです。

Alpacaの勉強会のお知らせ: Orb / Alpaca Tech Talk 2017/06/26(月) 18:30〜

OrbのCTOの山田さんとご飯食べている時に、そういえばおなじFintechだし勉強会やりましょうよ、勉強会、という話をしていたら、山田さんがあれよあれよというまに企画していただき勉強会することになりました。

connpass.com

僕は、いつも、どちらかというと金融機関の皆様を対象にAIのジェネリックな話をするのですが、久しぶりにガチな勉強会なのでガチな話をしようとおもって、今のAlpacaの技術スタックの情報をかき集めています。

で、最近にわかに盛り上がっている時系列データベースですが、AlpacaではMarketStoreと呼んでいるgo言語でフルスクラッチ実装した自社開発の時系列データベースを利用しております。MarketStoreの面白い点は、時系列データベースながらSQL構文をサポートしており、内部的には、

select tickcandler('25Min',Open,High,Low,Close,Sum:Volume, Avg:Open, Avg:Close) from `AAPL/1Min/OHLCV` limit 10;

insert into `AAPL/5Min/OHLCV` (Open,High,Low,Close,Volume_SUM) select tickcandler('5Min',Open,Sum:Volume) from `AAPL/1Min/OHLCV` limit 10;
Query returned 10 rows, inserting into: AAPL/5Min/OHLCV

のようなSQL構文を発行して、様々な操作を金融時系列に対して実施することができます。実行結果はnumpyバイナリとして出力され、pythonのpandasのデータフレームとしてロードされます。これをChainerなどのディープラーニングのライブラリを通して利用することで、時系列データベースからディープラーニングのエンジンへのデータデリバリーを高速に実現しています。

MarketStoreの特色は上記のような柔軟性を保持しつつ極めて高速に動作することです。日本株式3700銘柄に対するある程度の規模のクエリが1秒程度で完了する速度がその強みです。実際、我々の現在のメイン業務である金融の予測システムの構築にはそのクエリ速度がものをいいますから、このようなデータストレージの強みがそのまま予測システムの強みになるように設計をしています。

このあたりのこてこてにマニアックな話を僕からはしようとおもうので、ご興味の有る方はぜひいらしてください!

近況報告(2017年5月)

なんとか年度末の忙しい時期ものりきり、ブログ書こう書こうと思って、結局前回の投稿から3ヶ月たってしまいました。相変わらず、Alpacaの仕事ばっかりな日々のわけですが、昨日、嬉しい発表をすることができました。

www.alpaca.ai

以下の発表は昨日MUFGの2017年3月期決算説明会で発表されたIR資料(http://www.mufg.jp/ir/presentation/backnumber/pdf/slides1703.pdf)のP54の内容となります。

f:id:gamella:20170520160428p:plain

上の発表については、まだ具体的なことを言えるステージにないのですが、Alpacaのビジネスとしては、明確にディープラーニングをトレーディングに活用する方向にシフトしてます。

その理由の一つはトレーディングに対してディープラーニングを適用することは、非常に技術的にエキサイティングであること、また時系列データとの戦いになるので、時系列データストレージをgo言語で独自開発するAlpacaと非常に相性が良いというのがあると思います。一方、シビアに結果を求められる領域ですので、そこの技術開発を疎かにすることはできませんが、一旦技術開発に成功するとトレーディングテクニック自体はワールドワイドで通用するものなので、大きなビジネスチャンスがある市場でもあると考えています。

そんな野心的なことを考えると、結局、どれだけ優秀なエンジニアと一緒に技術をとことん追求できるか、ということになるわけで、もちろんAlpacaもエンジニアを大募集しております。

www.wantedly.com

エンジニアの方で、お話聞いてみたいという方は、Wantedlyでも、twitterで僕に直接メッセージ(https://twitter.com/gamella)でもよいので連絡いただければと思います。特にWantedlyでは、

  • DevOpsエンジニア
  • 機械学習エンジニア
  • Webエンジニア(フロントエンドもバックエンドも両方やりたい方)

を募集しておりますが、何かとことん突き詰めた技術があれば、それがフィットする可能性もありますので、ぜひぜひご連絡ください。

そんなわけでますますいそがしくなりそうですが、楽しんでいきたいと思います!

近況報告と2016年振り返り

2016年は本当にいろいろあった一年で、振り返ってみるとこういう時間を経験するためにスタートアップに入ったのだろうと思いました。

そんなAlpacaもJoinしてから1年半がすぎ、去年の3月は1人でやっていた東京オフィスの立ち上げもいまや7人のチームになっています。Alpacaの東京のチームはじぶんでいうのもあれですが、とても楽しく、技術的にも人間的にも素晴らしいメンバーが揃っていて、なんとかこのチームで結果をだしたいと日々もがいているところです。

去年を振り返ってみると、いままで気づかなかったことが自分のことが結構あります。

営業というのはとてもクリエイティブな仕事だった

日本ではやはり金融はエンタープライズビジネスの側面が非常につよいので、この前だしたAlpacaの175万ドルの資金調達のプレスリリースでも書いたとおり、東京はいまエンタープライズでAIをトレーディングに適用する部分に非常に力を入れています。ただ、この分野というのは、実際に試したことがある人はほとんどいないので、営業と言っても何か既存のソリューションを販売するというよりは、どの部分にAI(Alpacaでは機械学習+高速データストレージ技術と考えています)を利用するかがずっと重要になってきます。

www.alpaca.ai

この時点で、営業の仕事は販売から、如何に一緒にクリエイティブな議論を出来るかになってくるわけです。僕は金融ドメインは専門ではないので、時には鼻で笑われることもおおいのですが、それでも一緒に何かやってみようと言ってくださる方があって、仕事が成立していきます。こういう経験は、AI技術がそのドメインに浸透していく、まさにいまのタイミングしか経験できないので、自分にとっても非常に楽しい経験になりました。

スタートアップにおけるピッチ大会・アクセラレータについて

日本でAlpacaの名前を知ってもらうために2016年はたくさんコンテストにでました。その中でも、NVIDIAのGTC Japan2016で行われたECS(ディープラーニングを活用する企業のピッチ大会)とNRIハッカソン(企業枠で参加)でそれぞれ大賞・企業特別賞をいただきました。何度か経験するうちに、自分もピッチなれしてきて、どういう部分をアピールすればよいのかなど肌で感じて学ぶことができました。

また、MUFG Fintechアクセラレータでも準グランプリを取得と出場したコンテストではそれぞれ結果を出すことが出来ました。振り返ってみると、このようなコンテストを通してたくさんの出会いがあり、それを活かしてビジネスを加速してきたのですが、その中でもMUFG FintechアクセラレータはAlpacaの方向性を決めたと言っても過言ではないプログラムで、金融ドメインの知識がなかった自分にとっては非常に勉強になりました。

www.bk.mufg.jp

結構企業主催のアクセラレータに否定的な人もスタートアップ界隈にいたりして、また他のアクセラレータを経験したことがないので比較ができないのですが、このプログラムは本当に素晴らしいプログラムで、金融に少しでも関わる可能性があるスタートアップには全員チャレンジする価値があるといっても過言ではないと思います。技術はあっても、ドメイン知識がないケースで特に向いているとおもいます。

いよいよAlpacaも大きくなります

そんなわけで、いよいよAlpacaもビジネスの挑戦フェーズに入っていきます。ここからの半年の挑戦で結果がでるかどうか、まさに正念場と言って良い場面で、毎日ヒリヒリした感触を楽しんでいます。そんなAlpacaで、DevOps・バックエンドエンジニア、アプリケーション・フロントエンドエンジニア、機械学習エンジニアを大募集しています。間違いなく技術的にエッジの効いた環境でチャレンジできますし、AI X トレーディングという分野は本当にエキサイティングな領域なので、ぜひご興味ありましたらご応募ください。

www.wantedly.com

僕もここからのAlpacaのチャレンジを楽しんで行きたいと思います。

OK、僕らほどじゃないけどどうもAIもいろいろできるようだ

相変わらずバタバタとしているのですが、年末にすこしだけ時間を見つけて読みたかったこの本を読んでみた。

〈インターネット〉の次に来るもの 未来を決める12の法則

〈インターネット〉の次に来るもの 未来を決める12の法則

この本は、社会がどのように変わっていくかを12のポイントでまとめているのだが、「COGNIFYING」の章で、テクノロジーの浸透に関して、そのステップにかんして以下のようなフローの記述があった。

  1. ロボットやコンピュータに僕の仕事などできはしない。
  2. OK、かなりいろいろとできるようだけれど、僕なら何でもこなせる。
  3. OK、僕にできることは何でもできるようだけれど、故障したら僕が必要だし、しょっちゅうそうなる。
  4. OK、お決まりの仕事はミスなくやっているが、新しい仕事は教えてやらなきゃいけない。
  5. OKわかった、僕の退屈な仕事は全部やってくれ。そもそも最初から、人間がやるべき仕事じゃなかったんだ。
  6. すごいな。以前の仕事はロボットがやっているけれど、僕の新しい仕事はもっと面白いし給料もいい!
  7. 僕の今の仕事はロボットもコンピュータもできないなんて、すごくうれしい。
  8. [以下、これを繰り返す]

これまでも上のようなことはたくさんおきてきたが、これからの将来、このような流れがもっとたくさん現れてこれまで「人間の仕事」と定義されていたものがAIやロボットのしごとになっていくと筆者のケヴィン・ケリーはいう。たとえば、今日の以下のニュースなどはとてもわかり易い例で、この手のデータに近しい部分をAIは人間より上手くやってくれる。このフローのスピードがだんだんあがっていき、おそらく10年後にある仕事は、今存在する仕事からはだいぶ違った形になっていると思う。

この「XXを人間ではなくAIにやらせよう」というテーマをどこに当てていくかというのが、僕も2016年の大きな仕事になった。最終的に僕はAlpacaというスタートアップでXXにトレーディングを選んだわけだが、これから5年くらいはAIが社会に浸透していく上でのテーマになっていく。一時期AI界隈で話題になった、日立の汎用AIの動画を見てみよう。


人工知能 Hitachi AI Technology/H, Hitachi AI Technology/H - Hitachi

この動画は結構AI界隈のスタートアップが集まるとネタになっていたのだが、shi3zさんのエントリーでも書いたけど、お会いしたときPFNの丸山先生は非常にお怒りだった。

僕なんかだと、要はこの動画はIT化すればある程度、業務改善できますよという日立のソリューションを「汎用人工知能」と名前をつけているだけで、そこまで怒らなくてもいいのではと思っていたのだが、丸山先生の言っていることはごもっともである。もともとWatsonがこれに近しい売り方をしていて、IBMの既存ソリューションをWatsonという人工知能ブランドとしてマーケティングしているわけなのだが、IBMは裏に実際にそごいのがあるのかも、、、しれない。

ただ、この「XXをAIにやらせよう」というのは、ちょっと深掘りするポイントなので、僕の経験もあわせて少し考えてみた。

いったい何を学習の元のデータにするつもりなのか

まずは「いったい何を学習の元のデータにするつもりなのか」が重要だ。基本的にはディープラーニングを含む機械学習全般はまずデータありきである。なにを利用して学習させるか、そのデータにそもそも抽出・発見できる何かがあるのか、という部分をクリアする必要がある。この部分で、伝統的にIT投資をあまりしてなかったケースが多く、DBとしてこれまでやってきたことを記録していないことが多い。特に、システム部門がプロフィットセンターの意思決定をサポートする気概がない場合、この部分でデータをだすことや、データの保存そのものに問題が多いことが多い。

そもそも置き換える仕事はメインのしごとなのか

人間の仕事というのは、分解してみるとそのメインのしごとは全体の3割くらいで、じつはほかの7割くらいのことに時間を取られていましたというのは全然珍しくない。というかそれが主流だ。Alpacaがやっているトレーディングも、このあたりの問題があって、トレーディングに利用している時間は業務の半分以下で、トラックレコードの記録、顧客対応などトレードの意思決定以外の部分に時間を使っている。

ラストワンマイルをクリアできるのか

この場合のラストワンマイルというのは、物理的なラストワンマイルと精神的なラストワンマイルの両方がある。物理的なラストワンマイルは、フローのなかでどうしても物理的な対応が必要だったり、なにか電子化されていない箇所があったり、理由は様々に考えられる。精神的なラストワンマイルは、簡単にいうと抵抗勢力の存在だ。最初に書いたフローのとおり、AIの導入は最初は「OK、かなりいろいろとできるようだけれど、僕なら何でもこなせる。」のステップになるのだから、ここではいくらでも問題点をあげることができる。ここで躓くと多くの場合AIは次の一歩に進めない。

置き換えるモノが企業・人間にとってどれくらい割に合わないか

そして最後のポイントが置き換えるモノが企業・人間にとって割に合わないかである。簡単にいうと、AIが置き換えるタスクは時間単価が高いほど置き換えるビジネスプライオリティが高い。ただし、ここで気をつける必要があるのは、AIは疲れないという点で、たとえば画像認識は人間ならほぼだれでもできるが、これが店舗全体を常に見ているという話になった途端、人間にとってはとてもやりたくない仕事になる。つまり、質と量の問題があり、質も重要だが、もし量があることでできることが変わるのであれば、量を積むことで質にすることができる。

そんなことをつらつらと考えながら読んだわけですが、2016年はこのあたりでとてもたくさん勉強させてもらいました。たぶん、2017年はもっともっとこのような問題にぶち当たるとおもうので、一つ一つクリアしていって、AlpacaでもAIをトレーディングの領域に適用していきたいものです。

近況報告とAlpacaで機械学習エンジニアを募集のお知らせ

ブログ書くのも本当に久しぶりです。

アルパカにジョインしてから、めっきりブログ更新もできないジェットコースターのような日々を過ごしております。アルパカアルゴとアルパカスキャンという2つの自社プロダクトを開発しつつ、様々な最先端の機械学習を利用したトレーディングの実証実験を様々な金融機関などとやっているというかなり欲張りなことをやっており、特に後者のプロフェッショナル向けソリューションもいよいよ形になってきました。

このタイミングで日本語版コーポレートサイトも作成しました。

www.alpaca.ai

11/1付でバークレイズ証券でマネージング・ディレクターを務めたまさに金融のメンバーも日本代表兼CFOとして参画いただき、いままで自分が日本側で奮闘していた状況から、非常に強力なメンバーが参加してくれたおかげでアクセスをフルで踏み込むことができる状況が整いつつあります。

www.alpaca.ai

さてさて、久しぶりにブログを書いた理由はシンプルで採用情報のお知らせでございます。

アルパカでは、「AIと超高速データストレージを駆使して新しいトレーディングを創る」ことに興味がある機械学習エンジニアを募集しております。超高速データストレージとはアルパカがGo言語を用いて独自開発している超高速時系列データストレージMarketStoreのことです。

blog-jp.alpaca.ai

トレーディングに機械学習を適用するにあたり、ストレージの役割は非常に明確でどれくらい大量のデータを一瞬で学習済みモデルに渡すことができるか、まさにその部分を支えています。例えば、そこにクエリだけで5秒かかってしまうと、それだけで5秒遅れの情報となり、超短期のトレーディング技術としては使い勝手がかなり悪くなると言わざるを得ません。つまり、新しい機械学習を用いたトレーディング技術はどれだけ高速な時系列データストレージを持っているかが非常に重要となります。

こんな環境で、ディープラーニングを始めとした機械学習技術を用いて、新しいトレーディングを創ることにチャレンジしたい機械学習エンジニアを募集しております。ただ、本当にトレーディングは、世界中で技術を競い合っているので、エベレストを登るようなものであり、エンジニアとしても腕がないとそもそも機械学習の機能をシステムを実装することができないのでアプリケーションエンジニアとしても高速なデータ処理を実装した経験がある方を歓迎しております。

www.wantedly.com

ぜひぜひご応募ください!

「人工知能ベンチャー企業が打ち出すテクノロジー/未来 Meet up 第1回」で発表します

いろいろご縁あって以下の「人工知能ベンチャー企業が打ち出すテクノロジー/未来 Meet up 第1回」でAlpacaからも僕が発表することになりました。

aimeetup.peatix.com

具体的には、以下のエントリーで説明した、

futureinsight.info

このあたりの部分を、

金融時系列データに対して機械学習を適用する上でむずかしいことの一つは、リアルタイムのデータのデリバリーです。例えばデイリーの1日単位の時系列データに対して時間をかけて機械学習の手法を適用し、それのインデックスを作っておき、結果を見せるということならばそれほど難しくないわけです。しかし、トレーディングの意思決定は日に日に高度化・高速化しており、今は一分足のデータ(将来はTickデータ)に対する機械学習の適用が要求されます。

これは非常に難しい問題です。数千銘柄の金融時系列データに対して、リアルタイムにユーザーからの応答に応じて機械学習の手法を適用する方法論を確立するのは簡単なことではありません。DB・ビッグデータ関連のタレントが充実しているAlpacaも結局この環境を整えるのに半年くらいかかってしまいました。また、利用する機械学習の手法の選定もリアルタイム性が重要視されます。これもログなどから知見を取り出すことをメインとしているケースと比べると比較的珍しい要件なのではないかと思います。

最近Joinした吉田さんと一緒に具体的な語ろうと思っています。

yss44.hatenablog.com

そんなわけで、興味ある人いましたらぜひお越しください!懇親会費込みの価格なので、値段としても結構お得なのではないかと思います!

フィンテック × AIのスタートアップAlpacaにJoinして1年たったので近況報告

最近、全然ブログの更新ないですね、と友達に言われたので近況報告したいと思います。

さてさて、フィンテック X AIのスタートアップAlpacaにJoinしてそろそろ1年が経とうとしています。

以下のエントリーで書いたとおり、3月にオフィスとして丸の内のFinolabに6人部屋を借りたのですが、インターンも含めて人が増え、そろそろ部屋も満員になりそうです。

futureinsight.info

そもそも僕が入った時はAlpacaは画像認識をやっていましたが、その時点でどう考えても画像認識はGoogle、MS、IBMなどの巨人たちとのガチバトルになることが目に見えていました。当時、FintechやAIはまだ今ほどブームでもなく、どんなことになるかわからない状況でした。それでもフィンテック × AIに舵を切り、金融時系列に対する機械学習をコア技術にすることに決めてから基礎技術を確立するまで結局半年以上時間がかかりましたが、いよいよ技術が揃ってきてやりたいことができるようになってきたところです。

今日、ちょうどAlpacaのCTOの原田が以下のエントリーをAlpacaブログに掲載しました。これは非常におもしろいエントリーで一読推奨します。

blog-jp.alpaca.ai

金融時系列データに対して機械学習を適用する上でむずかしいことの一つは、リアルタイムのデータのデリバリーです。例えばデイリーの1日単位の時系列データに対して時間をかけて機械学習の手法を適用し、それのインデックスを作っておき、結果を見せるということならばそれほど難しくないわけです。しかし、トレーディングの意思決定は日に日に高度化・高速化しており、今は一分足のデータ(将来はTickデータ)に対する機械学習の適用が要求されます。

これは非常に難しい問題です。数千銘柄の金融時系列データに対して、リアルタイムにユーザーからの応答に応じて機械学習の手法を適用する方法論を確立するのは簡単なことではありません。DB・ビッグデータ関連のタレントが充実しているAlpacaも結局この環境を整えるのに半年くらいかかってしまいました。また、利用する機械学習の手法の選定もリアルタイム性が重要視されます。これもログなどから知見を取り出すことをメインとしているケースと比べると比較的珍しい要件なのではないかと思います。

上のエントリーの以下の一文が、この問題の難しさを物語っています。

データは刺し身のようなものです。できるだけ鮮度が高いうちに提供するのが一番。上記の通り、弊社では大量の投資アルゴリズムという生き物が大きな口を開けてマーケットから出てくる最新のデータを待っています。適切なデータを正しい宛先に最も早く届けることができなければ、アルゴリズムが生成できるデータの価値もどんどん低下してしまいます。

また、もう一つFintechのしかもトレーディング関連の機械学習をコア技術にしたスタートアップを行う上で難しいのは、リアルタイムのデータソースの確保です。この辺りの話は、ほとんど語られることがないのですが、実際にリアルタイムのデータをきちんと取得できる体制にするまではかなり大変です。Alpacaでも様々なデータソースを利用していますが、この部分をスタートアップが自力でWebサービスで利用可能な形(再配布・再利用の禁止があるとNG)で取得するのはこれまた大変です。

そんな諸々の問題を一つ一つ解決し、やっと金融機関の方々と具体的な話ができる機械学習の実行環境を整えることができるわけです。もしくは、いろいろな方にサービスを提供できるようになるわけです。まだまだ道は半ばですが、時間をかけて技術開発をしてやっとやりたいことができる環境になりつつあります。

そんなわけです、まだまだこれからですが、ぜひぜひ応援いただければと思います。Alpacaに興味あるインターン・エンジニアの方々いましたら、ぜひぜひご連絡ください。Finolabでコーヒーご馳走して、いろいろおもしろい話もできるかと思います。

www.wantedly.com

AIブームの説明だけではなく、2030年に向けた思考実験の基盤を提供してくれる本「商品の詳細 人工知能は私たちを滅ぼすのか―――計算機が神になる100年の物語」

大学時代の先輩で現在はUI/UX/VR系の開発で活躍中の著者児玉さんから献本いただきました。ありがとうございます!

人工知能は私たちを滅ぼすのか

人工知能は私たちを滅ぼすのか

さて、早速読ませていただきましたが、中身はAIをベースにした骨太なIT技術史です。通常のAIの解説書はどうしても、 松尾先生の本なども「現在の知識」でできることを枠組みにまとめてしまう本が多いと思いますが、この本は、どうして、 今のAIが今のAIの「カタチ」になったのかを説明しています。

コンピューターは勝手に進化しているのではありません。
開発者の設計思想(アーキテクチャー)に大きな影響を受けています。
その歴史を知ることではじめて、現在と未来の人工知能について理解することができます。

第二次世界大戦中のナチスの暗号装置エニグマの解読機であるチューリングマシンから、
パーソナルコンピューター、スマートフォン、
クラウド、IoTを経て、人工知能が一般化する2030年までの100年の物語は、
開発者のビジョンと信念で描かれています。

これって、とても面白くて、現在のブームって、多様なIT技術者の歴史の結果でもあるわけです。それを考えずに、 「現在できること」の知識を学んでも、あまりにも変化が早いので、おそらくそれはすぐに時代遅れになるでしょう。

しかし、この本は違います。どうしてAIが今の形になったのかの「歴史」にフォーカスしてるので、少なくとも、 この本の知識があれば、次の一歩を考える取っ掛かりをくれるわけです。

現在のAIブームって遡るといろいろな源流を見つけることができると思うのですが、児玉さんの得意領域であるPDA などのパーソナルデバイスの枠組みをその源流に見出すというのは、その記述の正確性を図る上でも大仕事だっただ ろうと想像がつきます。

そういう意味では、結構キャッチーなタイトルとかわいい表紙ですがその中身は、極めて骨太な大仕事をして、さらに それを難しくない簡単な言葉で説明しているという点(難しい言葉で説明している本はいっぱいありますが)で、 ほぼ唯一無二の本だと思いました。このブームに合わせてAI系の本を書いている人で、ここまで濃い内容に煮詰めるのは無理でしょうしね。

さて、すこし中身を覗いてみましょう。

まず、この本で特徴的なのは上で述べたとおり、AIの今ではなく、歴史にフォーカスしている点です。

180P近辺でやっとディープラーニングが登場します。見た目はAIの本ですよ!しかし、ディープラーニングと いう現在の知識に到達するまでの歴史を説明しているわけです。ディープラーニングが登場するシーンがこちら。 それまではコンピュータ、インターネット、PDAの歴史などが述べられています。しかし、ここまで読むと おー、ついに登場したとなる仕掛けです。

ヒントンは、コンピューターを用いたニューラルネットの研究によって、脳の仕組みの
解明を目指そうとします。ですが当時はミンスキーの影響でニューラルネット研究は冬の
時代の只中で、研究に対する支持や研究費を得るのは困難でした。ヒントン自身、周囲か
らは「気が狂ってる、ナンセンス」とまで言われたそうです。
 その後、アメリカの大学に移ったヒントンは、ミンスキーの批判に逆襲することになり
ます。カリフォルニアで知り合った研究者とともに、パーセプトロンの限界だった単純な
分類以上のことができる新たなニューラルネットの方式を発明したのです。
 ヒントンたちが提案したのは、パターンを学習したニューラルネットによる分類などの
出力の誤りを少なくするため、出力に近い層の出力のエラーを小さくするよう、入力に近
い層を調整する。その層を調整するために、さらに入力側の層を調整する、というように
どんどん出力側から入力側にさかのぼって調整を行なっていくというものでした。 
この方式によって、ミンスキーが批判したような、分類の制約が乗り越えられることがわかりました。
同時に分類などの精度が大きく向上することがわかりました。またこの方 式が、
複数の層からできたニューラルネットをうまく取り扱ったことが、のちにより深い階層の
ニューラルネットを実現する、ディープラーニングの実現につながっていきます。

僕も今知ったのですが、ヒントンさんって、Natureの1986年の論文でも共著者なんですね。

たしかにここからニューラルネット冬の時代を超えて、ディープラーニングにたどり着き、グラフィックスの 研究があって、たまたまそれを実現する超並列型のGPUという計算能力が世の中にあったのだから、 世の中わからないものですね。

そして、この本のおもしろいのはここからで、このあとは人工知能がわれわれの社会をどのように変えるかが説明されます。

児玉さんは、人間が頭脳労働から開放され、肉体的な死を克服する世界観を2030年近辺でも考えているよう ですが、僕は上の概念が社会にはいるには一世代を超える必要があると考えており、その前の段階として、 たとえば現在の将棋棋士やチェスがコンピュータを利用して学習して強くなるように、もしくは人工知能と 人間が一緒に戦う種目がチェスにあるように、人間に寄り添う機能がより強化され、中期的には、人間の責任 は人工知能をどのように使うかによりフォーカスされていくのかなーと思っています。

このあたりの世界観は個人によってばらばらでしょうが、すくなくともUI/UX業界で最先端の仕事をされて きた児玉さんの考えなのだから、なんとなく僕よりも実現性はたかいかもしれません 笑

最後に、あとがきにもあるように、この本の狙いってまさにこういうことなのだろうと思います。

筆者には今7歳の甥がいます。2030年には、彼らがマリやリクの歳になっています。 彼らが大学を出て
就職する頃、私たちはどんな社会を用意してあげられるか。そんなこと を考えながら本書を書きました。

2030年に向けての思考実験を自分なりにする基盤を提供してくれる本と考えると、すごくわかりやすい 立ち位置の本だと思います。AlphaGoすごいなーって感じた一がその潮流を感じるには、すごくおすすめの本です。

リモートワークとAlpacaの新オフィスの話

以下のエントリーを書いたのだが、そういえば、こっちのブログは全く更新していないことに気づいた。

blog-jp.alpaca.ai

もうすでにAlpacaで半年くらいリモートワークをしていて、いよいよ丸の内にオフィスができるわけだが、 さすがに半年くらいリモートワークをするとリモートワークの勘所的なものもわかってくる。

以前、「強いチームはオフィスを捨てる: 37シグナルズが考える「働き方革命」」などを読んでリモートワーク に関してある程度理解をしていたと思って入るのだが、実際にやってみるとたしかにリモートワークというのは、 コツというものがある。

強いチームはオフィスを捨てる: 37シグナルズが考える「働き方革命」

強いチームはオフィスを捨てる: 37シグナルズが考える「働き方革命」

  • 作者: ジェイソン・フリード,デイヴィッド・ハイネマイヤー・ハンソン,高橋璃子
  • 出版社/メーカー: 早川書房
  • 発売日: 2014/01/24
  • メディア: 単行本
  • この商品を含むブログ (5件) を見る

まだ、第一に信頼できるメンバーであること。それは技術においてもそうだし、プロフェッショナルであるか という点においてもそうだ。きちんとわからない部分をわからないと早めに連絡し、技術的な検討をこなし、 わからない箇所ではまることを避けたり、曖昧な仕様を早めに整理できないと、そのロスがだんだん肥大化していく。 このロスはスタートアップでは、基本許容できないと思うので、単純にここをカバーできないなら、リモートワーク は基本するべきではないと思う。

じゃー、良いメンバーが揃っていればできるかというとそうでもない。例えば、メンバーの半分以上は一つの 拠点にいるけど、残りの数名がリモートワークをしているケース。これは、リモートワークをしているメンバー にとっては情報の偏りがかなり負担になってくる。

僕はこの問題をヘッドクオーター(原則意思決定を行う拠点)が存在するかの問題だと思っていて、ヘッド クオーターがあるとどうしてもそこで全てが決まっていくので、リモートワークに参加できるメンバーは 「意思決定にあまり参加しないメンバー」ということになっていく。これもスタートアップのスピード感に はあまりマッチしない。

と考えると意外にリモートワークはスタートアップには向いてないのではないか、という気になってくるが、 たぶん向いてないのだと思う。いや、まじで。

逆に、以下の2つを満たすというレアなケースにおいて、とても強力な手段になってくると思う。

  • 信頼できるメンバーで問題を早め早めに潰すことができる
  • ヘッドクオーター的な拠点がなく意思決定もリモートワークの方法論で行える

このあたりの機微をきちんと理解して、オフィスができてもリモートワークを活用していきたいなー、と 考えている。

そんなAlpacaですが、新しい丸の内オフィスで働いてくれるメンバー、特にデザイナーを大募集していますので、 興味ありましたら、ぜひご応募ください!

www.wantedly.com

小さなスタートアップがスピードを上げるためのツール選定

Alpacaで働き始めてから、バックエンドは非常に強力なメンバーがそろっているので、主にフロントエンドを担当しています。 もともと大企業で仕事していたということもあり、やはりスタートアップのスピード感とヒリヒリ感は想像するよりもずっとずっと早いわけですが、 ちょうどCTOの@umitanukiが面白いエントリーをAlpacaブログに掲載していたのでご紹介。

blog-jp.alpaca.ai

まさにこのあたりのツールの選定やそれを使ったチームの動き方は主に@umitanukiが設計している部分なのですが、上に上がっているツールは、 ほぼすべてAlpacaに入ってから使い始めました。ぼくが非常に面白いと感じたのは、それぞれのツールは非常にとんがっているので、 どういうふうにチームを動かすかの思想と、ツールの設計思想がマッチしているかがツール選定の最重要となる点です。

例えば、上にあがっているダイレクトサポート・コミュニケーションツールであるIntercomなどは非常に良い例だと思うのですが、 Intercomを採用するというのは、ある一定以上の権限を持った人がそのままチャットでダイレクトサポートをするというのが最も効率の良い 形になります。これは、なかなか大企業のサポートチームでは採用しづらい。きちんとしたディスカッションをして、企業としての整合性を 保つことが企業として大きくなればなるほど重要ですが、逆にそこにスタートアップはIntercomを全面採用して漬け込む隙があるわけです。

www.intercom.io

あとはPivotalTrackerですが、これはもうアジャイルやるぞ~というチームしかまさに採用できない、思想の塊のようなツールです。 しかし、これでチームが動くことになれれば、仕事のプライオリティをCTOがきちんと毎日並べ替えていれば、あとは各人がひたすら作業 するだけに集中できます。まさにマネージメントレイヤーの力がそのまま問われるツールだと思います。

www.pivotaltracker.com

こういう一つは一つの局所戦での最適化が、最終的にスタートアップがスピードを上げて、大企業とのゲリラ戦で勝利をおさめる鍵になって いるのではないかと感じている今日このごろです。

Kindleストアで大規模40%ポイント還元セールが開催中

ひさしぶりにKindleストア覗いたら、大規模セールしているようなのでチェックしてみました。 おそらく、12日までということで、気になるものあったら購入推奨でございます。

ではみていきましょう。

まずはヴィンランド・サガの最新刊がセール対象ですね。これは結構珍しい気がします。

シドニアの騎士も40%ポイント還元ですね。

山賊ダイアリーの最新刊もきてます。山賊ダイアリーなにげに好きなのでありがたい。

ジャイアント・キリングもセール対象。ただ、最新刊だけ30%の模様。

ヒストリエの最新刊も対象なのはうれしいですね。その他の刊もセール対象なので未読の方はぜひ。おもしろいです。

あとはざっとながめて気になった商品。たぶん、何点か購入するとおもいます。

あの超名作おひっこしも対象。

久しぶりの大規模セールなので、気になったものは購入推奨です。

Labellioのリリースと画像認識がどうしてDeep Learningで重要視されるのか

この前のエントリーで紹介した僕も参加している機械学習系スタートアップのAlpacaですが、本日ファーストプロダクト Labellio(ラベリオと読みます)をリリースしましのたで、お知らせします。

blog-jp.alpaca.ai

このプロダクトのおもしろいところは、かなり面倒(はまったら簡単に2,3日消えます)なDeep LearningライブラリのCaffeのセットアップも、 GPU付きPCの確保も全て不要で、いきなりDeep Learningの画像認識ができる部分で、たぶん皆様が画像認識に期待する多くのことをかなり うまく達成することができると思います。

もう一個おもしろいのが、作成した画像認識モデルを自分のプロダクトで利用する方法もオープンソースですべて公開しています。 GithubのLabellio_cliとLabellio_web_apiですね。つまり、Labellioは間違いなく今画像認識機能を試すなら一番簡単なソリューションです。

blog-jp.alpaca.ai

あと、このブログ読んでいる人はLabellioのバックエンドのこととか、そもそもDeep Learningをこんなに簡単に行える仕組みってどうなっているん だとかそういうテクニカルなことに興味あると思うので、それはおいおいCTOの@umitanukiにブログを書かせるとして、ちょっと画像認識の 一般的なことについて書いてみようと思います。

まず、どうしてDeep Learningといえば画像認識なのか。これはいろいろな理由があるとおもうんですが、近年で一番わかりやすく、これまでは 人間の方が明らかに上だったことを機械学習がそれ以上にうまくやりだした、というのが大きいかなとおもっています。俗に人間の物体認識率は95% というのがよく言われていますが、これを超えてしまったわけです。この物体認識率の競争はいまも非常に激しく続いていて、ILSVRCで 百度がさいきんやらかしたりしていました。

gendai.ismedia.jp

今年に入っても彼らの競争は続いており、年初にマイクロソフトがエラー率4.94%を記録すると、間もなくグーグルが4.8%を達成。ちなみに、人間がILSVRCと同様の画像認識テストを受けると、そのエラー率は5%と言われるので、ディープラーニングというAI技術は(少なくとも画像認識の分野では)人間を抜いたことになる。

画像認識と音声認識はそれぞれ人工知能系のInputの要の部分であり、この部分がうまくできれば、Inputから最適なOutputを導き出すDeep Learning技術の 最高のとっかかりになるわけです。つまり、フローでいうと多くの流れは本当に大雑把に書くと以下のようになるわけですね。

[動画認識/画像認識/音声認識] => [意味解析/言語解析] => [特定問題に対するソリューションレイヤー] => [出力]

で、この各用途ごとに最適なニューラルネットワークが異なっており、画像認識ではCNN/RNNの混合だとか、言語的表現を格納するLSTMとかが利用されています。

結局どのあたりの問題にどのニューラルネットワークを組み合わせるかというのが間違いなく今後の複雑な問題を解くときの鍵になるわけで、このあたりPFIがリリースした ChainerというDeep Learningのライブラリは非常によく考えられており、複雑な問題をとくための複雑さをそのままPythonで記述できるというとても上手い 設計になっています。

chainer.org

たぶん、上記のことは人工知能関連のプロジェクトに関わる人にとってはほぼ前提条件になっていて、例えばいまや日本最大の人工知能コミュニティになった 全脳アーキテクチャでも以下のような仮説が提唱されています。

脳はそれぞれよく定義された機能を持つ機械学習器が一定のやり方で 組み合わされる事で機能を実現しており,それを真似て人工的に構成された機械学習器を組み合わせる事で人間並みかそれ以上の能力を持つ汎用の知能機械を構築可能である.

このあたりの背景を理解すると、すごくすんなり今のDeep Learningにまつわる動きがわかると思うので、僕も非常に注目しています。