読者です 読者をやめる 読者になる 読者になる

FutureInsight.info

AI、ビッグデータ、ライフサイエンス、テクノロジービッグプレイヤーの動向、これからの働き方などの「未来」に注目して考察するブログです。

近況報告とAlpacaで機械学習エンジニアを募集のお知らせ

ブログ書くのも本当に久しぶりです。

アルパカにジョインしてから、めっきりブログ更新もできないジェットコースターのような日々を過ごしております。アルパカアルゴとアルパカスキャンという2つの自社プロダクトを開発しつつ、様々な最先端の機械学習を利用したトレーディングの実証実験を様々な金融機関などとやっているというかなり欲張りなことをやっており、特に後者のプロフェッショナル向けソリューションもいよいよ形になってきました。

このタイミングで日本語版コーポレートサイトも作成しました。

www.alpaca.ai

11/1付でバークレイズ証券でマネージング・ディレクターを務めたまさに金融のメンバーも日本代表兼CFOとして参画いただき、いままで自分が日本側で奮闘していた状況から、非常に強力なメンバーが参加してくれたおかげでアクセスをフルで踏み込むことができる状況が整いつつあります。

www.alpaca.ai

さてさて、久しぶりにブログを書いた理由はシンプルで採用情報のお知らせでございます。

アルパカでは、「AIと超高速データストレージを駆使して新しいトレーディングを創る」ことに興味がある機械学習エンジニアを募集しております。超高速データストレージとはアルパカがGo言語を用いて独自開発している超高速時系列データストレージMarketStoreのことです。

blog-jp.alpaca.ai

トレーディングに機械学習を適用するにあたり、ストレージの役割は非常に明確でどれくらい大量のデータを一瞬で学習済みモデルに渡すことができるか、まさにその部分を支えています。例えば、そこにクエリだけで5秒かかってしまうと、それだけで5秒遅れの情報となり、超短期のトレーディング技術としては使い勝手がかなり悪くなると言わざるを得ません。つまり、新しい機械学習を用いたトレーディング技術はどれだけ高速な時系列データストレージを持っているかが非常に重要となります。

こんな環境で、ディープラーニングを始めとした機械学習技術を用いて、新しいトレーディングを創ることにチャレンジしたい機械学習エンジニアを募集しております。ただ、本当にトレーディングは、世界中で技術を競い合っているので、エベレストを登るようなものであり、エンジニアとしても腕がないとそもそも機械学習の機能をシステムを実装することができないのでアプリケーションエンジニアとしても高速なデータ処理を実装した経験がある方を歓迎しております。

www.wantedly.com

ぜひぜひご応募ください!

「人工知能ベンチャー企業が打ち出すテクノロジー/未来 Meet up 第1回」で発表します

いろいろご縁あって以下の「人工知能ベンチャー企業が打ち出すテクノロジー/未来 Meet up 第1回」でAlpacaからも僕が発表することになりました。

aimeetup.peatix.com

具体的には、以下のエントリーで説明した、

futureinsight.info

このあたりの部分を、

金融時系列データに対して機械学習を適用する上でむずかしいことの一つは、リアルタイムのデータのデリバリーです。例えばデイリーの1日単位の時系列データに対して時間をかけて機械学習の手法を適用し、それのインデックスを作っておき、結果を見せるということならばそれほど難しくないわけです。しかし、トレーディングの意思決定は日に日に高度化・高速化しており、今は一分足のデータ(将来はTickデータ)に対する機械学習の適用が要求されます。

これは非常に難しい問題です。数千銘柄の金融時系列データに対して、リアルタイムにユーザーからの応答に応じて機械学習の手法を適用する方法論を確立するのは簡単なことではありません。DB・ビッグデータ関連のタレントが充実しているAlpacaも結局この環境を整えるのに半年くらいかかってしまいました。また、利用する機械学習の手法の選定もリアルタイム性が重要視されます。これもログなどから知見を取り出すことをメインとしているケースと比べると比較的珍しい要件なのではないかと思います。

最近Joinした吉田さんと一緒に具体的な語ろうと思っています。

yss44.hatenablog.com

そんなわけで、興味ある人いましたらぜひお越しください!懇親会費込みの価格なので、値段としても結構お得なのではないかと思います!

フィンテック × AIのスタートアップAlpacaにJoinして1年たったので近況報告

最近、全然ブログの更新ないですね、と友達に言われたので近況報告したいと思います。

さてさて、フィンテック X AIのスタートアップAlpacaにJoinしてそろそろ1年が経とうとしています。

以下のエントリーで書いたとおり、3月にオフィスとして丸の内のFinolabに6人部屋を借りたのですが、インターンも含めて人が増え、そろそろ部屋も満員になりそうです。

futureinsight.info

そもそも僕が入った時はAlpacaは画像認識をやっていましたが、その時点でどう考えても画像認識はGoogle、MS、IBMなどの巨人たちとのガチバトルになることが目に見えていました。当時、FintechやAIはまだ今ほどブームでもなく、どんなことになるかわからない状況でした。それでもフィンテック × AIに舵を切り、金融時系列に対する機械学習をコア技術にすることに決めてから基礎技術を確立するまで結局半年以上時間がかかりましたが、いよいよ技術が揃ってきてやりたいことができるようになってきたところです。

今日、ちょうどAlpacaのCTOの原田が以下のエントリーをAlpacaブログに掲載しました。これは非常におもしろいエントリーで一読推奨します。

blog-jp.alpaca.ai

金融時系列データに対して機械学習を適用する上でむずかしいことの一つは、リアルタイムのデータのデリバリーです。例えばデイリーの1日単位の時系列データに対して時間をかけて機械学習の手法を適用し、それのインデックスを作っておき、結果を見せるということならばそれほど難しくないわけです。しかし、トレーディングの意思決定は日に日に高度化・高速化しており、今は一分足のデータ(将来はTickデータ)に対する機械学習の適用が要求されます。

これは非常に難しい問題です。数千銘柄の金融時系列データに対して、リアルタイムにユーザーからの応答に応じて機械学習の手法を適用する方法論を確立するのは簡単なことではありません。DB・ビッグデータ関連のタレントが充実しているAlpacaも結局この環境を整えるのに半年くらいかかってしまいました。また、利用する機械学習の手法の選定もリアルタイム性が重要視されます。これもログなどから知見を取り出すことをメインとしているケースと比べると比較的珍しい要件なのではないかと思います。

上のエントリーの以下の一文が、この問題の難しさを物語っています。

データは刺し身のようなものです。できるだけ鮮度が高いうちに提供するのが一番。上記の通り、弊社では大量の投資アルゴリズムという生き物が大きな口を開けてマーケットから出てくる最新のデータを待っています。適切なデータを正しい宛先に最も早く届けることができなければ、アルゴリズムが生成できるデータの価値もどんどん低下してしまいます。

また、もう一つFintechのしかもトレーディング関連の機械学習をコア技術にしたスタートアップを行う上で難しいのは、リアルタイムのデータソースの確保です。この辺りの話は、ほとんど語られることがないのですが、実際にリアルタイムのデータをきちんと取得できる体制にするまではかなり大変です。Alpacaでも様々なデータソースを利用していますが、この部分をスタートアップが自力でWebサービスで利用可能な形(再配布・再利用の禁止があるとNG)で取得するのはこれまた大変です。

そんな諸々の問題を一つ一つ解決し、やっと金融機関の方々と具体的な話ができる機械学習の実行環境を整えることができるわけです。もしくは、いろいろな方にサービスを提供できるようになるわけです。まだまだ道は半ばですが、時間をかけて技術開発をしてやっとやりたいことができる環境になりつつあります。

そんなわけです、まだまだこれからですが、ぜひぜひ応援いただければと思います。Alpacaに興味あるインターン・エンジニアの方々いましたら、ぜひぜひご連絡ください。Finolabでコーヒーご馳走して、いろいろおもしろい話もできるかと思います。

www.wantedly.com

AIブームの説明だけではなく、2030年に向けた思考実験の基盤を提供してくれる本「商品の詳細 人工知能は私たちを滅ぼすのか―――計算機が神になる100年の物語」

大学時代の先輩で現在はUI/UX/VR系の開発で活躍中の著者児玉さんから献本いただきました。ありがとうございます!

人工知能は私たちを滅ぼすのか

人工知能は私たちを滅ぼすのか

さて、早速読ませていただきましたが、中身はAIをベースにした骨太なIT技術史です。通常のAIの解説書はどうしても、 松尾先生の本なども「現在の知識」でできることを枠組みにまとめてしまう本が多いと思いますが、この本は、どうして、 今のAIが今のAIの「カタチ」になったのかを説明しています。

コンピューターは勝手に進化しているのではありません。
開発者の設計思想(アーキテクチャー)に大きな影響を受けています。
その歴史を知ることではじめて、現在と未来の人工知能について理解することができます。

第二次世界大戦中のナチスの暗号装置エニグマの解読機であるチューリングマシンから、
パーソナルコンピューター、スマートフォン、
クラウド、IoTを経て、人工知能が一般化する2030年までの100年の物語は、
開発者のビジョンと信念で描かれています。

これって、とても面白くて、現在のブームって、多様なIT技術者の歴史の結果でもあるわけです。それを考えずに、 「現在できること」の知識を学んでも、あまりにも変化が早いので、おそらくそれはすぐに時代遅れになるでしょう。

しかし、この本は違います。どうしてAIが今の形になったのかの「歴史」にフォーカスしてるので、少なくとも、 この本の知識があれば、次の一歩を考える取っ掛かりをくれるわけです。

現在のAIブームって遡るといろいろな源流を見つけることができると思うのですが、児玉さんの得意領域であるPDA などのパーソナルデバイスの枠組みをその源流に見出すというのは、その記述の正確性を図る上でも大仕事だっただ ろうと想像がつきます。

そういう意味では、結構キャッチーなタイトルとかわいい表紙ですがその中身は、極めて骨太な大仕事をして、さらに それを難しくない簡単な言葉で説明しているという点(難しい言葉で説明している本はいっぱいありますが)で、 ほぼ唯一無二の本だと思いました。このブームに合わせてAI系の本を書いている人で、ここまで濃い内容に煮詰めるのは無理でしょうしね。

さて、すこし中身を覗いてみましょう。

まず、この本で特徴的なのは上で述べたとおり、AIの今ではなく、歴史にフォーカスしている点です。

180P近辺でやっとディープラーニングが登場します。見た目はAIの本ですよ!しかし、ディープラーニングと いう現在の知識に到達するまでの歴史を説明しているわけです。ディープラーニングが登場するシーンがこちら。 それまではコンピュータ、インターネット、PDAの歴史などが述べられています。しかし、ここまで読むと おー、ついに登場したとなる仕掛けです。

ヒントンは、コンピューターを用いたニューラルネットの研究によって、脳の仕組みの
解明を目指そうとします。ですが当時はミンスキーの影響でニューラルネット研究は冬の
時代の只中で、研究に対する支持や研究費を得るのは困難でした。ヒントン自身、周囲か
らは「気が狂ってる、ナンセンス」とまで言われたそうです。
 その後、アメリカの大学に移ったヒントンは、ミンスキーの批判に逆襲することになり
ます。カリフォルニアで知り合った研究者とともに、パーセプトロンの限界だった単純な
分類以上のことができる新たなニューラルネットの方式を発明したのです。
 ヒントンたちが提案したのは、パターンを学習したニューラルネットによる分類などの
出力の誤りを少なくするため、出力に近い層の出力のエラーを小さくするよう、入力に近
い層を調整する。その層を調整するために、さらに入力側の層を調整する、というように
どんどん出力側から入力側にさかのぼって調整を行なっていくというものでした。 
この方式によって、ミンスキーが批判したような、分類の制約が乗り越えられることがわかりました。
同時に分類などの精度が大きく向上することがわかりました。またこの方 式が、
複数の層からできたニューラルネットをうまく取り扱ったことが、のちにより深い階層の
ニューラルネットを実現する、ディープラーニングの実現につながっていきます。

僕も今知ったのですが、ヒントンさんって、Natureの1986年の論文でも共著者なんですね。

たしかにここからニューラルネット冬の時代を超えて、ディープラーニングにたどり着き、グラフィックスの 研究があって、たまたまそれを実現する超並列型のGPUという計算能力が世の中にあったのだから、 世の中わからないものですね。

そして、この本のおもしろいのはここからで、このあとは人工知能がわれわれの社会をどのように変えるかが説明されます。

児玉さんは、人間が頭脳労働から開放され、肉体的な死を克服する世界観を2030年近辺でも考えているよう ですが、僕は上の概念が社会にはいるには一世代を超える必要があると考えており、その前の段階として、 たとえば現在の将棋棋士やチェスがコンピュータを利用して学習して強くなるように、もしくは人工知能と 人間が一緒に戦う種目がチェスにあるように、人間に寄り添う機能がより強化され、中期的には、人間の責任 は人工知能をどのように使うかによりフォーカスされていくのかなーと思っています。

このあたりの世界観は個人によってばらばらでしょうが、すくなくともUI/UX業界で最先端の仕事をされて きた児玉さんの考えなのだから、なんとなく僕よりも実現性はたかいかもしれません 笑

最後に、あとがきにもあるように、この本の狙いってまさにこういうことなのだろうと思います。

筆者には今7歳の甥がいます。2030年には、彼らがマリやリクの歳になっています。 彼らが大学を出て
就職する頃、私たちはどんな社会を用意してあげられるか。そんなこと を考えながら本書を書きました。

2030年に向けての思考実験を自分なりにする基盤を提供してくれる本と考えると、すごくわかりやすい 立ち位置の本だと思います。AlphaGoすごいなーって感じた一がその潮流を感じるには、すごくおすすめの本です。

リモートワークとAlpacaの新オフィスの話

以下のエントリーを書いたのだが、そういえば、こっちのブログは全く更新していないことに気づいた。

blog-jp.alpaca.ai

もうすでにAlpacaで半年くらいリモートワークをしていて、いよいよ丸の内にオフィスができるわけだが、 さすがに半年くらいリモートワークをするとリモートワークの勘所的なものもわかってくる。

以前、「強いチームはオフィスを捨てる: 37シグナルズが考える「働き方革命」」などを読んでリモートワーク に関してある程度理解をしていたと思って入るのだが、実際にやってみるとたしかにリモートワークというのは、 コツというものがある。

強いチームはオフィスを捨てる: 37シグナルズが考える「働き方革命」

強いチームはオフィスを捨てる: 37シグナルズが考える「働き方革命」

  • 作者: ジェイソン・フリード,デイヴィッド・ハイネマイヤー・ハンソン,高橋璃子
  • 出版社/メーカー: 早川書房
  • 発売日: 2014/01/24
  • メディア: 単行本
  • この商品を含むブログ (5件) を見る

まだ、第一に信頼できるメンバーであること。それは技術においてもそうだし、プロフェッショナルであるか という点においてもそうだ。きちんとわからない部分をわからないと早めに連絡し、技術的な検討をこなし、 わからない箇所ではまることを避けたり、曖昧な仕様を早めに整理できないと、そのロスがだんだん肥大化していく。 このロスはスタートアップでは、基本許容できないと思うので、単純にここをカバーできないなら、リモートワーク は基本するべきではないと思う。

じゃー、良いメンバーが揃っていればできるかというとそうでもない。例えば、メンバーの半分以上は一つの 拠点にいるけど、残りの数名がリモートワークをしているケース。これは、リモートワークをしているメンバー にとっては情報の偏りがかなり負担になってくる。

僕はこの問題をヘッドクオーター(原則意思決定を行う拠点)が存在するかの問題だと思っていて、ヘッド クオーターがあるとどうしてもそこで全てが決まっていくので、リモートワークに参加できるメンバーは 「意思決定にあまり参加しないメンバー」ということになっていく。これもスタートアップのスピード感に はあまりマッチしない。

と考えると意外にリモートワークはスタートアップには向いてないのではないか、という気になってくるが、 たぶん向いてないのだと思う。いや、まじで。

逆に、以下の2つを満たすというレアなケースにおいて、とても強力な手段になってくると思う。

  • 信頼できるメンバーで問題を早め早めに潰すことができる
  • ヘッドクオーター的な拠点がなく意思決定もリモートワークの方法論で行える

このあたりの機微をきちんと理解して、オフィスができてもリモートワークを活用していきたいなー、と 考えている。

そんなAlpacaですが、新しい丸の内オフィスで働いてくれるメンバー、特にデザイナーを大募集していますので、 興味ありましたら、ぜひご応募ください!

www.wantedly.com

小さなスタートアップがスピードを上げるためのツール選定

Alpacaで働き始めてから、バックエンドは非常に強力なメンバーがそろっているので、主にフロントエンドを担当しています。 もともと大企業で仕事していたということもあり、やはりスタートアップのスピード感とヒリヒリ感は想像するよりもずっとずっと早いわけですが、 ちょうどCTOの@umitanukiが面白いエントリーをAlpacaブログに掲載していたのでご紹介。

blog-jp.alpaca.ai

まさにこのあたりのツールの選定やそれを使ったチームの動き方は主に@umitanukiが設計している部分なのですが、上に上がっているツールは、 ほぼすべてAlpacaに入ってから使い始めました。ぼくが非常に面白いと感じたのは、それぞれのツールは非常にとんがっているので、 どういうふうにチームを動かすかの思想と、ツールの設計思想がマッチしているかがツール選定の最重要となる点です。

例えば、上にあがっているダイレクトサポート・コミュニケーションツールであるIntercomなどは非常に良い例だと思うのですが、 Intercomを採用するというのは、ある一定以上の権限を持った人がそのままチャットでダイレクトサポートをするというのが最も効率の良い 形になります。これは、なかなか大企業のサポートチームでは採用しづらい。きちんとしたディスカッションをして、企業としての整合性を 保つことが企業として大きくなればなるほど重要ですが、逆にそこにスタートアップはIntercomを全面採用して漬け込む隙があるわけです。

www.intercom.io

あとはPivotalTrackerですが、これはもうアジャイルやるぞ~というチームしかまさに採用できない、思想の塊のようなツールです。 しかし、これでチームが動くことになれれば、仕事のプライオリティをCTOがきちんと毎日並べ替えていれば、あとは各人がひたすら作業 するだけに集中できます。まさにマネージメントレイヤーの力がそのまま問われるツールだと思います。

www.pivotaltracker.com

こういう一つは一つの局所戦での最適化が、最終的にスタートアップがスピードを上げて、大企業とのゲリラ戦で勝利をおさめる鍵になって いるのではないかと感じている今日このごろです。

Kindleストアで大規模40%ポイント還元セールが開催中

ひさしぶりにKindleストア覗いたら、大規模セールしているようなのでチェックしてみました。 おそらく、12日までということで、気になるものあったら購入推奨でございます。

ではみていきましょう。

まずはヴィンランド・サガの最新刊がセール対象ですね。これは結構珍しい気がします。

シドニアの騎士も40%ポイント還元ですね。

山賊ダイアリーの最新刊もきてます。山賊ダイアリーなにげに好きなのでありがたい。

ジャイアント・キリングもセール対象。ただ、最新刊だけ30%の模様。

ヒストリエの最新刊も対象なのはうれしいですね。その他の刊もセール対象なので未読の方はぜひ。おもしろいです。

あとはざっとながめて気になった商品。たぶん、何点か購入するとおもいます。

あの超名作おひっこしも対象。

久しぶりの大規模セールなので、気になったものは購入推奨です。

Labellioのリリースと画像認識がどうしてDeep Learningで重要視されるのか

この前のエントリーで紹介した僕も参加している機械学習系スタートアップのAlpacaですが、本日ファーストプロダクト Labellio(ラベリオと読みます)をリリースしましのたで、お知らせします。

blog-jp.alpaca.ai

このプロダクトのおもしろいところは、かなり面倒(はまったら簡単に2,3日消えます)なDeep LearningライブラリのCaffeのセットアップも、 GPU付きPCの確保も全て不要で、いきなりDeep Learningの画像認識ができる部分で、たぶん皆様が画像認識に期待する多くのことをかなり うまく達成することができると思います。

もう一個おもしろいのが、作成した画像認識モデルを自分のプロダクトで利用する方法もオープンソースですべて公開しています。 GithubのLabellio_cliとLabellio_web_apiですね。つまり、Labellioは間違いなく今画像認識機能を試すなら一番簡単なソリューションです。

blog-jp.alpaca.ai

あと、このブログ読んでいる人はLabellioのバックエンドのこととか、そもそもDeep Learningをこんなに簡単に行える仕組みってどうなっているん だとかそういうテクニカルなことに興味あると思うので、それはおいおいCTOの@umitanukiにブログを書かせるとして、ちょっと画像認識の 一般的なことについて書いてみようと思います。

まず、どうしてDeep Learningといえば画像認識なのか。これはいろいろな理由があるとおもうんですが、近年で一番わかりやすく、これまでは 人間の方が明らかに上だったことを機械学習がそれ以上にうまくやりだした、というのが大きいかなとおもっています。俗に人間の物体認識率は95% というのがよく言われていますが、これを超えてしまったわけです。この物体認識率の競争はいまも非常に激しく続いていて、ILSVRCで 百度がさいきんやらかしたりしていました。

gendai.ismedia.jp

今年に入っても彼らの競争は続いており、年初にマイクロソフトがエラー率4.94%を記録すると、間もなくグーグルが4.8%を達成。ちなみに、人間がILSVRCと同様の画像認識テストを受けると、そのエラー率は5%と言われるので、ディープラーニングというAI技術は(少なくとも画像認識の分野では)人間を抜いたことになる。

画像認識と音声認識はそれぞれ人工知能系のInputの要の部分であり、この部分がうまくできれば、Inputから最適なOutputを導き出すDeep Learning技術の 最高のとっかかりになるわけです。つまり、フローでいうと多くの流れは本当に大雑把に書くと以下のようになるわけですね。

[動画認識/画像認識/音声認識] => [意味解析/言語解析] => [特定問題に対するソリューションレイヤー] => [出力]

で、この各用途ごとに最適なニューラルネットワークが異なっており、画像認識ではCNN/RNNの混合だとか、言語的表現を格納するLSTMとかが利用されています。

結局どのあたりの問題にどのニューラルネットワークを組み合わせるかというのが間違いなく今後の複雑な問題を解くときの鍵になるわけで、このあたりPFIがリリースした ChainerというDeep Learningのライブラリは非常によく考えられており、複雑な問題をとくための複雑さをそのままPythonで記述できるというとても上手い 設計になっています。

chainer.org

たぶん、上記のことは人工知能関連のプロジェクトに関わる人にとってはほぼ前提条件になっていて、例えばいまや日本最大の人工知能コミュニティになった 全脳アーキテクチャでも以下のような仮説が提唱されています。

脳はそれぞれよく定義された機能を持つ機械学習器が一定のやり方で 組み合わされる事で機能を実現しており,それを真似て人工的に構成された機械学習器を組み合わせる事で人間並みかそれ以上の能力を持つ汎用の知能機械を構築可能である.

このあたりの背景を理解すると、すごくすんなり今のDeep Learningにまつわる動きがわかると思うので、僕も非常に注目しています。

すでに水面下で機械学習のための横断的データの争奪戦がはじまっている

AI強化月間ということで、ちょくちょくニュースを拾っていこうと思います。

最近気になったのは以下の記事です。

米Facebookは6月12日(現地時間)、ニュースフィードに表示する投稿の表示優先度を決めるアルゴリズムの変更を発表した。同日から数週間かけて“ローリングアウト”していく。

ユーザーが、たとえ「いいね!」やコメントをしなくても、長く表示した投稿はそのユーザーにとって重要であると判断し、同様の投稿の表示優先度を高める。

単純に表示秒数などで判断すると、接続環境が悪くて読み込みが遅い場合もカウントしてしまう可能性もあるため、相対的な長さで判断するとしている。

特に書いてないけど、おそらく内部は典型的なDeep Learning関連技術の利用と思われます。そもそも、Input・Outputさえはっきりしていれば、中身の特徴抽出を自動でやってくれるのが、Deep Learningの強みなので、おそらくスクロールの動き・記事のクリック率・交友関係などのパラメータをInputにして、Outputに興味のある内容(もちろん広告を含む)とすれば、これほどわかりやすい機械学習の応用事例はないと思います。「News Feedの感情伝達実験」が過去に話題になりましたが、今回はそういう意味では海外の記事を見ても結構慎重な発表になっていますね。

この手のInputからDeep LearningがゴニョゴニョしてOutputを最適化する問題に関しては、すでにある程度技術は確定しており、現状はどういうデータを横断的に集めてどういう風に活用すればよいか、という当たりに議論がシフトしてきています。といってもディスプレイの表示から記事のクリック率、ユーザーのプロファイルまで一気通貫でデータを取得できるのがFacebookの強みなので、技術はあっても活用できないというのが他の会社のステータスかな、と。

そういう観点では、先日リリースされた機械学習系をたっぷり使ったGoogle Photosも機械学習の能力がすごいというより、あの一定サイズまでの無限に使えるストレージとそれを支える分散系のバックエンドシステムがあって、はじめてできることなので、Deep Leraningそのものが価値を生み出すというよりは、横断的な学習用データをユーザーから引き出すことができる企業が有利になる、というステージにあると考えてよいのではないかと思っています。

さらにGoogle Photosは明らかに時系列を意識した解析も行われており、大量の写真 + 時系列の技術って、シーン解析からの自動運転までつながるまさに機械学習の王道分野です。

このあたりの時系列なり、複数種類の統合なり、横断的なデータの争奪戦がすでにはじまっていると考えると、かなりしっくりくる、と考えています。

どうしてこのタイミングで機械学習系スタートアップに参加したのか

私事ですが、友人のHarada Hitoshi(@umitanuki)の起業したAlpacaに参加することになりました(正式な参加はもう少し先になりますが)。

もともとDeep Learningに代表される機械学習に強みを持つチームを@umitanukiがCTOとして率いるということで、 このタイミングで人工知能関連に関連するプロダクト開発に参加して、これまでと異なるプロダクト開発の 経験を積みたいという思いもあり、僕もエンジニアとして参加することにしました。

今日からJP Blogも開始しておりますので、興味ありましたら、ぜひ閲覧いただければ、と思います。

blog-jp.alpaca.ai

さてさて、どうして今機械学習系のスタートアップに参加することにしたかを簡単に説明したいと思います。 一番の理由はなんといっても昔から@umitanukiが起業する時は一緒にやろうという話をしていたからなのですが、そういう個人的な事情を抜きにすると、 おそらく機械学習は今後のテクノロジーのテクノロジードライバーになるだろうという思いがあったからです。

インターネットが登場した時、スマートフォンが登場した時、それぞれこれはすごいことになるだろう、という思いがありました。 ただ、インターネットのタイミングは単純に経験不足、スマートフォンの登場したタイミングは育児で身動きが取れず、 なかなかチャレンジすることができませんでした。もちろん、その期間、じっくりと一箇所で経験を詰めたという点において、逆に非常によかったと おもっているのですが、いよいよこのタイミングで友人もチャレンジするということで、一緒にチャレンジしてみたいという思いが強くなりました。

といっても、実際問題、インターネットやスマートフォンの時のような爆発力が、機械学習にあるかというと、これは結構難しいと思っています。

というのも、インターネットもスマートフォンも明らかに、新しい体験を提供するという意味で、極めてわかりやすい形で世界を変えていきましたが、機械学習は どちらかというと何も表面上のインパクトを与えないまま、静かにしかし大きく世界を変えていくだろうと考えているからです。つまり、これは新しい何かが 登場するというよりは、既存のシステムの刷新・または従来と異なるヒトと人工知能のワークフローの提案という形で浸透すると考えています。

これはインターネットやスマートフォンのような旧来のなにかをひっくり返すというよりは、何もひっくり返さずにバックエンドが変わっていくという形で進行 すると考えることが出来ますので、その中で新しいプロダクトを開発していくためには、なによりも既存のシステム自体に強くなければいけません。 そういう意味では、より実際の業務やシステムの背景を知り尽くした上での、プロダクトのデザイン力が求められていくだろうと思っています。 そして、これは相当難しいだろうとも予測しています。

というわけで、かなり厳しい道になりそうですが、何事も楽しんで突き進んでいこうと思いますので、皆様よろしくお願いします。ブログや下記Twitter、 Facebookなどで近況を紹介しつつ、プロダクトリリースなどの主要なタイミングではこのブログでも紹介していこうと思います。

Kindle久しぶりの特大セール「最大50%ポイント還元セール」が開催中!

ひさしぶりにKindleの特大セールがきているようですね。Amazonのポイントは即日付与されるので、一冊買ってからすこし待って2冊目を買えば、実質半額で全巻購入可能です。期限がわからないので気になるヒトはすぐに購入推奨でございます(すでに終了したもよう、実質一日でしたね)

早速チェックしていきましょう!

まず、普段なかなかセールしないヒストリエがセール対象なのは見逃せません。まちがいなくおもしろいので、未読なら購入してもよいかと思います。

「くまみこ」もセール中。ほのぼのギャグマンガですが、ビレッジバンガードのくだりが有名すぎて、逆にあまり読まれてないかもしれません。

沙村広明の新作「波よ聞いてくれ」もセール対象。1、2話だけ読んでいたのですが、絶対におもしろいのですぐに買ってしまいました。

ちょっと気になったのが、週刊アスキーの紙媒体の最終号。記念に買っておきたかったけど、ちょっと家には置きたくないというヒトにはKindleはベストの選択肢かと思います。

なんやかんやいっても、最近の漫画では間違いなく必読だと思う「進撃の巨人」もセール対象。未読の方は最高のチャンスではないでしょうか。

僕の大好きな漫画「少女ファイト」もセール中。これも未読ならガチでおすすめのシリーズでございます。

うわさによると今回の銃夢がかなりおもしろいということで、こちらも買ってみました。

こちらも気になっていたリストにはいっていたのですぐに購入してみました。

ざっと、見た感じ、きになったのは以上です。最後に未読ですが、買ったもの・気になったものもリストにしておきます。

とりあえず以上です。また、読んでいて気になったものがあったら紹介したいと思います。

人工知能への期待値コントロールの必要性について

人工知能ネタでちょっと気になった記事。

何をもって知能とするか - murawaki の雑記 - rekkenグループ

「人工知能に対する楽観的な妄想」はいつか来た道 - 銀座で働くデータサイエンティストのブログ

続きを読む