MENU

「サーバーレスとマッシュアップ」「AIの進化を支える半導体技術」|NTT東日本オンラインセミナー

本日のNTT東日本オンラインセミナーの講師は
先週金曜日に引き続きアプライド・マーケティング 大越章司さん、
MCは蝦名彩香さんでした。

f:id:odagiri1977:20180625203421j:image

セミナーは、

  • 【午前】サーバーレスとマッシュアップ
  • 【午後】AIの進化を支える半導体技術

でお届けしました。

 

「サーバーレスとマッシュアップ」について

はい、すでにタイトルで???になりそうですが。

クラウドやウェブサービスが増えたことで、それらのいい所を組み合わせて、
自らはプログラムを作らずに独自のウェブサービスを開発して運用する時代になってきていますよ。というお話でした。

 

例えばある企業の場合、海外工場の進捗チェックをするためにオリジナルの専用チェックツールを開発しようと考えていたが、かかる時間と費用、使い勝手を考えた結果、LINEとDorpboxでやり取りするようになったという。

 

このように既存のウェブサービスを利用すれば、オリジナルのツール開発は不要になってきます。そしてもっとさまざまなウェブサービスを組み合わせて使いたいときには、マッシュアップという手法が利用されます。

マッシュアップは、APIが公開されている既存のWebサービスを組み合わせて新しいサービスを生み出す手法。これにより開発者は時間と費用をだいぶカットすることができるようになります。デメリットは、APIの仕様変更が発生したり、APIを利用していたサービスそのものが無くなったりすることでしょうか。

AWSやAzureなども便利なAPIが公開されているそうで、知り合いのエンジニアも「とても楽になった」とも。これらのAPIは有料なのでいきなりなくなるという心配はなさそうですね。

 

「AIの進化を支える半導体技術」について

先週金曜の大越さんのセミナーで、GoogleのAI専用プロセッサ「TPU」の話を聞いていたので自分にとっては復習的なものでしたが。世界規模でAIのディープラーニングの計算が増加してきたことで、AI専用のプロセッサやGPUが開発、利用されているというお話でした。

 

AIの計算は「学習・訓練」「推論」2種類あるそうで、
「学習・訓練」は、サーバ(クラウド)側で長い時間をかけて、ニューラルネットワークでうまく答えが出るように計算を行うこと。例えば、犬と猫の画像の見極め方法の計算など。

ちなみにGoogleのAlphaGoは、1000台以上のCPUサーバと150台以上のGPUサーバを利用し、開発は2年間。それだけのリソースをGoogleのGCP(Google Cloud Platform)で利用すると30億円か60億円などいろいろ噂されていますが、とにかくべらぼうに費用がかかるようですね。

 

「推論」は、学習・訓練で出来上がったニューラルネットワークを現場(スマホなどのデバイス)で使うこと。アップルのCPU「A11」にはAI専用のニューラルエンジンが組み込まれているので、おそらくネットワークを介さずに端末で処理できる仕様になっているのではとのこと。

今後は、スマホだけでなくIoT機器にも組み込まれてくるのでしょうね。

 

私が担当するNTT東日本オンラインセミナーは以下より申し込めます。

以上、オダギリでした。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次