こんばんわ、hisayukiです。
昨日は8月のJAWS-UG名古屋でした!
今回も大量のキャンセル待ちが発生してました💦
毎回、満員御礼で本当にありがたい限りです⭐
本当は振り返りは毎回書きたいのですが、どうしても自分の登壇月はギリギリまで資料かいてまして・・・
ちゃんと前もって準備しとけって感じですね、すいません/(^o^)\
というわけで、振り返りを書いていきます❗
セッション
セッションの振り返りです!
全部はちゃんとまとめられなかったので、まとめられたものだけです💦
Amazon SageMaker Neoが東京リージョンに来たぞー
AWSの亀田さんのセッション
SageMakerでの一連の流れをお話してくださいました。
その所々で発生するタスクを更に簡略化するために、さまざまなサービスが立ち上がってます!
その中で今回のメインのお話になったのが、SageMakerNeo!
今まで東京リージョンにはなかったのですが、今回東京にきました!
学習モデルをFrameworkに依存しない中間表現に変換し、コンパイルすることが出来る仕組み。
写真は取りそこねましたがTensorFlowを初め、様々なFrameworkに対応してます。
学習モデルや、推論モデルはS3でも保存できるのですがECRが推奨でした。
学習済みの推論モデルをコンテナ化して、ECRにpush。
こうすることで学習済みの推論モデルを別リージョンで使えるようになるので、東京リージョンより安いリージョンで学習をさせることも可能とのこと。
便利そうに聞こえますが、自分自身ほとんどやったことないので恩義がわからない・・・
機械学習もっと触りたいなぁ・・・・w
AIを利用した自動配送ルートシステムをAWS上でどのように運用しているか
オプティマインド高田さんのセッション
自社の配送会社向けサービスでどのように機械学習を使っているかのお話でした。
何がすごいって、機械学習系のサービス全然使わずに実装しちゃってることw
S3に地図データを配置するけど、処理は全部Lambda。
大量にLambdaを並列で動かして学習させてるのを聞いて、こういうやり方もあるんだなぁと・・・
確かに古き良きアーキテクチャですw
なにげにMulti Cloudですねw
これはフロントとバックエンドで別れてるので、こういう使い方は有りだと思います。
実際フロントエンジニアがGCP使いということで、API通信でやり取りしてるみたいですし。
課題もLambdaの性質上確かにありえるって感じの課題が多かったですね。
実行時間が決められてるLambdaで地図データのDL時間はかなりネックですね、Response速度も遅くなりますし・・・
これをキャッシュで回避したら、今度はキャッシュを持ってしまってることで起こる課題が多々・・・
地図データ最新化してもキャッシュ側を見て最新化されないとか、Lambdaからの地図データDLが通信エラーで失敗して壊れたままのLambdaがキャッシュされるとか・・・💦
スタートアップで費用を抑えるために作られたアーキテクチャとのことで、ここまで全部Lambdaでやりきったことが本当にすごいと思います。
自転車ECでのAmazon Personalize導入事例
エイチーム 日比さんのセッション
出てそんなに経ってないサービスのAmazon Personalizeを実際に導入したお話。
自社サービスのサイマでAmazonのレコメンド機能を実装❗
自転車が商品のため、品数が少ない、リピート購入が少ないという性質があります。
そのなかでレコメンドは効果がでるのかという検証までされてました。
このとき場所が斜めな位置だったので見ずらいですが・・・
3種類のレシピがあり、一番上のユーザーの行動履歴からの算出が最も結果が出たとのこと。
データ採取の期間は3ヶ月分のパターンが一番結果が出たそうです!
また、Qiitaでも検証からわかったことを載せてますとのことなので、こちらも御覧ください。
初心者はだまってForecastやっとけ!!
JAWS-UG名古屋 山口さんのセッション
とりあえず初心者はだまってForecastやっとけ!!というお話w
この図がすごいわかりやすかったです。
どのサービスがどのポジションで、どの情報とつながっているのか。
サービスを使うことでどの情報からどの情報へ変換・伝達出来るのか。
というかこんなにサービスあったんだ
Forecastは仲間はずれですね・・・w
逆に取り込んだデータがそのままの形で使えるからとっつきやすいのかもしれないです。
AIサービスとの付き合い方はすごくわかりやすかったです。
あくまでサービスは型が決まっていて、その型の中でやれることで最大限の効果をって感じ。
どんなユースケースでも万能なサービスはおそらくないとのことでした。
AIはあくまで統計なので、99.999・・・%までは出来ても100%にはならないです。
なので、失敗の可能性は必ず残るのでそれをユーザに了承してもらうことが大事ですね。
あとは推論結果のリファクタリングする機会を設けましょうとのことでした❗
出た結果は一旦綺麗になるように見直しましょうってことですかね?
Forecastのオススメな理由は上記の通りで、他のと比べて結果がそのまま効果に繋がりやすい。
つまり、ビジネスに繋がりやすいのでまずはこれから初めてみてはって感じでした❗
まとめ
とりあえず、自分の中でまとめたものはこれで全部になります。
まとめられなかった方々申し訳ないです・・・・💦
個人的には機械学習はまだ手つかずの分野。
学習用のインスタンスタイプが結構お高めの物を使わないとなので、なかなか手を出せず・・・
ですが、とりあえず触ってみようってなったときに使えるサービスがいくつかあることに気づけました❗
インスタンスを建てる→学習させる→学習モデルを保管→インスタンスを削除
このサイクルなら多少なりとも金額を抑えられるのかなと思いました。
そろそろSageMakerとForecastあたりを触ってみて、次回は登壇出来るネタ作りたいなと思います。
次回予告
次回の開催は9/18!
テーマはSafetyArchitecture❗
LT枠が20分くらいあるので、1〜2名お話してくださる方がいれば是非!
コメント