ちょっと前の話になりますが、#AAJUGでLTしてきました。昨年ぐらいからマメに参加させてもらっていて、いろいろ情報頂いているばかりなので、いつかLTとかできたらいいなーと思ってました。やっと念願叶ってとても嬉しいです!
※写真は当日のツイートTからいただいてます(LTしてると自分では撮れないので。。。)
資料
サンプルスキルの動画
内容
ノンコーディングでAlexaスキル/Googleアクションが開発できる「Voiceflow」について、こんなことまでできるぞ!Voiceflowすげーぞ!という話と、日本語で使うならこのあたりに注意的な話、この2点で話してきました。個人的にはコード書くほうが好きなんですが、上記に動画を見てもらえれば、Voiceflow本当にすごいというのがわかってもらえるんじゃないかなと思います。
特にAPI連携が簡単にできちゃうというのはVoiceflowの強みですね。上記のスキルでもairtableとGHKitと連携させてますが、API連携ができるとスキル開発の幅が広がるので非常にオススメです。
興味があれば、ぜひ使ってみていただきたいです。
少し補足しておくと、上記の動画は当日発表したものから少し変更してまして、Obnizと距離センサー+MP3モジュールを組み合わせて、人が近づいたら音声再生により自動でスキル起動、というのも追加してます。ここについてはVoiceflowの機能ではないのであしからず。
最後に
ということで、次回は以下でLT予定です。
ネタ的には使い回しになるんですが、obnizの話と、#AAJUGではあまり話のできなかったAPLについてもう少し深掘りしてお話したいと思っています。
お時間あえば是非お越しください〜