Google I/O 2017渡航記 I/O 1日目編

2017/11/11 196hit

ついにI/Oの当日です。今日は基調講演から始まり、さまざまなセッションを見て回る予定です。
まだ眠たいですが今朝はI/Oが始まる前に日本で行われているI/Oのパブリックビューイベント I/O Extendedの参加者向けにHangoutで接続するのでかなり早めに起きます。 眠い。
天気予報では雨の予報、しかしI/Oのイベントサイトでは晴れの予報。果たしてどちらが当たる?
それにしても今年のベイエリアは雨が多くて異常気象気味なようです。

朝食

朝食はホテルで取っていくことにしました。
I/O会場にも無料の朝食の準備はあるのですが、ショアラインアンフィシアターに移動してからテーブルなども確保しづらくなっているので、ホテルに食事がついてくるのはとてもありがたいです。

こういう時も複数人での旅だとワイワイと食事を取れて楽しいですね。
ベーグルなどの品質はI/O会場と大差ないように思いましたがワッフルを自分で作れたり卵やソーセージ、オートミールがあったりしてホテルのほうが食事は充実していました。
オートミール初めて食べてみたのですがゴワゴワしたおかゆって感じ。塩を軽くまぶすと甘くなって美味しく食べられました。
ゆかりふりかけとかかけたら絶対美味しいと思うんだ。

I/O会場まではバスが来ますとのことでしたが、FORDのトラックを改造したような日本で言うところのマイクロバスみたいなバスでした。(それよりずっと広いですが)
Aloftは本格的な大型バスを用意していたので、宿泊客がそれほどでもないのでしょうか?
客室がフローリングになっていたり革が貼ってあったりとこのあたりの高級感についてはアメリカは日本より上を行っている気がします。


開会前

I/O会場に到着しました。
朝食の受け取り場は既に行列ができています。ホテルで食事を取ってきたのは正解。
コーヒーは手軽にゲットできました。



基調講演の前に日本へHangoutで繋いでみました。I/O開始前の会場が盛り上がっていく感じはなかなか現地に行かないと伝わらないですが楽しんでいただけましたでしょうか?

去年の反省を元に今年はイヤホンを持っていったので、騒音が激しい会場内でも通話を行うことができました。
ただ、問題としてはイヤホンを付けている人しか聞こえないので、インタビューをしているときはカメラマンは何を会話しているのか聞こえず、どこを撮っていいかわからない。
あとインイヤータイプのイヤホンは耳垢が付くので使いまわしを敬遠されがち
スマートフォンで撮影する場合、液晶画面をインタビューアーが見るべきか、カメラマンが見るべきか難しい。
このあたり良い解決方法がないか、来年への課題も残りました。

会場が開くと、会場内からうぉぉぉ〜という鬨の声が響き渡ります。
I/Oでは参加者全体でイベントを盛り上げていこう という雰囲気を強く感じます。
そしていよいよ基調講演会場へ。

前のほうが日陰で、後方から日差しが来るので、座れる中で一番前の席をチョイス。
大体の席位置は昨日の登録時点で指定されていて、枠の入り口ですべてチェックされているので別の枠に入ると言った不正は難しそう。
枠のサイズが大きいので枠の中でどこに座るかは早いもの順になります。
不思議なことにI/Oでは会場の座席を詰めずに左右から座る人が多いので、真ん中の座席はすかすかになっていて意外と好きな場所を選ぶことができます。
今回も、後ろの枠ながら中央に近い位置を取ることができました。

座席は最前面のときほど発表者の顔をよく見ることはできませんが、ステージの全体像が一望できてこれはこれで見やすい席な気がします。

基調講演前の展示について、今年は世界中のモバイルに繋いだ人が端末を振ると泡が会場に送られるというもの、
泡の送り元がGoogleEarthで紹介されリアルタイムに3Dで表示されるのは改めてGoogleの凄さを感じました。


座りはじめのときは日陰だったのですが、さぁ始まるぞという時になって日差しが当たってしまいました。


太陽光が眩しくてスクリーンが見づらいです。つば付きの帽子があればよかった。
日本でも朝焼けや夕焼けのときに日差しが眩しいということが有ると思うのですが、あんな感じで目の前が見づらいです。


カウントダウンの前に後ろの方から何かが迫ってくるような音がサラウンドで再生。
このうしろから流れてくる感じがリアルでつい後ろを振り向いてしまいました。

今年の基調講演のオープニングはアイディアの卵が成長していく物語。
こういうのを見るとちゃんと頑張って自分のアイディアを育てようって気持ちにさせてくれます。とても良い動画。
セッションについては詳しくはYouTubeで放送されます。


Googleプラットフォーム

最初にGoogleのプラットフォームについての説明が行われました。
Google検索、Android、Chrome、YouTube、Google Maps、Google Play、Gmail
10億アクティブユーザーを超えるプロダクトがこれだけ並ぶのはGoogleならでは、
特にAndroidについてはついに20億の大台を突破したことが発表されました。
わたしが初めてI/Oに行った2012年の時は4億を突破したと言っていたので5年間で5倍も増えた計算です。

特に10億の大台を突破したあとのいわゆるネクストビリオンに関してはコンピューターやインターネットがそれまで存在しなかった社会へ向けての市場だったため、こんな勢いで広まっていくとは思いませんでした。
また、とうじょうして間もないGoogle Driveが8億、Google Photosが5億と次の10億組も着々と広がっているようです。

かつてIntelとMicrosoftは統一化されたプロセッサとOSによりコンピュータのコストを劇的に下げてコンピュータを一般家庭に手が届く者へと広げていきましたが、今はその役割をARMとGoogleが担っているように感じます。

AI

AI Firstらしく、人工知能(Deep Learning)に関する話で様々なデバイスやサービスですでにAIが使用されていることをアピール。
既に画像認識については人間を超えているとか。
音声認識ではGoogleHomeが8個つかう予定だったマイクを2個に減らすことができたとのこと。
以前AmazonEchoを使わせてもらったときはたしかにマイクが並んでいました。

Pixelで使えるアプリとしてGoogle Lensも凄い
複数枚画像を撮影した上で解析して暗所でのノイズリダクションに使用したり、写真からフェンスを省いたり、
WiFiの情報をカメラで撮影して適用できるのはよくあるユースケースなのでとても便利そう。

店にカメラを向けるとレビューが表示されるのはえげつない未来だなと思うと同時に、早くGoogleGlass復活してくれって感じします。地味だけれど、これは未来の技術につながるとおもう。
この手の話を聞く度に、今後デジカメはどうなっていくか気になります。

Auto MLに関してはついにこの日が来るのかって感じですね。
Auto MLが一般的になるとしたら、Auto MLが必要なエンジニアと不要なエンジニアで論争も起きそう。
コンパイラ必要なエンジニアと不要なエンジニアの論争みたいに

Google Home+Assistant

Googleの音声入力は近年劇的に改善しているし、Google Homeも期待してしまいます。
今年はBestBuyに買いに行く予定です。

なんと大阪に行った時の写真がサンプルにでてました。
たこ焼きという日本語の文字を撮影してそれを翻訳して見た目を検索する。
海外に行くとメニューを見てもどんな内容か分からなくて料理を注文できないってことがあったので これは凄そう。

GoogleAssistantがiPhoneで使えると発表された時に歓声が起きたのはちょっと驚きました。
たしか2012年にChromeがiPhoneで使えると発表されたときは戸惑いや怒りに近いどよめきが起きたのを覚えています。
GoogleがAndroid VS iPhoneの図式を取っていない(Android開発チーム内はしりませんが)ことは明らかでしたが、それがかなり伝わっているということでしょうか

さらにGoogleAssistant build inで追加のハードウェアも開発できる!
パートナーにONKYOやパナソニックやSONYの文字も見えました。
最近この手の発表では日本のメーカーが存在しないということが多かったのでこれは嬉しい。

と思ったらGoogleAssistantの日本語対応が発表されました!
さらにGoogleHomeの日本対応が発表されました!
アメリカ、イギリスに続いてカナダ、オーストラリア、フランス、ドイツそして日本。
日本語の特殊さは世界でも有数だと思うので日本での展開はしばらくはないと思っていました。GoogleHomeを買ったとしても当分は英語で使おうと思っていたのに、まさかこのリストの中に日本が入ってくるのは驚きです。

プッシュ通知も便利そう
Googleカレンダーの内容を元にGoogleMapsの渋滞情報から出発時刻を通知してくれる。
パッシブオペレーションは私の目標の1つですが、それにかなり近い感じがするし、更にその先のノンオペレーションにも近づいていると思います。

今年の基調講演は通常の基調講演と開発者向けの基調講演に別れていたんですが、意外と通常の基調講演のほうでも開発者に関係する話が紹介されていました。

GooglePhoto

SharedLibraryきたー
これは欲しくて仕方なかった機能です。
家族の写真が写っていると自動で家族と共有できる。これでもうGooglePhotoをごりごり共有設定しなくて済むのね

YouTube

I/Oで滑っている人始めてみた・・・

Android

AndroidWear、Auto、TVといったPhoneとTablet以外におけるAndroidの説明
Wearは特に頑張って欲しいですね。
AUTOも結局自分は対応していない車を買ってしまいましたが、スマートフォン単独で利用して利便性を感じるので期待。
YouTubeを音声だけでも聞けたらなお良いんだけれど
Thingsは直前にとりあえずラズパイに入れてみた所。 まだいれただけですが

Android Oは既に開発者プレビューが出ている状態なので、これといった大きなニュースはないかも

Notification DotsはすごいiOSっぽい・・・
ただ通知数が表示されないので劣化コピー感が強いですね。
はやくActiveIconが実装されないかしら。 iOSでいう時計みたいなアイコンで表現したいことって有ると思うんですよね
ウィジェットがその答えなんでしょうが、残念ながら一々設置してくれる人は少ないように思います。

Dozeまわりが更に厳しくなるようです。確かにバッテリーライフは重要だと思うんですがDozeが採用されて以降スマートフォンのバッテリーが劇的に良くなったとかそういう経験がないんですよね。
やっぱりバッテリーは長くて2日程度しかもたないし、むしろアプリ開発の自由度が妨げられているように思います。

Kotlinの公式サポートきたー
これはかなり驚き、better Java言語は色々と出てきているもののGoogleのお墨付きがついたことでKotlinの採用は一気に広がりそう。

Android Go
安価なデバイスや貧弱な通信環境で動くAndroidプラットフォームだそうですが、
しかしこれまた 厄介な名前を付けたものです。

VR/AR
VPSはなるほどなぁという感じ
屋内での位置情報をカメラに依存する。この手のやつはビーコンをつかうのが一般的だったと思うのですがやはり精度を求めていくと現状スマートフォンのカメラに頼るのが最良っぽい。

ARコンテンツを見るのに自撮り棒を使うという発想は面白かったです。

奇数年はハズレ年といわれるI/Oですが、今年のI/O基調講演はわりと充実していたように思います。
新種のデバイスこそ存在しなかったものの特にkotlinをAndroidで公式サポートするというのは大きな変化になりそう。


MacBookAirを使ってメモを取っていたのだけれど直射日光を浴びてかなり厳しい感じです。
あと、周囲はかなり砂っぽくディスプレイ周りもシャリシャリに砂だらけになってしまいました。
これはあとで分解してCPUファン周り清掃したほうが良いかも
さて、去年との比較ですが、お互いの良し悪しあるけれど、どちらかと言うと後方のほうがつらいです。
前方はスピーカーの声がよく聞こえるとともにこちらの声も通るのでうまくしたらちょっとしたやり取りが出来ることもあります。
前方は凍えるほど寒く、後方は照りつけて暑い、どちらも体感的につらいですが後方はPCが調子悪くなりそうなほど暑くなるのがきつかった。
あと日差しが入ってステージもPCも見えづらいのが辛い。
やはり多少無理して並んでも前方に並びたい。

開発者向け基調講演

昼食はこちら
ハンバーガーです。 おいしそう。

そうなだけでした。 うーん やっぱりI/Oの食事はイマイチなのか
といっても、これまでの昼食に比べればかなりマシになっている気はします。 ただ、参加費を考えるともうすこしマトモな食事を出してほしいなぁという気がします。


午後一発目は開発者向けの基調講演です。今年は普通の基調講演と開発者向けの基調講演が別れています。
過去に基調講演が別れていると言えば2012年に、前半はAndroid、後半はChromeだったのですが、今回は一般向けと開発者向けという別れ方。前半時点で開発者向けの情報も出していた気がするのですがどのようになるのでしょうか?

会場に戻ったのですが最初のスペースと同じ場所に戻らないといけないそうです。Codelabなども同時並行で開始されているのでそちらに移る人もいるだろうし、場所が自由にならないか期待していたのですが残念です。

開発者向けコミュニティについて

Googleが様々な開発者向けコミュニティに投資していることから紹介が開始。
世界的に見てもこれだけコミュニティに投資している会社は早々ない気がしますね。あとはMicrosoftくらいでしょうか?

Android

Androidアプリのビジネスが広がっているという話からスタート。
単にユーザーだけではなく商用ベースでも売上が増えていっているというのは開発者としてはうれしいですね。

Kotlinのサポート
Kotlinを公式にサポートする旨のアナウンスが改めて行われました。
First class supportというだけあるので、今後はサンプルコードなどもKotlinが併記されるのでしょうか?
AndroidにおけるJava言語の問題点は以前から言われていて代替はGoだのScalaだの言われていたところで、とりあえず当面の決着はついたように思います。

Kotlinはサポートするが既存のJavaおよびC++についても継続してサポートするそうです。
Java8の機能も部分的ながら追加されていくとのこと
KotlinがJavaと共存できること(これについては他のJVM言語も似たような感じでしょうが)
また、既にメジャーなアプリでKotlinが使われていることがアピールされました。

KotlinはApache2ライセンスでオープンソースとなっており、今後非営利団体に引き継がれるとのこと
Openであり、Openでありつづけると強調していたのはライセンスで揉めたJavaへのあてつけでしょうか

Kotlinの実例としてやや、極端な例ですがJavaの100行近いデータクラスがKotlinでは1行で書けることが紹介されました。
そういえば、今も残っているのか知りませんが、プログラムの規模数を行数で計算して見積もりだしているような人たちはこの変化をどう見るんでしょうね。

Javaで書かれたコードをコピーしてKotlinにペーストしたら、AndroiStudioが自動的にKotlinに変換するデモが行われていました。
実は以前にKotlinで自作アプリを書き換えたことがあったのである程度は掴んでいたのですが、やはりインパクトあります。


Android Studioについて

Android3.0が発表されました。
動きが早いな
ネットワークプロファイラを使うとどのようなネットワーク処理が行われたのかChromeDevTool風の画面で見ることができ、リクエストとレスポンスの詳細(画像をダウンロードしたときは画像まで!)さらには、どのコードによって呼ばれたのかの追跡も出来るとのこと。
ネットワーク絡みは問題が起きると解決しづらいことが多々あるのでこれはすごく便利になりそう。

ビルドと同期も高速化されるのだとか
実際Androidのビルドは一時期猛烈に遅かったのが、最近改善傾向にありストレス少なくコーディングできるようになっています。
InstantRunは相変わらず不安定ですが、それを除いてもビルド環境はかなり改善しました。

エミュレータでPlayStoreが使えるようになるそうです。
え? やっと!? って気がしますね。

Android Oへの対応としてAdaptive Icon作成機能も紹介されました。
Adaptive Iconいまいち好きになれませんが、勝手なアイコンに置き換えられるよりはマシ と思うしか無いのでしょうか?
なんとなくAndroid Oはヴィジュアル面について後退したような気がしています。

Android SDK Managerを使わずにMavenで依存関係をダウンロードできるようになるそうです。
これ、バージョンアップ時にビルドできなくなったりするトラップだったので地味ながら確実にうれしいですね。

Architecture Components 出てきました。
Volleyがそんなこと言いながらマトモに保守されずに捨てられていったのでちょっと疑心暗鬼。とりあえず後で詳しく調べてみましょうか

Play Storeについて

リリース時に端末を絞り込んだり、端末ごとの評価を調べて問題のある端末を洗い出したり出来る様になるみたい。
アプリのクオリティが上がると平均的な収益が6倍に、定着率が7倍になるとか

Instant Appsについて

Android Instant Appsが一般公開されました。
そこまで工数をかけられる仕事はなかなかないかもしれませんが概ね一ヶ月から一ヶ月半くらいでInstant Apps対応できるとのこと

Actions on Googleについて

Seamless Acount Linkingを使うことでGoogleAssistant上でユーザーが買い物をできるようにすることが可能(無料)
取引履歴についても1つに集約されてユーザーが確認できるとのこと

注文状態が更新された場合、通知も行える。
App Directoryにより、ユーザーは新しいアシスタントを追加することも可能。

AIの民主化

さまざまなDeepLearningによる結果をAPIで提供したり、TensorFlowやTPUの公開により誰でもAIの技術を使えるようにしているとのこと。
TensorFlow1.2がリリースされました。

Chrome

Webの広がりとChromeの機能拡張について紹介されていました。
AMPはそろそろFirespeedでも対応したいなぁ。
まずは歴史的事情でEUC-JPになっているのでUTF-8に変えないといけないのです。
Progressive Web Appsはいくつか試しているものの、まだ荒削りな部分が多く感じます。
オフライン対応の作りづらさや通知を許可するダイアログの不躾なかんじが解消されると大きく化けそうな気がします。

Firebaseについて

去年突然拡大したFirebaseについて、GCPとの住み分けが気になるところですが、Fabricも統合していくことがアナウンスされました。
Firebase Cloud Functionforを使えばnode.jsでFirebaseのDB更新に応じてPush通知を送ったりHostingと組み合わせることで動的Webサイトを作ったり出来るとのこと。
HostingはHTTPSにも対応していてけっこう使いやすい印象です。
AppEngineの置き換えが出来るのかな

Firebase Perfomanceを使うとアプリのパフォーマンスとして起動時間とネットワークのレスポンスタイムを集計できるのだとか、あとFirebaseSDKがオープンソース化されました。
ただこの手の測定は測定するだけで終わっている事例が多いので導入が容易になればなるほど無駄な測定が増えるという事態にならないか心配。

GoogleI/Oの参加者にGoogleHomeと700ドルのGCP使用料が割り当てられました。
今年はお土産はないだろうと思っていたのでこれは嬉しいサプライズ。

ということで、開発者向け基調講演は終わりました。
うーん 正直な所、普通の基調講演との住み分けができていないというか、何故わざわざ開発者向けと銘打ったのかいまいち見えづらかったです。 そもそもI/O自体が開発者向けのイベントなのだからもっとSDK周りの話とかあるのかと思っていたんですが・・・

What's new Android


会場そのままでWhat's new Androidが始まりました。
ブロックの制限は解除されたので前の席の方へ移動します。
思えば周りを見渡せばGCPやFirebaseといつのまにかAndroidもGoogleの中では古参になってきましたね。

そういえば、今回はセッションが事前予約制になっています。事前予約はWebあるいはスマートフォンのアプリで行うことができて、予約を取っている人専用のゲートが有りこのときに、名札に埋め込まれたNFCチップを受付の人が持っているNexus6で読み取ることで予約済みの人が入れるという仕組み。

似たような仕組みは2015年のI/Oでも試されていて、そのときには腕に巻き付けるSDカードサイズのNFCをNexus4で読み取るという仕組みだったのですが、認識速度が遅く入場に手間取り途中からなしになったという経緯がありました。
しかし、今回はチップ側が大きくなったおかげか、スマートフォン側の性能が上がったのか認識はとてもスムーズ。あまりに列がスムーズにはけるので途中まで認証しているのに気が付かないほどでした。

去年のI/Oと違って人気セッションに入るためには数時間前から並び、実際に入れるかどうかはその時になってみないとわからない ということはなくなっていました。

What's new AndroidはいきなりGitのdiffを見せられてここが変わったよというジョークから
しかし想像以上にガッツリ変わってます。
enum使いかけた というブラックジョーク(個人的にはenum使っていいと思うんですけれどね)

そこまで目立った何かは無いなぁと言うのが正直な感想。
ここ数年のI/OはI/Oより前に新しいAndroidのバージョンについて概要が発表され開発者プレビューまで配られている状態なので、I/Oの時点ではもうこれと言って新しい情報はないんですよね。

と思ったらスピーカー自体が何を話そう、存在の危機だとか言い始めたw

hand-picked selection (Gitのdiffにかけたジョーク)で重点項目と注意点について話すそうです。

プレゼン用のリモコンが調子悪くて動かないです。Google I/Oという大舞台、それもWhat's new Androidなんていうセッション慣れした人たちがおこなうプレゼンでもこんなことが起きちゃうんですね。
Chat Haaseが自分がスライドを動かすよ なんて言ってます なんて贅沢な

Picture in PictureやMulti Displayといった複数のアプリを同時に実行することが今後のアプリでは重要になってきそうです。
動画、色、WebView、AnimatorSetあたりも改善が地味に行われている模様。
Autofillは便利そう。パスワードや住所などをアプリをまたいで、あるいはWebと組み合わせて自動入力できるとのこと。
アプリとして自動入力を受け取ることも、サービスとして自動入力の情報を管理することもどちらも出来るとか

Fontファイルを直接Fontフォルダに突っ込むことが出来るようになりました。
Downloadable Fonts!が登場しました。
Google Play Service v11を使えばGoogleFontsも使用できるそうです。 これはすごい。
特にWearにおいてはFont選びが重要になるのでそこでGoogleFontsが使えるのは凄く楽しい展開です。

Auto-Sizing TextViewではTextViewの大きさに合わせて文字サイズが自動で変動してくれる機能。
これってけっこう必要で独力実装した人も多いかと思いますが、これもSupportLibaryで使用可能になるとか、 これは嬉しすぎる。

findViewById()でCastが不要になった。
なんでいまごろー って感じします。 最近はButterKnifeやDataBindingを使うことが増えてそもそもfindViewById()を使用すること自体が減ってます。
これAndroid4.0くらいで実装できなかったんですかね?

adaptive icon
全くすきになれない。

ショートカットやWidgetをホーム画面にアプリから設置要求できるようになりました。
これは嬉しい。 実はAndroid1.6のときにWidgetでコインパーキングに止めた車の料金を表示するアプリを作ったことがあるのですが、Widgetの配置の仕方がわからないというユーザーからひどいクレームをうけたことがあります。
けれど、Widgetの設置方法はホームアプリによって変わるのでやり方を記載するにも限度があって結局Widgetは知っている人だけが使えばいい機能というかたちでそれ以降ではあまり使わなくなってしまいました。

絵文字の互換性がSupport Libraryでサポートされました。
絵文字はデバイスやバージョンによって対応している文字数や表現方法が変わっていたのがDownLoadable Fontで一元的に管理できるようです。

アニメーションがアニメーション時間だけでなく、速度で設定できるようになり、これでよりユーザーの速度にあわせたりより物理的な感覚に近いものを提供できるそう。

Architecture Components - Introduction


LifecycleOwner

ライフサイクルのトラップはあるあるで
それを解決する方法としてLifecycleOwnerをもたせることでオブジェクトがライフサイクルの状況に基づいた挙動を取れるようになる。
ライフサイクルに強調して動きたいオブジェクトはLifecyleObserverインターフェイスを実装することで、LifeCycleの変化に応じてメソッドが呼ばれオブジェクト自体がライフサイクルに基づいた挙動を取りやすくなるのだそうだ。
これにより、処理の位置が適切になるのに加えてActivityやFragmentにかかわらず処理を使いまわせる。
うーむなるほど ネットワーク系の処理では重宝しそうですね。

LiveData

うーん よくわからない シングルトンで状態を持ってActivity再生成時のデータを復元するのは良いとして
ライフサイクルを意識しているとかのあたりが一体どういう動きをするのか
具体的なコードがほしい

ViewModel

Activity再生成時に以前行い掛けていたネットワーク通信を再度行ったりしなくて良いように以前要求した結果を反映させることが出来るっぽい

Room

ORMapper的な奴だけれど、けっこうDBに近くて自由にかけるぽい。
個人的にはORMAで困ってないけれど

それにしても最近この手のが流行ってますね、Androidに限らずですが
Volleyの件やAndroidAnnotationの件もあるのであまり深くロックインするやつは警戒してしまうのですが、
仮にSupportLibraryにまで入り込んでくるとなると、無視するのも得策ではない気もするし・・・
というか、こういうアーキテクチャレベルの話が安易にActivityの親クラスとして入ってくるのはどうなんだろう。

Android Performance: An Overview


パフォーマンス問題、流石に眠くなってきました。
スマートフォンのパフォーマンス改善については年々狂気じみたものを感じます。求められている目標スペックの高さと、それを実現する技術の成熟度。
全てのスタートはiPhoneの当時としては超絶なめらかなスワイプアニメーション(登場当時、モバイルのアニメーションなんて10fpsもあれば良いほうだった)でしょうが、現在は60fpsで安定させることが求められていて、ちょっと前のハイエンド据え置きゲーム機のようです。

さらにはアプリケーションの切り替えまで60fpsでやろうだって

あとはSystraceの使用方法についての説明


ブース

セッション連続で眠気が出てきたのでブースを回ってみます。


Android AutoセッションではVolvoとAudiのコンセプトカーが展示されていました。

Android Auto自体の仕組みはUIとセンサーと電源を車が、ソフトウェアと計算をスマートフォンが行う仕組みですが、このうちスマートフォンをまるごと車側で取り込むことで車に応じたカスタマイズを行うことが出来るという内容。
果たして将来のアップデートなどをどうするのか気になりますが、AndroidAuto自体が安全基準の問題で高度な成長を遂げるのが難しいというのが見えてきた以上、スマートフォン側に処理を委譲して車のライフサイクルにおいてソフトウェアの陳腐化を防ぐというコンセプトも怪しくなってきているので、この手はありかもしれません。

最低でも、スマートフォンをコネクタに繋ぐみたいなアクションは無くなる必要があるはず。


近くの気象情報を集めるAndroidThingsのデモ
これで天気を予報しているよ的なことを行ってたような


Android Wearも様々なデバイスが増えてきています。ただいまいち盛り上がりに欠けているのも事実。
Complication APIは便利だと思うのでもう少し成熟してくると便利になるとは思うのですがAppleWatchのSuica対応とかと比べるとインパクトが乏しい。
電子ペーパーと組み合わせるとか、アナログ針と組み合わせるみたいなハードウェアの自由度がほしいですね


Android TVはOreo対応になっていますが、単にOreo化したというだけでなくホーム画面が全体的に見直されてホーム画面から直接コンテンツにアクセスできるようになっておりナビゲーションがスムーズになりそうです。
加えてGoogle Assistantに対応することで部屋の照明を調整したりということも出来ることがアピールされていました。
これ、そうとは名乗っていないですがAndroidTV2.0と言っていいのではないかと

ということで、次はAndroidTVのセッションに行ってみます。

AMP Keynoteも気になったのですが予約を入れることができませんでした。

What's new for Android TV

日本だとAndroidTVってオワコン感がありましたが、世界的に見ると成功の兆しを見せていて内蔵テレビがどんどん増えているそうです。
SONYやシャープのテレビにも入っているそうで、SONYは聞いてましたがシャープにも入っていたのは驚き。
ただ店舗で試した限りだとNexusPlayerと比べてSONYのAndroidTVはパフォーマンスが著しく悪く、快適な視聴体験とは言い難いんですよね。
なんかアレを基準にAndroidTVの印象がついてしまうのは勿体無い気がします。

テレビの代わりにスマートフォンを見る時代と言われながらも
長時間のコンテンツや長期間に渡り放送されるコンテンツについてはテレビが圧倒的に強いとのこと
たしかに、それは実感としてあります。映画や連続ドラマはテレビで見たくなる。
自然と有料コンテンツについてはテレビを避けて通れないということになってきます。
この点において日本ではまだ地上波とディスク媒体が主流ですが遠くない未来にオンライン視聴がメインに移ってくるものと思います。
自宅ではhuluに繋いでいますが、オンラインオンデマンドは地上波やレンタルにはない中毒性を感じます。

同時に地上波の放送局にとってはますます辛い時代の到来になるはず。地上波は現在最強のコンテンツプロバイダーであり、日本のテレビ局は自社の番組とネット配信を同列に並べることを禁止することで、自社のコンテンツにユーザーが留まるようにしていますが、今後そうやってネット配信を遠ざけることがネット配信中心の世代からすれば地上波を遠ざけることに繋がってくるはずで、どこかで諦めないといけないタイミングが来るはず。
けれど、地上波放送局の強さって電波帯という限られた資産を専有していることに起因しているので通信によりそこの上限が解除されてしまうと、今までのような美味しいビジネスはできなくなってしまいます。
新規ビジネスならともかく、既存に抱えている莫大な従業員や設備その他を維持していくことを考えると末恐ろしいです。

Android TVの話で言うと
ブースでも見ましたがGoogleAssistantがTVにやってきます。
あとコンテンツがホーム画面から直接アクセス可能になってコンテンツの閲覧性が上がっているように思います。
コンテンツはGoogleの動画も他社の動画も混載して表示されます。最近は家のスマートデバイスをNexusPlayerからAmazonStickに変えたのですがAmazonStickはAmazonコンテンツの優遇が強すぎてサードベンダーは辛いだろうなぁという印象でこのあたりの協業力はさすがAndroidで慣れているというか・・・
ユーザーにとっても どの動画を見たいかが一番大事でだれがコンテンツを配信しているかは興味の範囲外なので
正しい動きだと思う。


After Hour party

去年から初日と二日目の夜にAfter Hour PartyとAfter Hour Concertが開催されるようになりました。(それ以前は初日にAfter Hour Partyが行われてその中でコンサートも行っていた。
去年は初日がAfter Hour Conncertだったのが日程が逆転して初日がAfter HourPartyとなっています。
After Hour Partyはイベント会場内でいたるところに展示物がありそれをお酒を飲みながら遊んで歩いて踊るという感じで結構体力を使うイベントなので、初日に移動したのはありがたいです。
去年は途中できつくなってバスで帰っちゃったんですよね


巨大ラジカセが会場内においてあったのですが、屋上がDJブースになっていました。


全体的に良くなっているI/Oなんですが、食事に関しては提供場所が一箇所になっていて、超混雑。食事の内容はいいのですが例年のようにある程度バラけるようにしてもらわないと


個人的にヒットだったのが各種ゲーム機が展示されていて実際に試すことができたこと
ギャラガやスペースインベーダー、ドンキーコングなどの歴代の名作が実機で遊べます。

以前久しぶりにスーパーマリオをやったときにも思ったのですが、昔のゲームは操作性が悪い。
言い換えると今のゲームは人間とキャラクターが一体感を感じて直感的に動かすように細かなチューニングが施されていることを気付かされます。

ギャラガ、見慣れないデザインと会社名なのですが、よくみるとナムコからライセンスを受けて生産していたようです。


ATARIのSTARWARS 話には聞いていましたがまさか実機を見られるとは34年も前の作品なのに3Dゲームなんです。
ワイヤーフレームだし、3Dの位置情報も仮想的なもので2Dゲームを元にキャラクターの描画をワイヤーフレームで実現しただけという感じではありますが、それでも3D空間の雰囲気がよく出ています。(実のところ当時はメモリーが不足していたのでBitmapよりワイヤーフレームのほうが描画しやすかったという事情もあるでしょうが)


かと思ったら脳波で操作するなんて最新デバイス的なものがあったりして


ドンキーコングです。
ドンキーコングはファミコンで大概やり尽くしましたが、アーケード版は動きが滑らかで迫力が違います。


多数のレトロゲーの中で気になったのがこれ。
実写ぽい背景のうえにラインで描かれた敵キャラが飛んで来るという演出なのですが
この敵キャラが異様にキラキラしていてキレイ。 現在のディスプレイではありえない高輝度ぶりでHDRどころではなく、LED照明を直接見ているようなインパクト。

Facebookで聞いてみたらレーザーエクティブ的なものでは?とのこと

うーむ気になるよう

あとは屋外に出てビール飲みながら色んな人とトーク。
よく勉強会は懇親会が本番なんて言ったりしますが、I/OもやはりAfterHourPartyでのトークが楽しかったりします。
アカペラカラオケ大会が始まったりしてホント自由なイベントです。

結局最終のバスギリギリまで残って色々話していました。

明日はI/O二日目。盛り沢山に面白いセッションがありますがちょっと抜け出してGooglePlexに行ってみようかと思っています。
夕方にはアジア太平洋のGDGメンバーとパーティーの予定です。

前:Google I/O 2017渡航記 Summit+Intel Party編 次:Google I/O 2017渡航記 I/O 2日目編

関連キーワード

[Android][写真][旅行][IT][イベント]

コメントを投稿する

名前URI
コメント