iPhoneXの顔認証でユーザーの目の位置を検知して3DCGのカメラ位置を適合させているようです。
コードが公開されているそうです。
ゲームとかで多く利用されるようになるかも。ウェブにも使われるかな。

スウェーデンのメディアアーティストのPeder Norrbyさんの作品。
Peder Norrbyさんのツイッターアカウントはこちら >>
https://twitter.com/algomystic

Peder Norrbyさんの作品はこちら >>
http://www.anxious-bored.com
かっこいい作品がたくさんあります。

AttnGAN

「黄色い体で、黒い翼の、短いくちばしの鳥」という文章をもとにしてAIが描いているそうです。
既存の画像を探し出してきて、調整して表示してるのではなく、ゼロから描いてるそうです。
ちょっと信じられないくらいです。

「注意」と「常識」という2つの機械学習プロセスを組み合わせているそうですが、どちらかの要素を削除したり、3つ目の要素を足したりしてほしい。

くわしくはこちら
Microsoft researchers build a bot that draws what you tell it to >>

元記事はこちら
Microsoftがテキストから本物と見間違うレベルの架空のイメージを自動生成する新AI技術「AttnGAN」を開発 >>

【関連記事】

描いている途中のスケッチをAIが解釈してリアルタイムでリアルな画像として描画する >>

デヴィド・ホックニー&マーティン・ゲイフォード著『絵画の歴史 洞窟壁画からiPadまで』読了 >>

MRFluid_Break

MR流体(Magneto Rheological Fluid)ブレーキは、磁力で半個体に変わる液体の抵抗力で制動するブレーキのプロトタイプ。通常のブレーキのような摩擦を利用しないのでほぼメンテナンスフリーで、電気制御だから速くて複雑なブレーキ制御が可能。
モーターショーのブースには足でペダルを漕ぐデモがあって、1分間に100回のブレーキ制御とか体験できました。

クルマのメカについて詳しくはないですが・・・電気制御のブレーキは自動運転でも重要だろうし、単純なブレーキ機能だけでなく広く応用されそう。クルマのダイナミクスを変える技術なのかも。

それにしても、今回のモーターショーは何を見たらいいのかよくわからないまま終わってしまった感じ。

曙ブレーキ >>

撮影した後でズームと撮影距離の関係を前景、中景、遠景で自由に変更できるようです。
ヒッチコックの「めまい」の Vertigo Effect のような撮影をして、あとで使いたいフレームを選んで、うまく補完してくれるような感じかな?

Computational_Zoom

Vertigo Effect のサンプルはこちら

それにしても、ヒッチコックってスゴいな。

この『マジック ベンチ』の最大のポイントは複数人数が同時に体験するARだということ。
なるほど、それはいままでなかったかも。

かなり奥行きを正しく認識してる感じです。CGキャラの上にかざした手の影がキャラにかかってるみたい。
そのままCGキャラの背景に手が回る。
ベンチにはCGキャラの動きに合わせて振動するアクチュエイターも付いてるようです。

くわしくはこちら
Magic Bench >>

ここ2〜3年ぐらいのあいだ、GoogleはVRやARにだいぶ入れ込んでいるようです。
いままでのようにスマホやPCと連動しないで、単独で機能するスタンドアロンのヘッドセットも登場するようです。
スマホやPC連動型のヘッドセットよりも用途に最適化されたデザインなので性能も高いうえに、ケーブルや関連機器もないのでどこまでも歩き回れるようです。

vive_lenovo_google_vr_headset

以前にVRコンテンツを検討したときに話題の中心になったテーマは「フィクション」「ファンタジー」「ストーリー」でした。
個人的にはもっと違う使い方がある気もしますが、没入型コンピューティングが「まるで現実のように」エンターテイメントをより楽しむためのものとするなら、遊園地やパチンコやネットカフェでは利用されるようになるかも。

VRを前提としてユーザー体験をデザインするは、おもしろいものになるか、つまらないものになるか、まだ手探りのようです。

Googleのいままでの取り組みは、こんな感じ。

Google Daydream >>

Google Cardboard >>

Google Lens >>

プロジェクション マッピングの大きな弱点を克服したかも。
投影型のインターフェイスとか(いままで好きになれなかったけど)この技術を使ったらまったく別次元の完成度になりそう。

Perfumeとかのライブの高精度パフォーマンスもアドリブでできるってことかな?

2016年10月25日 テクノロジー

クラブっぽいというか、どこかサイケデリックな感じ。
音楽のライブの空間がVRで配信されて、観客は自宅でゴーグルをつけてライブを見るようになるのかも。
もしそうなら、試してみたい。
オモチャとしてもおもしろそう。

もともとの『Tilt Brush』はこちら

ツールというよりも、エンターテイメントっぽく進化した感じ。

ずっと昔にレンタルフォトを探していたときのことを思い出しました(笑)

米ジョージア工科大学の研究チームによるデモだそうです。
AIの学習が進むと、さらに的確なマッチングができるようです。
すばらしいです。

「コグニティヴ」 は「認知」とか「経験則」とかの意味のようで、IBMが提唱する次世代コンピューティングのキーワードらしいです。
現在のような誰かがプログラムして動くコンピューターから、コンピューター自身が知覚し経験を蓄積して学んでいくコンピューティングになるそうで、AIやディープラーニングの要素のひとつのようです。

くわしくはこちら >>

このドレスは、このドレスに関連するハッシュタグを含む投稿に込められた「感情」を解析して、色が変わるらしいです。
くわしくはこちら >>

レッドカーペットの上で、このドレスを着ているのはバカげてる感じがするかも。
でも、こういったことをきっかけにしてデザインすることの意義を帰るような大きな変化が起きるのかも。

あと、Tone Analyzer というAPIを使ってるそうで、
くわしくはこちら >>
英文だけみたいだけど、文中のワードからその文章に込められてる、怒り、嫌悪、恐怖、喜び、悲しみを解析できるらしい。
おもしろそうだし、とても役に立ちそうだけど、どう使うのか、よくわからない。