ParametricMove

最終日に行きましたが会場は大混雑でした。
微妙な動きから感じる「人らしさ」をパラメータで変化させるのはおもしろいのですが(混雑していたせいもあるのですが)どこか見世物小屋っぽい感じがしました。学天則 を思い出しました。

木片をCGデータにしてAIで歩かせる学習をさせて実物の木片に歩かせる(?)作品が調整中だったのは少し残念。この作品は他の作品と少し違うようにも思えました。

「不完全ながら人っぽいもの」を見て楽しむ感覚について考えさせられるものがありました。
こういう感覚がUIとかに示唆を与えるのかな。

それから、初めて行ったけど東大のキャンパスっていいところ。

Parametric Move 動きをうごかす展 – 山中俊治研究室 – 東京大学 >>

學天則 Wiki

いままでも似たようなモノがありましたが、ちょっとおもしろそうです。
線描だけというのがいいです。ここに機能を追加したらダメですね。

画面をタップして描くほかにも、スマホを振り回しても描けるようです。
さらに、描いた結果を他のユーザーと共有できるみたい。
まだいろいろ不具合があるようですが、大きな可能性がありそう。

ARが実社会の中に浸透して役に立つような使い方を提案できるかも。

元記事はこちら
Google’s New Experiment Lets You Tag Digital Graffiti In The Real World

【関連記事】
VRの3次元にドローイングできるGoogleの『Tilt Brush』が、音楽に合わせて動くようになった。

iPhoneXの顔認証でユーザーの目の位置を検知して3DCGのカメラ位置を適合させているようです。
コードが公開されているそうです。
ゲームとかで多く利用されるようになるかも。ウェブにも使われるかな。

スウェーデンのメディアアーティストのPeder Norrbyさんの作品。
Peder Norrbyさんのツイッターアカウントはこちら >>
https://twitter.com/algomystic

Peder Norrbyさんの作品はこちら >>
http://www.anxious-bored.com
かっこいい作品がたくさんあります。

AttnGAN

「黄色い体で、黒い翼の、短いくちばしの鳥」という文章をもとにしてAIが描いているそうです。
既存の画像を探し出してきて、調整して表示してるのではなく、ゼロから描いてるそうです。
ちょっと信じられないくらいです。

「注意」と「常識」という2つの機械学習プロセスを組み合わせているそうですが、どちらかの要素を削除したり、3つ目の要素を足したりしてほしい。

くわしくはこちら
Microsoft researchers build a bot that draws what you tell it to >>

元記事はこちら
Microsoftがテキストから本物と見間違うレベルの架空のイメージを自動生成する新AI技術「AttnGAN」を開発 >>

【関連記事】

描いている途中のスケッチをAIが解釈してリアルタイムでリアルな画像として描画する >>

デヴィド・ホックニー&マーティン・ゲイフォード著『絵画の歴史 洞窟壁画からiPadまで』読了 >>

MRFluid_Break

MR流体(Magneto Rheological Fluid)ブレーキは、磁力で半個体に変わる液体の抵抗力で制動するブレーキのプロトタイプ。通常のブレーキのような摩擦を利用しないのでほぼメンテナンスフリーで、電気制御だから速くて複雑なブレーキ制御が可能。
モーターショーのブースには足でペダルを漕ぐデモがあって、1分間に100回のブレーキ制御とか体験できました。

クルマのメカについて詳しくはないですが・・・電気制御のブレーキは自動運転でも重要だろうし、単純なブレーキ機能だけでなく広く応用されそう。クルマのダイナミクスを変える技術なのかも。

それにしても、今回のモーターショーは何を見たらいいのかよくわからないまま終わってしまった感じ。

曙ブレーキ >>

撮影した後でズームと撮影距離の関係を前景、中景、遠景で自由に変更できるようです。
ヒッチコックの「めまい」の Vertigo Effect のような撮影をして、あとで使いたいフレームを選んで、うまく補完してくれるような感じかな?

Computational_Zoom

Vertigo Effect のサンプルはこちら

それにしても、ヒッチコックってスゴいな。

この『マジック ベンチ』の最大のポイントは複数人数が同時に体験するARだということ。
なるほど、それはいままでなかったかも。

かなり奥行きを正しく認識してる感じです。CGキャラの上にかざした手の影がキャラにかかってるみたい。
そのままCGキャラの背景に手が回る。
ベンチにはCGキャラの動きに合わせて振動するアクチュエイターも付いてるようです。

くわしくはこちら
Magic Bench >>

ここ2〜3年ぐらいのあいだ、GoogleはVRやARにだいぶ入れ込んでいるようです。
いままでのようにスマホやPCと連動しないで、単独で機能するスタンドアロンのヘッドセットも登場するようです。
スマホやPC連動型のヘッドセットよりも用途に最適化されたデザインなので性能も高いうえに、ケーブルや関連機器もないのでどこまでも歩き回れるようです。

vive_lenovo_google_vr_headset

以前にVRコンテンツを検討したときに話題の中心になったテーマは「フィクション」「ファンタジー」「ストーリー」でした。
個人的にはもっと違う使い方がある気もしますが、没入型コンピューティングが「まるで現実のように」エンターテイメントをより楽しむためのものとするなら、遊園地やパチンコやネットカフェでは利用されるようになるかも。

VRを前提としてユーザー体験をデザインするは、おもしろいものになるか、つまらないものになるか、まだ手探りのようです。

Googleのいままでの取り組みは、こんな感じ。

Google Daydream >>

Google Cardboard >>

Google Lens >>

プロジェクション マッピングの大きな弱点を克服したかも。
投影型のインターフェイスとか(いままで好きになれなかったけど)この技術を使ったらまったく別次元の完成度になりそう。

Perfumeとかのライブの高精度パフォーマンスもアドリブでできるってことかな?

2016年10月25日 テクノロジー

クラブっぽいというか、どこかサイケデリックな感じ。
音楽のライブの空間がVRで配信されて、観客は自宅でゴーグルをつけてライブを見るようになるのかも。
もしそうなら、試してみたい。
オモチャとしてもおもしろそう。

もともとの『Tilt Brush』はこちら

ツールというよりも、エンターテイメントっぽく進化した感じ。