いままでも似たようなモノがありましたが、ちょっとおもしろそうです。
線描だけというのがいいです。ここに機能を追加したらダメですね。
画面をタップして描くほかにも、スマホを振り回しても描けるようです。
さらに、描いた結果を他のユーザーと共有できるみたい。
まだいろいろ不具合があるようですが、大きな可能性がありそう。
ARが実社会の中に浸透して役に立つような使い方を提案できるかも。
元記事はこちら
Google’s New Experiment Lets You Tag Digital Graffiti In The Real World
【関連記事】
VRの3次元にドローイングできるGoogleの『Tilt Brush』が、音楽に合わせて動くようになった。
iPhoneXの顔認証でユーザーの目の位置を検知して3DCGのカメラ位置を適合させているようです。
コードが公開されているそうです。
ゲームとかで多く利用されるようになるかも。ウェブにも使われるかな。
スウェーデンのメディアアーティストのPeder Norrbyさんの作品。
Peder Norrbyさんのツイッターアカウントはこちら >>
https://twitter.com/algomystic
Peder Norrbyさんの作品はこちら >>
http://www.anxious-bored.com
かっこいい作品がたくさんあります。
「黄色い体で、黒い翼の、短いくちばしの鳥」という文章をもとにしてAIが描いているそうです。
既存の画像を探し出してきて、調整して表示してるのではなく、ゼロから描いてるそうです。
ちょっと信じられないくらいです。
「注意」と「常識」という2つの機械学習プロセスを組み合わせているそうですが、どちらかの要素を削除したり、3つ目の要素を足したりしてほしい。
くわしくはこちら
Microsoft researchers build a bot that draws what you tell it to >>
元記事はこちら
Microsoftがテキストから本物と見間違うレベルの架空のイメージを自動生成する新AI技術「AttnGAN」を開発 >>
【関連記事】
MR流体(Magneto Rheological Fluid)ブレーキは、磁力で半個体に変わる液体の抵抗力で制動するブレーキのプロトタイプ。通常のブレーキのような摩擦を利用しないのでほぼメンテナンスフリーで、電気制御だから速くて複雑なブレーキ制御が可能。
モーターショーのブースには足でペダルを漕ぐデモがあって、1分間に100回のブレーキ制御とか体験できました。
クルマのメカについて詳しくはないですが・・・電気制御のブレーキは自動運転でも重要だろうし、単純なブレーキ機能だけでなく広く応用されそう。クルマのダイナミクスを変える技術なのかも。
それにしても、今回のモーターショーは何を見たらいいのかよくわからないまま終わってしまった感じ。
撮影した後でズームと撮影距離の関係を前景、中景、遠景で自由に変更できるようです。
ヒッチコックの「めまい」の Vertigo Effect のような撮影をして、あとで使いたいフレームを選んで、うまく補完してくれるような感じかな?
Vertigo Effect のサンプルはこちら
それにしても、ヒッチコックってスゴいな。
この『マジック ベンチ』の最大のポイントは複数人数が同時に体験するARだということ。
なるほど、それはいままでなかったかも。
かなり奥行きを正しく認識してる感じです。CGキャラの上にかざした手の影がキャラにかかってるみたい。
そのままCGキャラの背景に手が回る。
ベンチにはCGキャラの動きに合わせて振動するアクチュエイターも付いてるようです。
くわしくはこちら
Magic Bench >>
ここ2〜3年ぐらいのあいだ、GoogleはVRやARにだいぶ入れ込んでいるようです。
いままでのようにスマホやPCと連動しないで、単独で機能するスタンドアロンのヘッドセットも登場するようです。
スマホやPC連動型のヘッドセットよりも用途に最適化されたデザインなので性能も高いうえに、ケーブルや関連機器もないのでどこまでも歩き回れるようです。
以前にVRコンテンツを検討したときに話題の中心になったテーマは「フィクション」「ファンタジー」「ストーリー」でした。
個人的にはもっと違う使い方がある気もしますが、没入型コンピューティングが「まるで現実のように」エンターテイメントをより楽しむためのものとするなら、遊園地やパチンコやネットカフェでは利用されるようになるかも。
VRを前提としてユーザー体験をデザインするは、おもしろいものになるか、つまらないものになるか、まだ手探りのようです。
Googleのいままでの取り組みは、こんな感じ。
プロジェクション マッピングの大きな弱点を克服したかも。
投影型のインターフェイスとか(いままで好きになれなかったけど)この技術を使ったらまったく別次元の完成度になりそう。
Perfumeとかのライブの高精度パフォーマンスもアドリブでできるってことかな?
クラブっぽいというか、どこかサイケデリックな感じ。
音楽のライブの空間がVRで配信されて、観客は自宅でゴーグルをつけてライブを見るようになるのかも。
もしそうなら、試してみたい。
オモチャとしてもおもしろそう。
もともとの『Tilt Brush』はこちら
ツールというよりも、エンターテイメントっぽく進化した感じ。
ずっと昔にレンタルフォトを探していたときのことを思い出しました(笑)
米ジョージア工科大学の研究チームによるデモだそうです。
AIの学習が進むと、さらに的確なマッチングができるようです。
すばらしいです。
© 2023 DESIGNERS UNION | ご自由に投稿できます。 お気軽にご利用ください。