biggest_threat_of_deepfakes_isnt_the_deepfakes_themselves

「ディープ・フェイクは権力者の新しい武器になります。権力のない人々が腐敗を示すために提示しようとしている証拠を『それはフェイク・ニュースだ!』と言えるようになることです。」 

ディープ・フェイクが簡単にできるようになるとニセモノであることを立証するために膨大な手間とコストが掛かるようになるそうです。
でも、本当の問題は、本物を本物であると証明するためにはさらに膨大なコストが掛かること。
さらに、本物を一般大衆に本物だと認識してもらうことが著しく困難になることだそうです。

メディアリテラシーが大切とされますが、ディープフェイク後の社会では、自分が受け取る情報のすべてを疑ってみる必要があるようです。

情報の検証をユーザー負荷にしないように、「オリジナル」であることを立証できるインフラが必要になるのかもしれません。ブロックチェーンとかがもっと利用されるようになるのかな。

The biggest threat of deepfakes isn’t the deepfakes themselves | MIT Technology Review>>
https://www.technologyreview.com/s/614526/the-biggest-threat-of-deepfakes-isnt-the-deepfakes-themselves/

how-an-mit-research-group-turned-computer-code-into-a-modern-design-medium

80年代にグラフィックデザイナーのミュニエル・クーパーがMITで行ったワークショップが発端となったようです
そこから現在のp5.jsに至るまでの、John Maeda、David Small、Lisa Strausfeld、Golan Levin、Ben Fry などによる講演のような、思い出話のような、興味深い内容です。

MITでのことなので、当初はグラフィックデザインの勉強もあまりしてなかったらしく、著名なグラフィックデザイナーから酷評されたこともあるようです。

「コンピューターはデザインの未来だと言い続けていました。」

「あなたが何をしているのかわかりませんが、グラフィックデザインではありません。」
(マイケル・ビアラットのこの指摘は正しいとも言えそうです。)

「ソフトウェアを芸術やデザイン教育に統合する方法を変えたかったのです。学校が生徒にPhotoshopやIllustratorの使い方を教える方法は完全に表面的なものであり、新しいメディアの可能性を模索することさえしなかったと思いました。単にツールとして使用するのではなく、メディアをより深く理解してもらいたかったのです。」

「多くの人は、画像を生成するためにコードを書かなければならないことは、実際にそれを行うツールを持つことから大きく後退していると言うでしょう。しかしジョンは、自分で絵具を混ぜたり素材で作業したりする方法を知らない画家はいないという考えでした。」

きっと先駆者としてのミュニエル・クーパーの先見性は素晴らしいものだったのでしょう。
競争ではなく共有によって発展してきたことも素晴らしいことだと思います。

いままた、ツールと制作者とコミュニティの関係には新しい問題が起きているようです。

How Computer Code Became a Modern Design Medium—an Oral History | Eye On Design>>

Muriel Cooper | Wiki >>

ヒーリングビデオのようなナレーションで facebookやinstagramの世界とWordPressの世界の違いを語りかけてきます。
ちょっと騙されているような気にもなりますが、語っている内容は正しい気がします。

WEBはオープンなものとして始まりましたが、そこに登場したSNSなどのサービスは、それまでオープンだったWEBを限定的に「閉じる」ことでサービスを提供して、ユーザーのコミュニティを形成しました。
この閉じたコミュニティをブランドにしたうえで、セグメント、格差、競争などを展開することで利益を生むようになったと思ってます。
もちろん、SNSはその利便性で恩恵ももたらしてくれます。

SNS以前に登場したWordPressは、WEBがオープンであることが前提だった時代のものでしょう。この前提条件はWEBにとって大切なことだと思っています。
これからも、失われないことを願ってます。

このサイトもWordPressを利用しています。

MakerFairTokyo2018_01

MakerFairTokyo2018_02

週末だけの開催でしたが、行ってよかったです。
それぞれの展示が独創的で楽しかったですし、展示している皆さんも楽しそうでした。

技術的に詳しくないので最初はどういう展示なのか解らないのですが、説明されるとおもしろくなります。
Raspberry Pi とか使えると楽しそうです。

下記のサイトの [出展者情報] に詳しい紹介があります。
これを見てから会場に行ったから楽しめたかも。

Maker Fair Tokyo 2018|Make: Japan >>

Raspberry Pi – Wikipedia >>

ParametricMove

最終日に行きましたが会場は大混雑でした。
微妙な動きから感じる「人らしさ」をパラメータで変化させるのはおもしろいのですが(混雑していたせいもあるのですが)どこか見世物小屋っぽい感じがしました。学天則 を思い出しました。

木片をCGデータにしてAIで歩かせる学習をさせて実物の木片に歩かせる(?)作品が調整中だったのは少し残念。この作品は他の作品と少し違うようにも思えました。

「不完全ながら人っぽいもの」を見て楽しむ感覚について考えさせられるものがありました。
こういう感覚がUIとかに示唆を与えるのかな。

それから、初めて行ったけど東大のキャンパスっていいところ。

Parametric Move 動きをうごかす展 – 山中俊治研究室 – 東京大学 >>

學天則 Wiki

いままでも似たようなモノがありましたが、ちょっとおもしろそうです。
線描だけというのがいいです。ここに機能を追加したらダメですね。

画面をタップして描くほかにも、スマホを振り回しても描けるようです。
さらに、描いた結果を他のユーザーと共有できるみたい。
まだいろいろ不具合があるようですが、大きな可能性がありそう。

ARが実社会の中に浸透して役に立つような使い方を提案できるかも。

元記事はこちら
Google’s New Experiment Lets You Tag Digital Graffiti In The Real World

【関連記事】
VRの3次元にドローイングできるGoogleの『Tilt Brush』が、音楽に合わせて動くようになった。

iPhoneXの顔認証でユーザーの目の位置を検知して3DCGのカメラ位置を適合させているようです。
コードが公開されているそうです。
ゲームとかで多く利用されるようになるかも。ウェブにも使われるかな。

スウェーデンのメディアアーティストのPeder Norrbyさんの作品。
Peder Norrbyさんのツイッターアカウントはこちら >>
https://twitter.com/algomystic

Peder Norrbyさんの作品はこちら >>
http://www.anxious-bored.com
かっこいい作品がたくさんあります。

AttnGAN

「黄色い体で、黒い翼の、短いくちばしの鳥」という文章をもとにしてAIが描いているそうです。
既存の画像を探し出してきて、調整して表示してるのではなく、ゼロから描いてるそうです。
ちょっと信じられないくらいです。

「注意」と「常識」という2つの機械学習プロセスを組み合わせているそうですが、どちらかの要素を削除したり、3つ目の要素を足したりしてほしい。

くわしくはこちら
Microsoft researchers build a bot that draws what you tell it to >>

元記事はこちら
Microsoftがテキストから本物と見間違うレベルの架空のイメージを自動生成する新AI技術「AttnGAN」を開発 >>

【関連記事】

描いている途中のスケッチをAIが解釈してリアルタイムでリアルな画像として描画する >>

デヴィド・ホックニー&マーティン・ゲイフォード著『絵画の歴史 洞窟壁画からiPadまで』読了 >>

MRFluid_Break

MR流体(Magneto Rheological Fluid)ブレーキは、磁力で半個体に変わる液体の抵抗力で制動するブレーキのプロトタイプ。通常のブレーキのような摩擦を利用しないのでほぼメンテナンスフリーで、電気制御だから速くて複雑なブレーキ制御が可能。
モーターショーのブースには足でペダルを漕ぐデモがあって、1分間に100回のブレーキ制御とか体験できました。

クルマのメカについて詳しくはないですが・・・電気制御のブレーキは自動運転でも重要だろうし、単純なブレーキ機能だけでなく広く応用されそう。クルマのダイナミクスを変える技術なのかも。

それにしても、今回のモーターショーは何を見たらいいのかよくわからないまま終わってしまった感じ。

曙ブレーキ >>

撮影した後でズームと撮影距離の関係を前景、中景、遠景で自由に変更できるようです。
ヒッチコックの「めまい」の Vertigo Effect のような撮影をして、あとで使いたいフレームを選んで、うまく補完してくれるような感じかな?

Computational_Zoom

Vertigo Effect のサンプルはこちら

それにしても、ヒッチコックってスゴいな。