興味深い記事です。
AIのアウトプットを人が作った作品として提示するのは、パロディだとしてもやめた方がよさそうです。
カリフォルニアで3人のアーティストがStable Diffusion、Midjourney に対して
「何百万人ものアーティストの権利を侵害する21世紀のコラージュツールであり、作品市場に実質的な悪影響を与えている。」
として訴訟を起こしているそうです。
裁判で著作権侵害を主張するには1対1で作品を比較して検証することが前提になっていて、現在の著作権法はAIによる著作権侵害に対処する能力を備えていないという意見があるようです。
現在のところ、AIを使って制作された作品には著作権は認められないとされています。
こういったAIプラットフォームを運用することの合法性についても疑問視されているそうです。
以下は記事からの抜粋です。
「現行の(米国の)著作権法は、誰が何を所有するかという概念を容易に決定できた時代に制定されました。
影響力とアウトプットがより曖昧なAIの時代に、創作と所有権の問題は複雑になっていて、この裁判を難しくしています。」
ある弁護士によると・・・
「1年前と比べると、巨大なテック企業が同意もクレジットも補償もなしに、人間が創作した作品にAIをトレーニングさせることには法的・倫理的問題があるという考えが、より広く受け入れられていると思います。・・・最終的には、生成AIは人間が作成したデータに依存するため、これらの企業はクリエイティブ産業と協力することを好むと思います。AI企業が人間のクリエイターを破産させれば、彼ら自身もすぐに破産するからです。」
また別の弁護士は・・・
「この集団訴訟の理論は、アーティストにとって非常に危険です。たとえ最終的な結果が実質的に類似していなくても、他人の芸術のいかなる側面でも自分の作品に取り入れ二次的著作物を創作したと裁判所を説得すれば、好きなアーティストの目の描き方をコピーするようなありふれたことでも、法的な危険にさらされる可能性がある。」
また、ゲッティイメージズも
「ゲッティイメージズの知的財産を驚異的な規模で堂々と侵害している 」
としてStability AI社を法廷に提訴しているそうです。
いつか、制作物はNFTになってることが必須になって、作者が実在の人間であることを証明することも必要になるのかも。
The future of art is in AI’s hands >>
Judge Appears Likely to Dismiss AI Class Action Lawsuit by Artists >>
これがいつかフランス革命の人権宣言のような歴史的なドキュメントになるのかも。
スーパーインテリジェンスは、これまでのどのテクノロジーも超える能力を持つと考えられています。
これには、原子力のIAEAのような規制や基準が必要になるとのことです。
ただし、スーパーインテリジェンスほどの重大な能力に至らないAIモデルの開発には、規制や基準を適用しないことも重要であるとも言っています。
これはスーパーインテリジェンスへの注目が薄れないようにするためだそうです。
「スーパーインテリジェンスの創造を止めることは危険であり、困難であると私たちは考えています。利点が非常に大きく、それを構築するコストは年々減少し、それを構築する主体の数は急速に増加しています。それは本質的に私たちが進んでいる技術的な道の一部であり、それを阻止するには世界的な監視体制のようなものが必要になるでしょう。それさえも動作する保証はありません。したがって、スーパーインテリジェンスを正しく理解する必要があります。」
ガバナンスの導入には公的機関が必要で、限界とデフォルトを民主的に決定すべきとしています。
その通りだと思います。
すごくSF的な話のようでもあるし、テクノロジーと人の関係のよくある話のようにも聞こえます。
デンマークのbe my eyes社は、GPT-4の画像認識能力を利用して「バーチャル・ボランティア」という、送られてきた画像に関する質問に答えるアプリだそうです。
これまでにも同様のアプリはあったようですが、
「ミスが多かったり、会話ができなかったりと、市販のツールでは、私たちのコミュニティが抱える多くのニーズを解決することはできませんでした。」とのことです。
新しい機能は人間のボランティアと同レベルの文脈と理解を提供できるそうで、視覚障害者のユーザーから好評のようです。
be my eyesではこれまで、人間のボランティアのみでユーザーをサポートしていました。
ユーザーが期待するような答えを得られなかったり、人間の対応の方が望ましい場合には、ボランティアに依頼することもできるそうです。
与えられた新しいオモチャで遊んでいるだけでなく、役に立てるニーズを見つけた方が良さそうです。
New GPT-4 app can be ‘life-changing’ for visually-impaired people, say users >>
YouTubeの新しいCEOニール・モーハンが書簡でYouTubeの今後の方針を発表しました。
その中でAIを活用した編集機能を準備中だと伝えています。
書簡全体としては、コミュニティを大切にしながら、クリエイターに利益とツールを提供して、YouTube市場を活性化させようというストーリーのようです。
以下は、リンク先からの抜粋です。
「YouTubeは、クリエイターが視聴者と深い関係を築き、好きなことで生計を立てるためのツールをより多く提供することを支援します。」
「クリエイターが求めているのは、単にアップロードできる場所だけではありません。Shorts、ライブ、ポッドキャストなど、さまざまな分野で意欲を高めていくための洗練されたツールが必要なのです。」
「動画を改革し、不可能と思われることを可能にするような方法で、AIの力が発揮され始めたところです。クリエイターは、AIのジェネレーティブな機能によって、仮想的に衣装を入れ替えたり、幻想的な映画の舞台を作ったりと、ストーリーテリングの幅を広げ、制作価値を高めることができるようになるのでしょう。」
新CEOのニール・モーハンさんは広告プロダクトのエキスパートだったようです。
これから広告収益が減りそうなGoolgeにとっては、なんとか死守したいところでしょう。
ChatGPTの生みの親のインタビュー記事。
煽っているようなタイトルですが、インタビューは真っ当で中道な印象です。
AIの未来は地獄でも天国でもなさそうです。
いくつか抜粋です。
「この分野は1つの企業にとっては大きすぎると思いますし、私はここに本当のエコシステムが生まれることを期待しています。」
「私がAIに期待しているのは「ウェブにアクセスして検索クエリを入力する体験をどう変えるか」ではなく「これまでとはまったく違う、もっとクールなやり方がないのか?」ということです。」
「AGI(Artificial General Intelligence:人の知能を完全に再現した機械)の誕生はそれほど明確な瞬間にはならないということです。いわゆるスローテイクオフという緩やかな移行になると思います。」
「もしAGIが本当に完全に実現したら、さまざまなかたちで資本主義を破壊すると思います。・・・もし本当にAGIが実現したなら、これまでとは異なる企業の仕組みが必要になるでしょう。私は、1つの会社が世の中のAIユニバースを所有するべきだとは思っていません。」
「私がOpenAIを誇りに思っていることの1つは、AGIの「オヴァートンの窓(多くの人に尊重すべきのものとして受け入れられる政治的な考え方の範囲)」を、健全だと思えるやり方で押し広げることができたということです。時に不快な印象を与えたとしても。」
「今後もオープンソースを続けていきます。」
サム・アルトマンは、メディア露出は控え目なようです。
最近はマイクロソフトとの仕事に多くの時間を使っていたみたいです。
2022年11月から数ヶ月間、金融関係の記事や説明文をAIで書いて掲載していたそうです。
単純にbotがどこからかテキストをコピペしてきたものではなく、ChatGPTのように語彙と構造を持って生成された文章です。
CNETはこれを認めるコメントを出したようです。ありふれたトピックについてのコンテンツを生成するためにAIを使っているのはニュースサイトの既成事実になってるようです。ただし、CNETの編集方針に沿って「徹底的に事実確認して編集された」記事であることを明言しています。
この記事について、Google検索でペナルティが課された様子もないそうです。
この既成事実によって読者からの信頼は失われるでしょうか?
編集者の役割が重要になって、ライターの仕事はなくなるでしょうか?
私たちはニュースサイトの記事がAIによって書かれたことを識別できるでしょうか?
CNETの「Your guide to a better future」というブランドスローガンが、ディストピアっぽく響いて、とてもいいです。
元記事はこちら
Popular Tech Site Has Been Publishing AI-Written Articles For Months >><
ツイートはこちら
https://twitter.com/GaelBreton/status/1613110191029121024
詳しくはこちら
[Investigation] Has AI Already Replaced Human Writers? >>
検索エンジンの広告収入にとって脅威になるようです。
CEOのピチャイはChatGPTが検索エンジン事業にもたらす脅威への対処に力を入れ直すよう社内の多数のグループに指示したそうです。
少しだけ使ってみた印象として、コーディングのアドバイスを得るにはChatGPTは素晴らしく速いと感じました。
コードが正しいかどうかは要検証なのですが、とりあえず「適当」な答えを得るまでが速いです。
さらに対話を進めると、やや「適切」な答えが得られました。
答え自体だけでなくこの質問と回答のプロセスも役に立つ感じでした。
すごい可能性がありそうだとすぐに感じられましたが、自然な対話のUIだからそう感じただけなのかもしれません。
情報に対しての認知プロセスが変わっていくような気がします。
もし「リンクをクリックする」というプロセスがなくなるとしたら、ネット広告だけでなくウェブ自体も変わって、いろいろなデザインが変わっていくのかも。
ChatGPTのリリースでGoogleは「コードレッド」を宣言、AIチャットボットが検索ビジネスにもたらす脅威に対応するためにチームを再割り当て >>
やや議論が噛み合ってない感じもしますが、Web3がただのバズワードでWeb3に含まれる技術についても「本当に必要だったもの」はそれじゃないという話のようです。
Web3が社会基盤になるようなシステムを理想にしているようですが、ティム・バーナーズ=リーのSolidは「ユーザー」のための基盤を構築しようとしているようです。
彼の新しいスタートアップのInruptによる「Solid」のPRでもあるようですが、おもしろい記事でした。
以下は抜粋です。
「新しい技術の影響を議論するためには、明確にすることが重要です。私たちが議論している用語の意味を、流行語を超えて実際に理解する必要があるのです。」
「実際のWeb3という名前は、イーサリアムの人々がブロックチェーンでやっていることのために取ったもので、本当に残念なことです。実際、Web3は全くWebではありません。」
「バーナーズ=リーの、個人情報をビッグテックの手から離すという理想はWeb3と共通しているが、ビットコインのような暗号通貨を支える分散型台帳技術であるブロックチェーンが解決策になるとは考えていないようだ。」
「ブロックチェーン・プロトコルは、あるものには向いているかもしれないが、バーナーズ=リーが率いるウェブ分散化プロジェクトであるSolidには向いていない。・・・遅すぎるし、高すぎるし、公開しすぎる。個人データの保存は、高速で、安価で、プライベートなものでなければならない。」
「人々はWeb3を、インターネットを再構築するための彼自身の提案である「Web 3.0」と混同しがちであると述べた。彼の新しいスタートアップであるInruptは、ユーザーが自分自身のデータをコントロールできるようにすることを目的としており、データのアクセス方法や保存方法なども含まれる。」
「我々の個人データは、GoogleやFacebookといった一握りのビッグテック・プラットフォームによってサイロ化されており、彼らはそれを使って我々を彼らのプラットフォームに閉じ込めている。その結果、勝者は最も多くのデータを管理する一企業であり、敗者はそれ以外の全員であるという、ビッグデータ競争が起こった。」
「(Solidの)核となるアイデアは、個人データをウェブ上に散在させ、それを収集した人が保管するのではなく、すべて1つの場所に保管し、自分の管理下に置くというものです。この場所は Pod と呼ばれ、「パーソナル オンライン データ ストア」の略称です。」
「バーナーズ=リーは、Solidを「ウェブの第3の層」と呼び、1990年代のオリジナルの静的なウェブページと、その後に登場したよりインタラクティブなアプリのような体験に続くものだと考えています。」
ティム・バーナーズ=リーのWeb3についての
Web inventor Tim Berners-Lee wants us to ‘ignore’ Web3: ‘Web3 is not the web at all’ >>
ティム・バーナーズ=リーの推進する「Solid」についてはこちら
Tim Berners-Lee is building the web’s ‘third layer.’ Don’t call it Web3 >>
ティム・バーナーズ=リーの提唱するWeb3.0はこちらのようです。
Web 3.0 and Linked Data | Tim Berners-Lee >>
個人的には、Web3は社会に受け入れられるためにSDG’sのコンセプトを拝借しているような気がしていて、やや矛盾や根拠に薄い部分がある気がしています。
SolidはWebの使い方を変革することになるような気もします。Webでの広告は終了することになるかも。
セマンティック・ウェブの理想はまだ道半ばのようです。
PHPサーバを使わずに、ブラウザ側でWordPressをフルに動かすそうで。
バックエンドでPHPを実行してHTMLを生成する処理をサーバからなくすそうで、すでにデモもあります。
これまではデータベースを複製したテスト環境が必要だったWordPressのカスタムが、本番環境に別ページを制作することでカスタムできるようになりそうです。
このサイトもWordPressで動いています。
サーバー不要のWordPressは、ウェブ制作の環境を大きく変えそうな気がします。
WordPressのコア開発チーム、WordPressをWebブラウザで実行する「Client-side WebAssembly WordPress」を開発中 | Publicly >>
グーグルの対話特化型AI「LaMDA」が知性や感情を獲得したというエンジニアの主張がありました。
このエンジニアは解雇されてしまいましたが、Googleはこの「LaMDA」を「AI Test Kitchen」というサイトで公開する準備をしているそうです。
公開されるのは「LaMDA2」という改良版のようす。
LaMDA2を使用するのは登録制で、まずは少人数のグループから少しづつ始めていくようです。
Googleは、LaMDA2との会話を製品やサービスの改善に利用するとしていて、人間のレビュアーが利用者のチャットを「読み、注釈を付け、処理」することができるとしているそうです。
Googleはここでフィードバックを集めて、LaMDA2をサービスや製品に展開する準備を進めるようです。
まるでSFのようです。
リンク先の記事では、そこにどんな危惧があるのかを紹介しています。
以下は抜粋です。
「LaMDAは有害な出力や事実上不正確な情報を生成することができる。また、Googleのエンジニアの主張が示唆するように、人間であるかのような錯覚を起こさせる能力を身に付けている。もしLaMDAがGoogleアシスタントを動かすとしたら、どのような影響があるか想像してみてください。人々は、AIモデルの毒性や偏りの犠牲者となり、AIモデルの言うことを盲目的に信じ、Googleのエンジニアに起こったように、AIモデルに愛着を持つようになるかもしれないのです。」
「私たちは、大手ハイテク企業がこうした強力なAIモデルのコントロールを簡単に失ってしまうことを何度も見てきました(GoogleとMetaは、AIモデルの不品行について常に-後付けで-謝罪しています)。彼らでさえLLMの不祥事を正確に予測できないのであれば、素人がLLMと健全に付き合うには、どれほど準備不足なのだろうか。」
「LaMDAは非常に便利ですが、ユーザーの期待に応えられないこともあり、最悪の場合、何らかの形で危害を加えることもあることを彼らは知っています。だからこそ、彼らは改善のためのフィードバックを求めているのです。」
「研究開発から製品化への移行は些細なことではないので、慎重に行う必要があります。このようなAIモデルが世の中に出てくると、企業はそれに対するガバナンスを失います。しかし、安全性の欠如、そして起こりうる悪評さえも利益で補えるのであれば、企業はそれを実行するでしょう。・・・LaMDAが、Googleが設定した製品化のための閾値を超えるかどうかはともかく、LaMDaが、確かに、感覚を持たないことは、自分で評価できるかもしれない。」
難しくてよくわからないですが、世の中にリリースされたら大きな影響力を持つことになるのでしょう。
「皇帝の新しい心」とか読むと、もっとおもしろく理解できるのかな。
Google Is Making LaMDA Available >>
© 2023 DESIGNERS UNION | ご自由に投稿できます。 お気軽にご利用ください。