中華IT最新事情

中国を中心にしたアジアのテック最新事情

店主が5ヶ国語で商品を紹介する。日用雑貨の巨大市場「義烏」が始めた生成AI活用の取り組み

店舗の店主が5ヶ国語で商品を紹介するビデオが話題になっている。アリババと義烏国際商貿城が共同開発したシステムで、中国語で商品を紹介したビデオを生成AIを使い、声質はそのままで4ヶ国語に翻訳し、音声を生成するというものだと環球時報が報じた。

 

日用雑貨の巨大集積地「義烏」の悩みは多言語対応

浙江省義烏市。ここには約7.5万店舗が軒を並べる義烏国際商貿城があり、世界中のバイヤーが日用雑貨の買い付けにやってくる。面積は640万平米、東京ドーム140個分。210万種類の商品が購入できる。そのため、店舗のスタッフはほぼ全員が取引に必要な程度の英語を話すことができる。しかし、最近では中東や欧州のバイヤーも訪れるようになり、その中には英語が苦手なバイヤーもいる。そのため、今までは翻訳アプリを使って取引に必要な意思疎通をしていた。

しかし、翻訳アプリでは細かい意思疎通が難しいことも多く、英語以外の言語にどう対応するかが問題になっていた。

▲義烏国際商貿城の店内。小さな店舗が軒を並べ、日用雑貨を販売している。展示されているのはサンプル品で、これを見て、バイヤーは大量購入の契約を結ぶ。

 

誰でも6ヶ国語で話せる「デジタル店主」

ここに、「デジタル店主」が導入されて話題になっている。義烏国際商貿城のサイトに掲載された店舗のビデオでは、店主が中国語で商品の紹介をしている。しかし、下には「アラビア語、英語、スペイン語、中国語、フランス語」の5つのボタンがあり、これをクリックすると、瞬時に店主が話している言語が他の言語に切り替わるのだ。もちろん、言語が切り替わっても、店主の声そのままで外国語を話している。

このデジタル店主を利用して、5ヶ国語を話すビデオを公開した宏盛玩具廠の孫麗娟社長は、環球時報の取材に応えた。「来店してくださるお客様から、どこでこんなにたくさんの外国語を学んだのかとよく聞かれます。あるお客様は、あなたのアラビア語は発音が非常にきれいですと褒めてくださいました」。

▲孫麗娟社長が出演したビデオ。孫麗娟社長は英語は話せるが、その他の言語は話せない。しかし、ビデオの下にある言語ボタンをタップすると、途中から他の言語に切り替えることができる。生成AIが翻訳をし、声質はそのままで音声を生成したもの。 https://www.chinagoods.com/digitalhumans/boss

 

生成AIが中国語を声質そのままで翻訳

孫麗娟社長は英語は話せるものの、アラビア語スペイン語はまったくわからない。このシステムは、生成AIが中国語で話した内容を声質を変えずに外国語に翻訳してくれているのだ。

しかも、外国語の発音に合わせて、口の開き方を映像的に調整する機能も備わっているため、外国語に切り替えても、不自然さが生まれない工夫もされている。

義烏国際商貿城では、英語以外の外国語の問題を解決するために、昨2023年8月からアリババと提携し、中国語で話した内容を多国語に翻訳し、本人の声で話すシステムの開発を始めていた。これが現在、テスト段階にきており、孫麗娟社長がテストに協力をした。そのビデオを公開したところ、早速、義烏の商店主たちから注目を浴びることになった。

▲その他の店主も中国語でお店や商品を紹介するだけなので、多数参加をしている。非英語圏のバイヤーからの評判がいい。

 

商売に必要なのは対面コミュニケーション

孫麗娟社長は、商売に必要なのは対面コミュニケーションであるという。顔を見て話をして、最後は相手が信用できるかどうかを判断して購入を決断する。特に義烏では、数個のサンプルを見て、数十万個、数百万個の購入を決断するのだから、店主が信頼できるかどうかは購入の大きな決め手になる。

このような多言語ビデオがあると、非英語圏のバイヤーが店主に親しみを持ってくれる。帰国をしてから追加発注や相談を受けた場合も、翻訳ツールを使ってテキストで返事をするのではなく、ビデオを撮影して、それを多言語化し、送信するということが行われ始めている。さすがにリアルタイムで翻訳をしてくれるわけにはいかないが、数分で多言語ビデオが完成をするため、海外取引に大きな力となってくれると期待をされている。

浙江省義烏市の義烏国際商貿城。東京ドーム140個分の敷地に7.5万店舗が軒を並べ、210万種類の日用雑貨を購入することができる。世界最大の日用雑貨の卸売市場。

 

 

LiDARを使うか、視覚情報だけでいくか。自動運転開発企業を悩ます選択。テスラは視覚情報だけで自動運転に挑戦

自動運転技術を確立するにはLiDARを利用するというのが常識だったが、テスラは視覚情報だけで実現しようとしている。その代わりに全面的にAIを活用して精度をあげている。自動運転技術の実現にLiDARでいくのか、視覚情報だけでいくのか、開発企業は難しい選択を迫られていると汽車之心が報じた。

 

実用化が進むL2+による自動運転

自動運転は、これまでL5(レベル5、完全自動運転。人間は一切の運転操作が不要。ハンドルやペダルもなくなる)を目指してきたが、当面はL2(人間が運転主体となる自動運転)が広まりそうだ。

L2は、人間が主体となる自動運転で、人間はいつでも運転に介入できる状態でなければならない。そのため、運転席に座り、道路状況を注視し続ける必要がある。自動運転中でもスマホの操作やテレビの視聴、居眠りなどはできない。

しかし、テスラのFSD(Full Self Driving)を始めとして、ファーウェイもAITO「問界」シリーズに自動運転機能を提供し、テスラは米国、カナダでFSDの提供を始め、ファーウェイは中国でL2+と呼ばれる自動運転車の販売を始めている。さらに、スマホメーカーの小米(シャオミ)は、自動運転対応のSU7の発売を控え、百度バイドゥ)もすでに無人タクシーなどで確立したL4自動運転技術を応用した個人向け乗用車の開発に入っている。いずれもL2+自動運転と呼ばれるカテゴリーでの提供になる見込みだ。

 

90%以上の時間は自動車に運転を任せることができる

このようなL2+自動運転は、あくまでも人間が主体の運転であり、自動運転が処理ができない状況になると、人間に運転介入を求めてくる。しかし、すでに発売されているテスラやファーウェイの場合、多くのオーナーやメディアが路上での検証を行なっていて、道路環境が整った大都市内の移動であれば、90%以上の時間を自動運転に任せることが可能になっている。運転は車に任せて、自分は別のことをするというわけにはいかないものの、「見てるだけ」でいい状態になっている。

 

LiDARで外界を認知し、走行戦略を演算

このような自動運転は、まずは外界の状況をシステムが知る必要がある。そこで、ファーウェイなど一般の自動運転車はLiDAR(ライダー。赤外線、紫外線などの可視光以外も使ったセンシング装置)が必須となり、これで周囲の車両や人、障害物を認識する。

計測した結果は、BEV空間(Bird Eye View)と呼ばれる3Dモデルに統合され、自動運転システムはこのBEV空間のデータを使って最適な運転戦略を計算しながら走行をする。

▲自動運転を実現するには、なんらかの方法で外界を認識して、その中で走行戦略を演算して決定していく必要がある。

 

あえてLiDARを使わないテスラ

しかし、LiDARは複雑で精密な装置であるため、価格も高く、大きな進化も起きているため、自動車メーカーにとってはどのLiDARを採用するかは悩みの種になっている。高いコストを覚悟して採用しても、それがわずか数年で時代遅れになってしまうこともありえるのだ。さらに、雪や雨などに弱いという欠点もある。

そこで、テスラは、LiDARを使わずに視覚情報だけで自動運転を実現するという大きな突破を果たした。複数のカメラで外界を撮影し、この画像を統合することでBEV空間にまとめるというものだ。LiDARはレーザー光を発射して戻ってくるまでの時間で対象物までの距離を測定するが、テスラの場合は複数のカメラを使った三角測量の要領で対象物までの距離を測定する。

▲外界把握にはLiDARを使うのが一般的。物体の形から移動する物体なのか、静止している物体なのかを把握していく。

 

AIに空間認識をさせるテスラFSD

ただし、この統合は単純なアルゴリズムでは実現できず、テスラでも開発が難航していた。突破をしたのは自然言語処理でも利用されるグーグルのTransformerを利用したことだ。いわばAIに統合をさせるという発想だ。

このアイディアを実現するには、ひとつの大きな課題がある。それは、大量の学習素材データがなければ精度があがっていかないということだ。テスラのFSDやオートパイロットの初期は性能が悪い、問題を起こすと散々悪評を受けながら、テスラは大規模な投資を行なっていった。これにより、FSDは5億マイル以上、オートパイロットは90億マイル以上のデータが収集できている。現在もテスラ車から送られる映像データが蓄積をしていっている。

さらに2014年から独自のチップ開発を始め、2019年にはFSD専用チップを搭載した。2021年8月には、7nmプロセスと性能を向上した「D1」をリリースし、搭載をしている。

また、AIトレーニング用のビッグデータセンターも構築している。

つまり、テスラはLiDARを採用しないことで車両のコストは下げているが、その背後では膨大な開発と設備が必要になり、当然ながら莫大なコストがかかっていることになる。

▲LiDARは物体までの距離も正確に測定できるため、他社の動きも予測しやすい。電動バイクが横切ろうとする挙動や前を行く車両がブレーキをかけるなどの行動を予測をしながら、走行戦略を演算することができる。

 

LiDARとAI。自動運転を実現する2つの方法

このLiDARを採用するのか、それとも視覚情報だけで自動運転を実現するのかという2つの道は、関係者の頭を悩ませ続けている。中国のテック企業は、中国の都市道路状況は複雑であり、視覚情報だけでは難しいと考え、ほぼすべての企業がLiDARを選択している。現状ではLiDARを利用した方が精度も出しやすい。

しかし、将来にわたってLiDARが必要とされ続けるかどうかはわからない。LiDAR自身も進化をするし、また違った技術が登場するかもしれない。技術が切り替わると、流用できるものはあるとは言え、ノウハウもいったんリセットをされる。そこでプロジェクトを再起動するようなことを繰り返すのであれば、最初から最もシンプルな視覚情報を使った方がいいと考えたのがテスラだ。

どちらの道が優れているのか、今のところ答えはまだ出ていない。

 

 

潜在能力は高いのに、成長ができない中国経済。その原因と処方箋。清華大学の論文を読む

まぐまぐ!」でメルマガ「知らなかった!中国ITを深く理解するためのキーワード」を発行しています。

明日、vol. 219が発行になります。

登録はこちらから。

https://www.mag2.com/m/0001690218.html

 

今回は、今後の中国経済の展望についてご紹介します。

 

中国経済の調子がよくないことは言うまでもありません。しかも、大手不動産デベロッパーの破綻だけが原因でなく、地方政府の財政、民間企業/消費者のマインドの萎縮、高い失業率、米中経済のデカップリングなど、さまざまな要因が重なっています。

当然ながら、日本や米国のメディアでは、「中国経済崩壊」という言葉が踊り、中国経済はもう終わると報道しているところが増えています。それを鵜呑みにされている方もたくさんいらっしゃるようです。しかし、最近、少し変化が起きているのは、このような中国経済崩壊報道に素朴な疑問を呈する人が現れ始めていることです。すなわち「何十年も前から、今年こそ中国経済は終わると言われているけど、いつになったらほんとうに終わるの?」という疑問です。

2024年こそ、中国経済はほんとうに終わってしまうのでしょうか。

 

そこで、今回は、清華大学中国経済思想・実践研究院(ACCEPT、http://www.accept.tsinghua.edu.cn/)が公開した論文をご紹介したいと思います。論文と言っても、「改革」という雑誌の2024年第1期号に掲載されたもので、私たちのような経済の専門家でない一般人でもじゅうぶん読めるように配慮されています。

その論文とは「穏中求進、以進促穏、先立后破ーー現在の中国経済の情勢分析と2024年の展望」というものです。3つ四字熟語を使った主題は「安定の中に発展を求める、発展をもって安定を促す、先に確立してそれを打破する」というような意味です。

 

https://www.accept.tsinghua.edu.cn/2024/0222/c22a5831/page.htm

中国経済思想・実践研究院の論文掲載サイト。オンラインで全文が読めるようになっている。

 

タイトルは言葉遊びのようにも見えますが、論文を読んでみると、内容をうまくまとめた、いいタイトルであることがわかってきます。論文を執筆したのは、マクロ経済予測課題チームで、李稲葵教授をリーダーにした5人の研究員たちです。清華大学の経済学の精鋭たちが執筆をしたものになります。

今回、ご紹介したいのは、清華大学の頭のいい人たちが書いたという理由ではなく、内容のバランスが非常にいいからです。この論文では、大雑把にいって次のようなことを言っています。

1)中国経済は、潜在能力はまだまだ高い。

2)しかし、現実にはそうなっていない。しかも、コロナ禍前から潜在能力以下のパフォーマンスしか発揮できていない。

3)その理由は、いくつかのリスクがあって、それに対応ができていないから。

4)そのリスクにうまく対応ができれば、中国経済は成長軌道に乗せることができる。

5)リスク対応するには、これまでの「過熱防止」から「過冷却防止」に転換をする必要がある。

というような内容で、論文の眼目は、政策として何をすべきか、その方向性を示していることです。この論文のクレジットが中国を代表する清華大学であること、そして全人代全国人民代表大会)の開幕直前に発表されたものであることに注意をしてください。どのような形であるかはわかりませんが、この論文中の提言は、中国政府の政策に反映をされる可能性がきわめて高いと考えるべきです。

つまり、この論文の内容を頭に入れておくと、中国経済の動向や政策などを読む参考になります。その意味で、かなり重要な論文ではないかと思います。しかも、一般の人に理解できる形で書いてくれています。

 

ということで、今回は、みなさんといっしょにこの論文を読んでいこうと思います。もちろん、私も経済学の専門家ではないので難しいことはわかりませんし、どうしても複雑なややこしい話もあります。そういう部分は省略して、骨格の部分だけをご紹介していこうと思います。中国経済の動向を読み、中国政府の経済政策の傾向を予測するのであればそれでじゅうぶんだと思います。それでも物足りないという方は、オリジナル論文を読んでみていただければと思います。割と読みやすい平易な文章なので、中国語がわからなくても、翻訳機能を使って日本語で読んでもけっこう読めると思います。

ということで、今回は、中国経済の今後の展望はどうなのか、清華大学の論文を読んでいきます。

 

続きはメルマガでお読みいただけます。

毎週月曜日発行で、月額は税込み550円となりますが、最初の月は無料です。月の途中で購読登録をしても、その月のメルマガすべてが届きます。無料期間だけでもお試しください。

 

今月、発行したのは、以下のメルマガです。

vol.218:東南アジアで広まりライブコマース。TikTok Shoppingの東南アジアでの現在

 

 

世界初の生成AIによる長編アニメ映画「愚公移山」。早ければ1年後にも公開

世界初となる生成AIによる長編アニメーション映画「愚公移山」の制作発表会が行われた。公開は1年から2年後のことになる。すでにパイロット版が公開されていて、そのクオリティーに驚く声と、生成AIならではの不自然さを指摘する声があると捜狐が報じた。

 

世界初となる生成AIによるアニメーション映画「愚公移山

2023年12月5日、世界で初めての生成AIによるアニメーション映画「愚公移山」の制作発表が北京市で行われた。90分ほどのアニメーション映画を生成AI、モーションキャプチャーなどの技術を駆使して制作するとしている。

すでにパイロット予告版が公開されており、多少荒さは目立つものの、美しいテクスチャで鑑賞に耐えると多くの人が感じている。

▲すでに2分ほどの宣伝用パイロット版が公開されている。

 

パイロット版では生成AI的な不自然さも残る

ただし、生成AIの限界がそのまま映画にも見えている部分がある。人の動きはゆっくりで限定的であり、腕や脚というパーツだけを動かした不自然さが残っている。また、多くの人の感じたのが目の表情だ。このパイロット版に登場する人物たちは目の表情がなく、どことなく虚ろに感じる。

もちろん、現状はまだパイロット版の段階であり、これから制作をする過程で修正をされていくことになるはずだ。

▲映像は美しく、90分の長編でも鑑賞に耐えうると評価されている。

▲一部の評論家からは、目が虚ろな感じであり、顔の表情による演技が水準に達していないという指摘もある。

 

3Dアニメに挑戦した監督のリベンジ作

この映画を監督する鄭子龍氏は、総制作費は3080万元(約6.4億円)になり、1年はから2年で公開にこぎつけたいとしている。製作は「交互影業」で、鄭子龍監督が株主になっている製作会社だ。鄭子龍監督は北京華彩世嘉ネットワークテクノロジー、北京艾易美迅動画制作の創業者でもあり、北京映画学院のアニメーション学部のインタラクティブ映画研究センターの主任も務めている。製作にはこのようなリソースも活用されると見られる。

北京艾易美迅動画制作は、2013年に「究極の大冒険」という3Dアニメーション映画を製作し公開しているが、総制作費7000万元(約14.6億円)という大型予算をかけたものの、映画評価サイトの点数は5.3と振るわず、失敗をしている。鄭子龍氏のリベンジが果たせるかどうか、注目されている。

▲鄭子龍が2013年に製作した3Dアニメーション映画「究極の大冒険」。評判は芳しくなく、興行的には失敗だった。

 

中国の偵察衛星が富士山を撮影。上空656kmからなぜこのような写真が撮影できたのか?

中国の偵察衛星吉林1号」が撮影した富士山の写真が他国の関係者に衝撃を与えている。上空から真下を見下ろした写真ではなく、まるで現地でドローンを飛ばして撮影したような角度の写真だからだ。吉林1号には、カメラの角度を変えて連続撮影し、合成する機能が備わっていると第一軍情が報じた。

 

中国の衛星が撮影した富士山の写真に米軍関係者が驚愕

中国の偵察衛星吉林1号」が撮影した富士山の写真に、米国の軍関係者が注目をしている。その写真は高精度とは言え、ごく普通の富士山の写真だ。

しかし、よく考えると、吉林1号の技術に驚かざるを得ないことになる。一般に、衛星から撮影した写真は上空から垂直に見下ろした角度になる。ところが、この富士山の写真は、まるで現地でドローンを飛ばして撮影したかのようだ。吉林1号の軌道高度は656km。そのような上空からどうやってこの写真を撮影したのだろうか。

吉林1号が撮影した富士山。偵察衛星から真下を見下ろした写真ではなく、まるで現地でドローン撮影したような角度で撮影されている。

吉林1号の写真は高精細なもので、富士山の登山道もはっきりと写っている。

 

カメラ角度を変えて連続写真を合成する

吉林1号は、そもそもが下側に向けたカメラを45度の角度まで傾けられる機能を持っている。しかし、45度の角度から撮影してもこのような精細な写真にはならない。

そこで、吉林1号の開発、運用をしている長光衛星技術(http://www.jl1.cn/)では、複数の写真を軌道上を移動しながら撮影し、最終的に地形データと照合させながら合成をし、側面から撮影したような写真を生成する技術を開発した。

吉林1号。すでに70機が運用され、2025年には138機のネットワーク運用が完成する。

 

偵察衛星はさほどの脅威ではない

これがなぜ、米国の軍関係者を慌てさせているのだろうか。偵察衛星は地上の状況をさまざまな手法で撮影をするため、軍事拠点なども撮影され、敵国にさまざまな情報を収集されてしまう。

しかし、これまでの偵察衛星はさほど脅威とはならなかった。なぜなら、情報を隠すことはさほど難しくないからだ。見られてまずいものは屋内に入れれば見えない。さらに地下に施設を建設すれば何をやっているかを推測することもできなくなる。さらに米国の軍事拠点には発煙装置を備えていて、偵察衛星がやってくる時刻に煙で隠すこともできる。

衛星は、軌道要素がわかれば、どの時間にどこにいるかが簡単に計算ができてしまう。偵察衛星が直下の写真しか撮影できないのであれば、対応のしようはいくらでもあった。しかし、カメラの角度を変えて側面からも撮影できるとなると、偵察衛星が撮影可能な長い軌道上にいる時は常に対応をしなければならなくなる。

▲これまでの偵察衛星の写真は真上から見下ろしたものだった。ここから建物や移動体を分析して、何をしているか推測していく。

 

今後開発が進む偵察衛星写真のAI合成技術

同様の技術は米国も開発をしている。偵察衛星を運用しているプラネット(https://www.planet.com/)の衛星「Doves」には、同様の機能があり、ウクライナ紛争では側面からの角度の写真を多数生成し、米国国防総省に提供をしている。

この技術に必要なのが、地上の高精細3Dモデルだ。あらかじめ地形データを持っていて、そこに衛星が撮影した写真をAIが適切に貼り付けていくことで、側面からの写真が合成されている。そのため、地上のあらゆる場所が側面から見られるわけではなく、あらかじめ撮影する対象を決めておく必要がある。

しかし、技術の進化は速い。特にAIの進化は速く、おそらく、世界中で、地球のどこでも自由に側面から見られる高精細写真によるモデルを生成する研究開発の競争が始まっていると思われる。グーグルアースの3D版が登場する日もそう遠くないかもしれない。

▲米国の衛星Dovesにも衛星写真から側面からの映像を生成する機能が備わっている。

 

 

懐かしいCCDコンパクトデジカメの人気が再燃。光が足りていないレトロな写真が撮れる

昔のCCDコンパクトデジカメの人気が再燃している。電気街では中古品が安価で手に入り、有名人たちが使っていることを表明したことがきっかけだ。光が足りていないところが味となって人気になっていると捜狐が報じた。

 

古いCCDデジカメが人気に

もはや昔懐かしいCCDコンパクトデジカメ。ひょっとしたら、家のどこかにあるかもしれないが、使うことはもはやない。安価なスマートフォンの方がはるかに美しい写真が撮れるからだ。ハイエンドモデルのスマホになれば、一眼レフと同じレベルとは言わないものの、一眼レフライクな写真も撮影できる。コンパクトデジカメというデバイスは、特殊な用途を除き、過去のものになった。

ところが、このコンパクトデジカメが今、中国で人気になっている。それも古い光学センサーであるCCDのコンパクトデジカメが人気なのだ。

▲街中でもコンパクトデジカメで撮影する人を見かけるようになっている。

 

CCDの欠点が味になる

CCDは2010年代にCMOSセンサーに置き換わってしまった。CMOSに比べると、画素数は小さく、感度は悪く、ノイズも多い。大型のセンサーをつくるのはコストがかかるため、小さいものが多く、光学センサーが小さいということは、少ない光しか集めることができず、写真は暗くなる。

しかし、それが味であると感じる若者たちが現れ始めた。特に女性に人気のある欧陽娜娜がCCDカメラ好きであることを公言し、出会うセレブたちの写真をCCDカメラで撮影し、SNSに投稿したところからCCDカメラが人気になっている。

チェリストの欧陽娜娜などのセレブが、コンパクトデジカメを使っていることを表明したことから、コンパクトデジカメのファンが増えてきた。

▲古いCCDカメラで撮影された写真は、光が足りていないところがなんとも懐かしい味になっている。このような写真をSNSで公開する人が増えている。

 

ジャンク品として安く手に入る

CCDカメラが人気になっているもうひとつの理由は、誰も見向きをしなくなったため、深圳の華強北などの電気街では1台20元程度のジャンク品として販売されていたことがある。子どものお小遣いレベルだ。

そして、何といってもレトロな味わいだ。色味が薄く、解像度が低いことが、今の風景であるのに昔の風景のように感じられ、何とも言えない味わいがある。

室内ではフラッシュも焚かれる。今のスマホカメラは感度が非常によくなったため、室内や夜景でもフラッシュを使うことはまずなくなっている。CCDカメラでフラッシュが焚かれると、人工的な光となり、不自然な写真となるが、これがまたレトロな感じを醸し出す。

▲電気街ではジャンク品として投げ売りされている。愛好者にとっては宝の山に見える。

 

光が足りていない映像がレトロさを感じさせる

スマホ用にレトロ調の写真が撮れるアプリも無数にあり、人気となっているが、やはり本物のCCDカメラの仕上がりとは違う。CCDカメラの光が足りてない感じがどうしても出てこないのだ。

若い女性を中心に人気なり、中古品取引サービス「閑魚」などでは、取引価格が200元以上になっている。以前の10倍ぐらいまで値上がりしているのだ。このブームは、2年ほど前から始まっており、いまだに静かに人気になり続けている。まだまだCCDカメラブームは続きそうだ。

▲ECでも中古のコンパクトデジカメが販売されるようになっているが、価格は200元前後に設定されていることが多い。

 

 

生成AIでつくった画像に著作権はあるのか?中国で初の生成AI画像の著作権裁判の結果

中国で初めての生成AIによる著作権裁判の判決が下された。北京インターネット裁判所は、生成AIにも知的創造活動があることを認め、著作権が存在し、保護されるべきだという判決を出したと極目新聞が報じた。

 

生成AI画像を無断使用したら権利侵害になるのか

2023年2月、原告の李さんは生成AI「Stable Diffusion」を使って画像を生成し、SNS「小紅書」(シャオホンシュー、RED)に公開した。ここまではよくあることだ。しかし、被告の劉さんは「百家合」で、自作の詩「三月の愛、桃の花の中で」を公開した。この時に、李さんの発表した画像を無断で使用したのだ。しかも、小紅書では画像をダウンロードすると、小紅書の名前と投稿者のIDがスタンプされる。劉さんはこれを取り除いて使用し、出典なども明記しなかった。

原告の李さんはこれを発見し、自分の画像が無断使用されていることから、5000元の賠償と謝罪を求めて、裁判に訴えた。

▲原告の李さんが生成AIでつくった画像。李さんは、この画像をつくる上で使用したプロンプトに独創性があり、著作権法で保護されるべきだと主張した。

 

論点は生成AIの独創性

中国の著作権法第3条では、著作物とは、文学、芸術、科学の分野のおける独創的で一定の形で表現できる知的な成果物と定義されている。問題は、この生成AIによる画像が著作物にあたるかどうかだ。誰でも簡単につくれるもので、そこに独創性はないのであれば著作物とは呼べず、法律でも保護されない。つまり、他人が出典を明記せず使ったとしても文句は言えない。しかし、生成AIにも独創性があり、著作物と呼べるのであれば無断使用などから保護されることになる。

 

生成AIはプロンプトに独創性がある?

裁判の経過によると、李さんは生成AI「Stable Diffusion」を使って、夕暮れの中の少女の写真風画像をつくろうと、アートタイプを「リアルな写真」「カラー写真」とし、「日本のアイドル」のモデルデータを使い、三つ編みの髪型や肌の状態、目の状態などの細部を試行錯誤しながらプロンプトに入力をしていった。さらに「クールなポーズ」「フィルムシミュレーション」などのスタイルを入力し、「夕暮れ」「ダイナミックな照明」などのプロンプトを決定していった。原告の李さんは、画像は生成AIが生成したものだが、そのためには人物の設定、プロンプトの選択、順序の整理、パラーメーターの設定などの作業が必要で、独創性はあり、著作物にあたると主張した。

原告側は、スマートフォンで撮影する写真を例に挙げて説明した。スマホで撮影する写真はもはやカメラアプリがさまざまな調整を行う。シーンを認識して、適切な色合い、明度などを調整し、最近では人物を美しく変換したり、余計なものを削除をする機能もある。フィルムで撮影される写真と比べれば、さまざまな加工がシステムにより自動的に行われる。しかし、それでもスマホで撮影された写真は著作物として認められ保護されている。生成AIで生成した画像も、程度の差はあれ、スマホ写真の延長線上にあるものだと主張した。

 

保護されるべきは画像ではなくプロンプト?

北京インターネット裁判所は、この主張を認め、被告の劉さんに500元の賠償と、24時間以内の謝罪を求める判決を下した。

今回の判決は、被告の劉さんが画像に表示されるスタンプをわざわざ削除して使用していることから、盗用の意図があったことになる。そのため、多くの人が判決そのものには納得をしているが、生成AIによる画像を著作物と認めた点についてはさまざまな議論がある。李さんの知的作業や独創性というのは、画像にあるのではなく、プロンプトにあるのではないかという意見が多い。つまり、保護されるべきなのは画像ではなくてプロンプトなのではないかという主張だ。

しかし、それが正しいとすると、画像はコピーし放題ということになってしまう。また、プロンプトに独創性があるといっても、音楽のように無限の可能性があるわけではなく、偶然似通ったプロンプトを入力するということはたびたび起こることになる。法律の専門家は、生成AI時代にあった著作権法を構成する論理を構築しなければならなくなっている。