中国の科学者がChatGPTのようなAIを次世代セックスロボットに統合

カテゴリー: AI Newsタグ: , , , , 公開日: 6月 18, 20243.5 分読む
AIセックス玩具ニュース

ChatGPTのようなAIをセックスロボットに統合する

中国の科学者やエンジニアは、ChatGPTのような技術をセックスロボットに取り入れ、技術的および倫理的な課題に直面しながら、対話型のAI搭載コンパニオンの作成を目指しています。深センでは、セックスドールの大手メーカーであるStarpery Technologyが、AIを使用して製品を強化するために独自の大規模言語モデルをトレーニングしています。男性と女性の両方の形で利用できるこれらの高度なセックスドールは、まもなく購入可能になります。CEOのEvan Leeは、音声および物理的なインタラクションが可能な次世代のセックスドールを開発しており、今年8月までにプロトタイプが予定されていると発表しました。彼は、特に専門のソフトウェア企業による複雑なモデル開発を伴う、リアルな人間とのインタラクションの実現における技術的な課題を認識していました。

AI搭載人形の進歩

金属の骨格とシリコンの外装を持つ従来の人形は、単純な反応に限られており、人間との交流に必要な表現力が欠けている。センサーを搭載した新世代のAI搭載セックス人形は、動きと言葉の両方で反応することができ、基本的な会話能力ではなく感情的なつながりに焦点を当てることで、ユーザーエクスペリエンスを大幅に向上させる。主に国際市場をターゲットにしてきたStarperyは、現在、国内市場にも焦点を当てている。中国は保守的な社会であるにもかかわらず、セックス人形の最大の市場を抱えており、米国、日本、ドイツの売上高を合わせた数字を上回っている。リー氏は、ヨーロッパ市場とは美的感覚が異なるにもかかわらず、主要都市の購買力が多くのヨーロッパ諸国を上回っている中国の巨大な市場の可能性を強調した。

2024年6月6日、中国遼寧省大連にあるヒューマノイドロボット開発会社Ex-Robotsのオフィスで働く従業員たち。(写真:ロイター)

今後の展開と課題

スターペリーの将来計画には、家事、障害者の支援、高齢者介護ができるロボットの開発が含まれています。同社は2025年までに、障害者向けのより複雑なサービスが可能な初の「スマートサービスロボット」の発売を目指しています。2030年までに、これらのロボットは危険な仕事から人々を守ることができるようになるかもしれません。リー氏は、このレベルの開発を達成するための2つの主な課題を特定しました。バッテリー容量と人工筋肉です。ヒューマノイドロボットには大きなバッテリー用のスペースがないため、バッテリーのエネルギー密度を向上させることが重要です。さらに、現在のエンジンは、広範囲に力を発揮でき、硬くも柔らかくもあり、皮膚にぴったりとフィットする人間の筋肉のような柔軟性がありません。リアルさを確保するために、人形の重量は最大40キログラム(88ポンド)になり、モーターには重すぎて、落下や怪我のリスクがあります。スターペリーは、材料と製造プロセスの改善を通じて軽量化に注力し、2023年7月までに高さ172センチの人形をわずか29キログラムにしました。

コストと倫理的考慮

AI搭載のセックスロボットの開発は、多大なコストと倫理的課題に直面している。モーターとロボットの関節の間で動力を伝達する減速機などの主要部品は、ロボットのコストの30%を占め、異なる関節に複数のギアを必要とする。Lee氏は、モーターを組み込むことで追加費用がかかるにもかかわらず、リアルな人形をより手頃な価格にするためにはコストを削減する必要があると強調した。Starperyは、世界最大のアダルト製品生産拠点である深センでの完全なサプライチェーンと低い製造コストの恩恵を受けている。Starpery以外にも、中山のWMdollや大連のEXdollなど、他の中国メーカーもAIを物理的な人形に統合している。大規模言語モデルの進歩は、動作制御を強化し、開発者の生産性を高めることで、ヒューマノイドロボット業界を含むさまざまな分野に大きな影響を与えている。

倫理的および法的影響

AI駆動型セックスロボットの急速な発展は、倫理的および法的懸念を引き起こしている。批評家は、性的または感情的な充足感を得るためにAIコンパニオンに過度に依存することは、真の人間関係を妨げ、ユーザーが実際の人間と健全な関係を築く能力に影響を与える可能性があると主張している。これらのロボットの開発は、既存の法的および規制的枠組みを上回っており、その使用、所有権、およびメーカーとユーザーの責任に関する法的グレーゾーンを生み出している。中国情報通信研究院は、2023年の論文「AI倫理ガバナンスに関する研究報告」でこれらの懸念を強調し、特定の条件下で意思決定を行うことができるAIは人間の自律性と自己認識に挑戦する可能性があり、大規模な言語モデルはデータ漏洩やプライバシー侵害のリスクをもたらすと指摘した。

他のものもチェック AIニュース そしてテクノロジーイベント AIfuturizeでは!

コメントを残す