JP2026018564A - システム - Google Patents
システムInfo
- Publication number
- JP2026018564A JP2026018564A JP2024119886A JP2024119886A JP2026018564A JP 2026018564 A JP2026018564 A JP 2026018564A JP 2024119886 A JP2024119886 A JP 2024119886A JP 2024119886 A JP2024119886 A JP 2024119886A JP 2026018564 A JP2026018564 A JP 2026018564A
- Authority
- JP
- Japan
- Prior art keywords
- works
- competition
- unit
- data
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】実施形態に係るシステムは、コンペの開催を自動化し、短期間かつ低コストで優秀な作品を選出することを目的とする。
【解決手段】実施形態に係るシステムは、テーマ設定部と、擬似コンペ開催部と、優秀作品選出部とを備える。テーマ設定部は、ユーザからテーマを受け付ける。擬似コンペ開催部は、テーマ設定部によって受け付けられたテーマに基づいて擬似コンペを開催する。優秀作品選出部は、擬似コンペ開催部によって生成された応募作品の中から優秀な作品を選出する。
【選択図】図1
【解決手段】実施形態に係るシステムは、テーマ設定部と、擬似コンペ開催部と、優秀作品選出部とを備える。テーマ設定部は、ユーザからテーマを受け付ける。擬似コンペ開催部は、テーマ設定部によって受け付けられたテーマに基づいて擬似コンペを開催する。優秀作品選出部は、擬似コンペ開催部によって生成された応募作品の中から優秀な作品を選出する。
【選択図】図1
Description
本開示の技術は、システムに関する。
特許文献1には、少なくとも一つのプロセッサにより遂行される、ペルソナチャットボット制御方法であって、ユーザ発話を受信するステップと、前記ユーザ発話を、チャットボットのキャラクターに関する説明と関連した指示文を含むプロンプトに追加するステップと前記プロンプトをエンコードするステップと、前記エンコードしたプロンプトを言語モデルに入力して、前記ユーザ発話に応答するチャットボット発話を生成するステップ、を含む、方法が開示されている。
従来の技術では、コンペの開催には多くの人的・時間的コストがかかるという課題があった。
実施形態に係るシステムは、コンペの開催を自動化し、短期間かつ低コストで優秀な作品を選出することを目的とする。
実施形態に係るシステムは、テーマ設定部と、擬似コンペ開催部と、優秀作品選出部とを備える。テーマ設定部は、ユーザからテーマを受け付ける。擬似コンペ開催部は、テーマ設定部によって受け付けられたテーマに基づいて擬似コンペを開催する。優秀作品選出部は、擬似コンペ開催部によって生成された応募作品の中から優秀な作品を選出する。
実施形態に係るシステムは、コンペの開催を自動化し、短期間かつ低コストで優秀な作品を選出することができる。
以下、添付図面に従って本開示の技術に係るシステムの実施形態の一例について説明する。
先ず、以下の説明で使用される文言について説明する。
以下の実施形態において、符号付きのプロセッサ(以下、単に「プロセッサ」と称する)は、1つの演算装置であってもよいし、複数の演算装置の組み合わせであってもよい。また、プロセッサは、1種類の演算装置であってもよいし、複数種類の演算装置の組み合わせであってもよい。演算装置の一例としては、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、GPGPU(General-Purpose computing on Graphics Processing Units)、APU(Accelerated Processing Unit)、またはTPU(Tensor Processing Unit)などが挙げられる。
以下の実施形態において、符号付きのRAM(Random Access Memory)は、一時的に情報が格納されるメモリであり、プロセッサによってワークメモリとして用いられる。
以下の実施形態において、符号付きのストレージは、各種プログラムおよび各種パラメータなどを記憶する1つまたは複数の不揮発性の記憶装置である。不揮発性の記憶装置の一例としては、フラッシュメモリ(SSD(Solid State Drive))、磁気ディスク(例えば、ハードディスク)、または磁気テープなどが挙げられる。
以下の実施形態において、符号付きの通信I/F(Interface)は、通信プロセッサおよびアンテナなどを含むインタフェースである。通信I/Fは、複数のコンピュータ間での通信を司る。通信I/Fに対して適用される通信規格の一例としては、5G(5th Generation Mobile Communication System)、Wi-Fi(登録商標)、またはBluetooth(登録商標)などを含む無線通信規格が挙げられる。
以下の実施形態において、「Aおよび/またはB」は、「AおよびBのうちの少なくとも1つ」と同義である。つまり、「Aおよび/またはB」は、Aだけであってもよいし、Bだけであってもよいし、AおよびBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「および/または」で結び付けて表現する場合も、「Aおよび/またはB」と同様の考え方が適用される。
[第1実施形態]
図1には、第1実施形態に係るデータ処理システム10の構成の一例が示されている。
図1には、第1実施形態に係るデータ処理システム10の構成の一例が示されている。
図1に示すように、データ処理システム10は、データ処理装置12およびスマートデバイス14を備えている。データ処理装置12の一例としては、サーバが挙げられる。
データ処理装置12は、コンピュータ22、データベース24、および通信I/F26を備えている。コンピュータ22は、プロセッサ28、RAM30、およびストレージ32を備えている。プロセッサ28、RAM30、およびストレージ32は、バス34に接続されている。また、データベース24および通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WAN(Wide Area Network)および/またはLAN(Local Area Network)などが挙げられる。
スマートデバイス14は、コンピュータ36、受付装置38、出力装置40、カメラ42、および通信I/F44を備えている。コンピュータ36は、プロセッサ46、RAM48、およびストレージ50を備えている。プロセッサ46、RAM48、およびストレージ50は、バス52に接続されている。また、受付装置38、出力装置40、およびカメラ42も、バス52に接続されている。
受付装置38は、タッチパネル38Aおよびマイクロフォン38Bなどを備えており、ユーザ入力を受け付ける。タッチパネル38Aは、指示体(例えば、ペンまたは指など)の接触を検出することにより、指示体の接触によるユーザ入力を受け付ける。マイクロフォン38Bは、ユーザの音声を検出することにより、音声によるユーザ入力を受け付ける。制御部46Aは、タッチパネル38Aおよびマイクロフォン38Bによって受け付けたユーザ入力を示すデータをデータ処理装置12に送信する。データ処理装置12では、特定処理部290(図2参照)が、ユーザ入力を示すデータを取得する。
出力装置40は、ディスプレイ40Aおよびスピーカ40Bなどを備えており、データをユーザが知覚可能な表現形(例えば、音声および/またはテキスト)で出力することでデータをユーザに対して提示する。ディスプレイ40Aは、プロセッサ46からの指示に従ってテキストおよび画像などの可視情報を表示する。スピーカ40Bは、プロセッサ46からの指示に従って音声を出力する。カメラ42は、レンズ、絞り、およびシャッタなどの光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサまたはCCD(Charge Coupled Device)イメージセンサなどの撮像素子とが搭載された小型デジタルカメラである。
通信I/F44は、ネットワーク54に接続されている。通信I/F44および26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。
図2には、データ処理装置12およびスマートデバイス14の要部機能の一例が示されている。
図2に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。特定処理プログラム56は、本開示の技術に係る「プログラム」の一例である。プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って特定処理部290として動作することによって実現される。
ストレージ32には、データ生成モデル58および感情特定モデル59が格納されている。データ生成モデル58および感情特定モデル59は、特定処理部290によって用いられる。特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うことができる。
スマートデバイス14では、プロセッサ46によって特定処理が行われる。ストレージ50には、特定処理プログラム60が格納されている。特定処理プログラム60は、データ処理システム10によって特定処理プログラム56と併用される。プロセッサ46は、ストレージ50から特定処理プログラム60を読み出し、読み出した特定処理プログラム60をRAM48上で実行する。特定処理は、プロセッサ46がRAM48上で実行する特定処理プログラム60に従って、制御部46Aとして動作することによって実現される。なお、スマートデバイス14には、データ生成モデル58および感情特定モデル59と同様のデータ生成モデルおよび感情特定モデルを有していてもよい。
なお、データ処理装置12以外の他の装置がデータ生成モデル58を有してもよい。例えば、サーバ装置(例えば、生成サーバ)がデータ生成モデル58を有してもよい。この場合、データ処理装置12は、データ生成モデル58を有するサーバ装置と通信を行うことで、データ生成モデル58が用いられた処理結果(予測結果など)を得る。また、データ処理装置12は、サーバ装置であってもよいし、ユーザが保有する端末装置(例えば、携帯電話、ロボット、家電など)であってもよい。次に、第1実施形態に係るデータ処理システム10による処理の一例について説明する。
(形態例1)
本発明の実施形態に係るオートコンペシステムは、LLMを用いてコンペの一連のフローを自動化し、短期間かつ低コストでコンペを開催したのと同等の成果を得るシステムである。これにより、オートコンペシステムは、コンペの一連のフローを自動化し、短期間かつ低コストでコンペを開催したのと同等の成果を得ることができる。
本発明の実施形態に係るオートコンペシステムは、LLMを用いてコンペの一連のフローを自動化し、短期間かつ低コストでコンペを開催したのと同等の成果を得るシステムである。これにより、オートコンペシステムは、コンペの一連のフローを自動化し、短期間かつ低コストでコンペを開催したのと同等の成果を得ることができる。
実施形態に係るオートコンペシステムは、テーマ設定部と、擬似コンペ開催部と、優秀作品選出部とを備える。テーマ設定部は、ユーザからテーマを受け付ける。例えば、ユーザが「新しいスマートフォンアプリのアイデア」や「環境に優しい製品デザイン」などのテーマを設定することができる。擬似コンペ開催部は、テーマ設定部によって受け付けられたテーマに基づいて擬似コンペを開催する。例えば、LLMが自動的に複数の応募作品を生成し、それぞれの作品を評価する。優秀作品選出部は、擬似コンペ開催部によって生成された応募作品の中から優秀な作品を選出する。例えば、生成されたアイデアの中から最も独創的で実現可能性の高いアイデアを選び出す。これにより、実施形態に係るオートコンペシステムは、コンペの一連のフローを自動化し、短期間かつ低コストでコンペを開催したのと同等の成果を得ることができる。
テーマ設定部は、生成AIを用いて過去の成功事例やトレンドを分析し、最適なテーマを提案することができる。テーマ設定部は、例えば、ユーザがテーマを設定する際に、生成AIが過去の成功事例をデータベースから抽出し、類似のテーマを提案する。例えば、過去に成功したスマートフォンアプリのテーマを基に、新しいアプリのテーマを提案する。また、テーマ設定部は、生成AIがトレンドを分析し、最新の技術動向や市場の動向を基に最適なテーマを提案する。これにより、過去の成功事例やトレンドを基に最適なテーマを提案できる。
テーマ設定部は、ユーザの過去のプロジェクト履歴を参照し、関連性の高いテーマを自動的に推奨することができる。テーマ設定部は、例えば、生成AIがユーザの過去のプロジェクト履歴を解析し、関連性の高いテーマを自動的に推奨する。例えば、過去に取り組んだプロジェクトの内容を基に、新しいプロジェクトのテーマを提案する。また、テーマ設定部は、ユーザの関心や専門分野に基づいてテーマを推奨することもできる。これにより、ユーザの過去のプロジェクト履歴を基に関連性の高いテーマを推奨できる。
擬似コンペ開催部は、生成AIを用いて過去のコンペデータを学習し、より高品質な作品を生成することができる。擬似コンペ開催部は、例えば、生成AIが過去のコンペデータを学習し、応募作品を生成する際にその知見を活用する。例えば、過去の優秀作品の特徴を取り入れた応募作品を生成する。また、擬似コンペ開催部は、生成AIが過去のコンペデータを基に、技術的な完成度や創造性の高い作品を生成することもできる。これにより、過去のコンペデータを基に高品質な作品を生成できる。
優秀作品選出部は、生成AIを用いて過去の成功事例や市場データを参照し、最も実現可能性の高い作品を選出することができる。優秀作品選出部は、例えば、生成AIが過去の成功事例や市場データを参照し、応募作品の実現可能性を評価する。例えば、過去の成功事例と類似した要素を持つ作品を選出する。また、優秀作品選出部は、生成AIが市場の需要や技術的な実現性を基に、最も実現可能性の高い作品を選出することもできる。これにより、過去の成功事例や市場データを基に実現可能性の高い作品を選出できる。
優秀作品選出部は、異なる業界や用途の視点を取り入れ、新たなマーケットニーズを発見することができる。優秀作品選出部は、例えば、生成AIが異なる業界や用途の視点を取り入れ、優秀作品を選出する際に新たなマーケットニーズを発見する。例えば、異なる業界のトレンドを反映した作品を選定する。また、優秀作品選出部は、生成AIが異なる市場セグメントや消費者の需要を基に、新たなマーケットニーズを発見することもできる。これにより、異なる業界や用途の視点を取り入れ、新たなマーケットニーズを発見できる。
優秀作品選出部は、プロトタイプを自動生成し、フィードバックを基に改良するアジャイル手法を導入することができる。優秀作品選出部は、例えば、生成AIが優秀作品の選出後にプロトタイプを自動生成し、ユーザからのフィードバックを基に改良するアジャイル手法を導入する。例えば、短期間でプロトタイプを開発し、ユーザの意見を反映させる。また、優秀作品選出部は、生成AIがスプリントやイテレーションを用いて、プロトタイプを継続的に改良することもできる。これにより、プロトタイプを自動生成し、フィードバックを基に改良するアジャイル手法を導入できる。
実施形態に係るシステムは、上述した例に限定されず、例えば、以下のように、種々の変更が可能である。
オートコンペシステムは、さらにフィードバック収集部を備える。フィードバック収集部は、擬似コンペに参加したユーザからのフィードバックを収集し、システムの改善に役立てることができる。例えば、ユーザが応募作品に対してコメントや評価を提供することができ、そのデータを基にシステムが次回のコンペでより良い作品を生成する。また、フィードバック収集部は、ユーザの満足度や改善点を分析し、システムのアルゴリズムを調整することもできる。これにより、ユーザの意見を反映させた高品質なコンペを実現できる。
オートコンペシステムは、さらにコラボレーション促進部を備える。コラボレーション促進部は、複数のユーザが共同で応募作品を作成するためのプラットフォームを提供することができる。例えば、ユーザがリアルタイムでアイデアを共有し、共同で作品を編集することができる。また、コラボレーション促進部は、異なる専門分野のユーザをマッチングし、より多様な視点からの応募作品を生成することもできる。これにより、ユーザ同士の協力を促進し、より創造的で多様な作品を生み出すことができる。
オートコンペシステムは、さらに報酬管理部を備える。報酬管理部は、優秀作品に対して報酬を自動的に計算し、分配することができる。例えば、応募作品の評価に基づいて報酬額を決定し、ユーザに通知する。また、報酬管理部は、報酬の支払いプロセスを自動化し、迅速かつ正確に報酬を分配することもできる。これにより、ユーザのモチベーションを高め、より多くの参加者を引き付けることができる。
オートコンペシステムは、さらにトレーニング支援部を備える。トレーニング支援部は、ユーザが応募作品を作成する際に必要なスキルや知識を提供することができる。例えば、オンラインコースやチュートリアルを通じて、ユーザが新しい技術やデザイン手法を学ぶことができる。また、トレーニング支援部は、ユーザのスキルレベルに応じたカスタマイズされたトレーニングプログラムを提供することもできる。これにより、ユーザのスキル向上を支援し、より高品質な応募作品を生み出すことができる。
オートコンペシステムは、さらに市場分析部を備える。市場分析部は、応募作品の市場適応性を評価し、ユーザにフィードバックを提供することができる。例えば、生成AIが市場データを分析し、応募作品がどの程度市場で受け入れられるかを評価する。また、市場分析部は、ユーザに対して市場のトレンドや需要に関する情報を提供し、応募作品の改良点を提案することもできる。これにより、ユーザは市場に適した作品を作成しやすくなる。
以下に、形態例1の処理の流れについて簡単に説明する。
ステップ1:テーマ設定部は、ユーザからテーマを受け付ける。例えば、ユーザが「新しいスマートフォンアプリのアイデア」や「環境に優しい製品デザイン」などのテーマを設定することができる。
ステップ2:擬似コンペ開催部は、テーマ設定部によって受け付けられたテーマに基づいて擬似コンペを開催する。例えば、LLMが自動的に複数の応募作品を生成し、それぞれの作品を評価する。
ステップ3:優秀作品選出部は、擬似コンペ開催部によって生成された応募作品の中から優秀な作品を選出する。例えば、生成されたアイデアの中から最も独創的で実現可能性の高いアイデアを選び出す。
ステップ2:擬似コンペ開催部は、テーマ設定部によって受け付けられたテーマに基づいて擬似コンペを開催する。例えば、LLMが自動的に複数の応募作品を生成し、それぞれの作品を評価する。
ステップ3:優秀作品選出部は、擬似コンペ開催部によって生成された応募作品の中から優秀な作品を選出する。例えば、生成されたアイデアの中から最も独創的で実現可能性の高いアイデアを選び出す。
(形態例2)
本発明の実施形態に係るオートコンペシステムは、LLMを用いてコンペの一連のフローを自動化し、短期間かつ低コストでコンペを開催したのと同等の成果を得るシステムである。これにより、オートコンペシステムは、コンペの一連のフローを自動化し、短期間かつ低コストでコンペを開催したのと同等の成果を得ることができる。
本発明の実施形態に係るオートコンペシステムは、LLMを用いてコンペの一連のフローを自動化し、短期間かつ低コストでコンペを開催したのと同等の成果を得るシステムである。これにより、オートコンペシステムは、コンペの一連のフローを自動化し、短期間かつ低コストでコンペを開催したのと同等の成果を得ることができる。
実施形態に係るオートコンペシステムは、テーマ設定部と、擬似コンペ開催部と、優秀作品選出部とを備える。テーマ設定部は、ユーザからテーマを受け付ける。例えば、ユーザが「新しいスマートフォンアプリのアイデア」や「環境に優しい製品デザイン」などのテーマを設定することができる。擬似コンペ開催部は、テーマ設定部によって受け付けられたテーマに基づいて擬似コンペを開催する。例えば、LLMが自動的に複数の応募作品を生成し、それぞれの作品を評価する。優秀作品選出部は、擬似コンペ開催部によって生成された応募作品の中から優秀な作品を選出する。例えば、生成されたアイデアの中から最も独創的で実現可能性の高いアイデアを選び出す。これにより、実施形態に係るオートコンペシステムは、コンペの一連のフローを自動化し、短期間かつ低コストでコンペを開催したのと同等の成果を得ることができる。
テーマ設定部は、生成AIを用いて過去の成功事例やトレンドを分析し、最適なテーマを提案することができる。テーマ設定部は、例えば、ユーザがテーマを設定する際に、生成AIが過去の成功事例をデータベースから抽出し、類似のテーマを提案する。例えば、過去に成功したスマートフォンアプリのテーマを基に、新しいアプリのテーマを提案する。また、テーマ設定部は、生成AIがトレンドを分析し、最新の技術動向や市場の動向を基に最適なテーマを提案する。これにより、過去の成功事例やトレンドを基に最適なテーマを提案できる。
テーマ設定部は、ユーザの過去のプロジェクト履歴を参照し、関連性の高いテーマを自動的に推奨することができる。テーマ設定部は、例えば、生成AIがユーザの過去のプロジェクト履歴を解析し、関連性の高いテーマを自動的に推奨する。例えば、過去に取り組んだプロジェクトの内容を基に、新しいプロジェクトのテーマを提案する。また、テーマ設定部は、ユーザの関心や専門分野に基づいてテーマを推奨することもできる。これにより、ユーザの過去のプロジェクト履歴を基に関連性の高いテーマを推奨できる。
テーマ設定部は、感情推定機能を用いてユーザの現在の感情状態を分析し、ポジティブな感情を引き出すテーマを提案することができる。テーマ設定部は、例えば、感情推定機能を用いて、ユーザの現在の感情状態をリアルタイムで分析し、ポジティブな感情を引き出すテーマを提案する。例えば、ユーザがストレスを感じている場合にリラックスできるテーマを提案する。また、テーマ設定部は、感情推定機能を用いて、ユーザの感情状態に応じたテーマを提案することもできる。これにより、ユーザの感情状態を基にポジティブな感情を引き出すテーマを提案できる。
擬似コンペ開催部は、生成AIを用いて過去のコンペデータを学習し、より高品質な作品を生成することができる。擬似コンペ開催部は、例えば、生成AIが過去のコンペデータを学習し、応募作品を生成する際にその知見を活用する。例えば、過去の優秀作品の特徴を取り入れた応募作品を生成する。また、擬似コンペ開催部は、生成AIが過去のコンペデータを基に、技術的な完成度や創造性の高い作品を生成することもできる。これにより、過去のコンペデータを基に高品質な作品を生成できる。
擬似コンペ開催部は、感情推定機能を用いて応募作品の感情的なインパクトを評価し、感情的に共感されやすい作品を優先的に生成することができる。擬似コンペ開催部は、例えば、感情推定機能を用いて、応募作品の感情的なインパクトを評価し、感情的に共感されやすい作品を優先的に生成する。例えば、感情スコアが高い作品を選定する。また、擬似コンペ開催部は、感情推定機能を用いて、感情的なストーリーテリングやビジュアル表現を取り入れた作品を生成することもできる。これにより、感情的に共感されやすい作品を優先的に生成できる。
優秀作品選出部は、生成AIを用いて過去の成功事例や市場データを参照し、最も実現可能性の高い作品を選出することができる。優秀作品選出部は、例えば、生成AIが過去の成功事例や市場データを参照し、応募作品の実現可能性を評価する。例えば、過去の成功事例と類似した要素を持つ作品を選出する。また、優秀作品選出部は、生成AIが市場の需要や技術的な実現性を基に、最も実現可能性の高い作品を選出することもできる。これにより、過去の成功事例や市場データを基に実現可能性の高い作品を選出できる。
優秀作品選出部は、感情推定機能を用いて応募作品の感情的なインパクトを評価し、感情的に共感されやすい作品を優先的に選出することができる。優秀作品選出部は、例えば、感情推定機能を用いて、応募作品の感情的なインパクトを評価し、感情的に共感されやすい作品を優先的に選出する。例えば、感情スコアが高い作品を選定する。また、優秀作品選出部は、感情推定機能を用いて、感情的なストーリーテリングやビジュアル表現を取り入れた作品を選出することもできる。これにより、感情的に共感されやすい作品を優先的に選出できる。
優秀作品選出部は、異なる業界や用途の視点を取り入れ、新たなマーケットニーズを発見することができる。優秀作品選出部は、例えば、生成AIが異なる業界や用途の視点を取り入れ、優秀作品を選出する際に新たなマーケットニーズを発見する。例えば、異なる業界のトレンドを反映した作品を選定する。また、優秀作品選出部は、生成AIが異なる市場セグメントや消費者の需要を基に、新たなマーケットニーズを発見することもできる。これにより、異なる業界や用途の視点を取り入れ、新たなマーケットニーズを発見できる。
優秀作品選出部は、プロトタイプを自動生成し、フィードバックを基に改良するアジャイル手法を導入することができる。優秀作品選出部は、例えば、生成AIが優秀作品の選出後にプロトタイプを自動生成し、ユーザからのフィードバックを基に改良するアジャイル手法を導入する。例えば、短期間でプロトタイプを開発し、ユーザの意見を反映させる。また、優秀作品選出部は、生成AIがスプリントやイテレーションを用いて、プロトタイプを継続的に改良することもできる。これにより、プロトタイプを自動生成し、フィードバックを基に改良するアジャイル手法を導入できる。
優秀作品選出部は、感情推定機能を用いて優秀作品に対するユーザの感情反応をリアルタイムでモニターし、最適な作品を継続的に選出することができる。優秀作品選出部は、例えば、感情推定機能を用いて、優秀作品に対するユーザの感情反応をリアルタイムでモニターするシステムを開発する。例えば、ユーザの表情や音声を解析し、感情スコアを算出する。また、優秀作品選出部は、感情推定機能を用いて、ユーザの感情反応に基づいて最適な作品を継続的に選出することもできる。これにより、ユーザの感情反応をリアルタイムでモニターし、最適な作品を継続的に選出できる。
実施形態に係るシステムは、上述した例に限定されず、例えば、以下のように、種々の変更が可能である。
オートコンペシステムは、さらにフィードバック収集部を備える。フィードバック収集部は、擬似コンペに参加したユーザからのフィードバックを収集し、システムの改善に役立てることができる。例えば、ユーザが応募作品に対してコメントや評価を提供することができ、そのデータを基にシステムが次回のコンペでより良い作品を生成する。また、フィードバック収集部は、ユーザの満足度や改善点を分析し、システムのアルゴリズムを調整することもできる。これにより、ユーザの意見を反映させた高品質なコンペを実現できる。
オートコンペシステムは、さらにコラボレーション促進部を備える。コラボレーション促進部は、複数のユーザが共同で応募作品を作成するためのプラットフォームを提供することができる。例えば、ユーザがリアルタイムでアイデアを共有し、共同で作品を編集することができる。また、コラボレーション促進部は、異なる専門分野のユーザをマッチングし、より多様な視点からの応募作品を生成することもできる。これにより、ユーザ同士の協力を促進し、より創造的で多様な作品を生み出すことができる。
オートコンペシステムは、さらに報酬管理部を備える。報酬管理部は、優秀作品に対して報酬を自動的に計算し、分配することができる。例えば、応募作品の評価に基づいて報酬額を決定し、ユーザに通知する。また、報酬管理部は、報酬の支払いプロセスを自動化し、迅速かつ正確に報酬を分配することもできる。これにより、ユーザのモチベーションを高め、より多くの参加者を引き付けることができる。
オートコンペシステムは、さらにトレーニング支援部を備える。トレーニング支援部は、ユーザが応募作品を作成する際に必要なスキルや知識を提供することができる。例えば、オンラインコースやチュートリアルを通じて、ユーザが新しい技術やデザイン手法を学ぶことができる。また、トレーニング支援部は、ユーザのスキルレベルに応じたカスタマイズされたトレーニングプログラムを提供することもできる。これにより、ユーザのスキル向上を支援し、より高品質な応募作品を生み出すことができる。
オートコンペシステムは、さらに市場分析部を備える。市場分析部は、応募作品の市場適応性を評価し、ユーザにフィードバックを提供することができる。例えば、生成AIが市場データを分析し、応募作品がどの程度市場で受け入れられるかを評価する。また、市場分析部は、ユーザに対して市場のトレンドや需要に関する情報を提供し、応募作品の改良点を提案することもできる。これにより、ユーザは市場に適した作品を作成しやすくなる。
オートコンペシステムは、さらに感情フィードバック部を備える。感情フィードバック部は、ユーザの感情反応をリアルタイムで収集し、応募作品の評価に反映させることができる。例えば、ユーザが作品を閲覧する際の表情や音声を解析し、感情スコアを算出する。また、感情フィードバック部は、ユーザの感情反応に基づいて作品の改良点を提案することもできる。これにより、感情的に共感されやすい作品を生成しやすくなる。
オートコンペシステムは、さらに感情モニタリング部を備える。感情モニタリング部は、ユーザの感情状態を継続的にモニターし、システムの応答を調整することができる。例えば、ユーザがストレスを感じている場合にリラックスできるコンテンツを提供する。また、感情モニタリング部は、ユーザの感情状態に応じてシステムのインタフェースや機能をカスタマイズすることもできる。これにより、ユーザの感情状態に応じた最適な体験を提供できる。
オートコンペシステムは、さらに感情分析部を備える。感情分析部は、応募作品に対するユーザの感情反応を詳細に分析し、作品の評価に反映させることができる。例えば、ユーザが作品を評価する際の感情データを収集し、感情スコアを算出する。また、感情分析部は、ユーザの感情反応に基づいて作品の改良点を提案することもできる。これにより、感情的に共感されやすい作品を選出しやすくなる。
オートコンペシステムは、さらに感情予測部を備える。感情予測部は、応募作品がユーザに与える感情的な影響を予測し、作品の評価に反映させることができる。例えば、生成AIが過去の感情データを学習し、新しい作品がどのような感情反応を引き起こすかを予測する。また、感情予測部は、予測結果に基づいて作品の改良点を提案することもできる。これにより、感情的に共感されやすい作品を生成しやすくなる。
オートコンペシステムは、さらに感情フィードバックループ部を備える。感情フィードバックループ部は、ユーザの感情反応を基にシステムのアルゴリズムを継続的に改善することができる。例えば、ユーザが作品を評価する際の感情データを収集し、アルゴリズムのパラメータを調整する。また、感情フィードバックループ部は、ユーザの感情反応に基づいてシステムの応答を最適化することもできる。これにより、感情的に共感されやすい作品を生成しやすくなる。
以下に、形態例2の処理の流れについて簡単に説明する。
ステップ1:テーマ設定部は、ユーザからテーマを受け付ける。例えば、ユーザが「新しいスマートフォンアプリのアイデア」や「環境に優しい製品デザイン」などのテーマを設定することができる。
ステップ2:擬似コンペ開催部は、テーマ設定部によって受け付けられたテーマに基づいて擬似コンペを開催する。例えば、LLMが自動的に複数の応募作品を生成し、それぞれの作品を評価する。
ステップ3:優秀作品選出部は、擬似コンペ開催部によって生成された応募作品の中から優秀な作品を選出する。例えば、生成されたアイデアの中から最も独創的で実現可能性の高いアイデアを選び出す。
ステップ2:擬似コンペ開催部は、テーマ設定部によって受け付けられたテーマに基づいて擬似コンペを開催する。例えば、LLMが自動的に複数の応募作品を生成し、それぞれの作品を評価する。
ステップ3:優秀作品選出部は、擬似コンペ開催部によって生成された応募作品の中から優秀な作品を選出する。例えば、生成されたアイデアの中から最も独創的で実現可能性の高いアイデアを選び出す。
特定処理部290は、特定処理の結果をスマートデバイス14に送信する。スマートデバイス14では、制御部46Aが、出力装置40に対して特定処理の結果を出力させる。マイクロフォン38Bは、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン38Bによって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。
データ生成モデル58は、いわゆる生成AI(Artificial Intelligence)である。データ生成モデル58の一例としては、ChatGPT(インターネット検索<URL: https://openai.com/blog/chatgpt>)などの生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、および画像を示す画像データなどの推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データおよびテキストデータなどのデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、および/または要約などを指す。特定処理部290は、データ生成モデル58を用いながら、上述した特定処理を行う。データ生成モデル58は、指示を含まないプロンプトから推論結果を出力するように、ファインチューニングされたモデルであってもよく、この場合、データ生成モデル58は、指示を含まないプロンプトから推論結果を出力することができる。データ処理装置12などにおいて、データ生成モデル58は複数種類含まれており、データ生成モデル58は、生成AI以外のAIを含む。生成AI以外のAIは、例えば、線形回帰、ロジスティック回帰、決定木、ランダムフォレスト、サポートベクターマシン(SVM)、k-meansクラスタリング、畳み込みニューラルネットワーク(CNN)、リカレントニューラルネットワーク(RNN)、生成的敵対的ネットワーク(GAN)、またはナイーブベイズなどであり、種々の処理を行うことができるが、かかる例に限定されない。また、AIは、AIエージェントであってもよい。また、上述した各部の処理がAIで行われる場合、その処理は、AIで一部または全部が行われるが、かかる例に限定されない。また、生成AIを含むAIで実施される処理は、ルールベースでの処理に置き換えてもよい。
また、上述したデータ処理システム10による処理は、データ処理装置12の特定処理部290またはスマートデバイス14の制御部46Aによって実行されるが、データ処理装置12の特定処理部290とスマートデバイス14の制御部46Aとによって実行されてもよい。また、データ処理装置12の特定処理部290は、処理に必要な情報をスマートデバイス14または外部の装置などから取得したり収集したりし、スマートデバイス14は、処理に必要な情報をデータ処理装置12または外部の装置などから取得したり収集したりする。
[第2実施形態]
図3には、第2実施形態に係るデータ処理システム210の構成の一例が示されている。
図3には、第2実施形態に係るデータ処理システム210の構成の一例が示されている。
図3に示すように、データ処理システム210は、データ処理装置12およびスマート眼鏡214を備えている。データ処理装置12の一例としては、サーバが挙げられる。
データ処理装置12は、コンピュータ22、データベース24、および通信I/F26を備えている。コンピュータ22は、プロセッサ28、RAM30、およびストレージ32を備えている。プロセッサ28、RAM30、およびストレージ32は、バス34に接続されている。また、データベース24および通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WANおよび/またはLANなどが挙げられる。
スマート眼鏡214は、コンピュータ36、マイクロフォン238、スピーカ240、カメラ42、および通信I/F44を備えている。コンピュータ36は、プロセッサ46、RAM48、およびストレージ50を備えている。プロセッサ46、RAM48、およびストレージ50は、バス52に接続されている。また、マイクロフォン238、スピーカ240、およびカメラ42も、バス52に接続されている。
マイクロフォン238は、ユーザが発する音声を受け付けることで、ユーザから指示などを受け付ける。マイクロフォン238は、ユーザが発する音声を捕捉し、捕捉した音声を音声データに変換してプロセッサ46に出力する。スピーカ240は、プロセッサ46からの指示に従って音声を出力する。
カメラ42は、レンズ、絞り、およびシャッタなどの光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサまたはCCD(Charge Coupled Device)イメージセンサなどの撮像素子とが搭載された小型デジタルカメラであり、ユーザの周囲(例えば、一般的な健常者の視界の広さに相当する画角で規定された撮像範囲)を撮像する。
通信I/F44は、ネットワーク54に接続されている。通信I/F44および26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。通信I/F44および26を用いたプロセッサ46とプロセッサ28との間の各種情報の授受はセキュアな状態で行われる。
図4には、データ処理装置12およびスマート眼鏡214の要部機能の一例が示されている。図4に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。
プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って、特定処理部290として動作することによって実現される。
ストレージ32には、データ生成モデル58および感情特定モデル59が格納されている。データ生成モデル58および感情特定モデル59は、特定処理部290によって用いられる。特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うことができる。
スマート眼鏡214では、プロセッサ46によって特定処理が行われる。ストレージ50には、特定処理プログラム60が格納されている。プロセッサ46は、ストレージ50から特定処理プログラム60を読み出し、読み出した特定処理プログラム60をRAM48上で実行する。特定処理は、プロセッサ46がRAM48上で実行する特定処理プログラム60に従って、制御部46Aとして動作することによって実現される。なお、スマート眼鏡214には、データ生成モデル58および感情特定モデル59と同様のデータ生成モデルおよび感情特定モデルを有していてもよい。
なお、データ処理装置12以外の他の装置がデータ生成モデル58を有してもよい。例えば、サーバ装置がデータ生成モデル58を有してもよい。この場合、データ処理装置12は、データ生成モデル58を有するサーバ装置と通信を行うことで、データ生成モデル58が用いられた処理結果(予測結果など)を得る。また、データ処理装置12は、サーバ装置であってもよいし、ユーザが保有する端末装置(例えば、携帯電話、ロボット、家電など)であってもよい。
特定処理部290は、特定処理の結果をスマート眼鏡214に送信する。スマート眼鏡214では、制御部46Aが、スピーカ240に対して特定処理の結果を出力させる。マイクロフォン238は、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン238によって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。
データ生成モデル58は、いわゆる生成AIである。データ生成モデル58の一例としては、ChatGPTなどの生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、および画像を示す画像データなどの推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データおよびテキストデータなどのデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、および/または要約などを指す。特定処理部290は、データ生成モデル58を用いながら、上述した特定処理を行う。データ生成モデル58は、指示を含まないプロンプトから推論結果を出力するように、ファインチューニングされたモデルであってもよく、この場合、データ生成モデル58は、指示を含まないプロンプトから推論結果を出力することができる。データ処理装置12などにおいて、データ生成モデル58は複数種類含まれており、データ生成モデル58は、生成AI以外のAIを含む。生成AI以外のAIは、例えば、線形回帰、ロジスティック回帰、決定木、ランダムフォレスト、サポートベクターマシン(SVM)、k-meansクラスタリング、畳み込みニューラルネットワーク(CNN)、リカレントニューラルネットワーク(RNN)、生成的敵対的ネットワーク(GAN)、またはナイーブベイズなどであり、種々の処理を行うことができるが、かかる例に限定されない。また、AIは、AIエージェントであってもよい。また、上述した各部の処理がAIで行われる場合、その処理は、AIで一部または全部が行われるが、かかる例に限定されない。また、生成AIを含むAIで実施される処理は、ルールベースでの処理に置き換えてもよい。
第2実施形態に係るデータ処理システム210は、第1実施形態に係るデータ処理システム10と同様の処理を行う。データ処理システム210による処理は、データ処理装置12の特定処理部290またはスマート眼鏡214の制御部46Aによって実行されるが、データ処理装置12の特定処理部290とスマート眼鏡214の制御部46Aとによって実行されてもよい。また、データ処理装置12の特定処理部290は、処理に必要な情報をスマート眼鏡214または外部の装置などから取得したり収集したりし、スマート眼鏡214は、処理に必要な情報をデータ処理装置12または外部の装置などから取得したり収集したりする。
[第3実施形態]
図5には、第3実施形態に係るデータ処理システム310の構成の一例が示されている。
図5には、第3実施形態に係るデータ処理システム310の構成の一例が示されている。
図5に示すように、データ処理システム310は、データ処理装置12およびヘッドセット型端末314を備えている。データ処理装置12の一例としては、サーバが挙げられる。
データ処理装置12は、コンピュータ22、データベース24、および通信I/F26を備えている。コンピュータ22は、プロセッサ28、RAM30、およびストレージ32を備えている。プロセッサ28、RAM30、およびストレージ32は、バス34に接続されている。また、データベース24および通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WANおよび/またはLANなどが挙げられる。
ヘッドセット型端末314は、コンピュータ36、マイクロフォン238、スピーカ240、カメラ42、通信I/F44、およびディスプレイ343を備えている。コンピュータ36は、プロセッサ46、RAM48、およびストレージ50を備えている。プロセッサ46、RAM48、およびストレージ50は、バス52に接続されている。また、マイクロフォン238、スピーカ240、カメラ42、およびディスプレイ343も、バス52に接続されている。
マイクロフォン238は、ユーザが発する音声を受け付けることで、ユーザから指示などを受け付ける。マイクロフォン238は、ユーザが発する音声を捕捉し、捕捉した音声を音声データに変換してプロセッサ46に出力する。スピーカ240は、プロセッサ46からの指示に従って音声を出力する。
カメラ42は、レンズ、絞り、およびシャッタなどの光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサまたはCCD(Charge Coupled Device)イメージセンサなどの撮像素子とが搭載された小型デジタルカメラであり、ユーザの周囲(例えば、一般的な健常者の視界の広さに相当する画角で規定された撮像範囲)を撮像する。
通信I/F44は、ネットワーク54に接続されている。通信I/F44および26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。通信I/F44および26を用いたプロセッサ46とプロセッサ28との間の各種情報の授受はセキュアな状態で行われる。
図6には、データ処理装置12およびヘッドセット型端末314の要部機能の一例が示されている。図6に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。
プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って、特定処理部290として動作することによって実現される。
ストレージ32には、データ生成モデル58および感情特定モデル59が格納されている。データ生成モデル58および感情特定モデル59は、特定処理部290によって用いられる。特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うことができる。
ヘッドセット型端末314では、プロセッサ46によって特定処理が行われる。ストレージ50には、特定プログラム60が格納されている。プロセッサ46は、ストレージ50から特定プログラム60を読み出し、読み出した特定プログラム60をRAM48上で実行する。特定処理は、プロセッサ46がRAM48上で実行する特定プログラム60に従って、制御部46Aとして動作することによって実現される。なお、ヘッドセット型端末314には、データ生成モデル58および感情特定モデル59と同様のデータ生成モデルおよび感情特定モデルを有していてもよい。
なお、データ処理装置12以外の他の装置がデータ生成モデル58を有してもよい。例えば、サーバ装置がデータ生成モデル58を有してもよい。この場合、データ処理装置12は、データ生成モデル58を有するサーバ装置と通信を行うことで、データ生成モデル58が用いられた処理結果(予測結果など)を得る。また、データ処理装置12は、サーバ装置であってもよいし、ユーザが保有する端末装置(例えば、携帯電話、ロボット、家電など)であってもよい。
特定処理部290は、特定処理の結果をヘッドセット型端末314に送信する。ヘッドセット型端末314では、制御部46Aが、スピーカ240およびディスプレイ343に対して特定処理の結果を出力させる。マイクロフォン238は、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン238によって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。
データ生成モデル58は、いわゆる生成AIである。データ生成モデル58の一例としては、ChatGPTなどの生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、および画像を示す画像データなどの推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データおよびテキストデータなどのデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、および/または要約などを指す。特定処理部290は、データ生成モデル58を用いながら、上述した特定処理を行う。データ生成モデル58は、指示を含まないプロンプトから推論結果を出力するように、ファインチューニングされたモデルであってもよく、この場合、データ生成モデル58は、指示を含まないプロンプトから推論結果を出力することができる。データ処理装置12などにおいて、データ生成モデル58は複数種類含まれており、データ生成モデル58は、生成AI以外のAIを含む。生成AI以外のAIは、例えば、線形回帰、ロジスティック回帰、決定木、ランダムフォレスト、サポートベクターマシン(SVM)、k-meansクラスタリング、畳み込みニューラルネットワーク(CNN)、リカレントニューラルネットワーク(RNN)、生成的敵対的ネットワーク(GAN)、またはナイーブベイズなどであり、種々の処理を行うことができるが、かかる例に限定されない。また、AIは、AIエージェントであってもよい。また、上述した各部の処理がAIで行われる場合、その処理は、AIで一部または全部が行われるが、かかる例に限定されない。また、生成AIを含むAIで実施される処理は、ルールベースでの処理に置き換えてもよい。
第3実施形態に係るデータ処理システム310は、第1実施形態に係るデータ処理システム10と同様の処理を行う。データ処理システム310による処理は、データ処理装置12の特定処理部290またはヘッドセット型端末314の制御部46Aによって実行されるが、データ処理装置12の特定処理部290とヘッドセット型端末314の制御部46Aとによって実行されてもよい。また、データ処理装置12の特定処理部290は、処理に必要な情報をヘッドセット型端末314または外部の装置などから取得したり収集したりし、ヘッドセット型端末314は、処理に必要な情報をデータ処理装置12または外部の装置などから取得したり収集したりする。
[第4実施形態]
図7には、第4実施形態に係るデータ処理システム410の構成の一例が示されている。
図7には、第4実施形態に係るデータ処理システム410の構成の一例が示されている。
図7に示すように、データ処理システム410は、データ処理装置12およびロボット414を備えている。データ処理装置12の一例としては、サーバが挙げられる。
データ処理装置12は、コンピュータ22、データベース24、および通信I/F26を備えている。コンピュータ22は、プロセッサ28、RAM30、およびストレージ32を備えている。プロセッサ28、RAM30、およびストレージ32は、バス34に接続されている。また、データベース24および通信I/F26も、バス34に接続されている。通信I/F26は、ネットワーク54に接続されている。ネットワーク54の一例としては、WANおよび/またはLANなどが挙げられる。
ロボット414は、コンピュータ36、マイクロフォン238、スピーカ240、カメラ42、通信I/F44、および制御対象443を備えている。コンピュータ36は、プロセッサ46、RAM48、およびストレージ50を備えている。プロセッサ46、RAM48、およびストレージ50は、バス52に接続されている。また、マイクロフォン238、スピーカ240、カメラ42、および制御対象443も、バス52に接続されている。
マイクロフォン238は、ユーザが発する音声を受け付けることで、ユーザから指示などを受け付ける。マイクロフォン238は、ユーザが発する音声を捕捉し、捕捉した音声を音声データに変換してプロセッサ46に出力する。スピーカ240は、プロセッサ46からの指示に従って音声を出力する。
カメラ42は、レンズ、絞り、およびシャッタなどの光学系と、CMOSイメージセンサまたはCCDイメージセンサなどの撮像素子とが搭載された小型デジタルカメラであり、ユーザの周囲(例えば、一般的な健常者の視界の広さに相当する画角で規定された撮像範囲)を撮像する。
通信I/F44は、ネットワーク54に接続されている。通信I/F44および26は、ネットワーク54を介してプロセッサ46とプロセッサ28との間の各種情報の授受を司る。通信I/F44および26を用いたプロセッサ46とプロセッサ28との間の各種情報の授受はセキュアな状態で行われる。
制御対象443は、表示装置、目部のLED、並びに、腕、手および足などを駆動するモータなどを含む。ロボット414の姿勢や仕草は、腕、手および足などのモータを制御することにより制御される。ロボット414の感情の一部は、これらのモータを制御することにより表現できる。また、ロボット414の目部のLEDの発光状態を制御することによっても、ロボット414の表情を表現できる。
図8には、データ処理装置12およびロボット414の要部機能の一例が示されている。図8に示すように、データ処理装置12では、プロセッサ28によって特定処理が行われる。ストレージ32には、特定処理プログラム56が格納されている。
プロセッサ28は、ストレージ32から特定処理プログラム56を読み出し、読み出した特定処理プログラム56をRAM30上で実行する。特定処理は、プロセッサ28がRAM30上で実行する特定処理プログラム56に従って、特定処理部290として動作することによって実現される。
ストレージ32には、データ生成モデル58および感情特定モデル59が格納されている。データ生成モデル58および感情特定モデル59は、特定処理部290によって用いられる。特定処理部290は、感情特定モデル59を用いてユーザの感情を推定し、ユーザの感情を用いた特定処理を行うことができる。
ロボット414では、プロセッサ46によって特定処理が行われる。ストレージ50には、特定プログラム60が格納されている。プロセッサ46は、ストレージ50から特定プログラム60を読み出し、読み出した特定プログラム60をRAM48上で実行する。特定処理は、プロセッサ46がRAM48上で実行する特定プログラム60に従って、制御部46Aとして動作することによって実現される。なお、ロボット414には、データ生成モデル58および感情特定モデル59と同様のデータ生成モデルおよび感情特定モデルを有していてもよい。
なお、データ処理装置12以外の他の装置がデータ生成モデル58を有してもよい。例えば、サーバ装置がデータ生成モデル58を有してもよい。この場合、データ処理装置12は、データ生成モデル58を有するサーバ装置と通信を行うことで、データ生成モデル58が用いられた処理結果(予測結果など)を得る。また、データ処理装置12は、サーバ装置であってもよいし、ユーザが保有する端末装置(例えば、携帯電話、ロボット、家電など)であってもよい。
特定処理部290は、特定処理の結果をロボット414に送信する。ロボット414では、制御部46Aが、スピーカ240および制御対象443に対して特定処理の結果を出力させる。マイクロフォン238は、特定処理の結果に対するユーザ入力を示す音声を取得する。制御部46Aは、マイクロフォン238によって取得されたユーザ入力を示す音声データをデータ処理装置12に送信する。データ処理装置12では、特定処理部290が音声データを取得する。
データ生成モデル58は、いわゆる生成AIである。データ生成モデル58の一例としては、ChatGPTなどの生成AIが挙げられる。データ生成モデル58は、ニューラルネットワークに対して深層学習を行わせることによって得られる。データ生成モデル58には、指示を含むプロンプトが入力され、かつ、音声を示す音声データ、テキストを示すテキストデータ、および画像を示す画像データなどの推論用データが入力される。データ生成モデル58は、入力された推論用データをプロンプトにより示される指示に従って推論し、推論結果を音声データおよびテキストデータなどのデータ形式で出力する。ここで、推論とは、例えば、分析、分類、予測、および/または要約などを指す。特定処理部290は、データ生成モデル58を用いながら、上述した特定処理を行う。データ生成モデル58は、指示を含まないプロンプトから推論結果を出力するように、ファインチューニングされたモデルであってもよく、この場合、データ生成モデル58は、指示を含まないプロンプトから推論結果を出力することができる。データ処理装置12などにおいて、データ生成モデル58は複数種類含まれており、データ生成モデル58は、生成AI以外のAIを含む。生成AI以外のAIは、例えば、線形回帰、ロジスティック回帰、決定木、ランダムフォレスト、サポートベクターマシン(SVM)、k-meansクラスタリング、畳み込みニューラルネットワーク(CNN)、リカレントニューラルネットワーク(RNN)、生成的敵対的ネットワーク(GAN)、またはナイーブベイズなどであり、種々の処理を行うことができるが、かかる例に限定されない。また、AIは、AIエージェントであってもよい。また、上述した各部の処理がAIで行われる場合、その処理は、AIで一部または全部が行われるが、かかる例に限定されない。また、生成AIを含むAIで実施される処理は、ルールベースでの処理に置き換えてもよい。
第4実施形態に係るデータ処理システム410は、第1実施形態に係るデータ処理システム10と同様の処理を行う。データ処理システム410による処理は、データ処理装置12の特定処理部290またはロボット414の制御部46Aによって実行されるが、データ処理装置12の特定処理部290とロボット414の制御部46Aとによって実行されてもよい。また、データ処理装置12の特定処理部290は、処理に必要な情報をロボット414または外部の装置などから取得したり収集したりし、ロボット414は、処理に必要な情報をデータ処理装置12または外部の装置などから取得したり収集したりする。
なお、感情エンジンとしての感情特定モデル59は、特定のマッピングに従い、ユーザの感情を決定してよい。具体的には、感情特定モデル59は、特定のマッピングである感情マップ(図9参照)に従い、ユーザの感情を決定してよい。また、感情特定モデル59は、同様に、ロボットの感情を決定し、特定処理部290は、ロボットの感情を用いた特定処理を行うようにしてもよい。
図9は、複数の感情がマッピングされる感情マップ400を示す図である。感情マップ400において、感情は、中心から放射状に同心円に配置されている。同心円の中心に近いほど、原始的状態の感情が配置されている。同心円のより外側には、心境から生まれる状態や行動を表す感情が配置されている。感情とは、情動や心的状態も含む概念である。同心円の左側には、概して脳内で起きる反応から生成される感情が配置されている。同心円の右側には概して、状況判断で誘導される感情が配置されている。同心円の上方向および下方向には、概して脳内で起きる反応から生成され、かつ、状況判断で誘導される感情が配置されている。また、同心円の上側には、「快」の感情が配置され、下側には、「不快」の感情が配置されている。このように、感情マップ400では、感情が生まれる構造に基づいて複数の感情がマッピングされており、同時に生じやすい感情が、近くにマッピングされている。
これらの感情は、感情マップ400の3時の方向に分布しており、普段は安心と不安のあたりを行き来する。感情マップ400の右半分では、内部的な感覚よりも状況認識の方が優位に立つため、落ち着いた印象になる。
感情マップ400の内側は心の中、感情マップ400の外側は行動を表すため、感情マップ400の外側に行くほど、感情が目に見える(行動に表れる)ようになる。
ここで、人の感情は、姿勢や血糖値のような様々なバランスを基礎としており、それらのバランスが理想から遠ざかると不快、理想に近づくと快という状態を示す。ロボットや自動車やバイクなどにおいても、姿勢やバッテリー残量のような様々なバランスを基礎として、それらのバランスが理想から遠ざかると不快、理想に近づくと快という状態を示すように感情を作ることができる。感情マップは、例えば、光吉博士の感情地図(音声感情認識および情動の脳生理信号分析システムに関する研究、徳島大学、博士論文:https://ci.nii.ac.jp/naid/500000375379)に基づいて生成されてよい。感情地図の左半分には、感覚が優位にたつ「反応」と呼ばれる領域に属する感情が並ぶ。また、感情地図の右半分には、状況認識が優位にたつ「状況」と呼ばれる領域に属する感情が並ぶ。
感情マップでは学習を促す感情が2つ定義される。1つは、状況側にあるネガティブな「懺悔」や「反省」の真ん中周辺の感情である。つまり、「もう2度とこんな想いはしたくない」「もう叱られたくない」というネガティブな感情がロボットに生じたときである。もう1つは、反応側にあるポジティブな「欲」のあたりの感情である。つまり、「もっと欲しい」「もっと知りたい」というポジティブな気持ちのときである。
感情特定モデル59は、ユーザ入力を、予め学習されたニューラルネットワークに入力し、感情マップ400に示す各感情を示す感情値を取得し、ユーザの感情を決定する。このニューラルネットワークは、ユーザ入力と、感情マップ400に示す各感情を示す感情値との組み合わせである複数の学習データに基づいて予め学習されたものである。また、このニューラルネットワークは、図10に示す感情マップ900のように、近くに配置されている感情同士は、近い値を持つように学習される。図10では、「安心」、「安穏」、「心強い」という複数の感情が、近い感情値となる例を示している。
上記実施形態では、1台のコンピュータ22によって特定処理が行われる形態例を挙げたが、本開示の技術はこれに限定されず、コンピュータ22を含めた複数のコンピュータによる特定処理に対する分散処理が行われるようにしてもよい。
上記実施形態では、ストレージ32に特定処理プログラム56が格納されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、特定処理プログラム56がUSB(Universal Serial Bus)メモリなどの可搬型のコンピュータ読み取り可能な非一時的格納媒体に格納されていてもよい。非一時的格納媒体に格納されている特定処理プログラム56は、データ処理装置12のコンピュータ22にインストールされる。プロセッサ28は、特定処理プログラム56に従って特定処理を実行する。
また、ネットワーク54を介してデータ処理装置12に接続されるサーバなどの格納装置に特定処理プログラム56を格納させておき、データ処理装置12の要求に応じて特定処理プログラム56がダウンロードされ、コンピュータ22にインストールされるようにしてもよい。
なお、ネットワーク54を介してデータ処理装置12に接続されるサーバなどの格納装置に特定処理プログラム56の全てを格納させておいたり、ストレージ32に特定処理プログラム56の全てを記憶させたりしておく必要はなく、特定処理プログラム56の一部を格納させておいてもよい。
特定処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、特定処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA(Field-Programmable Gate Array)、PLD(Programmable Logic Device)、またはASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵または接続されており、何れのプロセッサもメモリを使用することで特定処理を実行する。
特定処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、またはCPUとFPGAとの組み合わせ)で構成されてもよい。また、特定処理を実行するハードウェア資源は1つのプロセッサであってもよい。
1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、特定処理を実行するハードウェア資源として機能する形態がある。第2に、SoC(System-on-a-chip)などに代表されるように、特定処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、特定処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記の特定処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
また、上述した例では、第1実施形態から第4実施形態に分けて説明したが、これらの実施形態の一部または全部は組み合わされてもよい。また、スマートデバイス14、スマート眼鏡214、ヘッドセット型端末314、およびロボット414は一例であって、それぞれを組み合わせてもよく、それ以外の装置であってもよい。また、上述した例では、形態例1と形態例2に分けて説明したが、これらは組み合わせてもよい。
以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
10、210、310、410 データ処理システム
12 データ処理装置
14 スマートデバイス
214 スマート眼鏡
314 ヘッドセット型端末
414 ロボット
12 データ処理装置
14 スマートデバイス
214 スマート眼鏡
314 ヘッドセット型端末
414 ロボット
Claims (8)
- ユーザからテーマを受け付けるテーマ設定部と、
テーマ設定部によって受け付けられたテーマに基づいて擬似コンペを開催する擬似コンペ開催部と、
擬似コンペ開催部によって生成された応募作品の中から優秀な作品を選出する優秀作品選出部と、を備える
ことを特徴とするシステム。 - テーマ設定部は、
生成AIを用いて過去の成功事例やトレンドを分析し、最適なテーマを提案する
ことを特徴とする請求項1に記載のシステム。 - 擬似コンペ開催部は、
生成AIを用いて過去のコンペデータを学習し、より高品質な作品を生成する
ことを特徴とする請求項1に記載のシステム。 - 優秀作品選出部は、
生成AIを用いて過去の成功事例や市場データを参照し、最も実現可能性の高い作品を選出する
ことを特徴とする請求項1に記載のシステム。 - テーマ設定部は、
感情推定機能を用いてユーザの現在の感情状態を分析し、ポジティブな感情を引き出すテーマを提案する
ことを特徴とする請求項1に記載のシステム。 - 擬似コンペ開催部は、
感情推定機能を用いて応募作品の感情的なインパクトを評価し、感情的に共感されやすい作品を優先的に生成する
ことを特徴とする請求項1に記載のシステム。 - 優秀作品選出部は、
感情推定機能を用いて応募作品の感情的なインパクトを評価し、感情的に共感されやすい作品を優先的に選出する
ことを特徴とする請求項1に記載のシステム。 - 優秀作品選出部は、
感情推定機能を用いて優秀作品に対するユーザの感情反応をリアルタイムでモニターし、最適な作品を継続的に選出する
ことを特徴とする請求項1に記載のシステム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024119886A JP2026018564A (ja) | 2024-07-25 | 2024-07-25 | システム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024119886A JP2026018564A (ja) | 2024-07-25 | 2024-07-25 | システム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2026018564A true JP2026018564A (ja) | 2026-02-05 |
Family
ID=98651329
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024119886A Pending JP2026018564A (ja) | 2024-07-25 | 2024-07-25 | システム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2026018564A (ja) |
-
2024
- 2024-07-25 JP JP2024119886A patent/JP2026018564A/ja active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2026018564A (ja) | システム | |
| JP2026024551A (ja) | システム | |
| JP2026025337A (ja) | システム | |
| JP2026018355A (ja) | システム | |
| JP2026024260A (ja) | システム | |
| JP2025046958A (ja) | システム | |
| JP2025052321A (ja) | システム | |
| JP2026025036A (ja) | システム | |
| JP2025048919A (ja) | システム | |
| JP2025050644A (ja) | システム | |
| JP2025057657A (ja) | システム | |
| JP2026024413A (ja) | システム | |
| JP2026024962A (ja) | システム | |
| JP2026018755A (ja) | システム | |
| JP2026018807A (ja) | システム | |
| JP2025054641A (ja) | システム | |
| JP2026025059A (ja) | システム | |
| JP2026018556A (ja) | システム | |
| JP2026024434A (ja) | システム | |
| JP2026024390A (ja) | システム | |
| JP2026024412A (ja) | システム | |
| JP2026024819A (ja) | システム | |
| JP2025058252A (ja) | システム | |
| JP2026024543A (ja) | システム | |
| JP2025052536A (ja) | システム |