JP6800249B2 - 会話処理サーバー、会話処理サーバーの制御方法、及び端末 - Google Patents
会話処理サーバー、会話処理サーバーの制御方法、及び端末 Download PDFInfo
- Publication number
- JP6800249B2 JP6800249B2 JP2018562820A JP2018562820A JP6800249B2 JP 6800249 B2 JP6800249 B2 JP 6800249B2 JP 2018562820 A JP2018562820 A JP 2018562820A JP 2018562820 A JP2018562820 A JP 2018562820A JP 6800249 B2 JP6800249 B2 JP 6800249B2
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- terminal
- negotiation
- vehicle
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 109
- 238000000034 method Methods 0.000 title claims description 26
- 238000013473 artificial intelligence Methods 0.000 claims description 300
- 230000008569 process Effects 0.000 claims description 6
- 230000001737 promoting effect Effects 0.000 claims description 2
- 230000010365 information processing Effects 0.000 description 280
- 238000010586 diagram Methods 0.000 description 56
- 230000008451 emotion Effects 0.000 description 38
- 238000004891 communication Methods 0.000 description 31
- 230000005540 biological transmission Effects 0.000 description 22
- 230000006870 function Effects 0.000 description 19
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 13
- 230000004044 response Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 12
- 238000012423 maintenance Methods 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 238000010801 machine learning Methods 0.000 description 11
- 230000009471 action Effects 0.000 description 8
- 230000002787 reinforcement Effects 0.000 description 8
- 230000005236 sound signal Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 239000000463 material Substances 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 230000002996 emotional effect Effects 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 235000019640 taste Nutrition 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 208000019901 Anxiety disease Diseases 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 230000036506 anxiety Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000000946 synaptic effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012880 independent component analysis Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 239000010705 motor oil Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Information Transfer Between Computers (AREA)
- Telephonic Communication Services (AREA)
Description
さらに、ユーザーの感情を読み取り、それに合わせて端末が会話を選択する技術も知られており(例えば、特許文献4、5参照)、自動車への搭載も期待されている(例えば、特許文献5参照)。
本発明は、人工知能同士の会話を実現する会話処理サーバー、会話処理サーバーの制御方法、及び端末を提供することを目的とする。
また、第1の端末(4A、304A、404A、504A、604A、704A)及び第2の端末(4B、304B、404B、504B、604B、704B)の各々は、人工知能(35、35)同士の会話相手の端末を自身で探索する必要がない。
また、ユーザー(3A、3B)によって予め許可された内容の情報(70)のみが授受の対象になるので、ユーザー(3A、3B)の意に反した情報伝達が防止される。
すなわち、本開示には、第1の端末が通信する人工知能と、第2の端末が通信する人工知能との間で会話コンテンツが授受可能になることで、人工知能同士の会話が実現される、ことが示されている。
第1の端末及び第2の端末の各々が人工知能同士の会話相手の端末を自身で探索する必要がない、ことが示されている。
第1の端末及び第2の端末が人工知能同士の会話に適した距離に位置した場合に、人工知能同士に会話させることができる、ことが示されている。
会話コンテンツが会話処理サーバーによって中継されることで、人工知能間の会話コンテンツの授受の信頼性が高められる、ことが示されている。
人工知能同士の雑談により、ユーザーが人工知能に対する親近感を抱くことができ、また人工知能の性格を客観的に把握できる、ことが示されている。
第1の端末及び第2の端末に対応付けられた製品についての話題を雑談が含むことで、雑談を通じてユーザーに製品購入の判断材料を提供できる、ことが示されている。
製品が買われるまでの期間が長くなるほど、人工知能の学習量が増え、製品の付加価値が高められ、製品の購買力が補われる、ことが示されている。
ユーザーが所望の話題を設定しておくことで、自身に代わって、人工知能の間で、その話題についての会話を実行させることができる、ことが示されている。
この会話をきっかけとしてユーザー同士のコミュケーションも図られる、ことが示されている。
ユーザーは、自身が苦手な内容の交渉を、人工知能に委ねることができ、また、直接交渉する手間も省くことができる、ことが示されている。
ユーザーは、交渉時の人工知能同士の会話コンテンツの内容に基づいて、ユーザー自身が交渉相手に対して実際にアクションを起こすか否かを判断できる、ことが示されている。
交渉の客観的妥当性が維持され、例えば相手方の不当な対応を防止できる、ことが示されている。
人工知能の間で情報の共有化が図られる、ことが示されている。
ユーザーによって予め許可された内容の情報のみが授受されることで、ユーザーの意に反した情報伝達が防止される、ことが示されている。
<第1実施形態>
図1は、本実施形態に係るAI間会話システム1の構成を示す図である。
AI間会話システム1は、第1の情報処理端末4A、及び第2の情報処理端末4Bと、第1のAIサーバー6A、及び第2のAIサーバー6Bと、会話処理サーバー9と、を備え、それぞれが、インターネットなどの通信回線5を通じて、双方向に通信可能に構成されている。
これにより、ユーザー3A、3Bは、仮想人間27を相手に、あたかも実際の人間を相手にするときと同じ感覚で会話を楽しめる。
発話以外の入力データDaには、ユーザー3A、3Bや周囲を撮影した画像データや、二輪自動車2に関する各種の情報(走行に関する情報を含む)、第1の情報処理端末4A及び第2の情報処理端末4Bの周囲環境(現在位置、周囲の施設、交通情報、天気など)が挙げられる。
係る入力データDaに対して、第1のAIサーバー6A及び第2のAIサーバー6Bの仮想人間27が会話コンテンツWを生成することで、ユーザー3A、3Bが発話しなくとも、ユーザー3A、3Bの状況(表情やジェスチャー)、二輪自動車2の状況、走行時の周囲の状況といった、そのときの状況に応じた会話コンテンツWを仮想人間27から出力させることができる。これにより、仮想人間27が、あたかも自発的に発話したかのように演出できる。
本実施形態の第1の情報処理端末4A及び第2の情報処理端末4Bは、二輪自動車2に搭載される車載型の情報処理端末として構成されている。また本実施形態の第1の情報処理端末4A及び第2の情報処理端末4Bは、第1のAIサーバー6A及び第2のAIサーバー6Bの上記AI会話サービスを利用可能に構成されている。
なお、第1の情報処理端末4A、及び第2の情報処理端末4Bのそれぞれの構成は同一であるので、これらのうちの第1の情報処理端末4Aについて説明する。
第1の情報処理端末4Aは、コンピュータープログラムを実行して各種の機能を実現するコンピューターユニット10と、通信部12と、操作部17と、表示部15と、音声入出力部14と、センサーインターフェース16と、を備えている。
記憶部22には、例えば不揮発性ランダムアクセスメモリー(RAM)及び/又は読み出し専用メモリー(ROM)が用いられる。
またプロセッサー20には、集積回路や、マイクロコントローラー、マイクロコンピューター、プログラマブルロジックコントローラー、特定用途向け集積回路、その他のプログラマブル回路が用いられる。
また、コンピューターユニット10には、いわゆるSoC(System−on−a−Chip)装置を用いることもできる。
本実施形態において、通信部12は、通信回線5を通じて、第1のAIサーバー6A、及び会話処理サーバー9と通信する。
表示部15は、各種情報を表示するものであり、例えばフラットパネルディスプレイを備える。
なお、二輪自動車2の車体が操作部、及び表示部を備える場合には、第1の情報処理端末4Aは、これらを用いることもできる。
音声入出力部14は、音声を取り込む機能を実現するために、音声を取り込むためのマイクロフォンと、マイクロフォンが主力するアナログ音声信号をデジタル音声信号にエンコードするエンコーダー回路と、を備えている。また音声入出力部14は、音声を出力する機能を実現するために、コンピューターユニット10が出力したデジタル音声信号をデコードしてアナログ音声信号に変換するデコーダー回路と、このアナログ音声信号に基づく音声を放音するスピーカーとを備えている。なお、音声入出力部14は、二輪自動車2に設けられたマイクロフォンからアナログ音声信号の入力を受け、また、当該二輪自動車2に設けられたスピーカーを通じてアナログ音声信号を放音してもよい。
センサーインターフェース16は、発話以外の情報を収集するために、各種のセンサーを接続可能にするインターフェースである。この種のセンサーには、二輪自動車2に設けられた各種車載センサーが挙げられる。本実施形態では、車載センサーには、二輪自動車2の車両状態、及び走行状態を検出する車両状態検出センサー24と、運転者の挙動を検出するためのイメージングセンサー26と、が含まれている。
さらに、この第1の情報処理端末4Aが搭載された二輪自動車2には、周囲における車両や人間の有無を検知する周辺検知センサー25が搭載されており、この周辺検知センサー25の出力もセンサーインターフェース16に入力される。周辺検知センサー25は、電波や赤外線、レーザーによるセンシング技術や、画像処理によるセンシング技術を利用して、周囲の車両や人間の有無を検知する装置である。
なお、これら車両状態検出センサー24、及びイメージングセンサー26の一部を第1の情報処理端末4Aが備えてもよい。
前掲図2に示した記憶部22には、第1のAIサーバー6Aが提供する上記AI会話サービスを利用するためのコンピュータープログラムであるAI利用プログラム11が格納されており、プロセッサー20がAI利用プログラム11を実行することで、図3に示す機能ブロックが実現されている。
すなわち、第1の情報処理端末4Aは、図3に示すように、入力データ取得部29と、AIインターフェース部30と、会話コンテンツ再生部32と、を備える。
入力データDaは、上述の通り、音声入出力部14から入力されるユーザー3Aの発話や、操作部17から入力される操作入力、センサーインターフェース16を通じて入力される各種の信号(撮影データや、各種車載センサーの検出信号など)が挙げられる。
なお、第1のAIサーバー6A、及び第2のAIサーバー6Bのそれぞれの構成は同一であるので、これらのうちの第1のAIサーバー6Aを詳述する。
第1のAIサーバー6Aは、上述の通り、サーバーコンピューターによって構成されており、同図に示すように、AI部35を備えている。AI部35は、ユーザー3Aと対話する上述の仮想人間27を実現する機能部であり、入力部36と、会話コンテンツ生成部37と、履歴記憶部38と、出力部39と、を備えている。
入力部36は、第1の情報処理端末4Aから送信された入力データDaを受信し、会話コンテンツ生成部37に出力する。
人工知能は、各種フィルタリング、独立成分分析、SVM(Support Vector Machine)、輪郭抽出その他の画像処理技術、パターン認識(例えば、音声認識、顔認識ほか)、自然言語処理、知識情報処理、強化学習、ベイジアンネットワーク、SOM(自己組織化マップ)、ニューラルネットワーク、Deep Learning(深層学習)、その他各種の機械学習といった1又は複数の要素技術によって構成されている。
本実施形態において、感情反映部40における感情推定処理にも人工知能が用いられている。この人工知能にもニューラルネットワークと機械学習とが用いられており、感情反映部40は、ニューラルネットワークの機械学習によって得られた感情推定アルゴリズムにしがって感情を推定する。
教師あり学習では、学習用の学習データに、正解が予め設定されている。そして、ニューラルネットワークは、学習データが入力されたときには正解を出力するように、自身の各ノードを繋ぐシナプス結合の結合強度を変更し、正解を学習する。なお、この学習の結果として得られるニューラルネットワークの入出力規則が、入力データと出力データを対応付けるアルゴリズムである。学習によって得られたアルゴリズムは、コンピュータープログラムにコード化することもできる。
そして、学習データを用いた教師あり機械学習により、話し相手の音声、表情、及び行動の入力に対し、話し相手の感情、及び、その感情の強さを出力する感情推定アルゴリズムが得られる。
なお、感情の種別は、あくまでも例示であり、必要に応じて適宜に変更してもよい。感情反映部40には、上述のような感情推定アルゴリズムに代えて、既存の任意の感情認識技術を用いることもできる。
本実施形態では、仮想人間27の個性が「活動的」、「おしゃべり」、「献身的」、「のんびり」といった複数の性格因子の集合でモデル化されており、各性格因子の重み付けによって個性が形成されている。各性格因子の重み付けは、例えば工場出荷時などに設定されている。
さらに、本実施形態の会話コンテンツ生成部37は、ユーザー3Aとの付き合いの履歴、より詳細には、会話コンテンツWに対するユーザー3Aのリアクションを学習することで、ユーザー3Aの人格に合わせた会話コンテンツWが生成されるようにしている。
強化学習は、学習データにかかわらず、より望ましい出力が得られるようにニューラルネットワークを機械学習するものである。すなわち、強化学習では、ニューラルネットワークの出力によって得られる報酬(望ましい結果の度合い)が予め設定されおり、ニューラルネットワークは、ある学習データの入力に対して出力を出力したとき、その出力に対する報酬が、より高くなるように、ニューラルネットワークの各ノードを繋ぐシナプス結合の結合強度を変更する。
また、報酬には、話し相手の感情変化における望ましい変化態様が規定されている。
そして、会話コンテンツ生成部37は、会話コンテンツWを出力するごとに、会話コンテンツWの出力前後の話し相手の感情変化を入力データDaに基づいて取得し、これら会話コンテンツW、及び話し相手の感情変化に基づいてニューラルネットワークを強化学習する。
この強化学習に際し、会話コンテンツ生成部37は、報酬が高まる場合は、性格形成部41に設定されている性格因子の重み付けを変更する。
また、性格形成部41に設定された性格因子の重み付けは、ユーザー3Aによって変更可能であってもよい。
これにより、ユーザー3Aや二輪自動車2を反映した会話コンテンツWが生成されるようになる。
出力部39は、会話コンテンツWを第1の情報処理端末4Aに送信する。
図5は、会話処理サーバー9の機能的構成を示す図である。
会話処理サーバー9は、上述の通り、サーバーコンピューターによって構成されており、第1のAIサーバー6A及び第2のAIサーバー6Bのそれぞれの仮想人間27同士の会話を可能にするAI同士会話サービスを第1の情報処理端末4A、及び第2の情報処理端末4Bに提供する。
また、会話処理サーバー9は、仮想人間27同士の会話が、所定条件を満たした第1の情報処理端末4A、及び第2の情報処理端末4Bの間で行われるようにしている。
本実施形態において、所定条件は、第1の情報処理端末4A、及び第2の情報処理端末4Bの間の距離が所定距離以下となっている場合である。
中継部44は、第2信号E2を受信すると、話し相手の装置IDに基づいて、話し相手の第1の情報処理端末4A、又は第2の情報処理端末4Bを特定し、第2信号E2を送信する。
第1の情報処理端末4A及び第2の情報処理端末4Bは、それぞれの装置ID、及び位置情報を含んだ上記第1信号E1を間欠的に会話処理サーバー9に送信する(ステップSa1)。
会話処理サーバー9は、第1信号E1を受信すると、当該第1信号E1に含まれている情報(装置ID、及び位置情報)に基づいて端末管理情報47を更新する(ステップSa2)。
また会話処理サーバー9は、端末管理情報47に基づいて、会話条件の成立を判定する(ステップSa3)。すなわち、会話処理サーバー9は、第1の情報処理端末4A及び第2の情報処理端末4Bの距離が所定距離以下であるか否かを判定する。そして、所定距離以下である場合、会話処理サーバー9は、第1の情報処理端末4A及び第2の情報処理端末4Bのそれぞれに会話可能信号E3を送信する(ステップSa4)。第1の情報処理端末4A及び第2の情報処理端末4Bは、会話可能信号E3を受信することで、会話コンテンツWを送受可能な相手の装置IDを特定することができる。
第2のAIサーバー6Bは、入力データDaが入力されると、第1のAIサーバー6Aの会話コンテンツWへの応答の会話コンテンツWを生成し(ステップSa12)、当該会話コンテンツWを第2の情報処理端末4Bに送信する(ステップSa13)。
第2の情報処理端末4Bは、第2のAIサーバー6Bの会話コンテンツWを受信すると、これを相手に届けるために、当該会話コンテンツW及び相手の装置IDを含む上記第2信号E2を会話処理サーバー9に送信する(ステップSa14)。
そして、会話処理サーバー9が、第2信号E2が含む話し相手の装置IDに基づき、第1の情報処理端末4Aを特定し、当該第2信号E2を第1の情報処理端末4Aに送信する(ステップSa15)。
また、第1の情報処理端末4A及び第2の情報処理端末4Bは、送受する会話コンテンツWを音声などで出力し、これにより、ユーザー3A、3Bが仮想人間27同士の会話を楽しむことができる。
これにより、第1の情報処理端末4Aが通信する第1のAIサーバー6AのAI部35(仮想人間27)と、第2の情報処理端末4Bが通信する第2のAIサーバー6BのAI部35(仮想人間27)との間で会話コンテンツWが授受され、AI部35、35(仮想人間27、27)同士の会話が可能になる。
また第1の情報処理端末4A及び第2の情報処理端末4Bの各々は、AI同士の会話相手の端末を自身で探索する必要がない。
これにより、第1の情報処理端末4A及び第2の情報処理端末4BがAI同士の会話に適切な距離に位置した場合に、会話を行わせることができる。
本実施形態の説明において、第1実施形態で説明した部材については、同一の符号を付して、その説明を省略する。
同図に示すように、AI間会話システム100は、第1の情報処理端末104AがAI部35を有することで仮想人間27の機能を備える点で、第1実施形態のAI間会話システム1と構成を異にしている。
図8に示すように、記憶部22には、仮想人間27の機能を実現するAIプログラム110が格納されている。すなわち、プロセッサー20がAIプログラム110を実行することで、第1のAIサーバー6Aが備えたAI部35が、図9に示すように、第1の情報処理端末104Aに設けられる。
本実施形態の説明において、第1、及び第2実施形態で説明した部材については、同一の符号を付して、その説明を省略する。
同図に示すように、AI間会話システム200は、第1の情報処理端末104Aに加え、第2の情報処理端末104BもAI部35を備えることで仮想人間27の機能を備える点で、第2の実施形態のAI間会話システム100と構成を異にしている。
そして、AI間会話システム200においては、第1の情報処理端末104A、及び第2の情報処理端末104Bのそれぞれの間で、それぞれのAI部35(仮想人間27)が生成する会話コンテンツWが送受される。
各実施形態において、第1の情報処理端末4A、104A及び第2の情報処理端末4B、104Bが車載型の場合、搭載される車両は二輪自動車2に限らず、任意である。
このAI間会話システム300では、第1の情報処理端末304A及び第2の情報処理端末304Bが第2実施形態と同様に、仮想人間27の機能を備え、これに加え、通信部12が近距離無線通信プロトコルを利用した近距離無線通信を行う。
そこで、第1の情報処理端末304A及び第2の情報処理端末304Bは、近距離無線通信により、会話コンテンツWの送受を開始することになる。
図12は、本応用例に係るAI間会話システム400の構成を示す図である。
AI間会話システム400は、販売店49にユーザー3Aが来店したときに、二輪自動車2に搭載された第1の情報処理端末404A及び第2の情報処理端末404BがAI間会話をはじめることで、このAI間会話を通じて、ユーザー3Aが自身に合う二輪自動車2を把握し易くし、二輪自動車2の販売を促進する。
会話条件が成立した場合、第1実施形態と同様に、第1の情報処理端末404A及び第2の情報処理端末404Bを通じて、第1のAIサーバー406A及び第2のAIサーバー406Bの仮想人間27同士がAI間会話を開始する。
「雑談」は、会話の一態様であり、とりとめの無い会話を言う。ただし、本応用例の雑談会話は、第1の情報処理端末404A及び第2の情報処理端末404B自身が搭載されている二輪自動車2とユーザー3Aとの相性を示唆する話題(以下、「相性示唆話題」)を会話の中に含んでおり、この点で、単なる雑談と相違する。
スマートフォン48は、画面表示機能、音声の入出力機能、及び通信機能を有した可搬型情報処理端末である。なお、スマートフォン48に代えて、携帯電話機、ラップトップ型PC、ポータブルミュージックプレーヤー、ポータブルゲーム機などを可搬型情報処理端末に用いることもできる。
また、記憶部53には、ユーザー3Aによって適宜に設定されたユーザー情報57が格納されている。
ユーザー情報57は、第1のAIサーバー406Aが二輪自動車2とユーザー3Aとの相性を判断するときに参照されるものであり、運転技能情報58と嗜好情報59とを含んでいる。
運転技能情報58は、ユーザー3Aの運転技能の程度を示す情報である。例えば、運転歴、購入車種の履歴、ユーザー3Aが取得している運転免許の車種、ツーリング履歴(頻度、走行距離、目的地、走行時間など)、運転操作履歴(乗車頻度、ブレーキ操作のタイミングなど)などが運転技能情報58の例として挙げられる。
嗜好情報59は、二輪自動車2に対するユーザー3Aの好みや、こだわりのポイント(車種、車体の色、・・・・)といった情報である。
なお、ユーザー情報57が他の任意の情報を含んでもよい。
なお、第1の情報処理端末404A及び第2の情報処理端末404Bのそれぞれの構成は同一であるので、これらのうちの第1の情報処理端末404Aについて説明する。
同図に示すように、第1の情報処理端末404Aは、第1の実施形態で説明した第1の情報処理端末4Aが備える各部に加え、人検知部60と、ユーザー情報取得部61と、車両情報記憶部62と、を備えている。
ユーザー情報取得部61は、スマートフォン48と近距離無線通信し、当該スマートフォン48からユーザー情報57を取得する。
車両情報記憶部62は、第1の情報処理端末404Aが搭載されている二輪自動車2の車両情報62Aを記憶する。
なお、二輪自動車2の個々の車両性能、及び要求技能レベルを記録したデータベースが例えば製造メーカーによって構築されている場合、第1の情報処理端末4Aは、このデータベースから自車の車両性能を取得してもよい。データベースは、インターネット上のサーバー端末や、販売店に設置されたローカルコンピューター端末などに配置される。第1の情報処理端末4Aは、データベースが配置された端末と通信部12を介して通信し、自車の車両性能を取得してもよい。
なお、第1のAIサーバー406A及び第2のAIサーバー406Bのそれぞれの構成は同一であるので、これらのうちの第1のAIサーバー406Aについて説明する。
第1のAIサーバー406Aは、第1の実施形態で説明した第1のAIサーバー6Aが備える各部に加え、相性示唆話題を含む会話コンテンツWを生成するために、相性反映部63を備えている。
会話コンテンツ生成部37は、判定出力部65からの入力に対して会話コンテンツWを生成し、これにより、上記相性示唆話題を話題にした内容の会話コンテンツWが生成される。
ステップSb1〜Sb4の処理は、第1実施形態のステップSa1〜Sc4と同様である。
そして、第1の情報処理端末404A及び第2の情報処理端末404Bの少なくともいずれか一方(図示例では第1の情報処理端末404A)が、自身の周囲にユーザー3Aが出現しことを検知した場合(ステップSb5)、雑談会話を開始する。すなわち、第1の情報処理端末404Aは、スマートフォン48からユーザー情報57を取得し、当該ユーザー情報57、及び車両情報62Aを含む入力データDaを第1のAIサーバー406Aに送信する(ステップSb6)。第1のAIサーバー406Aは、入力データDaが入力されると、相性を反映した会話コンテンツWを生成し(ステップSb7)、当該会話コンテンツWを第1の情報処理端末404Aに送信する(ステップSb8)。
そして第1の情報処理端末404Aは、第1のAIサーバー6Aの会話コンテンツWを受信すると、これを相手に届けるために、当該会話コンテンツW及び相手の装置IDを含む上記第2信号E2を会話処理サーバー9に送信する(ステップSb9)。
ただし、ステップSb12において、第2の情報処理端末404Bは、未だスマートフォン48からユーザー情報57を取得していない場合には、当該ユーザー情報57を取得した後、このユーザー情報57も入力データDaに含める。
この図に示すように、ユーザー3Aが周囲に出現したときに、雑談会話が行われることで、自身の二輪自動車2とユーザー3Aの相性を話題にした雑談(相性示唆雑談)が行われる。したがって、ユーザー3Aは、雑談会話の内容に基づいて、自身と相性が良さそうな二輪自動車2を容易に見つけることができ、また、その性能や特徴を知ることができる。これに加えて、ユーザー3Aは、第1の情報処理端末404A及び第2の情報処理端末404Bの雑談会話を通じて、第1の情報処理端末404A及び第2の情報処理端末404Bの性格を客観的に把握し、親近感を覚える第1の情報処理端末404A及び第2の情報処理端末404Bを見つけることもできる。
これにより、送受される会話コンテンツWの内容がユーザー3Aに対して二輪自動車2の購入の判断材料として自然に提供される。
これにより、ユーザー3Aは、会話コンテンツWの内容に基づいて、自身と相性が良い二輪自動車2を見つけることができる。
応用例1において、雑談会話の話題には、相性示唆が含まれる場合を例示した。しかしながら、雑談会話の話題は、二輪自動車2の購入判断の材料であれば良く、相性示唆以外の内容でもよい。この種の内容には、例えば二輪自動車2の性能や特徴が挙げられる。
この場合、第1のAIサーバー4−6A及び第2のAIサーバー406Bの会話コンテンツ生成部37には車両情報62Aが入力され、二輪自動車2の性能や特徴を示す会話コンテンツWを生成する。この会話コンテンツWが雑談会話に適宜に挿入されることで、自然に、二輪自動車2の性能や特徴をユーザー3Aに知らせ、プロモートできる。この場合において、会話コンテンツ生成部37は、車両情報62Aの中でもユーザー3Aの購入意欲を刺激する情報(その二輪自動車2のセールスポイントなど)を優先的に選択し、その情報を発話することで、二輪自動車2を効率的にプロモートしてもよい。
ユーザー3Aの性格は、ユーザー3Aの、風体や容姿、発話音声(口調や言葉遣い)といった情報から推定可能である。すなわち、第1のAIサーバー406A及び第2のAIサーバー406BのAI部35が、ユーザー3Aの風体や容姿が写ったイメージデータや、ユーザー3Aの発話音声の音声データを入力データDaとして受け取り、ユーザー3Aの性格を推定する。入力データDaに基づく性格の推定には、感情推定と同じように、機械学習技術などを用いることができる。
販売店49に二輪自動車2が陳列されている間、すなわち、二輪自動車2に買手が付かない間、第1のAIサーバー406A及び第2のAIサーバー406Bの仮想人間27が機械学習により知識を蓄えることもできる。
すなわち、AI部35は、買手が付くまでの間、販売店49やメーカー等の販売側が用意した学習用情報を履歴記憶部38に蓄積し、当該学習用情報に基づいて、会話コンテンツ生成部37の強化学習を行う。これにより、二輪自動車2が販売店49に長く置かれるほど、学習用情報を反映した会話コンテンツWが生成されるように、会話コンテンツ生成部37で行われる会話生成処理のアルゴリズム(会話コンテンツの生成規則)がブラッシュアップされる。
ユーザー情報57は、通信回線5に通信可能に接続されたコンピューター(例えば、会話処理サーバー9)が保持し、第1の情報処理端末404A及び第2の情報処理端末404Bは、このコンピューターからユーザー情報57を取得してもよい。
<変形例1D>
スマートフォン48が、第1の情報処理端末404A及び第2の情報処理端末404Bと同様に、第1のAIサーバー406A及び第2のAIサーバー406BのAI会話サービス、及び、会話処理サーバー9のAI同士会話サービスを利用する機能を備え、雑談会話に参加してもよい。
第1の情報処理端末404A及び第2の情報処理端末404Bが近接している場合、第1の情報処理端末404A及び第2の情報処理端末404Bは、会話処理サーバー9を介して会話コンテンツWを送受する代わりに、それぞれが出力した会話コンテンツWの音声を、音声入出力部14から取得してもよい。
この場合において、音声入出力部14で取得される音声が、誰宛の雑談会話の音声であるかを特定可能にするために、第1の情報処理端末404A及び第2の情報処理端末404Bは、会話コンテンツWの音声出力のタイミングに合わせて雑談会話情報を含む信号を、近距離無線通信により送出することが望ましい。
そして、第1の情報処理端末404A及び第2の情報処理端末404Bの各々は、会話の音声を検知した場合、雑談会話情報に基づいて、音声が雑談会話であり、かつ、自身に宛てられた会話であるか否かを判定可能になる。
図19は、本応用例に係るAI間会話システム500の構成を示す図である。
本応用例では、会話条件が成立したときに、第1の情報処理端末504A及び第2の情報処理端末504Bが、二輪自動車2のそれぞれの所有者であるユーザー3A、3Bに代わって会話する(以下、「代理会話」と言う)。
また本応用例において、代理会話の話題は、ユーザー3A、3Bの間の交渉(依頼を含む)に係る話題であり、この交渉の内容は、ユーザー3A、3Bによって交渉タスク67として第1の情報処理端末504A及び第2の情報処理端末504Bに予め設定されている。
交渉タスク67は、ユーザー3A、3Bが要望している交渉内容を示すものであり、交渉内容67Aと、希望条件67Bとを含んでいる。交渉内容67Aは、何について交渉するかを示す情報である。希望条件67Bは、交渉におけるユーザー3A、3Bの希望条件を示す情報である。
例えば、ユーザー3A、3Bが友達を作りたい場合、交渉内容67Aには、「友達になって欲しい」の旨が格納される。この場合、希望条件67Bには、例えばユーザー3A、3Bが友達になって欲しい相手の条件が格納される。また、この場合、交渉相手との交渉に用いるために、ユーザー3A、3Bの個人情報を含むユーザー情報57も、第1の情報処理端末504A及び第2の情報処理端末504Bに設けられる。個人情報は、ユーザー3A、3Bのパーソナリティを示す情報であり、例えば性別や、年齢、居住エリア、趣味、嗜好、二輪自動車2の運転歴、スケジュール等の行動履歴などを含んでいる。
なお、第1のAIサーバー506A及び第2のAIサーバー506Bのそれぞれの構成は同一であるので、これらのうちの第1のAIサーバー506Aについて説明する。
第1のAIサーバー506Aは、第1の実施形態で説明した第1のAIサーバー6Aが備える各部に加え、代理会話の会話コンテンツWを生成するために、交渉部68が会話コンテンツ生成部37に設けられている。
交渉部68は、交渉タスク67を含む入力データDaが入力された場合に、相手との交渉に用いられる会話コンテンツWを生成する。交渉部68の処理についても、感情反映部40と同様に、ニューラルネットワークと機械学習とを用いた人工知能が用いられている。
ステップSc1〜Sc4の処理は、第1実施形態のステップSa1〜Sa4と同様である。
そして、例えば第1の情報処理端末504Aが第2の情報処理端末504Bと交渉タスク67に基づく交渉を開始するときには(ステップSc5)、第1の情報処理端末504Aは、ユーザー情報57、及び交渉タスク67を入力データDaとして第1のAIサーバー506Aに送信する(ステップSc6)。第1のAIサーバー506Aは、入力データDaが入力されると、交渉タスク67の内容に基づいて会話コンテンツWを生成し(ステップSc7)、当該会話コンテンツWを第1の情報処理端末504Aに送信する(ステップSc8)。
本実施形態では、第1のAIサーバー506A及び第2のAIサーバー506Bの各々のAI部35が、相手から受信した会話コンテンツWの内容に基づいて、交渉の成立、又は不成立を判断する。例えば、交渉内容67Aが「友達作り」である場合、相手の応答の会話コンテンツWが「友達になる」の旨を含んでいた場合に、交渉が成立したと判断される。一方、相手の応答の会話コンテンツWが「お断り」の旨を含んでいた場合、交渉が不成立になった判断される。
この図に示すように、第1の情報処理端末504A及び第2の情報処理端末504Bの間の距離が所定距離以下になると、ユーザー3Aが予め設定した交渉タスク67について交渉する代理会話が行われる。
これにより、ユーザー3A、3Bは、交渉中にやり取りされた会話コンテンツWの内容や、交渉の成立/非成立に応じて、交渉相手に対し、実際にアクションを起こすことが可能になる。
これにより、ユーザー3A、3Bが所望の話題を設定しておくことで、自身に代わって、第1のAIサーバー506A及び第2のAIサーバー506Bの間で、その話題の会話を実行させることができる。
これにより、ユーザー3A、3Bは、自身が苦手な内容の交渉を、第1のAIサーバー506A及び第2のAIサーバー506Bに委ねることができ、また、直接交渉する手間も省くことができる。また、ユーザー3A、3Bは、交渉における会話コンテンツWのやり取りを、交渉相手に対して実際に起こすアクションの判断材料にできる。
ステップSc5において、第1の情報処理端末504A及び第2の情報処理端末504Bは、ユーザー3A、3Bが交渉を行う意思が無い場合は、交渉を開始しなくともよい。
すなわち、第1の情報処理端末504A及び第2の情報処理端末504Bは、交渉を開始する前に、ユーザー3A、3Bの交渉意思を確認する。そして、第1の情報処理端末504A及び第2の情報処理端末504Bは、例えばユーザー3A、3Bの操作や音声入力、ジェスチャー(イメージ入力)によって、交渉開始の意思が確認された場合に、交渉を開始する。
交渉意思は、交渉タスク67の交渉内容67Aと、現在の状況との対比に基づいて類推可能である。現在の状況には、ユーザー3A、3Bの現在の状況(感情など)や、周囲の現在の環境(現在地、天気、景色、周囲のランドマークなど)が参照される。
すなわち、ユーザー3A、3Bが運転中の自身を被写体とした映像(写真又は動画)を欲する場合に、自身の撮影を他の二輪自動車2(例えば対向車両や前方を走行中の車両)に交渉して依頼するという使い方である。
この場合、交渉内容67Aには「依頼者(ユーザー3A、3B)自身の撮影」が設定され、希望条件67Bには、ユーザー3A、3B自身が撮影を希望するシチュエーションが設定される。AI部35がユーザー3A、3Bの感情を推定できるので、シチュエーションには、例えば「(ユーザー3A、3B)自身を撮影して欲しいとき」や、「(ユーザー3A、3B)の気分が爽快なとき」などのように、ユーザー3A、3Bの感情に基づく条件を設定できる。
そして、交渉相手との間で交渉が成立した場合には、交渉相手によって、ユーザー3A、3Bが撮影され、第1の情報処理端末504A及び第2の情報処理端末504Bは、その撮影データを例えば会話処理サーバー9を通じて交渉相手から取得する。
交渉相手が不成立の旨の会話コンテンツWを出力したときに、交渉がそのまま不成立にならないように、交渉に介入する機能を会話処理サーバー9が備えてもよい。
すなわち、会話処理サーバー9の中継部44は、交渉に係る一連の会話コンテンツWを中継するときに、これらの会話コンテンツWを保持する。そして、交渉が不成立の場合に、会話処理サーバー9の例えば中継部44が、会話コンテンツWに基づいて交渉不成立の妥当性を判断し、不当と判断した場合には、成立の受け入れを交渉相手に指令する。
すなわち、ユーザー3A、3Bは、必要な運転サポートを交渉内容67Aとした交渉タスク67を設定する。例えば、ユーザー3A、3Bが車両走行中において最低でも所定距離以上の車間距離を確保したい場合、交渉内容67Aを「車間距離」とし、希望条件67Bを「所定距離」とした交渉タスク67を設定する。
交渉相手の第1の情報処理端末504A及び第2の情報処理端末504Bは移動体に限らず、建造物に据え置かれてもよい。
例えば、図25に示すAI間会話システム600では、交渉相手となる第2の情報処理端末604Bが飲食店85に設置されている。一方、二輪自動車2に搭載された第1の情報処理端末604Aには、交渉内容67Aが「飲食」であり、希望条件67Bが「希望メニューと値段」である交渉タスク67が設定されている。
この場合、二輪自動車2の走行中などに、第1の情報処理端末504Aが飲食店85に所定距離以下まで近づいたときに、第2の情報処理端末504Bとの間で代理会話による交渉が行われる。この結果、ユーザー3Aは、希望する値段で希望のメニューを飲食できる飲食店85を簡単に見つけることができる。
図26に示すように、第1の情報処理端末504A及び第2の情報処理端末504Bのいずれか(図示例では、第1の情報処理端末504A)が、ユーザー3A、3Bが所持する可搬型でもよい。
この場合において、第1の情報処理端末504Aのユーザー3Aは、自身が希望する内容の交渉タスク67を第1の情報処理端末504Aに設定しておくことで、自身と所定距離内に位置する二輪自動車2の第2の情報処理端末504Bと代理会話による交渉を行わせることができる。
すなわち、ユーザー3Aが二輪自動車2への同乗を所望する場合に、周囲を走行している二輪自動車2に対し、代理会話の交渉により同乗を依頼するという使い方である。この使い方は、ユーザー3Aが電車の終電を逃した場合や、タクシーやバス等の乗合自動車が周囲に見当たらない場合などに有用である。
この場合、ユーザー3Aは、交渉タスク67の交渉内容67Aに「車両への同乗」を設定し、希望条件67Bには、例えば「目的地」や、「同乗に対する対価」、「二輪自動車2の所有者106のパーソナリティに関する要望(例えば、誠実、寛大、社交的・・・)」などを設定する。
図27は、本応用例に係るAI間会話システム700の構成を示す図である。
本応用例では、会話条件が成立したときに、第1の情報処理端末704A及び第2の情報処理端末704Bの蓄積情報70を話題にしたAI間会話(以下、「情報伝達会話」と言う)が実行されることで、蓄積情報70の伝達を可能にする。
本応用例において、会話条件は、第1実施形態と同様に、第1の情報処理端末704A及び第2の情報処理端末704Bの距離が所定距離以下であることである。
また第1の情報処理端末704A及び第2の情報処理端末704Bには、伝達内容設定71が格納されている。伝達内容設定71は、蓄積情報70のうち、情報伝達相手への提供を許可する提供許可内容71Aを特定した設定情報である。
提供許可内容71Aは、ユーザー3A、3Bによって予め設定されるものであり、許可対象の内容として、例えば「道路情報」や「施設情報」、「メンテナンス情報」といった内容が設定される。「道路情報」には、二輪自動車2が今までに走行した道路の情報であり、例えば混雑状況や交通規制、路面状態などが挙げられる。「施設情報」は、二輪自動車2が今までに立ち寄った施設の情報である。また、「メンテナンス情報」は、今までに二輪自動車2に対して行われたメンテナンスに関する情報であり、修理箇所や、交換又は追加されたパーツ、エンジンオイル品名などの情報である。また、「メンテナンス情報」には、メンテナンス後に二輪自動車2に生じた性能変化(燃費など)も含む。
ステップSd1〜Sd4の処理は、第1実施形態のステップSa1〜Sa4と同様である。
そして、例えば第1の情報処理端末704Aが第2の情報処理端末704Bに対し蓄積情報70を伝達する会話を開始するときには(ステップSd5)、第1の情報処理端末704Aは、伝達内容設定71に基づいて蓄積情報70から伝達対象の情報を抽出し、それを入力データDaに含めて第1のAIサーバー506Aに送信する(ステップSd6)。第1のAIサーバー506Aは、入力データDaが入力されると、伝達対象の情報に基づいて会話コンテンツWを生成し(ステップSd7)、当該会話コンテンツWを第1の情報処理端末504Aに送信する(ステップSd8)。
なお、ステップSd12において、第2のAIサーバー6Bは、会話の流れや周囲の状況によっては、他の情報提供をリクエストする会話コンテンツWを生成してもよい。この場合、第1のAIサーバー6Aは、そのリクエストに応える会話コンテンツWを生成する。
同図には、提供許可内容71Aが「メンテナンス情報」である場合が示されている。同図に示すように、第1の情報処理端末704Aが所定距離内の他の第2の情報処理端末704Bとの間で情報伝達会話を行うことで、それぞれの二輪自動車2に対して過去に行われたメンテナンス情報が会話コンテンツWの送受によって共有される。また、これらの会話コンテンツWを通じて、ユーザー3A、3Bは、有用なメンテナンス情報を知ることができる。
また、ユーザー3A、3Bによって予め許可された内容の蓄積情報70のみが授受の対象なので、ユーザー3A、3Bの意に反した情報伝達が防止される。
第1のAIサーバー6A及び第2のAIサーバー6Bが、蓄積情報70、及び提供許可内容71Aを第1の情報処理端末704A及び第2の情報処理端末704Bから取得し、伝達する情報をAI部35が決定してもよい。
このとき、AI部35は、第1の情報処理端末704A及び第2の情報処理端末704Bの周囲の状況(天候や走行地点、情報伝達相手の二輪自動車2の進行方向など)に応じて、会話コンテンツWに含ませる情報を選択してもよい。
これにより、同一状況下に居る情報伝達相手の二輪自動車2、又は、そのユーザー3A、3Bにとって有用な情報が伝達され易くなる。例えば、現在の天候が悪く、かつ、情報伝達相手の二輪自動車2が対向車である場合、直近に走行した道路の路面状態が会話コンテンツWに含められる。
このとき、AI部35は、情報伝達相手の二輪自動車2の車種や製造メーカ、或いは、自車両の二輪自動車2の性能や、ユーザー3A、3Bの感情において良好な変化が見られたメンテナンス内容といったように、情報伝達相手に有益な情報を蓄積情報70の中から優先的に選択する。
2 二輪自動車
3A、3B ユーザー
4A、104A、304A、404A、504A、604A、704A 第1の情報処理端末
4B、104B、304B、404B、504B、604B、704B 第2の情報処理端末
5 通信回線
6A、406A、506A 第1のAIサーバー
6B、406B、506B 第2のAIサーバー
9 会話処理サーバー
27 仮想人間
29 入力データ取得部
30 AIインターフェース部
32 会話コンテンツ再生部
33 入力データ送信部
34 会話コンテンツ受信部
35 AI部
36 入力部
37 会話コンテンツ生成部
38 履歴記憶部
39 出力部
40 感情反映部
41 性格形成部
42 監視部
43 記憶部
44 中継部
45 判定部
47 端末管理情報
48 スマートフォン
57 ユーザー情報
60 人検知部
61 ユーザー情報取得部
62 車両情報記憶部
62A 車両情報
63 相性反映部
64 相性判定部
65 判定出力部
67 交渉タスク
68 交渉部
70 蓄積情報
71 伝達内容設定
71A 提供許可内容
Da 入力データ
W 会話コンテンツ
Claims (14)
- ポータブル、又は車載型の端末であり、外部に設けられた人工知能(35)の入出力インターフェース部(30)を有した第1の端末(4A、304A、404A、504A、604A、704A)、及び第2の端末(4B、304B、404B、504B、604B、704B)の各々と通信する手段(43)と、
所定の会話条件の成立を判定する手段(45)と、を備え、
前記会話条件が成立した場合に、前記第1の端末(4A、304A、404A、504A、604A、704A)が通信する前記人工知能(35)と、前記第2の端末(4B、304B、404B、504B、604B、704B)が通信する前記人工知能(35)との間で、それぞれの前記人工知能(35、35)が生成する会話コンテンツ(W)を授受可能にし、
それぞれの前記人工知能(35、35)の間で行われた、車両の運転に係る交渉において、それぞれの前記人工知能(35、35)の間で前記交渉が不成立になった場合に、前記交渉の不成立の妥当性を、当該交渉において送受された前記会話コンテンツ(W)、及び前記車両の走行時の状況に基づいて判定し、前記交渉の不成立が妥当でないと判定した場合に、当該交渉の相手の前記第1の端末(4A、104A、404A、504A、604A、704A)、または前記第2の端末(4B、104B、404B、504B、604B、704B)に対し、当該交渉の受け入れを指示する
ことを特徴とする会話処理サーバー(9)。 - ポータブル、又は車載型の端末であり、人工知能(35)が搭載された第1の端末(104A)、及び第2の端末(104B)の各々と通信する手段(43)と、
所定の会話条件の成立を判定する手段(45)と、を備え、
前記会話条件が成立した場合に、前記第1の端末(104A)の前記人工知能(35)と、前記第2の端末(104B)の前記人工知能(35)との間で、それぞれの前記人工知能(35、35)が生成する会話コンテンツ(W)を授受可能にし、
それぞれの前記人工知能(35、35)の間で行われた、車両の運転に係る交渉において、それぞれの前記人工知能(35、35)の間で前記交渉が不成立になった場合に、前記交渉の不成立の妥当性を、当該交渉において送受された前記会話コンテンツ(W)、及び前記車両の走行時の状況に基づいて判定し、前記交渉の不成立が妥当でないと判定した場合に、当該交渉の相手の前記第1の端末(4A、104A、404A、504A、604A、704A)、または前記第2の端末(4B、104B、404B、504B、604B、704B)に対し、当該交渉の受け入れを指示する
ことを特徴とする会話処理サーバー(9)。 - ポータブル、又は車載型の端末であり、人工知能(35)が搭載された第1の端末(104A)、及び、ポータブル、又は車載型の端末であり、外部に設けられた人工知能(35)の入出力インターフェース部(30)を有した第2の端末(4B、304B、404B、504B、604B、704B)の各々と通信する手段(43)と、
所定の会話条件の成立を判定する手段(45)と、を備え、
前記会話条件が成立した場合に、前記第1の端末(104A)の前記人工知能(35)と、前記第2の端末(4B、304B、404B、504B、604B、704B)が通信する前記人工知能(35)との間で、それぞれの前記人工知能(35、35)が生成する会話コンテンツ(W)を授受可能にし、
それぞれの前記人工知能(35、35)の間で行われた、車両の運転に係る交渉において、それぞれの前記人工知能(35、35)の間で前記交渉が不成立になった場合に、前記交渉の不成立の妥当性を、当該交渉において送受された前記会話コンテンツ(W)、及び前記車両の走行時の状況に基づいて判定し、前記交渉の不成立が妥当でないと判定した場合に、当該交渉の相手の前記第1の端末(4A、104A、404A、504A、604A、704A)、または前記第2の端末(4B、104B、404B、504B、604B、704B)に対し、当該交渉の受け入れを指示する
ことを特徴とする会話処理サーバー(9)。 - 前記所定の会話条件は、前記第1の端末(4A、104A、304A、404A、504A、604A、704A)及び第2の端末(4B、104B、304B、404B、504B、604B、704B)の間の距離を含む、ことを特徴とする請求項1〜3のいずれかに記載の会話処理サーバー(9)。
- 前記第1の端末(4A、104A、404A、504A、604A、704A)及び前記第2の端末(4B、104B、404B、504B、604B、704B)の間で前記会話コンテンツ(W)を中継する手段(47)を備えることを特徴とする請求項1〜4のいずれかに記載の会話処理サーバー(9)。
- 前記会話コンテンツ(W)は、それぞれの前記人工知能(35、35)が雑談しているときの発話を含む、ことを特徴とする請求項1〜5のいずれかに記載の会話処理サーバー(9)。
- 前記雑談は、前記第1の端末(4A、104A、304A、404A、504A、604A、704A)、及び前記第2の端末(4B、104B、304B、404B、504B、604B、704B)に対応付けられた製品についての話題を含む、
ことを特徴とする請求項6に記載の会話処理サーバー(9)。 - 前記人工知能(35、35)は、前記製品が買われるまでの間、前記製品の販売を促進する情報を学習する、ことを特徴とする請求項7に記載の会話処理サーバー(9)。
- 前記会話コンテンツ(W)は、ユーザー(3A、3B)が予め設定した話題に関する発話である、ことを特徴とする請求項1〜5のいずれかに記載の会話処理サーバー(9)。
- 前記会話コンテンツ(W)は、前記第1の端末(4A、104A、304A、404A、504A、604A、704A)、及び前記第2の端末(4B、104B、304B、404B、504B、604B、704B)に蓄積された情報(70)のうち、それぞれのユーザー(3A、3B)によって予め許可された情報を含む発話である、ことを特徴とする請求項1〜5のいずれかに記載の会話処理サーバー(9)。
- ポータブル、又は車載型の端末であり、外部に設けられた人工知能(35)の入出力インターフェース部(30)を有した第1の端末(4A、304A、404A、504A、604A、704A)、及び第2の端末(4B、304B、404B、504B、604B、704B)の各々と通信する手段(43)を備えた会話処理サーバー(9)の制御方法において、
所定の会話条件の成立を判定するステップと、
前記会話条件が成立した場合に、前記第1の端末(4A、304A、404A、504A、604A、704A)が通信する前記人工知能(35)と、前記第2の端末(4B、304B、404B、504B、604B、704B)が通信する前記人工知能(9)との間で、それぞれの前記人工知能(35、35)が生成する会話コンテンツを授受可能にするステップと、
前記会話コンテンツの授受によってそれぞれの前記人工知能(35、35)の間で行われた、車両の運転に係る交渉において、それぞれの前記人工知能(35、35)の間で前記交渉が不成立になった場合に、前記交渉の不成立の妥当性を、当該交渉において送受された前記会話コンテンツ(W)、及び前記車両の走行時の状況に基づいて判定し、前記交渉の不成立が妥当でないと判定した場合に、当該交渉の相手の前記第1の端末(4A、104A、404A、504A、604A、704A)、または前記第2の端末(4B、104B、404B、504B、604B、704B)に対し、当該交渉の受け入れを指示するステップと、
を備えることを特徴とする制御方法。 - ポータブル、又は車載型の端末であり、人工知能(35)が搭載された第1の端末(104A)、及び第2の端末(104B)の各々と通信する手段(43)を備えた会話処理サーバー(9)の制御方法において、
所定の会話条件の成立を判定するステップと、
前記会話条件が成立した場合に、前記第1の端末(104A)の前記人工知能(35)と、前記第2の端末(104B)の前記人工知能(35)との間で、それぞれの前記人工知能(35、35)が生成する会話コンテンツ(W)を授受可能にするステップと、
前記会話コンテンツの授受によってそれぞれの前記人工知能(35、35)の間で行われた、車両の運転に係る交渉において、それぞれの前記人工知能(35、35)の間で前記交渉が不成立になった場合に、前記交渉の不成立の妥当性を、当該交渉において送受された前記会話コンテンツ(W)、及び前記車両の走行時の状況に基づいて判定し、前記交渉の不成立が妥当でないと判定した場合に、当該交渉の相手の前記第1の端末(4A、104A、404A、504A、604A、704A)、または前記第2の端末(4B、104B、404B、504B、604B、704B)に対し、当該交渉の受け入れを指示するステップと、
を備えることを特徴とする制御方法。 - ポータブル、又は車載型の端末であり、人工知能(35)が搭載された第1の端末(104A)、及び、ポータブル、又は車載型の端末であり、外部に設けられた人工知能(35)の入出力インターフェース部(30)を有した第2の端末(4B、304B、404B、504B、604B、704B)の各々と通信する手段(43)を備えた会話処理サーバー(9)の制御方法において、
所定の会話条件の成立を判定するステップと、
前記会話条件が成立した場合に、前記第1の端末(104A)の前記人工知能(35)と、前記第2の端末(4B、304B、404B、504B、604B、704B)が通信する前記人工知能(35)との間で、それぞれの前記人工知能(35、35)が生成する会話コンテンツ(W)を授受可能にするステップと、
前記会話コンテンツの授受によってそれぞれの前記人工知能(35、35)の間で行われた、車両の運転に係る交渉において、それぞれの前記人工知能(35、35)の間で前記交渉が不成立になった場合に、前記交渉の不成立の妥当性を、当該交渉において送受された前記会話コンテンツ(W)、及び前記車両の走行時の状況に基づいて判定し、前記交渉の不成立が妥当でないと判定した場合に、当該交渉の相手の前記第1の端末(4A、104A、404A、504A、604A、704A)、または前記第2の端末(4B、104B、404B、504B、604B、704B)に対し、当該交渉の受け入れを指示するステップと、
を備えたことを特徴とする制御方法。 - ポータブル、又は車載型の端末(4A、104A、304A、404A、504A、604A、704A)であって、
外部に設けられた人工知能(35)の入出力インターフェース部(30)、或いは、人工知能(35)と、
所定の会話条件の成立を判定する会話処理サーバー(9)と通信する手段(12)と、を備え、
前記会話処理サーバー(9)によって前記会話条件の成立が判定された場合に、前記人工知能(35)と、他の端末(4B、104B、304B、404B、504B、604B、704B)の前記人工知能(35)との間で、それぞれの前記人工知能(35、35)が生成する会話コンテンツ(W)を授受し、
前記会話コンテンツの授受によってそれぞれの前記人工知能(35、35)の間で行われた、車両の運転に係る交渉において、それぞれの前記人工知能(35、35)の間で前記交渉が不成立になった場合に、前記会話処理サーバー(9)が前記交渉の不成立の妥当性を、当該交渉において送受された前記会話コンテンツ(W)、及び前記車両の走行時の状況に基づいて判定し、前記会話処理サーバー(9)が前記交渉の不成立が妥当でないと判定し、当該交渉の受け入れを指示した場合に当該指示を受け入れる、
ことを特徴とする端末(4A、104A、304A、404A、504A、604A、704A)。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/001871 WO2018134960A1 (ja) | 2017-01-20 | 2017-01-20 | 会話処理サーバー、会話処理サーバーの制御方法、及び端末 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018134960A1 JPWO2018134960A1 (ja) | 2019-11-07 |
JP6800249B2 true JP6800249B2 (ja) | 2020-12-16 |
Family
ID=62907964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018562820A Active JP6800249B2 (ja) | 2017-01-20 | 2017-01-20 | 会話処理サーバー、会話処理サーバーの制御方法、及び端末 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11107471B2 (ja) |
JP (1) | JP6800249B2 (ja) |
DE (1) | DE112017006878T5 (ja) |
WO (1) | WO2018134960A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102384643B1 (ko) * | 2017-08-17 | 2022-04-08 | 엘지전자 주식회사 | 전자 장치 및 그 제어 방법 |
US11273836B2 (en) * | 2017-12-18 | 2022-03-15 | Plusai, Inc. | Method and system for human-like driving lane planning in autonomous driving vehicles |
US11130497B2 (en) | 2017-12-18 | 2021-09-28 | Plusai Limited | Method and system for ensemble vehicle control prediction in autonomous driving vehicles |
US20190185012A1 (en) | 2017-12-18 | 2019-06-20 | PlusAI Corp | Method and system for personalized motion planning in autonomous driving vehicles |
JP6485567B1 (ja) * | 2018-02-27 | 2019-03-20 | オムロン株式会社 | 適合性判定装置、適合性判定方法及びプログラム |
CN110007455B (zh) * | 2018-08-21 | 2021-01-26 | 腾讯科技(深圳)有限公司 | 病理显微镜、显示模组、控制方法、装置及存储介质 |
US10645216B1 (en) * | 2019-03-26 | 2020-05-05 | Ribbon Communications Operating Company, Inc. | Methods and apparatus for identification and optimization of artificial intelligence calls |
CN110808045A (zh) * | 2019-11-07 | 2020-02-18 | 深圳创维-Rgb电子有限公司 | 基于人工智能的检测方法、装置、设备及可读存储介质 |
DE102022119837A1 (de) | 2022-08-08 | 2024-02-08 | Audi Aktiengesellschaft | Notrufverfahren mit geringem Verbrauch von spektralen Ressourcen |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4158213B2 (ja) * | 1997-10-23 | 2008-10-01 | カシオ計算機株式会社 | 通信システム及び該システムの制御方法 |
JP3611509B2 (ja) * | 1999-11-02 | 2005-01-19 | 株式会社国際電気通信基礎技術研究所 | 知識共有促進システム |
JP2001273473A (ja) * | 2000-03-24 | 2001-10-05 | Atr Media Integration & Communications Res Lab | 会話用エージェントおよびそれを用いる会話システム |
JP2002216026A (ja) | 2000-11-17 | 2002-08-02 | Sony Corp | 情報通信システム、エージェント端末、情報配信システム、エージェントプログラムが記憶された記憶媒体、エージェントアクセスプログラムが記憶された記憶媒体、専用処理プログラムが記憶された記憶媒体、エージェントプログラム、エージェントアクセスプログラム、及び、専用処理プログラム |
JP2002229795A (ja) * | 2001-01-31 | 2002-08-16 | Ntt Comware Corp | コミュニケーションサーバ、ならびに同サーバによるエージェント知識情報を用いたコミュニケーション方法 |
US20040107155A1 (en) * | 2002-11-29 | 2004-06-03 | Motorola, Inc. | Open adaptive service trading system and method thereof |
JP2006268597A (ja) * | 2005-03-25 | 2006-10-05 | Nec Corp | 情報配信装置,情報配信システム及び情報配信プログラム |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US20090248505A1 (en) * | 2008-03-28 | 2009-10-01 | Microsoft Corporation | User-controlled profile for customized advertisements |
JP2010129033A (ja) | 2008-12-01 | 2010-06-10 | Nippon Telegr & Teleph Corp <Ntt> | 対話心理学習装置とその方法、対話制御装置とその方法、プログラムと記録媒体 |
WO2011089450A2 (en) | 2010-01-25 | 2011-07-28 | Andrew Peter Nelson Jerram | Apparatuses, methods and systems for a digital conversation management platform |
JP2013047972A (ja) | 2012-10-19 | 2013-03-07 | A Visel Thomas | 人間の脳の電子的なエミュレーションに心理学的な気質を取り入れるための方法 |
US9691107B2 (en) * | 2013-02-26 | 2017-06-27 | Philip Scott Lyren | Exchanging personal information to determine a common interest |
JP2014219594A (ja) | 2013-05-09 | 2014-11-20 | ソフトバンクモバイル株式会社 | 会話処理システム及びプログラム |
US20140355389A1 (en) * | 2013-05-29 | 2014-12-04 | Nokia Corporation | Method and apparatus for establishing device communication |
US9830044B2 (en) * | 2013-12-31 | 2017-11-28 | Next It Corporation | Virtual assistant team customization |
US20160071517A1 (en) * | 2014-09-09 | 2016-03-10 | Next It Corporation | Evaluating Conversation Data based on Risk Factors |
US20180005221A1 (en) * | 2016-07-01 | 2018-01-04 | Samsung Electronics Co., Ltd. | System and method for transaction based on license plate number |
-
2017
- 2017-01-20 WO PCT/JP2017/001871 patent/WO2018134960A1/ja active Application Filing
- 2017-01-20 US US16/475,199 patent/US11107471B2/en active Active
- 2017-01-20 JP JP2018562820A patent/JP6800249B2/ja active Active
- 2017-01-20 DE DE112017006878.9T patent/DE112017006878T5/de active Pending
Also Published As
Publication number | Publication date |
---|---|
DE112017006878T5 (de) | 2019-10-24 |
JPWO2018134960A1 (ja) | 2019-11-07 |
US11107471B2 (en) | 2021-08-31 |
WO2018134960A1 (ja) | 2018-07-26 |
US20190318740A1 (en) | 2019-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6800249B2 (ja) | 会話処理サーバー、会話処理サーバーの制御方法、及び端末 | |
US20170349184A1 (en) | Speech-based group interactions in autonomous vehicles | |
US20170352267A1 (en) | Systems for providing proactive infotainment at autonomous-driving vehicles | |
JP2018169705A (ja) | 車両運転支援システム及び車両運転支援方法 | |
JP6655726B2 (ja) | 情報提供装置、及び移動体 | |
JP6575932B2 (ja) | 車両運転支援システム | |
JP2018169704A (ja) | 車両運転支援システム及び車両運転支援方法 | |
WO2013080375A1 (ja) | 情報入力装置、情報提供装置及び情報提供システム | |
JP2018169706A (ja) | 車両運転支援システム | |
CN107888653A (zh) | 发话装置、沟通装置和移动体 | |
JP6575933B2 (ja) | 車両運転支援システム | |
JP2019139354A (ja) | 情報提供装置及び情報提供方法 | |
JP2020095475A (ja) | マッチング方法、マッチングサーバ、マッチングシステム、およびプログラム | |
CN111750885B (zh) | 控制装置、控制方法以及存储程序的存储介质 | |
JP6552548B2 (ja) | 地点提案装置及び地点提案方法 | |
JP2018169703A (ja) | 車両運転支援システム及び車両運転支援方法 | |
JP6657415B2 (ja) | 情報提供装置、及び移動体 | |
US11074915B2 (en) | Voice interaction device, control method for voice interaction device, and non-transitory recording medium storing program | |
JP6607223B2 (ja) | 車両運転支援システム及び車両運転支援方法 | |
JP6579493B2 (ja) | 車両運転支援システム | |
JP6579495B2 (ja) | 車両運転支援システム | |
JP6642401B2 (ja) | 情報提供システム | |
KR20220167829A (ko) | 가상 운전자 서비스를 제공하는 장치, 방법 및 사용자 단말 | |
JP7386739B2 (ja) | 表示制御装置、表示制御方法、およびプログラム | |
JP7394674B2 (ja) | 表示制御装置、表示制御方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190620 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200818 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201014 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201027 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6800249 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |