JP2020052993A - 人工知能システム及びインタラクティブ応答方法 - Google Patents
人工知能システム及びインタラクティブ応答方法 Download PDFInfo
- Publication number
- JP2020052993A JP2020052993A JP2018227981A JP2018227981A JP2020052993A JP 2020052993 A JP2020052993 A JP 2020052993A JP 2018227981 A JP2018227981 A JP 2018227981A JP 2018227981 A JP2018227981 A JP 2018227981A JP 2020052993 A JP2020052993 A JP 2020052993A
- Authority
- JP
- Japan
- Prior art keywords
- input data
- server
- user
- states
- response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0015—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
- A61B5/002—Monitoring the patient using a local or closed circuit, e.g. in a room or building
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0015—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
- A61B5/0022—Monitoring a patient using a global network, e.g. telephone networks, internet
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/448—Execution paradigms, e.g. implementations of programming paradigms
- G06F9/4498—Finite state machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Databases & Information Systems (AREA)
- Psychiatry (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Mining & Analysis (AREA)
- Social Psychology (AREA)
- General Business, Economics & Management (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- Child & Adolescent Psychology (AREA)
- Epidemiology (AREA)
- Computer Graphics (AREA)
- Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
Abstract
【課題】より良いユーザエクスペリエンスを提供する人工知能(AI)システム及びインタラクティブ応答方法を提供すること。【解決手段】人工知能(AI)システムは、ユーザからの第1の入力データを受信し、前記第1の入力データが複数の変動条件のうちの任意の1つの変動条件に従っているかどうかを判定するよう構成されている第1のサーバと、前記第1のサーバに接続され、前記第1の入力データが前記複数の変動条件のうちの任意の1つの変動条件に従っているときには、前記第1のサーバから第2の入力データを受信し、前記ユーザからの前記第1の入力データに応答して複数のインタラクションを決定するよう構成されている第2のサーバと、を含み、前記ユーザからの前記第1の入力データは、前記ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きに関連する。【選択図】図2
Description
本発明は、人工知能(AI)システム及びインタラクティブ応答方法に関し、より詳細には、ゲームAIをインタラクティブAIと融合させることができるAIシステム及びインタラクティブ応答方法に関する。
技術の進歩及び発展により、コンピュータシステムとユーザとの間のインタラクションの需要が増している。例えば、体性感覚ゲーム、仮想現実(VR)環境、拡張現実(AR及び拡大現実(XR)環境といったヒューマンコンピュータインタラクション技術が、その生理学的で娯楽的な機能を理由として、人気になっている。上述した仮想環境において、ノンプレイヤーキャラクター(NPC)アバター等のNPCが、ユーザを助けるために作成される。NPCは、ユーザからの単純なメッセージ又は質問に応答又は反応すること等、NPCがユーザとインタラクトすることを可能にするゲーム人工知能(AI)により組み込まれるが、現在のNPCは、仮想環境においてテキスト又は語に制限される単純な質問又はマシン応答をもって応じることしかできない。
しかしながら、ユーザは、仮想環境において、例えば、発言、顔面表情、身体の動き及びジェスチャといった全ての種類の方法で表現し得るので、このような状況下において、ユーザに対してインタラクティブであることが可能でない又は人間のようなNPCであることが可能でない、仮想環境におけるNPCは、ユーザエクスペリエンスに影響を及ぼす。
したがって、本発明は、ユーザにとってよりインタラクティブであるように仮想環境におけるNPCを改善し、より良いユーザエクスペリエンスを提供する人工知能システム及びインタラクティブ応答方法を提供する。
本発明は、人工知能(AI)システムであって、
ユーザからの第1の入力データを受信し、前記第1の入力データが複数の変動条件(variation conditions)のうちの任意の1つの変動条件に従っているかどうかを判定するよう構成されている第1のサーバと、
前記第1のサーバに接続され、前記第1の入力データが前記複数の変動条件のうちの任意の1つの変動条件に従っているときには、前記第1のサーバから第2の入力データを受信し、前記ユーザからの前記第1の入力データに応答して複数のインタラクションを決定するよう構成されている第2のサーバと、
を含み、
前記ユーザからの前記第1の入力データは、前記ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きに関連する、AIシステム、
を開示する。
ユーザからの第1の入力データを受信し、前記第1の入力データが複数の変動条件(variation conditions)のうちの任意の1つの変動条件に従っているかどうかを判定するよう構成されている第1のサーバと、
前記第1のサーバに接続され、前記第1の入力データが前記複数の変動条件のうちの任意の1つの変動条件に従っているときには、前記第1のサーバから第2の入力データを受信し、前記ユーザからの前記第1の入力データに応答して複数のインタラクションを決定するよう構成されている第2のサーバと、
を含み、
前記ユーザからの前記第1の入力データは、前記ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きに関連する、AIシステム、
を開示する。
本発明は、人工知能(AI)システムのインタラクティブ応答方法であって、
第1のサーバが、ユーザからの第1の入力データを受信し、前記第1の入力データが複数の変動条件のうちの任意の1つの変動条件に従っているかどうかを判定することと、
前記第1の入力データが前記複数の変動条件のうちの任意の1つの変動条件に従っているときには、第2のサーバが、前記第1のサーバから第2の入力データを受信し、前記ユーザからの前記第1の入力データに応答して複数のインタラクションを決定することと、
を含み、
前記ユーザからの前記第1の入力データは、前記ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きに関連する、インタラクティブ応答方法、
をさらに開示する。
第1のサーバが、ユーザからの第1の入力データを受信し、前記第1の入力データが複数の変動条件のうちの任意の1つの変動条件に従っているかどうかを判定することと、
前記第1の入力データが前記複数の変動条件のうちの任意の1つの変動条件に従っているときには、第2のサーバが、前記第1のサーバから第2の入力データを受信し、前記ユーザからの前記第1の入力データに応答して複数のインタラクションを決定することと、
を含み、
前記ユーザからの前記第1の入力データは、前記ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きに関連する、インタラクティブ応答方法、
をさらに開示する。
本発明のこれらの目的及び他の目的は、様々な図に例示されている好ましい実施形態の以下の詳細な説明を読んだ後、当業者に疑いなく明らかになるであろう。
本発明の一実施形態に従った人工知能(AI)システム10の概略図である図1を参照すると、AIシステム10は、第1のサーバ102、第2のサーバ104、及び第3のサーバ106を含む。第1のサーバ102は、ユーザからの第1の入力データを受信し、第1の入力データが複数の変動条件のうちの任意の1つの変動条件に従っているかどうかを判定するよう構成されている。一実施形態において、第1のサーバ102は、ゲームAIサーバであり得、仮想環境において、ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、メッセージ、身体のジェスチャ、又は身体の動き等、ユーザからの情報を受信し、次いで、ゲームAIサーバは、ユーザが生じさせたこの情報が変動条件に従っているかどうかを判定する。第2のサーバ104は、第1の入力データが変動条件に従っているときには、第1のサーバ104から第2の入力データを受信し、ユーザからの第1の入力データに応答して複数のインタラクションを決定するよう構成されている。注目すべきことに、第1の入力データと第2の入力データとは同じであってよい。一実施形態において、第2のサーバ104は、チャットボットサーバであり得、ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、メッセージ、身体のジェスチャ、又は身体の動きに応答して複数のインタラクションを決定する。複数のインタラクションが決定された後、第1のサーバ102は、ノンプレイヤーキャラクター(NPC)を介して、複数のインタラクションに対応する複数のアクションを示す。第3のサーバ106は、第1の入力データに応答して、複数のインタラクションについて、ユーザ及びNPCの複数の状態を取得及び記憶するデータアプリケーションプログラミングインタフェース(API)サーバを含み得る。詳細には、第3のサーバ106は、ユーザとNPCとの間の友情値(friendship value)、ユーザのスポーツ嗜好値(sport preference value)、又はNPCの幸福値(happiness value)等、ノンプレイヤーキャラクターを介して示されるインタラクションに対応する、ユーザの状態を記憶する。一実施形態において、第3のサーバ106は、ユーザがバスケットボールよりサッカーを好むことを、データベースに記憶することができる。したがって、本発明のAIシステム10は、発言、顔面表情、身体の動き及びジェスチャにより、NPCを介してユーザとインタラクトするように、ゲームAIサーバ(すなわち第1のサーバ102)をチャットボットサーバ(すなわち第2のサーバ104)と連携させる。
上述した例は、本発明のAIシステム10が、仮想環境においてユーザとコミュニケーションするためのよりインテリジェントでインタラクティブな方法を提供することを簡潔に説明している。なお、当業者であれば、適切な変更を行うことができるであろう。例えば、第1のサーバ102及び第2のサーバ104はそれぞれ、ゲームAIサーバ及びチャットボットサーバにより実現されるように限定されるものではなく、以下に限定されるものではないが、ユーザに応答してインタラクション及びアクションを決定するために、ユーザが生じさせた情報を分析又は理解することができる他の種類のサーバが利用されてもよい。
詳細には、第1のサーバ102は、プリプロセッサ108及び有限状態機械FSMを含む。プリプロセッサ108は、第1の入力データと第2のサーバ104により生成された複数のインタラクションとに応じて第3の入力データを生成する。FSMは、第3の入力データに応じて複数の状態を変更し、ここで、複数の状態は、複数のインタラクションに対応する。より具体的には、本発明の一実施形態に従った人工知能システム10の動作プロセスの概略図である図2を参照する。第1のサーバ102は、発言、動き、又はジェスチャ等、ユーザが生じさせた第1の入力データを受信し、次いで、第1のサーバ102は、仮想環境におけるユーザとNPCとの間の距離が1メートル未満であるかどうか等、第1の入力データが複数の変動条件のうちの任意の1つの変動条件に従っているかどうかを判定する。変動条件が満たされているときには、例えば、ユーザとNPCとの間の距離が1メートル未満であるときには、第1のサーバ102は、第2の入力データを第2のサーバ104に転送する。そして、第2のサーバ104は、ユーザが生じさせた発言、動き、又はジェスチャに応じた第1の入力データに応答してインタラクションを決定する。一実施形態において、第3のサーバ106は、第2のサーバ104により決定された、第1の入力データに対応するインタラクションを記憶し、第1のサーバ102及び第2のサーバ104とともに、インタラクションを更新する。プリプロセッサ108が、第2のサーバ104から、第1の入力データに対応するインタラクションを受信した後、プリプロセッサ108は、第3の入力データを生成する。第1のサーバ102のFSMは、さらに、対応するアクションを生成し、FSMの状態が第3の入力データに応じて変更されるときに(例えば、FSMの感情状態が嬉しいから怒っているに変更されるときに)、対応するアクションをユーザに示すようにNPCを制御する。さらに、FSMは、第1のサーバ102に対してFSMの状態を更新する。このようにして、ユーザは、仮想環境において、よりインタラクティブにNPCとインタラクトすることができる。とりわけ、ユーザからの第1の入力データは、ユーザが生じさせたテキスト、発言、動き、ジェスチャ、又は感情に関連するが、これらに限定されるものではない。
別の実施形態において、ユーザが生じさせた第1の入力データが変動条件のうちのいずれの変動条件にも従っていないときには、第1のサーバ102のFSMは、第1の入力データを直接評価し、第1の入力データに対する対応するアクションを生成することができる。より詳細には、ユーザが、コマンド、自己紹介、又は道路方向等の重要な質問をNPCに尋ねたときに、第1のサーバ102のFSMは、参照のために第3のサーバ106を直接ルックアップし、質問に対する対応するアクションを決定することができる。一実施形態において、ユーザが、音楽又はビデオを再生するようにAIシステム10に要求したときに、第1のサーバ102のFSMは、対応するアクションを直接生成し、音楽又はビデオを再生することができる。この例において、第1のサーバ102は、インタラクションのさらなる決定のために、第1の入力データを第2のサーバに転送しない。なぜならば、変動条件のうちのいずれの変動条件も満たされていないからである。
ユーザが生じさせた第1の入力データは、ユーザのテキスト、発言、動き、ジェスチャ、又は感情に関連するので、AIシステム10の第2のサーバ104は、それに応じてNPCを介して示されるアクション又は感情を制御することができる。仮想環境の使用シナリオにおいて、ユーザが、NPCまで能動的に歩いて会話するときには、又は、ユーザが、静止したままであり、6秒以上NPCを見つめているときには、プリプロセッサ108は、FSMの状態に応じて、NPCが、ユーザまで能動的に歩いて会話することを決定する。あるいは、ユーザが、4回以上NPCのそばを歩いたときには、プリプロセッサ108は、それに応じて、NPCが、ユーザまで能動的に歩いてユーザに理由を尋ねることを決定する。
上述したアクションに加えて、FSMは、ユーザに対するアクションを、ジェスチャ、動き、又は感情をもって、決定することができる。一例において、ユーザが、NPCから離れすぎているときには、近づくようにユーザに要求することについてのアクションを、手を振る動きをもって、決定することができる。別の例において、ユーザが、仮想環境において、NPCにタッチ又は接触しようと試みたときには、FSMは、ユーザに止めさせるアクションを、発言をもって、又は、ユーザを退けるアクションを、怒りをもって、決定することができる。あるいは、さらに別の例において、FSMは、ユーザと同意するときには、NPCの口を覆うアクションを決定することができる。
異なる用途及び設計コンセプトに基づいて、本発明のAIシステム10は、全ての種類の方法で実現され得る。さらに、AIシステム10の動作プロセスは、図3に示されているインタラクティブ応答方法30で締めくくられる。インタラクティブ応答方法30は、以下のステップを含む。
ステップ302:開始。
ステップ304:第1のサーバ102が、ユーザからの第1の入力データを受信し、第1の入力データが変動条件のうちの任意の1つの変動条件に従っているかどうかを判定する。そうである(Yesである)場合、ステップ306を実行し、そうでない(Noである)場合、ステップ308を実行する。
ステップ306:第1の入力データが変動条件のうちの任意の1つの変動条件に従っているときには、第2のサーバ104が、第1のサーバ102から第2の入力データを受信し、ユーザからの第1の入力データに応答して複数のインタラクションを決定する。
ステップ308:プリプロセッサ108が、第1の入力データと第2のサーバ104により生成された複数のインタラクションとに応じて第3の入力データを生成する。
ステップ310:FSMが、第3の入力データに応じて状態を変更する。
ステップ312:終了。
インタラクティブ応答プロセス30の詳細については、AIシステム10の上述した実施形態が参照され得、簡潔さのためにここでは説明されない。
なお、上述した実施形態は、本発明のコンセプトを例示しており、当業者であれば、限定されるものではないが、適宜に適切な変更を行うことができるであろう。例えば、変動条件は、ユーザ又は製造業者の指示、コンピュータシステムの設定、第3のサーバのデータベースDBに記憶されているインタラクション又はアクションに応じて変更又は調整され得るが、これらに限定されるものではなく、これらは全て、本発明の範囲に属する。
まとめると、本発明は、NPCが、発言、身体のジェスチャ、及び感情を伴ってユーザとインタラクトできるように、ユーザにとってよりインタラクティブであるように仮想環境におけるNPCを改善し、より良いユーザエクスペリエンスを提供する人工知能システム及びインタラクティブ応答方法を提供する。
本発明の教示を保持している間に、デバイス及び方法の多数の変更及び変形が可能であることが、当業者であれば容易に認識されよう。したがって、上記の開示は、請求項の範囲及び境界によってのみ限定されるとして解釈されるべきである。
102 第1のサーバ
104 第2のサーバ
106 第3のサーバ
108 プリプロセッサ
104 第2のサーバ
106 第3のサーバ
108 プリプロセッサ
Claims (10)
- 人工知能(AI)システムであって、
ユーザからの第1の入力データを受信し、前記第1の入力データが複数の変動条件のうちの任意の1つの変動条件に従っているかどうかを判定するよう構成されている第1のサーバと、
前記第1のサーバに接続され、前記第1の入力データが前記複数の変動条件のうちの任意の1つの変動条件に従っているときには、前記第1のサーバから第2の入力データを受信し、前記ユーザからの前記第1の入力データに応答して複数のインタラクションを決定するよう構成されている第2のサーバと、
を含み、
前記ユーザからの前記第1の入力データは、前記ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きに関連する、AIシステム。 - 前記第1のサーバは、
前記第1の入力データと前記第2のサーバにより生成された前記複数のインタラクションとに応じて第3の入力データを生成するよう構成されているプリプロセッサと、
前記第3の入力データに応じて複数の状態を変更するよう構成されている有限状態機械と、
を含み、
前記複数の状態は、複数のアクションに対応する、請求項1記載のAIシステム。 - 前記第1のサーバは、ノンプレイヤーキャラクターを介して、前記複数のアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きを示す、請求項2記載のAIシステム。
- 前記第2のサーバに接続され、前記第1の入力データに応答して、前記複数のアクション、インタラクション、複数のNPC状態、及び複数のユーザ状態を取得及び記憶するよう構成されている第3のサーバ
をさらに含む、請求項2記載のAIシステム。 - 前記第3のサーバは、前記第1のサーバ及び前記第2のサーバとともに、前記第1の入力データに応答して、前記複数のアクション、インタラクション、NPC状態、及びユーザ状態を更新する、請求項4記載のAIシステム。
- 人工知能(AI)システムのインタラクティブ応答方法であって、
第1のサーバが、ユーザからの第1の入力データを受信し、前記第1の入力データが複数の変動条件のうちの任意の1つの変動条件に従っているかどうかを判定することと、
前記第1の入力データが前記複数の変動条件のうちの任意の1つの変動条件に従っているときには、第2のサーバが、前記第1のサーバから第2の入力データを受信し、前記ユーザからの前記第1の入力データに応答して複数のインタラクションを決定することと、
を含み、
前記ユーザからの前記第1の入力データは、前記ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きに関連する、インタラクティブ応答方法。 - プリプロセッサが、前記第1の入力データと前記第2のサーバにより生成された前記複数のインタラクションとに応じて第3の入力データを生成することと、
有限状態機械が、前記第3の入力データに応じて複数の状態を変更することと、
をさらに含み、
前記複数の状態は、複数のアクションに対応する、請求項6記載のインタラクティブ応答方法。 - 前記第1のサーバは、ノンプレイヤーキャラクターを介して、前記複数のアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きを示す、請求項7記載のインタラクティブ応答方法。
- 第3のサーバが、前記第1の入力データに応答して、前記複数のアクション、インタラクション、複数のNPC状態、及び複数のユーザ状態を取得及び記憶すること
をさらに含む、請求項7記載のインタラクティブ応答方法。 - 前記第3のサーバは、前記第1のサーバ及び前記第2のサーバとともに、前記第1の入力データに応答して、前記複数のアクション、インタラクション、NPC状態、及びユーザ状態を更新する、請求項9記載のインタラクティブ応答方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/140,552 US10606345B1 (en) | 2018-09-25 | 2018-09-25 | Reality interactive responding system and reality interactive responding method |
US16/140,552 | 2018-09-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020052993A true JP2020052993A (ja) | 2020-04-02 |
Family
ID=65003083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018227981A Pending JP2020052993A (ja) | 2018-09-25 | 2018-12-05 | 人工知能システム及びインタラクティブ応答方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10606345B1 (ja) |
EP (1) | EP3629130A1 (ja) |
JP (1) | JP2020052993A (ja) |
CN (1) | CN110941329A (ja) |
TW (1) | TWI698771B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023073991A1 (ja) * | 2021-11-01 | 2023-05-04 | 日本電信電話株式会社 | 情報処理システム、サーバ装置、情報処理方法およびプログラム |
WO2023162044A1 (ja) * | 2022-02-22 | 2023-08-31 | 日本電信電話株式会社 | 切り替え方法、切り替えシステム及び切り替えプログラム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11521642B2 (en) * | 2020-09-11 | 2022-12-06 | Fidelity Information Services, Llc | Systems and methods for classification and rating of calls based on voice and text analysis |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1138006A2 (en) | 1998-11-19 | 2001-10-04 | Accenture LLP | A system, method and article of manufacture for effectively interacting with a network user |
US9317110B2 (en) * | 2007-05-29 | 2016-04-19 | Cfph, Llc | Game with hand motion control |
US9400548B2 (en) * | 2009-10-19 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture personalization and profile roaming |
CN103843028B (zh) | 2011-08-01 | 2021-01-19 | 英特尔公司 | 见证的自主uService |
US9251504B2 (en) | 2011-08-29 | 2016-02-02 | Avaya Inc. | Configuring a virtual reality environment in a contact center |
US9448636B2 (en) * | 2012-04-18 | 2016-09-20 | Arb Labs Inc. | Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices |
US20140047316A1 (en) * | 2012-08-10 | 2014-02-13 | Vimbli, Inc. | Method and system to create a personal priority graph |
CN103593546B (zh) | 2012-08-17 | 2015-03-18 | 腾讯科技(深圳)有限公司 | 一种无动态阻挡网络游戏系统及其处理方法 |
US9008283B2 (en) | 2013-03-15 | 2015-04-14 | Genesys Telecommunications Laboratories, Inc. | Customer portal of an intelligent automated agent for a contact center |
CN104225918A (zh) * | 2013-06-06 | 2014-12-24 | 苏州蜗牛数字科技股份有限公司 | 基于网络游戏的npc自主反馈交互方法 |
US20170228034A1 (en) * | 2014-09-26 | 2017-08-10 | Thomson Licensing | Method and apparatus for providing interactive content |
JP6598369B2 (ja) * | 2014-12-04 | 2019-10-30 | 株式会社トランスボイス・オンライン | 音声管理サーバー装置 |
CN105975622B (zh) * | 2016-05-28 | 2020-12-29 | 福州云之智网络科技有限公司 | 多角色智能聊天的方法及系统 |
WO2018006370A1 (zh) * | 2016-07-07 | 2018-01-11 | 深圳狗尾草智能科技有限公司 | 一种虚拟3d机器人的交互方法、系统及机器人 |
US10089521B2 (en) * | 2016-09-02 | 2018-10-02 | VeriHelp, Inc. | Identity verification via validated facial recognition and graph database |
US10133916B2 (en) * | 2016-09-07 | 2018-11-20 | Steven M. Gottlieb | Image and identity validation in video chat events |
KR101889279B1 (ko) | 2017-01-16 | 2018-08-21 | 주식회사 케이티 | 음성 명령에 기반하여 서비스를 제공하는 시스템 및 방법 |
US20190236416A1 (en) * | 2018-01-31 | 2019-08-01 | Microsoft Technology Licensing, Llc | Artificial intelligence system utilizing microphone array and fisheye camera |
-
2018
- 2018-09-25 US US16/140,552 patent/US10606345B1/en active Active
- 2018-12-05 JP JP2018227981A patent/JP2020052993A/ja active Pending
- 2018-12-12 TW TW107144751A patent/TWI698771B/zh active
- 2018-12-15 EP EP18212823.1A patent/EP3629130A1/en not_active Ceased
- 2018-12-17 CN CN201811539859.4A patent/CN110941329A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023073991A1 (ja) * | 2021-11-01 | 2023-05-04 | 日本電信電話株式会社 | 情報処理システム、サーバ装置、情報処理方法およびプログラム |
WO2023162044A1 (ja) * | 2022-02-22 | 2023-08-31 | 日本電信電話株式会社 | 切り替え方法、切り替えシステム及び切り替えプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20200097067A1 (en) | 2020-03-26 |
CN110941329A (zh) | 2020-03-31 |
TW202013146A (zh) | 2020-04-01 |
US10606345B1 (en) | 2020-03-31 |
EP3629130A1 (en) | 2020-04-01 |
TWI698771B (zh) | 2020-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11452941B2 (en) | Emoji-based communications derived from facial features during game play | |
US9285951B2 (en) | Avatar personalization in a virtual environment | |
JP2020052993A (ja) | 人工知能システム及びインタラクティブ応答方法 | |
US20140128166A1 (en) | Game enhancement system for gaming environment | |
KR101851356B1 (ko) | 3d 디지털액터에 의한 지능형 사용자 인터페이스 제공방법 | |
AU2014268811A1 (en) | Attributing user action based on biometric identity | |
WO2015153878A1 (en) | Modeling social identity in digital media with dynamic group membership | |
US11579752B1 (en) | Augmented reality placement for user feedback | |
US20230009454A1 (en) | Digital character with dynamic interactive behavior | |
Apperley et al. | Flipping out: Avatars and identity | |
US20220241688A1 (en) | Method, Apparatus, GUIs and APIs For A User Experience Design Related To Hands-Free Gaming Accessibility | |
US10699462B1 (en) | Character morphing system | |
Pugliese et al. | A framework for motion based bodily enaction with virtual characters | |
CN111643903A (zh) | 云游戏的控制方法、装置、电子设备以及存储介质 | |
Hingston et al. | Mobile games with intelligence: A killer application? | |
CN114995927A (zh) | 信息显示处理方法、装置、终端及存储介质 | |
Roy et al. | Anxious postcolonial masculinity in online video games: race, gender and colonialism in Indian digital spaces | |
CN112807688A (zh) | 游戏内表情设置方法、装置、处理器及电子装置 | |
Wanick et al. | Digital interactions and brand experience design: A future perspective | |
WO2024060888A1 (zh) | 虚拟场景的交互处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
US20240091650A1 (en) | Systems and methods for modifying user sentiment for playing a game | |
US20240066413A1 (en) | Ai streamer with feedback to ai streamer based on spectators | |
US20230381649A1 (en) | Method and system for automatically controlling user interruption during game play of a video game | |
KR102170825B1 (ko) | 게임 제어 장치 및 방법 | |
KR20230071944A (ko) | 인터랙티브 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200225 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200522 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200616 |