JP2020052993A - 人工知能システム及びインタラクティブ応答方法 - Google Patents

人工知能システム及びインタラクティブ応答方法 Download PDF

Info

Publication number
JP2020052993A
JP2020052993A JP2018227981A JP2018227981A JP2020052993A JP 2020052993 A JP2020052993 A JP 2020052993A JP 2018227981 A JP2018227981 A JP 2018227981A JP 2018227981 A JP2018227981 A JP 2018227981A JP 2020052993 A JP2020052993 A JP 2020052993A
Authority
JP
Japan
Prior art keywords
input data
server
user
states
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018227981A
Other languages
English (en)
Inventor
永明 周
yong ming Zhou
永明 周
峰森 朱
feng sen Zhu
峰森 朱
政緯 李
Cheng-Wei Lee
政緯 李
▲いー▼臣 ▲頼▼
▲いー▼臣 ▲頼▼
Yu-Chen Lai
銓彰 王
Quan Zhang Wang
銓彰 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Publication of JP2020052993A publication Critical patent/JP2020052993A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/002Monitoring the patient using a local or closed circuit, e.g. in a room or building
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/448Execution paradigms, e.g. implementations of programming paradigms
    • G06F9/4498Finite state machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Databases & Information Systems (AREA)
  • Psychiatry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Social Psychology (AREA)
  • General Business, Economics & Management (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Epidemiology (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】より良いユーザエクスペリエンスを提供する人工知能(AI)システム及びインタラクティブ応答方法を提供すること。【解決手段】人工知能(AI)システムは、ユーザからの第1の入力データを受信し、前記第1の入力データが複数の変動条件のうちの任意の1つの変動条件に従っているかどうかを判定するよう構成されている第1のサーバと、前記第1のサーバに接続され、前記第1の入力データが前記複数の変動条件のうちの任意の1つの変動条件に従っているときには、前記第1のサーバから第2の入力データを受信し、前記ユーザからの前記第1の入力データに応答して複数のインタラクションを決定するよう構成されている第2のサーバと、を含み、前記ユーザからの前記第1の入力データは、前記ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きに関連する。【選択図】図2

Description

本発明は、人工知能(AI)システム及びインタラクティブ応答方法に関し、より詳細には、ゲームAIをインタラクティブAIと融合させることができるAIシステム及びインタラクティブ応答方法に関する。
技術の進歩及び発展により、コンピュータシステムとユーザとの間のインタラクションの需要が増している。例えば、体性感覚ゲーム、仮想現実(VR)環境、拡張現実(AR及び拡大現実(XR)環境といったヒューマンコンピュータインタラクション技術が、その生理学的で娯楽的な機能を理由として、人気になっている。上述した仮想環境において、ノンプレイヤーキャラクター(NPC)アバター等のNPCが、ユーザを助けるために作成される。NPCは、ユーザからの単純なメッセージ又は質問に応答又は反応すること等、NPCがユーザとインタラクトすることを可能にするゲーム人工知能(AI)により組み込まれるが、現在のNPCは、仮想環境においてテキスト又は語に制限される単純な質問又はマシン応答をもって応じることしかできない。
しかしながら、ユーザは、仮想環境において、例えば、発言、顔面表情、身体の動き及びジェスチャといった全ての種類の方法で表現し得るので、このような状況下において、ユーザに対してインタラクティブであることが可能でない又は人間のようなNPCであることが可能でない、仮想環境におけるNPCは、ユーザエクスペリエンスに影響を及ぼす。
したがって、本発明は、ユーザにとってよりインタラクティブであるように仮想環境におけるNPCを改善し、より良いユーザエクスペリエンスを提供する人工知能システム及びインタラクティブ応答方法を提供する。
本発明は、人工知能(AI)システムであって、
ユーザからの第1の入力データを受信し、前記第1の入力データが複数の変動条件(variation conditions)のうちの任意の1つの変動条件に従っているかどうかを判定するよう構成されている第1のサーバと、
前記第1のサーバに接続され、前記第1の入力データが前記複数の変動条件のうちの任意の1つの変動条件に従っているときには、前記第1のサーバから第2の入力データを受信し、前記ユーザからの前記第1の入力データに応答して複数のインタラクションを決定するよう構成されている第2のサーバと、
を含み、
前記ユーザからの前記第1の入力データは、前記ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きに関連する、AIシステム、
を開示する。
本発明は、人工知能(AI)システムのインタラクティブ応答方法であって、
第1のサーバが、ユーザからの第1の入力データを受信し、前記第1の入力データが複数の変動条件のうちの任意の1つの変動条件に従っているかどうかを判定することと、
前記第1の入力データが前記複数の変動条件のうちの任意の1つの変動条件に従っているときには、第2のサーバが、前記第1のサーバから第2の入力データを受信し、前記ユーザからの前記第1の入力データに応答して複数のインタラクションを決定することと、
を含み、
前記ユーザからの前記第1の入力データは、前記ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きに関連する、インタラクティブ応答方法、
をさらに開示する。
本発明のこれらの目的及び他の目的は、様々な図に例示されている好ましい実施形態の以下の詳細な説明を読んだ後、当業者に疑いなく明らかになるであろう。
本発明の一実施形態に従った人工知能システムの概略図。 本発明の一実施形態に従った人工知能システムの動作プロセスの概略図。 本発明の一実施形態に従ったインタラクティブ応答プロセスの概略図。
本発明の一実施形態に従った人工知能(AI)システム10の概略図である図1を参照すると、AIシステム10は、第1のサーバ102、第2のサーバ104、及び第3のサーバ106を含む。第1のサーバ102は、ユーザからの第1の入力データを受信し、第1の入力データが複数の変動条件のうちの任意の1つの変動条件に従っているかどうかを判定するよう構成されている。一実施形態において、第1のサーバ102は、ゲームAIサーバであり得、仮想環境において、ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、メッセージ、身体のジェスチャ、又は身体の動き等、ユーザからの情報を受信し、次いで、ゲームAIサーバは、ユーザが生じさせたこの情報が変動条件に従っているかどうかを判定する。第2のサーバ104は、第1の入力データが変動条件に従っているときには、第1のサーバ104から第2の入力データを受信し、ユーザからの第1の入力データに応答して複数のインタラクションを決定するよう構成されている。注目すべきことに、第1の入力データと第2の入力データとは同じであってよい。一実施形態において、第2のサーバ104は、チャットボットサーバであり得、ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、メッセージ、身体のジェスチャ、又は身体の動きに応答して複数のインタラクションを決定する。複数のインタラクションが決定された後、第1のサーバ102は、ノンプレイヤーキャラクター(NPC)を介して、複数のインタラクションに対応する複数のアクションを示す。第3のサーバ106は、第1の入力データに応答して、複数のインタラクションについて、ユーザ及びNPCの複数の状態を取得及び記憶するデータアプリケーションプログラミングインタフェース(API)サーバを含み得る。詳細には、第3のサーバ106は、ユーザとNPCとの間の友情値(friendship value)、ユーザのスポーツ嗜好値(sport preference value)、又はNPCの幸福値(happiness value)等、ノンプレイヤーキャラクターを介して示されるインタラクションに対応する、ユーザの状態を記憶する。一実施形態において、第3のサーバ106は、ユーザがバスケットボールよりサッカーを好むことを、データベースに記憶することができる。したがって、本発明のAIシステム10は、発言、顔面表情、身体の動き及びジェスチャにより、NPCを介してユーザとインタラクトするように、ゲームAIサーバ(すなわち第1のサーバ102)をチャットボットサーバ(すなわち第2のサーバ104)と連携させる。
上述した例は、本発明のAIシステム10が、仮想環境においてユーザとコミュニケーションするためのよりインテリジェントでインタラクティブな方法を提供することを簡潔に説明している。なお、当業者であれば、適切な変更を行うことができるであろう。例えば、第1のサーバ102及び第2のサーバ104はそれぞれ、ゲームAIサーバ及びチャットボットサーバにより実現されるように限定されるものではなく、以下に限定されるものではないが、ユーザに応答してインタラクション及びアクションを決定するために、ユーザが生じさせた情報を分析又は理解することができる他の種類のサーバが利用されてもよい。
詳細には、第1のサーバ102は、プリプロセッサ108及び有限状態機械FSMを含む。プリプロセッサ108は、第1の入力データと第2のサーバ104により生成された複数のインタラクションとに応じて第3の入力データを生成する。FSMは、第3の入力データに応じて複数の状態を変更し、ここで、複数の状態は、複数のインタラクションに対応する。より具体的には、本発明の一実施形態に従った人工知能システム10の動作プロセスの概略図である図2を参照する。第1のサーバ102は、発言、動き、又はジェスチャ等、ユーザが生じさせた第1の入力データを受信し、次いで、第1のサーバ102は、仮想環境におけるユーザとNPCとの間の距離が1メートル未満であるかどうか等、第1の入力データが複数の変動条件のうちの任意の1つの変動条件に従っているかどうかを判定する。変動条件が満たされているときには、例えば、ユーザとNPCとの間の距離が1メートル未満であるときには、第1のサーバ102は、第2の入力データを第2のサーバ104に転送する。そして、第2のサーバ104は、ユーザが生じさせた発言、動き、又はジェスチャに応じた第1の入力データに応答してインタラクションを決定する。一実施形態において、第3のサーバ106は、第2のサーバ104により決定された、第1の入力データに対応するインタラクションを記憶し、第1のサーバ102及び第2のサーバ104とともに、インタラクションを更新する。プリプロセッサ108が、第2のサーバ104から、第1の入力データに対応するインタラクションを受信した後、プリプロセッサ108は、第3の入力データを生成する。第1のサーバ102のFSMは、さらに、対応するアクションを生成し、FSMの状態が第3の入力データに応じて変更されるときに(例えば、FSMの感情状態が嬉しいから怒っているに変更されるときに)、対応するアクションをユーザに示すようにNPCを制御する。さらに、FSMは、第1のサーバ102に対してFSMの状態を更新する。このようにして、ユーザは、仮想環境において、よりインタラクティブにNPCとインタラクトすることができる。とりわけ、ユーザからの第1の入力データは、ユーザが生じさせたテキスト、発言、動き、ジェスチャ、又は感情に関連するが、これらに限定されるものではない。
別の実施形態において、ユーザが生じさせた第1の入力データが変動条件のうちのいずれの変動条件にも従っていないときには、第1のサーバ102のFSMは、第1の入力データを直接評価し、第1の入力データに対する対応するアクションを生成することができる。より詳細には、ユーザが、コマンド、自己紹介、又は道路方向等の重要な質問をNPCに尋ねたときに、第1のサーバ102のFSMは、参照のために第3のサーバ106を直接ルックアップし、質問に対する対応するアクションを決定することができる。一実施形態において、ユーザが、音楽又はビデオを再生するようにAIシステム10に要求したときに、第1のサーバ102のFSMは、対応するアクションを直接生成し、音楽又はビデオを再生することができる。この例において、第1のサーバ102は、インタラクションのさらなる決定のために、第1の入力データを第2のサーバに転送しない。なぜならば、変動条件のうちのいずれの変動条件も満たされていないからである。
ユーザが生じさせた第1の入力データは、ユーザのテキスト、発言、動き、ジェスチャ、又は感情に関連するので、AIシステム10の第2のサーバ104は、それに応じてNPCを介して示されるアクション又は感情を制御することができる。仮想環境の使用シナリオにおいて、ユーザが、NPCまで能動的に歩いて会話するときには、又は、ユーザが、静止したままであり、6秒以上NPCを見つめているときには、プリプロセッサ108は、FSMの状態に応じて、NPCが、ユーザまで能動的に歩いて会話することを決定する。あるいは、ユーザが、4回以上NPCのそばを歩いたときには、プリプロセッサ108は、それに応じて、NPCが、ユーザまで能動的に歩いてユーザに理由を尋ねることを決定する。
上述したアクションに加えて、FSMは、ユーザに対するアクションを、ジェスチャ、動き、又は感情をもって、決定することができる。一例において、ユーザが、NPCから離れすぎているときには、近づくようにユーザに要求することについてのアクションを、手を振る動きをもって、決定することができる。別の例において、ユーザが、仮想環境において、NPCにタッチ又は接触しようと試みたときには、FSMは、ユーザに止めさせるアクションを、発言をもって、又は、ユーザを退けるアクションを、怒りをもって、決定することができる。あるいは、さらに別の例において、FSMは、ユーザと同意するときには、NPCの口を覆うアクションを決定することができる。
異なる用途及び設計コンセプトに基づいて、本発明のAIシステム10は、全ての種類の方法で実現され得る。さらに、AIシステム10の動作プロセスは、図3に示されているインタラクティブ応答方法30で締めくくられる。インタラクティブ応答方法30は、以下のステップを含む。
ステップ302:開始。
ステップ304:第1のサーバ102が、ユーザからの第1の入力データを受信し、第1の入力データが変動条件のうちの任意の1つの変動条件に従っているかどうかを判定する。そうである(Yesである)場合、ステップ306を実行し、そうでない(Noである)場合、ステップ308を実行する。
ステップ306:第1の入力データが変動条件のうちの任意の1つの変動条件に従っているときには、第2のサーバ104が、第1のサーバ102から第2の入力データを受信し、ユーザからの第1の入力データに応答して複数のインタラクションを決定する。
ステップ308:プリプロセッサ108が、第1の入力データと第2のサーバ104により生成された複数のインタラクションとに応じて第3の入力データを生成する。
ステップ310:FSMが、第3の入力データに応じて状態を変更する。
ステップ312:終了。
インタラクティブ応答プロセス30の詳細については、AIシステム10の上述した実施形態が参照され得、簡潔さのためにここでは説明されない。
なお、上述した実施形態は、本発明のコンセプトを例示しており、当業者であれば、限定されるものではないが、適宜に適切な変更を行うことができるであろう。例えば、変動条件は、ユーザ又は製造業者の指示、コンピュータシステムの設定、第3のサーバのデータベースDBに記憶されているインタラクション又はアクションに応じて変更又は調整され得るが、これらに限定されるものではなく、これらは全て、本発明の範囲に属する。
まとめると、本発明は、NPCが、発言、身体のジェスチャ、及び感情を伴ってユーザとインタラクトできるように、ユーザにとってよりインタラクティブであるように仮想環境におけるNPCを改善し、より良いユーザエクスペリエンスを提供する人工知能システム及びインタラクティブ応答方法を提供する。
本発明の教示を保持している間に、デバイス及び方法の多数の変更及び変形が可能であることが、当業者であれば容易に認識されよう。したがって、上記の開示は、請求項の範囲及び境界によってのみ限定されるとして解釈されるべきである。
102 第1のサーバ
104 第2のサーバ
106 第3のサーバ
108 プリプロセッサ

Claims (10)

  1. 人工知能(AI)システムであって、
    ユーザからの第1の入力データを受信し、前記第1の入力データが複数の変動条件のうちの任意の1つの変動条件に従っているかどうかを判定するよう構成されている第1のサーバと、
    前記第1のサーバに接続され、前記第1の入力データが前記複数の変動条件のうちの任意の1つの変動条件に従っているときには、前記第1のサーバから第2の入力データを受信し、前記ユーザからの前記第1の入力データに応答して複数のインタラクションを決定するよう構成されている第2のサーバと、
    を含み、
    前記ユーザからの前記第1の入力データは、前記ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きに関連する、AIシステム。
  2. 前記第1のサーバは、
    前記第1の入力データと前記第2のサーバにより生成された前記複数のインタラクションとに応じて第3の入力データを生成するよう構成されているプリプロセッサと、
    前記第3の入力データに応じて複数の状態を変更するよう構成されている有限状態機械と、
    を含み、
    前記複数の状態は、複数のアクションに対応する、請求項1記載のAIシステム。
  3. 前記第1のサーバは、ノンプレイヤーキャラクターを介して、前記複数のアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きを示す、請求項2記載のAIシステム。
  4. 前記第2のサーバに接続され、前記第1の入力データに応答して、前記複数のアクション、インタラクション、複数のNPC状態、及び複数のユーザ状態を取得及び記憶するよう構成されている第3のサーバ
    をさらに含む、請求項2記載のAIシステム。
  5. 前記第3のサーバは、前記第1のサーバ及び前記第2のサーバとともに、前記第1の入力データに応答して、前記複数のアクション、インタラクション、NPC状態、及びユーザ状態を更新する、請求項4記載のAIシステム。
  6. 人工知能(AI)システムのインタラクティブ応答方法であって、
    第1のサーバが、ユーザからの第1の入力データを受信し、前記第1の入力データが複数の変動条件のうちの任意の1つの変動条件に従っているかどうかを判定することと、
    前記第1の入力データが前記複数の変動条件のうちの任意の1つの変動条件に従っているときには、第2のサーバが、前記第1のサーバから第2の入力データを受信し、前記ユーザからの前記第1の入力データに応答して複数のインタラクションを決定することと、
    を含み、
    前記ユーザからの前記第1の入力データは、前記ユーザが生じさせたアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きに関連する、インタラクティブ応答方法。
  7. プリプロセッサが、前記第1の入力データと前記第2のサーバにより生成された前記複数のインタラクションとに応じて第3の入力データを生成することと、
    有限状態機械が、前記第3の入力データに応じて複数の状態を変更することと、
    をさらに含み、
    前記複数の状態は、複数のアクションに対応する、請求項6記載のインタラクティブ応答方法。
  8. 前記第1のサーバは、ノンプレイヤーキャラクターを介して、前記複数のアクション、顔面表情、注視、テキスト、発言、ジェスチャ、感情、又は動きを示す、請求項7記載のインタラクティブ応答方法。
  9. 第3のサーバが、前記第1の入力データに応答して、前記複数のアクション、インタラクション、複数のNPC状態、及び複数のユーザ状態を取得及び記憶すること
    をさらに含む、請求項7記載のインタラクティブ応答方法。
  10. 前記第3のサーバは、前記第1のサーバ及び前記第2のサーバとともに、前記第1の入力データに応答して、前記複数のアクション、インタラクション、NPC状態、及びユーザ状態を更新する、請求項9記載のインタラクティブ応答方法。
JP2018227981A 2018-09-25 2018-12-05 人工知能システム及びインタラクティブ応答方法 Pending JP2020052993A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/140,552 US10606345B1 (en) 2018-09-25 2018-09-25 Reality interactive responding system and reality interactive responding method
US16/140,552 2018-09-25

Publications (1)

Publication Number Publication Date
JP2020052993A true JP2020052993A (ja) 2020-04-02

Family

ID=65003083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018227981A Pending JP2020052993A (ja) 2018-09-25 2018-12-05 人工知能システム及びインタラクティブ応答方法

Country Status (5)

Country Link
US (1) US10606345B1 (ja)
EP (1) EP3629130A1 (ja)
JP (1) JP2020052993A (ja)
CN (1) CN110941329A (ja)
TW (1) TWI698771B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023073991A1 (ja) * 2021-11-01 2023-05-04 日本電信電話株式会社 情報処理システム、サーバ装置、情報処理方法およびプログラム
WO2023162044A1 (ja) * 2022-02-22 2023-08-31 日本電信電話株式会社 切り替え方法、切り替えシステム及び切り替えプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11521642B2 (en) * 2020-09-11 2022-12-06 Fidelity Information Services, Llc Systems and methods for classification and rating of calls based on voice and text analysis

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1138006A2 (en) 1998-11-19 2001-10-04 Accenture LLP A system, method and article of manufacture for effectively interacting with a network user
US9317110B2 (en) * 2007-05-29 2016-04-19 Cfph, Llc Game with hand motion control
US9400548B2 (en) * 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
CN103843028B (zh) 2011-08-01 2021-01-19 英特尔公司 见证的自主uService
US9251504B2 (en) 2011-08-29 2016-02-02 Avaya Inc. Configuring a virtual reality environment in a contact center
US9448636B2 (en) * 2012-04-18 2016-09-20 Arb Labs Inc. Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices
US20140047316A1 (en) * 2012-08-10 2014-02-13 Vimbli, Inc. Method and system to create a personal priority graph
CN103593546B (zh) 2012-08-17 2015-03-18 腾讯科技(深圳)有限公司 一种无动态阻挡网络游戏系统及其处理方法
US9008283B2 (en) 2013-03-15 2015-04-14 Genesys Telecommunications Laboratories, Inc. Customer portal of an intelligent automated agent for a contact center
CN104225918A (zh) * 2013-06-06 2014-12-24 苏州蜗牛数字科技股份有限公司 基于网络游戏的npc自主反馈交互方法
US20170228034A1 (en) * 2014-09-26 2017-08-10 Thomson Licensing Method and apparatus for providing interactive content
JP6598369B2 (ja) * 2014-12-04 2019-10-30 株式会社トランスボイス・オンライン 音声管理サーバー装置
CN105975622B (zh) * 2016-05-28 2020-12-29 福州云之智网络科技有限公司 多角色智能聊天的方法及系统
WO2018006370A1 (zh) * 2016-07-07 2018-01-11 深圳狗尾草智能科技有限公司 一种虚拟3d机器人的交互方法、系统及机器人
US10089521B2 (en) * 2016-09-02 2018-10-02 VeriHelp, Inc. Identity verification via validated facial recognition and graph database
US10133916B2 (en) * 2016-09-07 2018-11-20 Steven M. Gottlieb Image and identity validation in video chat events
KR101889279B1 (ko) 2017-01-16 2018-08-21 주식회사 케이티 음성 명령에 기반하여 서비스를 제공하는 시스템 및 방법
US20190236416A1 (en) * 2018-01-31 2019-08-01 Microsoft Technology Licensing, Llc Artificial intelligence system utilizing microphone array and fisheye camera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023073991A1 (ja) * 2021-11-01 2023-05-04 日本電信電話株式会社 情報処理システム、サーバ装置、情報処理方法およびプログラム
WO2023162044A1 (ja) * 2022-02-22 2023-08-31 日本電信電話株式会社 切り替え方法、切り替えシステム及び切り替えプログラム

Also Published As

Publication number Publication date
US20200097067A1 (en) 2020-03-26
CN110941329A (zh) 2020-03-31
TW202013146A (zh) 2020-04-01
US10606345B1 (en) 2020-03-31
EP3629130A1 (en) 2020-04-01
TWI698771B (zh) 2020-07-11

Similar Documents

Publication Publication Date Title
US11452941B2 (en) Emoji-based communications derived from facial features during game play
US9285951B2 (en) Avatar personalization in a virtual environment
JP2020052993A (ja) 人工知能システム及びインタラクティブ応答方法
US20140128166A1 (en) Game enhancement system for gaming environment
KR101851356B1 (ko) 3d 디지털액터에 의한 지능형 사용자 인터페이스 제공방법
AU2014268811A1 (en) Attributing user action based on biometric identity
WO2015153878A1 (en) Modeling social identity in digital media with dynamic group membership
US11579752B1 (en) Augmented reality placement for user feedback
US20230009454A1 (en) Digital character with dynamic interactive behavior
Apperley et al. Flipping out: Avatars and identity
US20220241688A1 (en) Method, Apparatus, GUIs and APIs For A User Experience Design Related To Hands-Free Gaming Accessibility
US10699462B1 (en) Character morphing system
Pugliese et al. A framework for motion based bodily enaction with virtual characters
CN111643903A (zh) 云游戏的控制方法、装置、电子设备以及存储介质
Hingston et al. Mobile games with intelligence: A killer application?
CN114995927A (zh) 信息显示处理方法、装置、终端及存储介质
Roy et al. Anxious postcolonial masculinity in online video games: race, gender and colonialism in Indian digital spaces
CN112807688A (zh) 游戏内表情设置方法、装置、处理器及电子装置
Wanick et al. Digital interactions and brand experience design: A future perspective
WO2024060888A1 (zh) 虚拟场景的交互处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品
US20240091650A1 (en) Systems and methods for modifying user sentiment for playing a game
US20240066413A1 (en) Ai streamer with feedback to ai streamer based on spectators
US20230381649A1 (en) Method and system for automatically controlling user interruption during game play of a video game
KR102170825B1 (ko) 게임 제어 장치 및 방법
KR20230071944A (ko) 인터랙티브 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200522

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200616