TW202013146A - 實境互動回應系統及實境互動回應方法 - Google Patents

實境互動回應系統及實境互動回應方法 Download PDF

Info

Publication number
TW202013146A
TW202013146A TW107144751A TW107144751A TW202013146A TW 202013146 A TW202013146 A TW 202013146A TW 107144751 A TW107144751 A TW 107144751A TW 107144751 A TW107144751 A TW 107144751A TW 202013146 A TW202013146 A TW 202013146A
Authority
TW
Taiwan
Prior art keywords
input data
server
user
states
artificial intelligence
Prior art date
Application number
TW107144751A
Other languages
English (en)
Other versions
TWI698771B (zh
Inventor
周永明
朱峰森
李政緯
賴昱臣
王銓彰
Original Assignee
未來市股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 未來市股份有限公司 filed Critical 未來市股份有限公司
Publication of TW202013146A publication Critical patent/TW202013146A/zh
Application granted granted Critical
Publication of TWI698771B publication Critical patent/TWI698771B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/002Monitoring the patient using a local or closed circuit, e.g. in a room or building
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/448Execution paradigms, e.g. implementations of programming paradigms
    • G06F9/4498Finite state machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Psychiatry (AREA)
  • Data Mining & Analysis (AREA)
  • General Business, Economics & Management (AREA)
  • Child & Adolescent Psychology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

一種人工智慧系統,包含有一第一伺服器,用來接收一第一輸入資料並且決定該第一輸入資料是否符合複數個變化條件之任一變化條件,以及當該第一輸入資料符合該複數個變化條件之任一變化條件時,產生一第二輸入資料;以及一第二伺服器,用來與該第一伺服器進行通訊,並且用來決定對應於所接收的該第二輸入資料的複數個互動;其中該第一輸入資料相關於從一使用者所偵測之一行為、一臉部表情、一眼神、一文字、一談話、一姿勢、一情緒或一動作。

Description

人工智慧系統及互動回應方法
本發明係指一種人工智慧系統及互動回應方法,尤指一種結合遊戲人工智慧及互動人工智慧的人工智慧系統及互動回應方法。
隨著科技的發展與進步,電腦遊戲與使用者之間的互動需求也隨之增加。人機互動科技,例如體感遊戲、虛擬實境(Virtual Reality,VR)環境、擴增實境(Augmented Reality,AR)環境、混合實境(Mixed Reality,MR)環境、延展實境(Extended Reality,XR)環境,也由於其生理及娛樂功能而愈趨流行。在上述的環境中,一非玩家角色(non-player character,NPC),如一非玩家角色化身(avatar),係創造來幫助一使用者或一玩家角色。非玩家角色具有遊戲人工智慧,可使非玩家角色與使用者或玩家角色進行互動,例如進行回應,或者對來自使用者或玩家角色的簡單訊息或問題產生反應。然而,現有的非玩家角色只能回應簡單的問題或進行機械式回應,並且在上述的環境中僅限以文字進行回應。
使用者在一般環境中可以各種方式表達,如談話、臉部表情、肢體動作及姿勢,但非玩家角色在虛擬環境中卻無法與使用者互動,或者無法成為似人的非玩家角色,因而影響使用者的體驗。
因此,本發明的目的即為提供一種人工智慧系統及互動回應方法,使得非玩家角色在體感遊戲或VR/AR/MR/XR環境中,對使用者、使用者化身或玩家角色更具互動性,並且提供使用者更優良的體驗。
本發明之一實施例揭露一種人工智慧系統,包含有一第一伺服器,用來接收一第一輸入資料並且決定該第一輸入資料是否符合複數個變化條件之任一變化條件,以及當該第一輸入資料符合該複數個變化條件之任一變化條件時,產生一第二輸入資料;以及一第二伺服器,用來與該第一伺服器進行通訊,並且用來決定對應於所接收的該第二輸入資料的複數個互動;其中該第一輸入資料相關於從一使用者所偵測之一行為、一臉部表情、一眼神、一文字、一談話、一姿勢、一情緒或一動作。
本發明之另一實施例揭露一種互動回應方法,用於一人工智慧系統,包含有一第一伺服器接收一第一輸入資料並且決定該第一輸入資料是否符合複數個變化條件之任一變化條件,以及當該第一輸入資料符合該複數個變化條件之任一變化條件時,產生一第二輸入資料;以及一第二伺服器決定對應於所接收的該第二輸入資料的複數個互動;其中該第一輸入資料相關於從一使用者所偵測之一行為、一臉部表情、一眼神、一文字、一談話、一姿勢、一情緒或一動作。
請參考第1圖,第1圖為本發明實施例之一人工智慧系統10之示意圖。人工智慧系統10包含一第一伺服器102、一第二伺服器104及一第三伺服器106。第一伺服器102用來接收來自一使用者之第一輸入資料,以決定第一輸入資料是否符合複數個變化條件之任一變化條件。此外,當第一輸入資料符合變化條件之任一變化條件時,第一伺服器102產生一第二輸入資料。在一實施例中,第一伺服器102可以是一遊戲人工智慧伺服器,以於體感遊戲或VR/AR/MR/XR環境中所接收自使用者所感測的資訊。第一伺服器102所接收的資訊可以是使用者所產生的一行為(action)、一臉部表情、一眼神(gaze)、一文字(text)、一談話(speech)、一姿勢(gesture)、一情緒(emotion)或一動作(movement),接著,第一伺服器102決定使用者所產生的資訊是否符合變化條件。第二伺服器104用來與第一伺服器102進行通訊,並且用來決定對應於自使用者所接收的第二輸入資料的複數個互動。值得注意的是,第一輸入資料及第二輸入資料可以是相同的。在一實施例中,第二伺服器104可以是一聊天機器人(Chatbot)伺服器,其決定對應於自使用者感測到的行為、臉部表情、眼神、文字、談話、訊息、肢體姿勢或動作的互動。當決定互動之後,第一伺服器102藉由一非玩家角色(non-player character,NPC)呈現對應於互動的複數個行為。在一實施例中,第一伺服器102可以傳送對應於一行為、一臉部表情、一眼神、一文字、一談話、一姿勢、一情緒或一動作的一訊號至非玩家角色。非玩家角色可顯示對應於訊號的行為、臉部表情、眼神、文字、談話、姿勢、情緒或動作,並且呈現於人工智慧系統10之一前端顯示器。第三伺服器106可包含一資料應用程式介面(application programming interface,API)伺服器以萃取並儲存對應於第一輸入資料的互動的使用者及非玩家角色的複數個狀態。詳細而言,第三伺服器106儲存對應於非玩家角色所呈現的互動的使用者狀態,例如,使用者與非玩家角色之間的一友誼值、使用者的一運動偏好值或非玩家角色的一快樂值。在一實施例中,第三伺服器106可將使用者喜好足球勝於籃球的偏好儲存至一資料庫。因此,本發明的人工智慧系統10使得遊戲人工智慧伺服器(即第一伺服器102)與聊天機器人伺服器(即第二伺服器104)相互配合,並透過非玩家角色與使用者進行談話、臉部表情、肢體動作與姿勢的互動。
一般而言,使用者於體感遊戲或VR/AR/MR/XR環境中所產生的一行為、一臉部表情、一眼神、一文字、一談話、一姿勢、一情緒或一動作,對應於或相關於至少一感測器於真實世界中,自使用者所偵測的一行為、一臉部表情、一眼神、一文字、一談話、一姿勢、一情緒或一動作。
在一些實施例中,使用者在體感遊戲或VR/AR/MR/XR環境中,無法看見自己的化身(avatar)或是玩家角色,使用者僅能看見非玩家角色及/或其他人的化身。因此,當使用者確實與非玩家角色及/或其他真實世界的人類化身互動時,使用者可能會感到他/她自己的化身不存在。
上述實施例僅概略性描述本發明的人工智慧系統10提供一種更智能且互動的方法與處於體感遊戲或VR/AR/MR/XR環境中的使用者溝通。值得注意的是,本發明所屬技術領域中具通常知識者可適當修改本發明實施例。舉例而言,第一伺服器102及第二伺服器104不限於以遊戲人工智慧伺服器及聊天機器人伺服器實現,也可採用其他種類的伺服器。在一實施例中,第一伺服器102可使用、分析及/或了解一偵測結果以作為第一輸入資料(或作為第一輸入資料的一部分),或者,使用一玩家角色或一使用者化身所產生的一行為、一臉部表情、一眼神、一文字、一談話、一姿勢、一情緒或一動作以作為第一輸入資料(或作為第一輸入資料的一部分)。
詳細而言,第一伺服器102包含一前置處理器108及一有限狀態機(finite state machine)FSM。前置處理器108根據第一輸入資料及第二伺服器104產生的互動,以產生第三輸入資料。有限狀態機FSM根據第三輸入資料,於複數個狀態之間轉變,並且狀態對應於互動。更具體而言,請參考第2圖,第2圖為本發明實施例之人工智慧系統10之一操作流程之示意圖。第一伺服器102接收使用者所產生的第一輸入資料,例如談話、動作或姿勢,接著,第一伺服器102決定第一輸入資料是否符一任何變化條件,例如,於體感遊戲或VR/AR/MR/XR環境中,使用者與非玩家角色之間的一距離是否小於1公尺。當變化條件被滿足時,即使用者與非玩家角色之間的距離小於1公尺時,第一伺服器102轉送第二輸入資料至第二伺服器104。並且第二伺服器104決定對應於第一輸入資料的互動。在一實施例中,第三伺服器106記憶對應於第一輸入資料且由第二伺服器104決定的互動,並且向第一伺服器102及第二伺服器104更新該互動。當前置處理器108自第二伺服器104接收對應於第一輸入資料的互動之後,前置處理器108產生第三輸入資料。第一伺服器102之有限狀態機FSM進而產生對應的行為,並且當有限狀態機FSM根據第三輸入資料改變狀態時,控制非玩家角色呈現對應的行為以與使用者互動,例如,有限狀態機FSM的一情緒狀態自開心改變為憤怒。此外,有限狀態機FSM向第一伺服器102更新其狀態。如此一來,使用者於體感遊戲或VR/AR/MR/XR環境中,可以更具互動性的方式與非玩家角色互動。值得注意的是,來自使用者的第一輸入資料與使用者所產生的一文字、一談話、一動作、一姿勢或一情緒有關,且不以此為限。
在另一實施例中,當使用者產生的第一輸入資料不符合任何變化條件時,第一伺服器102之有限狀態機FSM可直接評估第一輸入資料,並且產生對應的行為。更具體而言,當使用者詢問非玩家角色基本問題時,例如指令、自我介紹或道路方向時,第一伺服器102之有限狀態機FSM可直接向第三伺服器106查詢,並決定對應於問題的行為。在一實施例中,當使用者詢問人工智慧系統10播放音樂或影片時,第一伺服器102之有限狀態機FSM可直接產生對應的行為並播放音樂或影片。在此例中,由於沒有任何變化條件被滿足,因此,第一伺服器102並未將第一輸入資料轉送至第二伺服器104以決定進一步的互動。
由於第一輸入資料為關於使用者於真實世界中的文字、談話、姿勢或情緒,人工智慧系統10的第二伺服器104可據以控制透過非玩家角色所呈現的行為或情緒。在虛擬實境環境的一使用情境中,當使用者主動地走向非玩家角色並與非玩家角色聊天時,或者當使用者停留不動並且盯著非玩家角色超過6秒鐘時,前置處理器108根據有限狀態機FSM的狀態,決定非玩家角色主動地走向使用者並與使用者聊天。或者,當使用者經過非玩家角色超過3次時,前置處理器108決定非玩家角色主動地走向使用者,並據以詢問使用者原因,因此,使用者在真實世界中可感覺到非玩家角色,確實地走向前並詢問問題。
除了前述的行為,有限狀態機FSM可決定非玩家角色的行為伴隨著姿勢、動作或情緒。在一例中,當使用者距離非玩家角色太遠時,有限狀態機FSM可決定非玩家角色詢問使用者靠近一點,並伴隨一揮手動作的行為。因此,使用者在真實世界中可感覺到非玩家角色確實地揮手。
在另一例中,當使用者在虛擬實境環境中,嘗試觸摸或接觸非玩家角色時,有限狀態機FSM可決定非玩家角色生氣地以言談制止使用者或迴避使用者。或者,在還一例中,當非玩家角色對使用者表達同意時,有限狀態機FSM可決定非玩家角色以遮掩其嘴巴的行為進行互動。
根據不同的應用與發明概念,本發明之人工智慧系統10可以各種方法實現。進一步地,人工智慧系統10的操作流程可被歸納為一互動回應流程30,如第3圖所示,互動回應流程30包含下列步驟:
步驟302:開始。
步驟304:第一伺服器102接收第一輸入資料並且決定第一輸入資料是否符合變化條件之任一變化條件,以及當第一輸入資料符合變化條件時,產生第二輸入資料。若是,執行步驟306;若否,執行步驟308。
步驟306:第二伺服器104決定對應於所接收的第二輸入資料的互動。
步驟308:前置處理器108根據第一輸入資料及第二伺服器104所產生的互動,產生第三輸入資料。
步驟310:有限狀態機FSM根據第三輸入資料於狀態之間轉變。
步驟312:結束。
關於互動回應流程30的細節,請參考前述人工智慧系統10之實施例,在此不再贅述。
值得注意的是,前述實施例僅代表本發明之概念,本發明所屬技術領域中具通常知識者可據以適當修改,而不以此為限。舉例來說,變化條件可以根據使用者或製造商的指示、一電腦系統的設定更改或調整、將互動或行為儲存於第三伺服器之資料庫,而不以此為限,皆屬本發明之範疇。
綜上所述,本發明提供一種人工智慧系統及互動回應方法,使非玩家角色於體感遊戲或VR/AR/MR/XR環境中與使用者、使用者化身或玩家角色具有更多互動,使得非玩家角色可與使用者具有談話、肢體姿勢及情緒的互動,以提供使用者更優良的體驗。 以上所述僅為本發明之較佳實施例,凡依本發明申請專利範圍所做之均等變化與修飾,皆應屬本發明之涵蓋範圍。
10:人工智慧系統102:第一伺服器104:第二伺服器106:第三伺服器108:前置處理器30:互動回應流程302、304、306、308、310、312:步驟FSM:有限狀態機
第1圖為本發明實施例之一人工智慧系統之示意圖。 第2圖為本發明實施例之人工智慧系統之一操作流程之示意圖。 第3圖為本發明實施例之一互動回應流程之示意圖。
10:人工智慧系統
102:第一伺服器
104:第二伺服器
106:第三伺服器
108:前置處理器
FSM:有限狀態機

Claims (10)

  1. 一種人工智慧系統,包含有: 一第一伺服器,用來接收一第一輸入資料並且決定該第一輸入資料是否符合複數個變化條件之任一變化條件,以及當該第一輸入資料符合該複數個變化條件之任一變化條件時,產生一第二輸入資料;以及 一第二伺服器,用來與該第一伺服器進行通訊,並且用來決定對應於所接收的該第二輸入資料的複數個互動; 其中該第一輸入資料相關於從一使用者所偵測之一行為、一臉部表情、一眼神、一文字、一談話、一姿勢、一情緒或一動作。
  2. 如請求項1所述之人工智慧系統,其中該第一伺服器包含有: 一前置處理器,用來根據該第一輸入資料及該第二伺服器所產生的該複數個互動,以產生一第三輸入資料;以及 一有限狀態機(finite state machine,FSM),耦接於該前置處理器,並根據該第三輸入資料,於複數個狀態之間轉變; 其中該複數個狀態對應於複數個行為。
  3. 如請求項2所述之人工智慧系統,其中該第一伺服器用來傳送對應於一行為、一臉部表情、一眼神、一文字、一談話、一姿勢、一情緒或一動作之一訊號至一前端顯示器以藉由一非玩家角色(Non-player Character,NPC)呈現該行為、該臉部表情、該眼神、該文字、該談話、該姿勢、該情緒或該動作。
  4. 如請求項2所述之人工智慧系統,其另包含: 一第三伺服器,用來與該第二伺服器進行通訊,並且用來萃取及存取對應於該第一輸入資料之該複數個行為、該複數個互動、複數個非玩家角色狀態及複數個使用者狀態。
  5. 如請求項4所述之人工智慧系統,其中該第三伺服器更新對應於該第一輸入資料之該複數個行為、互動、非玩家角色狀態及使用者狀態至該第一伺服器及該第二伺服器。
  6. 一種互動回應方法,用於一人工智慧系統,包含有: 一第一伺服器接收一第一輸入資料並且決定該第一輸入資料是否符合複數個變化條件之任一變化條件,以及當該第一輸入資料符合該複數個變化條件之任一變化條件時,產生一第二輸入資料;以及 一第二伺服器決定對應於所接收的該第二輸入資料的複數個互動; 其中該第一輸入資料相關於從一使用者所偵測之一行為、一臉部表情、一眼神、一文字、一談話、一姿勢、一情緒或一動作。
  7. 如請求項6所述之互動回應方法,其另包含有: 一前置處理器根據該第一輸入資料及該第二伺服器所產生的該複數個互動,以產生一第三輸入資料;以及 一有限狀態機根據該第三輸入資料,於複數個狀態之間轉變; 其中該複數個狀態對應於複數個行為。
  8. 如請求項7所述之互動回應方法,其中該第一伺服器用來傳送對應於一行為、一臉部表情、一眼神、一文字、一談話、一姿勢、一情緒或一動作之一訊號至一前端顯示器以藉由一非玩家角色呈現該行為、該臉部表情、該眼神、該文字、該談話、該姿勢、該情緒或該動作。
  9. 如請求項7所述之互動回應方法,其另包含有: 一第三伺服器萃取及存取對應於該第一輸入資料之該複數個行為、該複數個互動、複數個非玩家角色狀態及複數個使用者狀態。
  10. 如請求項9所述之互動回應方法,其中該第三伺服器更新對應於該第一輸入資料之該複數個行為、互動、非玩家角色狀態及使用者狀態至該第一伺服器及該第二伺服器。
TW107144751A 2018-09-25 2018-12-12 實境互動回應系統及實境互動回應方法 TWI698771B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/140,552 2018-09-25
US16/140,552 US10606345B1 (en) 2018-09-25 2018-09-25 Reality interactive responding system and reality interactive responding method

Publications (2)

Publication Number Publication Date
TW202013146A true TW202013146A (zh) 2020-04-01
TWI698771B TWI698771B (zh) 2020-07-11

Family

ID=65003083

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107144751A TWI698771B (zh) 2018-09-25 2018-12-12 實境互動回應系統及實境互動回應方法

Country Status (5)

Country Link
US (1) US10606345B1 (zh)
EP (1) EP3629130A1 (zh)
JP (1) JP2020052993A (zh)
CN (1) CN110941329A (zh)
TW (1) TWI698771B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11521642B2 (en) 2020-09-11 2022-12-06 Fidelity Information Services, Llc Systems and methods for classification and rating of calls based on voice and text analysis
WO2023073991A1 (ja) * 2021-11-01 2023-05-04 日本電信電話株式会社 情報処理システム、サーバ装置、情報処理方法およびプログラム
WO2023162044A1 (ja) * 2022-02-22 2023-08-31 日本電信電話株式会社 切り替え方法、切り替えシステム及び切り替えプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000031656A2 (en) 1998-11-19 2000-06-02 Andersen Consulting, Llp A system, method and article of manufacture for effectively interacting with a network user
US9317110B2 (en) * 2007-05-29 2016-04-19 Cfph, Llc Game with hand motion control
US9400548B2 (en) * 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
CN103843028B (zh) 2011-08-01 2021-01-19 英特尔公司 见证的自主uService
US9251504B2 (en) 2011-08-29 2016-02-02 Avaya Inc. Configuring a virtual reality environment in a contact center
US9448636B2 (en) * 2012-04-18 2016-09-20 Arb Labs Inc. Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices
US20140047316A1 (en) * 2012-08-10 2014-02-13 Vimbli, Inc. Method and system to create a personal priority graph
CN103593546B (zh) 2012-08-17 2015-03-18 腾讯科技(深圳)有限公司 一种无动态阻挡网络游戏系统及其处理方法
US9008283B2 (en) 2013-03-15 2015-04-14 Genesys Telecommunications Laboratories, Inc. Customer portal of an intelligent automated agent for a contact center
CN104225918A (zh) * 2013-06-06 2014-12-24 苏州蜗牛数字科技股份有限公司 基于网络游戏的npc自主反馈交互方法
WO2016048688A1 (en) * 2014-09-26 2016-03-31 Thomson Licensing Method and apparatus for providing interactive content
JP6598369B2 (ja) * 2014-12-04 2019-10-30 株式会社トランスボイス・オンライン 音声管理サーバー装置
CN105975622B (zh) * 2016-05-28 2020-12-29 福州云之智网络科技有限公司 多角色智能聊天的方法及系统
CN106471444A (zh) * 2016-07-07 2017-03-01 深圳狗尾草智能科技有限公司 一种虚拟3d机器人的交互方法、系统及机器人
US10089521B2 (en) * 2016-09-02 2018-10-02 VeriHelp, Inc. Identity verification via validated facial recognition and graph database
US10133916B2 (en) * 2016-09-07 2018-11-20 Steven M. Gottlieb Image and identity validation in video chat events
KR101889279B1 (ko) 2017-01-16 2018-08-21 주식회사 케이티 음성 명령에 기반하여 서비스를 제공하는 시스템 및 방법
US20190236416A1 (en) * 2018-01-31 2019-08-01 Microsoft Technology Licensing, Llc Artificial intelligence system utilizing microphone array and fisheye camera

Also Published As

Publication number Publication date
EP3629130A1 (en) 2020-04-01
TWI698771B (zh) 2020-07-11
US10606345B1 (en) 2020-03-31
CN110941329A (zh) 2020-03-31
JP2020052993A (ja) 2020-04-02
US20200097067A1 (en) 2020-03-26

Similar Documents

Publication Publication Date Title
Kolesnichenko et al. Understanding emerging design practices for avatar systems in the commercial social vr ecology
US11398067B2 (en) Virtual reality presentation of body postures of avatars
US8326853B2 (en) Virtual world identity management
US20090128567A1 (en) Multi-instance, multi-user animation with coordinated chat
TWI698771B (zh) 實境互動回應系統及實境互動回應方法
CA2519762A1 (en) Apparatus and method for generating behaviour in an object
Höök User-centred design and evaluation of affective interfaces: A two-tiered model
US20100070884A1 (en) Dynamically Linking Avatar Profiles Within a Virtual Environment
US20090158150A1 (en) Rules-based profile switching in metaverse applications
Tanenbaum et al. Envisioning the Future of Wearable Play: Conceptual Models for Props and Costumes as Game Controllers.
US20100070885A1 (en) Linking Avatar Profiles Within a Virtual Environment
Schwartz et al. The immersive VR self: performance, embodiment and presence in immersive virtual reality environments
CN113826147A (zh) 动画角色的改进
JP7479618B2 (ja) 情報処理プログラム、情報処理方法、情報処理装置
Zhou et al. Hextouch: a wearable haptic robot for complementary interactions to companion agents in virtual reality
US20120214586A1 (en) System and Method for Using Atomic Agents to Implement Modifications
US20220379216A1 (en) Interactions between characters in video games
Aylett Games robots play: once more, with feeling
Montemorano Body Language: Avatars, Identity Formation, and Communicative Interaction in VRChat
US20240091650A1 (en) Systems and methods for modifying user sentiment for playing a game
Zamith et al. AdaptControl: An adaptive mobile touch control for games
US20240193838A1 (en) Computer-implemented method for controlling a virtual avatar
US20240066413A1 (en) Ai streamer with feedback to ai streamer based on spectators
Arroyo-Palacios et al. Bringing Video Game Characters into the Real World on a Holographic Light Field Display
EP4288173A2 (en) Computer-implemented method for controlling a virtual avatar