JP6927295B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP6927295B2
JP6927295B2 JP2019519083A JP2019519083A JP6927295B2 JP 6927295 B2 JP6927295 B2 JP 6927295B2 JP 2019519083 A JP2019519083 A JP 2019519083A JP 2019519083 A JP2019519083 A JP 2019519083A JP 6927295 B2 JP6927295 B2 JP 6927295B2
Authority
JP
Japan
Prior art keywords
motion
information processing
abnormality
signal input
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019519083A
Other languages
English (en)
Other versions
JPWO2018211798A1 (ja
Inventor
孝悌 清水
孝悌 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018211798A1 publication Critical patent/JPWO2018211798A1/ja
Application granted granted Critical
Publication of JP6927295B2 publication Critical patent/JP6927295B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、オブジェクトの動作を制御する技術が知られている。オブジェクトの例としては、実空間に存在する実オブジェクトおよび仮想空間に存在する仮想オブジェクトなどが挙げられる。例えば、仮想オブジェクトの例としては、ユーザ自身に対応するキャラクタ(以下、「アバター」とも言う。)が挙げられる。
オブジェクトの動作を制御する技術の一例として、ユーザによるコントローラの操作に基づいて、仮想オブジェクトの例としてのアバターを制御する技術が開示されている(例えば、特許文献1参照)。オブジェクトの動作が、ユーザの動作に応じて正常に制御されることによって、オブジェクトが人間らしく振る舞うようになる。
特開2014−149836号公報
しかし、オブジェクトの動作を制御するための信号の入力の異常が検出される場合があり得る。かかる場合には、ユーザの動作に応じたオブジェクトの動作の制御が困難になるため、オブジェクトの動作から人間らしさが損なわれる可能性がある。そこで、オブジェクトの動作の人間らしさを高めることが可能な技術が提供されることが望まれる。
本開示によれば、オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトを制御する動作制御部を備え、前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する、情報処理装置が提供される。
本開示によれば、オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトを制御することを含み、プロセッサにより、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御することを含む、情報処理方法が提供される。
本開示によれば、コンピュータを、オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトを制御する動作制御部を備え、前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する、情報処理装置として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、オブジェクトの動作の人間らしさを高めることが可能な技術が提供されることが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の第1の実施形態に係る情報処理システムの構成例を示す図である。 コミュニケーションが阻害されてしまう状況の例を示す図である。 本開示の第1の実施形態に係る情報処理装置の機能構成例を示す図である。 情報処理システムにおけるデータの流れの例を示す図である。 アバターの動作を制御するための信号の入力の正常が検出された場合におけるアバターの動作制御例を示す図である。 異常が第1の時間を超えて検出された場合におけるアバターの動作制御例を示す図である。 異常が第2の時間を超えて検出された場合におけるアバターの動作制御例を示す図である。 本開示の第1の実施形態に係る情報処理装置における動作制御部の動作の例を示すフローチャートである。 本開示の第2の実施形態に係る情報処理システムの構成例を示す図である。 本開示の第2の実施形態に係る情報処理装置の機能構成例を示す図である。 本開示の第3の実施形態に係る情報処理システムの構成例を示す図である。 本開示の第3の実施形態に係る情報処理装置の機能構成例を示す図である。 ロボットの動作を制御するための信号の入力の正常が検出された場合におけるロボットの動作制御例を示す図である。 異常が第1の時間を超えて検出された場合におけるロボットの動作制御例を示す図である。 異常が第2の時間を超えて検出された場合におけるロボットの動作制御例を示す図である。 本開示の第3の実施形態に係る情報処理装置における動作制御部の動作の例を示すフローチャートである。 情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1.1.システム構成例
1.2.情報処理装置の機能構成例
1.3.情報処理システムの機能詳細
2.第2の実施形態
2.1.システム構成例
2.2.情報処理装置の機能構成例
2.3.情報処理システムの機能詳細
3.第3の実施形態
3.1.システム構成例
3.2.情報処理装置の機能構成例
3.3.情報処理システムの機能詳細
4.ハードウェア構成例
5.むすび
<1.第1の実施形態>
まず、本開示の第1の実施形態について説明する。
[1.1.システム構成例]
まず、図面を参照しながら、本開示の第1の実施形態に係る情報処理システムの構成例について説明する。図1は、本開示の第1の実施形態に係る情報処理システムの構成例を示す図である。図1に示したように、本開示の第1の実施形態に係る情報処理システム1は、情報処理装置10−1および情報処理装置10−2を備える。情報処理装置10−1は、ユーザU−1によって利用され、情報処理装置10−2は、ユーザU−2によって利用される。
なお、本開示の第1の実施形態においては、情報処理装置10−1がユーザU−1の頭部に装着されるHMD(ヘッドマウントディスプレイ)である場合を主に説明する。しかし、情報処理装置10−1はHMDに限定されない。例えば、情報処理装置10−1は、スマートフォンであってもよいし、タブレット端末であってもよい。同様に、本開示の第1の実施形態においては、情報処理装置10−2もHMDである場合を主に説明するが、情報処理装置10−2は、スマートフォンであってもよいし、タブレット端末であってもよい。
図1に示した例では、情報処理装置10−1の画面161−1に、仮想オブジェクトの例としてのアバター20−1が表示されている。ここで、情報処理装置10−1の画面161−1に表示される仮想オブジェクトは、アバター20−1に限定されない。例えば、情報処理装置10−1の画面161−1に表示される仮想オブジェクトは、エージェントなどであってもよい。情報処理装置10−1は、アバター20−1の動作をユーザU−2の動作に基づいて制御する。
ユーザU−2の動作は、どのようにして認識されてもよい。本開示の第1の実施形態においては、ユーザU−2の動作が、情報処理装置10−2によって撮像された画像(以下、単に「撮像画像」とも言う。)から認識される場合を主に想定する。また、本開示の第1の実施形態においては、ユーザU−2の動作が、情報処理装置10−2によって認識される場合を主に想定する。しかし、ユーザU−2の動作は、情報処理装置10−1によって認識されてもよい。
また、本開示の第1の実施形態においては、ユーザU−2によって発せられた音声が情報処理装置10−1から出力される例を主に想定する。これによって、ユーザU−1は、ユーザU−2とのコミュニケーションをより詳細に図ることが可能である。例えば、ユーザU−2によって発せられた音声は、情報処理装置10−2によって検出される。しかし、ユーザU−2によって発せられた音声は、情報処理装置10−1から出力されなくてもよい。
同様に、図1に示した例では、情報処理装置10−2の画面161−2に、仮想オブジェクトの例としてのアバター20−2が表示されている。ここで、情報処理装置10−2の画面161−2に表示される仮想オブジェクトは、アバター20−2に限定されない。例えば、情報処理装置10−2の画面161−2に表示される仮想オブジェクトは、エージェントなどであってもよい。情報処理装置10−2は、アバター20−2の動作をユーザU−1の動作に基づいて制御する。
ユーザU−1の動作は、どのようにして認識されてもよい。本開示の第1の実施形態においては、ユーザU−1の動作が、情報処理装置10−1によって撮像された画像(以下、単に「撮像画像」とも言う。)から認識される場合を主に想定する。また、本開示の第1の実施形態においては、ユーザU−1の動作が、情報処理装置10−1によって認識される場合を主に想定する。しかし、ユーザU−1の動作は、情報処理装置10−2によって認識されてもよい。
また、本開示の第1の実施形態においては、ユーザU−1によって発せられた音声が情報処理装置10−2から出力される例を主に想定する。これによって、ユーザU−2は、ユーザU−1とのコミュニケーションをより詳細に図ることが可能である。例えば、ユーザU−1によって発せられた音声は、情報処理装置10−1によって検出される。しかし、ユーザU−1によって発せられた音声は、情報処理装置10−2から出力されなくてもよい。
なお、ユーザU−2の動作の認識からアバター20−1の制御までの機能と、ユーザU−1の動作の認識からアバター20−2の制御までの機能とは同様である。そのため、以下においては、両機能を代表して、ユーザU−2の動作の認識からアバター20−1の制御までの機能について説明する場合がある。ユーザU−1は、ユーザU−2の動きに基づいて動きが制御されたアバター20−1を見ることによって、ユーザU−2とのコミュニケーションを図ることが可能である。
ここで、アバター20−1の動作を制御するための信号の入力の異常が検出される場合があり得る。かかる場合には、ユーザU−2の動作に応じたアバター20−1の動作の制御が困難になるため、アバター20−1の動作から人間らしさが損なわれる可能性がある。
さらに、ユーザU−2の動作に応じたアバター20−1の動作の制御が困難になった結果として、コミュニケーションが阻害されてしまうような状況も生じ得る。かかる状況の例について説明する。
図2は、コミュニケーションが阻害されてしまう状況の例を示す図である。図2を参照すると、情報処理装置10−1の画面161−1には、ユーザU−2の動作に基づいて動作が制御されたアバター20−3が表示されている。特に、図2に示した例では、ユーザU−2が顔の前に手を位置させているため、アバター20−3も、顔の前に手を位置させてしまっている。
この状態において、アバター20−3の動作を制御するための信号の入力の異常が検出された場合には、アバター20−3が顔の前に手を位置させたままの状態が維持されてしまうといった状況が生じ得る。このようにアバター20−3の顔が手で覆われてしまった場合には、ユーザU−1がアバター20−3の表情を認識しにくくなるため、ユーザU−2との間のコミュニケーションが阻害されてしまうといった状況が生じ得る。
そこで、アバター20−1の動作の人間らしさを高めることが可能な技術が提供されることが望まれる。特に、本開示の第1の実施形態においては、ユーザU−2との間でコミュニケーションを図るためにユーザU−1によってアバター20−1が利用される場合を想定する。かかる場合には、アバター20−1の動作の人間らしさが高まることによって、ユーザU−2の行動をよりリアルに把握することが可能になるため、コミュニケーションが活性化されることが期待される。
なお、情報処理装置10−1によって動作が制御されるオブジェクトは、アバター20−1などといった仮想オブジェクトに限定されない。例えば、情報処理装置10−1によって動作が制御されるオブジェクトは、実オブジェクトであってもよい。すなわち、情報処理装置10−1によって動作が制御されるオブジェクトは、実空間に存在する実オブジェクトを含んでもよいし、仮想空間に存在する仮想オブジェクトを含んでもよい。
以上、本開示の第1の実施形態に係る情報処理システム1の構成例について説明した。
[1.2.情報処理装置の機能構成例]
続いて、本開示の第1の実施形態に係る情報処理装置10の機能構成例について説明する。図3は、本開示の第1の実施形態に係る情報処理装置10の機能構成例を示す図である。図3に示したように、本開示の第1の実施形態に係る情報処理装置10は、制御部110、撮像部120、音情報検出部130、記憶部140、通信部150、表示部160および音情報出力部170を有している。
制御部110は、情報処理装置10の各部の制御を実行する。制御部110は、動作取得部111、動作判定部112、通信制御部113、受信判定部114、動作生成部115および動作制御部116を備える。これらの各機能ブロックについての詳細は、後に説明する。なお、制御部110は、例えば、1または複数のCPU(Central Processing Unit;中央演算処理装置)などで構成されていてよい。制御部110がCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。
撮像部120は、ユーザU−1の身体の一部または全部を撮像することによって画像を得る機能を有する。以下では、撮像部120によってユーザU1の上半身が撮像される場合を主に想定する。例えば、撮像部120は、カメラ(イメージセンサを含む)を含んでおり、カメラによって撮像された画像を得る。撮像部120に含まれるカメラの数は1以上であれば特に限定されない。そして、撮像部120が設けられる位置も特に限定されない。例えば、撮像部120は、情報処理装置10と一体化されていてもよいし、情報処理装置10とは別体として存在していてもよい。
音情報検出部130は、集音によって音情報を得る機能を有する。ユーザUが発話を行っている場合には、音情報にユーザUの発話が含まれる。例えば、音情報検出部130は、マイクロフォンによって構成されており、マイクロフォンによって集音を行う。音情報検出部130の数は1以上であれば特に限定されない。そして、音情報検出部130が設けられる位置も特に限定されない。例えば、音情報検出部130は、情報処理装置10と一体化されていてもよいし、情報処理装置10とは別体として存在していてもよい。
記憶部140は、メモリを含んで構成され、制御部110によって実行されるプログラムを記憶したり、プログラムの実行に必要なデータを記憶したりする記録媒体である。また、記憶部140は、制御部110による演算のためにデータを一時的に記憶する。記憶部140は、磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または、光磁気記憶デバイスなどにより構成される。
通信部150は、通信回路を含んで構成され、通信ネットワークを介して通信ネットワークに接続された他の情報処理装置10からのデータの取得および当該他の情報処理装置10へのデータの提供を行う機能を有する。例えば、通信部150は、通信インターフェースにより構成される。
表示部160は、各種の画面を表示する機能を有する。表示部160の種類は限定されない。例えば、表示部160は、ユーザUに視認可能な表示を行うことが可能なディスプレイであればよく、液晶ディスプレイであってもよいし、有機EL(Electro−Luminescence)ディスプレイであってもよい。
音情報出力部170は、音情報を出力する機能を有する。例えば、音情報出力部170は、スピーカによって構成されており、スピーカによって音情報を出力する。音情報出力部170の数は1以上であれば特に限定されない。そして、音情報出力部170が設けられる位置も特に限定されない。しかし、本開示の第1の実施形態においては、音情報出力部170から出力される音情報をユーザUに聞かせるのが望ましいため、音情報出力部170は、情報処理装置10と一体化されているのが望ましい。
以上、本開示の第1の実施形態に係る情報処理装置10の機能構成例について説明した。
[1.3.情報処理システムの機能詳細]
続いて、本開示の第1の実施形態に係る情報処理システム1の機能詳細について説明する。
図4は、情報処理システム1におけるデータの流れの例を示す図である。図4を参照すると、情報処理装置10−1と情報処理装置10−2とは、通信ネットワーク40を介して通信可能に構成されている。図4においては、ユーザU−1の動作の認識からアバター20−2の制御までの処理におけるデータの流れが、実線の矢印にて表されている。一方、ユーザU−2の動作の認識からアバター20−1の制御までの処理におけるデータの流れが、破線の矢印にて表されている。
まず、図4において実線の矢印によって表されているデータの流れについて概要を説明する。情報処理装置10−1において、動作取得部111−1は、画像からユーザU−1の動作を認識してユーザU−1の動作を取得する。また、動作取得部111−1は、音情報も取得する。続いて、動作判定部112−1は、ユーザU−1の動作を判定して動作判定結果を取得する。通信制御部113−1は、ユーザU−1の動作、音情報および動作判定結果が、通信ネットワーク40を介して情報処理装置10−2に送信されるように制御する。
情報処理装置10−2において、通信制御部113−2は、通信ネットワーク40を介して情報処理装置10−1から受信された、ユーザU−1の動作、音情報および動作判定結果を取得する。また、受信判定部114−2は、通信制御部113−2によるユーザU−1の動作の受信状態を判定する。続いて、動作生成部115−2は、ユーザU−1の動作、受信判定結果および動作判定結果に基づいて、アバター20−2の動作を生成し、動作制御部116−2は、アバター20−2の動作を制御する。情報処理装置10−2においては、音情報も出力される。
続いて、図4において破線の矢印によって表されているデータの流れについて概要を説明する。情報処理装置10−2において、動作取得部111−2は、画像からユーザU−2の動作を認識してユーザU−2の動作を取得する。また、動作取得部111−2は、音情報も取得する。続いて、動作判定部112−2は、ユーザU−2の動作を判定して動作判定結果を取得する。通信制御部113−2は、ユーザU−2の動作、音情報および動作判定結果が、通信ネットワーク40を介して情報処理装置10−1に送信されるように制御する。
情報処理装置10−1において、通信制御部113−1は、通信ネットワーク40を介して情報処理装置10−2から受信された、ユーザU−2の動作、音情報および動作判定結果を取得する。また、受信判定部114−1は、通信制御部113−1によるユーザU−2の動作の受信状態を判定する。続いて、動作生成部115−1は、ユーザU−2の動作、受信判定結果および動作判定結果に基づいて、アバター20−1の動作を生成し、動作制御部116−1は、アバター20−1の動作を制御する。情報処理装置10−1においては、音情報も出力される。
以上、ユーザU−1の動作の認識からアバター20−2の制御までの処理におけるデータの流れ、および、ユーザU−2の動作の認識からアバター20−1の制御までの処理におけるデータの流れについて説明した。以下では、両データの流れを代表して、ユーザU−2の動作の認識からアバター20−1の制御までの処理におけるデータの流れについて主に説明する。
情報処理装置10−1において、動作制御部116−1は、アバター20−1の動作を制御するための、ユーザU−2の動作に応じた信号入力の異常が検出された場合に、信号入力の正常が検出されるまで、所定の動作を継続するようにアバター20−1の動作を制御する。このとき、動作制御部116−1は、異常が検出されてからアバター20−1の動作が所定の動作に遷移するまでに、アバター20−1を、異常が検出された際のアバター20−1の動作および所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する。
かかる構成によれば、アバター20−1の動作の人間らしさを高めることが可能となる。以下では、かかる構成の詳細について、より具体的に説明する。本開示の第1の実施形態においては、アバター20−1が一つの中間動作を行うよう制御される場合を主に説明する。しかし、アバター20−1が複数の中間動作を行うよう制御されてもよい。
本開示の第1の実施形態においては、情報処理装置10−2においてユーザU−2の動作が認識される場合を主に想定する。かかる場合には、情報処理装置10−2から情報処理装置10−1にユーザU−2の動作が送信されるため、アバター20−1の動作を制御するための信号は、ユーザU−2の動作であってよい。
しかし、情報処理装置10−1においてユーザU−2の動作が認識される場合も想定される。かかる場合には、情報処理装置10−2から情報処理装置10−1にユーザU−2の動作を認識するための撮像画像が送信されるため、アバター20−1の動作を制御するための信号は、ユーザU−2の動作を認識するための撮像画像であってよい。
また、アバター20−1の動作を制御するための信号の入力の異常は、どのような場合に検出されてもよい。一つ目の例として、撮像画像から認識されるユーザU−2の動作が所定の動作範囲に収まらない場合に、異常が検出されてもよい。
また、二つ目の例として、情報処理装置10−1において、受信判定部114−1は、外部装置の例としての情報処理装置10−2によってアバター20−1の動作を制御するための信号が生成される場合、情報処理装置10−2から受信される信号入力の異常を検出してもよい。例えば、情報処理装置10−1において、受信判定部114−1は、アバター20−1の動作を制御するための信号が、外部装置の例としての情報処理装置10−2から受信される場合、当該信号の受信状態が所定の状態である場合に、異常を検出してもよい。
より具体的に、受信判定部114−1は、情報処理装置10−2から受信するアバター20−1の動作を制御するための信号が示すアバター20−1の動作を制御するための値が、所定の回数以上連続して同一の値を示す場合、異常を検出してもよい。
例えば、情報処理装置10−2において撮像画像が取得されない場合、または、撮像画像からユーザU−2の動作が認識されない場合などに、情報処理装置10−2から情報処理装置10−1にアバター20−1の動作を制御するための信号として、同一の信号を送信し続ける場合がある。かかる場合、ユーザU−2が撮像画像に写っていれば、アバター20−1の動作を制御するための信号も少なくとも僅かには変化すると考えられるため、アバター20−1の動作を制御するための信号が示すアバター20−1の動作を制御するための値が所定の回数以上連続して同一である場合、異常を検出してよい。
また、例えば、受信判定部114−1は、アバター20−1の動作を制御するための信号が所定の時間を超えて受信されない場合、異常を検出してもよい。アバター20−1の動作を制御するための信号が所定の時間を超えて受信されない場合としては、アバター20−1の動作を制御するための信号の伝送遅延(例えば、通信ネットワーク40における伝送遅延など)が生じている場合、および、アバター20−1の動作を制御するための信号が情報処理装置10−1に到達しない場合などが想定される。
以下では、一つ目の例および二つ目の例の異常のいずれか一方でも検出された場合には、異常が検出され、一つ目の例および二つ目の例の異常のいずれも検出されない場合に、正常が検出される場合を主に説明する。しかし、一つ目の例および二つ目の例のうちの一方のみ異常であるか否かが検出されてもよい。かかる場合には、一つ目の例の異常が検出されない場合に、正常が検出されてもよい。あるいは、二つ目の例の異常が検出されない場合に、正常が検出されてもよい。
まず、情報処理装置10−2において、動作取得部111−2は、撮像画像からユーザU−2の動作を認識してユーザU−2の動作を取得する。ユーザU−2の動作は、ユーザU−2の身体を「認識対象」とし、ユーザU−2の身体の各部位を「認識対象部位」とした場合、各認識対象部位の位置および姿勢を含んでよい。より詳細には、各認識対象部位は、目、口、手、足などであってよい。また、各認識対象部位の位置および姿勢は、各関節の位置および回転角度によって表されてもよい。
動作判定部112−2は、ユーザU−2の動作が所定の範囲に収まるか否かを判定する。例えば、動作判定部112−2は、動作判定部112−2は、ユーザU−2の動作が認識対象部位ごとに所定の範囲に収まるか否かを判定する。ここで、所定の範囲は特に限定されない。例えば、ユーザU−2の動作として想定し得る範囲があらかじめ所定の範囲として定められていてよい。動作判定部112−2は、ユーザU−2の動作が所定の範囲に収まらない場合に、異常を検出する。
通信制御部113−2は、ユーザU−2の動作、音情報および動作判定部112−2による判定結果が、通信ネットワーク40を介して情報処理装置10−1に送信されるように制御する。情報処理装置10−1において、通信制御部113−1は、通信ネットワーク40を介して情報処理装置10−1から受信された、ユーザU−2の動作、音情報および動作判定結果を取得する。
受信判定部114−1は、通信制御部113−1によるユーザU−2の動作の受信状態を判定する。例えば、上記したように、受信判定部114−1は、ユーザU−2の動作の受信状態が所定の状態である場合に、異常を検出する。続いて、動作生成部115−1は、動作判定部112−2による動作判定結果、受信判定部114−1による受信判定結果、および、ユーザU−2の動作に基づいて、アバター20−1の動作を生成し、動作制御部116−2は、アバター20−1の動作を制御する。情報処理装置10−1においては、音情報も出力される。
まず、アバター20−1の動作を制御するための信号の入力の正常が検出された場合を想定する。より具体的には、動作判定部112−2による動作判定結果が正常である場合、かつ、受信判定部114−1による受信判定結果が正常である場合を想定する。かかる場合、動作取得部116−1は、ユーザU−2の動作に基づいてアバター20−1の動作を制御する。
図5は、アバター20−1の動作を制御するための信号の入力の正常が検出された場合におけるアバター20−1の動作制御例を示す図である。図5を参照すると、画面161−1にアバター20−1の例としてアバター20−4が表示されている。
ここで、動作判定部112−2による動作判定結果が正常である場合、かつ、受信判定部114−1による受信判定結果が正常である場合を想定する。かかる場合、動作取得部116−1は、ユーザU−2の動作に対応するようにアバター20−4の動作を制御する。図5を参照すると、ユーザU−2が両手を挙げている動作が認識され、ユーザU−2の動作に合わせて、両手を挙げた動作をするように制御されたアバター20−5が表示されている。
続いて、アバター20−1の動作を制御するための信号の入力の異常が検出された場合を想定する。より具体的には、動作判定部112−2による動作判定結果が異常である場合、または、受信判定部114−1による受信判定結果が異常である場合を想定する。かかる場合、動作取得部116−1は、異常が検出されてからアバター20−1の動作が所定の動作に遷移するまでに、アバター20−1を、異常が検出された際のアバター20−1の動作および所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する。
ここで、異常が検出された場合におけるアバター20−1の動作の遷移先である「所定の動作」としては、様々な動作が想定される。例えば、動作制御部116−1は、異常が第1の時間(以下、「時間T1」とも言う。)を超えて検出された場合、異常と関連するユーザU−2の第1の認識対象部位に対応するアバター20−1の制御対象部位の動作を、所定の動作に含まれる第1の動作に遷移させてよい。
第1の動作は特に限定されない。本開示の第1の実施形態においては、アバター20−1が人間らしく見えるようにするために、第1の動作として、制御対象部位が揺らぐような動作を利用する場合を主に説明する。
図6は、異常が時間T1を超えて検出された場合におけるアバター20−1の動作制御例を示す図である。図6を参照すると、画面161−1にアバター20−1の例としてアバター20−6が表示されている。しかし、ユーザU−2が顔の前に手を位置させているため、アバター20−6も、顔の前に手を位置させてしまっている。
ここで、ユーザU−2の手が検出されないという異常が時間T1を超えて検出された場合を想定する。かかる場合、動作取得部116−1は、異常が検出された第1の認識対象部位「ユーザU−2の手」に対応する制御対象部位「アバター20−6の手」の動作を、第1の動作「揺らぐような動作」に遷移させる。図6を参照すると、手が揺らぐような動作に遷移されたアバター20−8が表示されている。
このとき、動作取得部116−1は、異常が検出された第1の認識対象部位「ユーザU−2の手」の撮像画像における位置に基づいて制御対象部位「アバター20−6の手」の動作を、第1の動作「揺らぐような動作」に遷移させるとよい。図6に示した例では、第1の認識対象部位「ユーザU−2の手」の異常がユーザU−2の顔の位置で検出されている。そのため、動作取得部116−1は、顔の位置からは離れた位置に制御対象部位「アバター20−8の手」を位置させている。
また、動作取得部116−1は、アバター20−6の動作がアバター20−8に遷移するまでに(すなわち、異常が検出されてから第1の動作「揺らぐような動作」に遷移するまでに)、アバター20−6を、異常が検出された際のアバター20−1の動作および所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する。図6を参照すると、アバター20−7の手の位置が、手の位置とアバター20−8の手の位置との中間となるように制御され、かつ、手の向きが、アバター20−6の手の向きとアバター20−8の手の向きとの中間となるように制御されたアバター20−7が表示されている。
なお、第1の動作は、ユーザU−2に依存せずに決められてもよいし、ユーザU−2に依存して決められてもよい。例えば、ユーザU−2に対応して、第1の動作と第2の認識対象部位の動作とがあらかじめ関係付けられている場合も想定される。かかる場合において、異常が第1の時間を超えて検出された場合、かつ、ユーザU−2の第2の認識対象部位の動作が認識された場合、制御対象部位の動作を第1の動作に遷移させてもよい。
このとき、ユーザU−2の制御対象部位の第1の動作と第2の認識対象部位の動作とがあらかじめ関連付けられる。例えば、動作生成部115−1は、制御対象部位の第1の動作と第2の認識対象部位の動作とが単一の撮像画像から認識された場合に、制御対象部位の動作と第2の認識対象部位の動作とを関連付ければよい。
一例として、ユーザU−2が、手を下げる動作と目を上に向ける動作とを同時に行う癖を有しており、ユーザU−2に対応して、制御対象部位「手」の第1の動作「手を下げる動作」と第2の認識対象部位「目」の動作「上を向ける動作」とが関連付けられた場合を想定する。
かかる場合、ユーザU−2の撮像画像から、第1の認識対象部位「手」が認識されなくても、第2の認識対象部位「目」の動作「上を向ける動作」が認識された場合に、制御対象部位「手」の動作が第1の動作「手を下げる動作」に遷移される。そのため、ユーザU−2の癖を制御対象部位の動きに反映させることが可能となる。
続いて、時間T1よりも長い第2の時間(以下、「時間T2」とも言う。)を超えて異常が検出された場合を想定する。かかる場合には、例えば、動作制御部116−1は、アバター20−1の全体の動作を、所定の動作に含まれる第2の動作に遷移させてよい。以下では、第2の動作を「標準状態」と称する場合がある。
第2の動作(標準状態)は特に限定されない。本開示の第1の実施形態においては、アバター20−1が人間らしく見えるようにするために、第2の動作(標準状態)として、両目を瞬きさせる動作、および、両肩を左右に揺さぶる動作を利用する場合を主に説明する。
図7は、異常が時間T2を超えて検出された場合におけるアバター20−1の動作制御例を示す図である。図7を参照すると、画面161−1にアバター20−1の例としてアバター20−9が表示されている。具体的に、異常が時間T1を超え、異常が検出された認識対象部位「ユーザU−2の手」に対応する制御対象部位「アバター20−9の手」の動作が、第1の動作「揺らぐような動作」に遷移されている。
ここで、ユーザU−2の手が検出されないという異常が時間T2を超えて検出された場合を想定する。かかる場合、動作取得部116−1は、アバター20−9の全体の動作を、第2の動作(標準状態)「両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作」に遷移させる。図7を参照すると、両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作に遷移されたアバター20−11、20−12が表示されている。
このとき、動作取得部116−1は、異常が検出された認識対象「ユーザU−2」の撮像画像における位置に基づいてアバター20−9の全体の動作を、第2の動作(標準状態)「両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作」に遷移させるとよい。図7に示した例では、認識対象「ユーザU−2」の異常が撮像画像の中央で検出されている。そのため、動作取得部116−1は、制御対象「アバター20−11、20−12」を画面161−1の中央に位置させている。
また、動作取得部116−1は、アバター20−9の動作がアバター20−11、20−12に遷移するまでに(すなわち、異常が検出されてから第2の動作(標準状態)「両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作」に遷移するまでに)、アバター20−9を、異常が検出された際のアバター20−9の動作および所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する。図7を参照すると、手の位置が、アバター20−9の手の位置とアバター20−11、20−12の手の位置との中間となるように制御され、かつ、手の向きが、アバター20−9の手の向きとアバター20−11、20−12の手の向きとの中間となるように制御されたアバター20−10が表示されている。
なお、上記では、第2の動作(標準状態)として、一つの動作が利用される場合を主に説明したが、第2の動作(標準状態)として、複数の動作が利用されてもよい。すなわち、第2の動作(標準状態)が互いに異なる複数の動作を含んでおり、動作取得部116−1は、異常が時間T2を超えて検出された場合、アバター20−9の全体の動作が複数の動作の間で(例えば、所定の時間ごとに)切り替えられるようにアバター20−9の全体の動作を制御してもよい。そうすれば、アバター20−11、20−12がより人間らしく見えることが期待される。
また、第2の動作(標準状態)は、複数の動作から選択されてもよい。すなわち、動作取得部116−1は、異常が時間T2を超えて検出された場合、異常が検出されたユーザU−2の動作に基づいて複数の動作から第2の動作(標準状態)を選択し(例えば、異常が検出されたユーザU−2の動作に最も近い動作を選択し)、アバター20−9の全体の動作を、選択した第2の動作(標準状態)に遷移させてもよい。
なお、第2の動作(標準状態)は、ユーザU−2に依存せずに決められてもよいし、ユーザU−2に依存して決められてもよい。例えば、動作生成部115−1は、ユーザU−2の行動状態が所定の条件を満たす場合に、ユーザU−2の行動状態に基づいて第2の動作(標準状態)を生成してもよい。そうすれば、ユーザU−2の癖を第2の動作(標準状態)に反映させることが可能となる。ユーザU−2の行動状態には、ユーザU−2の動きが含まれてもよいし、ユーザU−2の発話量が含まれてもよい。
ここで、所定の条件は、特に限定されない。例えば、あまり動いていないユーザU−2の動作に基づいて第2の動作が生成された方が、たくさん動いているユーザU−2の動作に基づいて第2の動作が生成されるよりも、より適切な標準状態が生成されると考えられる。したがって、所定の条件は、ユーザU−2の発話量が所定量よりも少ないという条件およびユーザU−2の動きが所定の動きよりも小さいという条件の少なくともいずれか一つを含んでもよい。
上記では、アバター20−1の動作を制御するための信号の入力の異常が検出された場合におけるアバター20−1の動作について主に説明した。しかし、一度異常が検出されてから再度正常が検出される場合も想定される。より具体的には、動作判定部112−2による動作判定結果が正常である場合、かつ、受信判定部114−1による受信判定結果が正常である場合を想定する。かかる場合においても、アバター20−1の動作は、異常が検出された場合の動作から正常が検出された場合の動作に、徐々に戻るように制御されるのがよい。そうすれば、アバター20−1がより人間らしく見えることが期待される。
すなわち、動作制御部116−1は、アバター20−1の動作を制御するための信号の入力の異常が検出された後に、アバター20−1の動作を制御するための信号の入力の正常が検出された場合に、アバター20−1の動作を所定の動作からユーザU−2の動作に基づくように遷移させるまでに、アバター20−1の動作を、所定の動作とは異なる少なくとも一つの第2の中間動作を行うよう制御するとよい。
図8は、情報処理装置10−1における動作制御部116−1の動作の例を示すフローチャートである。図8に示すように、まず、動作制御部116−1は、アバターの各部位の位置および姿勢を初期状態に設定する(S11)。
続いて、動作制御部116−1は、少なくとも一つの認識対象部位に対応する入力が時間T1を超えて異常という条件が成立しない場合(S12において「No」)、各認識対象部位に対応するアバターの部位の位置および姿勢を、対応する認識対象部位の位置および姿勢に応じて制御する(S13)。そして、動作制御部116−1は、動作をS12に移行させる。
一方、動作制御部116−1は、少なくとも一つの認識対象部位に対応する入力が時間T1を超えて異常という条件が成立する場合(S12において「Yes」)、時間T1よりも長い時間T2を超えて異常という条件が成立するか否かを判定する(S14)。
動作制御部116−1は、長い時間T2を超えて異常という条件が成立しない場合(S14において「No」)、入力の異常が時間T1を超えていない認識対象部位に対応するアバターの部位の位置および姿勢を、対応する認識対象部位の位置および姿勢に応じて制御する(S15)。そして、動作制御部116−1は、時間T1を超えて入力が異常な認識対象部位に対応するアバターの部位が異常検出位置に対応する位置で揺らぎ動作をするように制御する(S16)。そして、動作制御部116−1は、動作をS12に移行させる。
一方、動作制御部116−1は、長い時間T2を超えて異常という条件が成立する場合(S14において「Yes」)、各認識対象部位に対応するアバターの部位の位置および姿勢を、標準状態に設定し、その部位が揺らぎ動作をするように制御する(S17)。そして、動作制御部116−1は、動作をS12に移行させる。
以上、本開示の第1の実施形態について説明した。
<2.第2の実施形態>
まず、本開示の第2の実施形態について説明する。
[2.1.システム構成例]
まず、本開示の第2の実施形態に係る情報処理システムの構成例について説明する。図9は、本開示の第2の実施形態に係る情報処理システムの構成例を示す図である。図9に示したように、本開示の第2の実施形態に係る情報処理システムは、情報処理装置10−1を備える。情報処理装置10−1は、ユーザU−1によって利用される。本開示の第2の実施形態では、本開示の第1の実施形態と異なり、情報処理システムは、情報処理装置10−2を有していなくてよい。
図9に示した例では、情報処理装置10−1の画面161−1に、仮想オブジェクトの例としてのアバター20−2が表示されている。アバター20−1が表示される。本開示の第2の実施形態では、本開示の第1の実施形態と異なり、情報処理装置10−1は、アバター20−2の動作をユーザU−1の動作に基づいて制御する。ユーザU−1は、ユーザU−1の動作に基づいて制御されたアバター20−2を見ることができる。
以上、本開示の第2の実施形態に係る情報処理システムの構成例について説明した。
[2.2.情報処理装置の機能構成例]
続いて、本開示の第2の実施形態に係る情報処理装置10の機能構成例について説明する。図10は、本開示の第2の実施形態に係る情報処理装置10の機能構成例を示す図である。図10に示したように、本開示の第2の実施形態に係る情報処理装置10は、本開示の第2の実施形態に係る情報処理装置10と異なり、通信部150を有しておらず、通信制御部113および受信判定部114を有していなくてよい。
以上、本開示の第2の実施形態に係る情報処理装置10の機能構成例について説明した。
[2.3.情報処理システムの機能詳細]
続いて、本開示の第2の実施形態に係る情報処理システムの機能詳細について説明する。図10に示したように、本開示の第2の実施形態に係る情報処理装置10−1において、動作取得部111によって取得されたユーザU−1の動作、動作判定部112によって判定されたユーザU−1の動作判定結果が、同一の情報処理装置10−1の動作生成部115および動作制御部116に出力される。
したがって、本開示の第1の実施形態において他の情報処理装置10−2の動作生成部115によって実行された処理が、本開示の第2の実施形態においては、情報処理装置10−1の動作生成部115によって実行される。同様に、本開示の第1の実施形態において他の情報処理装置10−2の動作制御部116によって実行された処理が、本開示の第2の実施形態においては、情報処理装置10−1の動作制御部116によって実行される。
以上、本開示の第2の実施形態について説明した。
<3.第3の実施形態>
まず、本開示の第3の実施形態について説明する。
[3.1.システム構成例]
まず、本開示の第3の実施形態に係る情報処理システムの構成例について説明する。図11は、本開示の第3の実施形態に係る情報処理システムの構成例を示す図である。図11に示したように、本開示の第3の実施形態に係る情報処理システムは、情報処理装置10−1およびロボット30−1を備える。情報処理装置10−1は、ユーザU−1によって利用される。本開示の第3の実施形態では、本開示の第1の実施形態と異なり、情報処理システムは、情報処理装置10−2を有していなくてよい。
図11に示した例では、実オブジェクトの例としてのロボット30−1が存在している。ここで、実オブジェクトは、ロボット30−1に限定されない。例えば、実オブジェクトは、エージェントなどであってもよい。情報処理装置10−1は、ロボット30−1の動作をユーザU−1の動作に基づいて制御する。ユーザU−1は、ユーザU−1の動作に基づいて制御されたロボット30−1を見ることができる。
以上、本開示の第3の実施形態に係る情報処理システムの構成例について説明した。
[3.2.情報処理装置の機能構成例]
続いて、本開示の第3の実施形態に係る情報処理装置10の機能構成例について説明する。図12は、本開示の第3の実施形態に係る情報処理装置10の機能構成例を示す図である。図12に示したように、本開示の第3の実施形態に係る情報処理装置10は、本開示の第2の実施形態に係る情報処理装置10と異なり、表示部160および音情報出力部170を有しておらず、動作の制御信号および音情報は、ロボット30に出力される。
以上、本開示の第3の実施形態に係る情報処理装置10の機能構成例について説明した。
[3.3.情報処理システムの機能詳細]
続いて、本開示の第3の実施形態に係る情報処理システムの機能詳細について説明する。図12に示したように、本開示の第3の実施形態に係る情報処理装置10−1において、動作取得部111によって取得されたユーザU−1の動作、動作判定部112によって判定されたユーザU−1の動作判定結果が、同一の情報処理装置10−1の動作生成部115および動作制御部116に出力される。
したがって、本開示の第1の実施形態において他の情報処理装置10−2の動作生成部115によって実行された処理が、本開示の第3の実施形態においては、情報処理装置10−1の動作生成部115によって実行される。同様に、本開示の第の実施形態において他の情報処理装置10−2の動作制御部116によって実行された処理が、本開示の第3の実施形態においては、情報処理装置10−1の動作制御部116によって実行される。
図13は、ロボット30−1の動作を制御するための信号の入力の正常が検出された場合におけるロボット30−1の動作制御例を示す図である。図13を参照すると、ロボット30−1の例としてロボット30−4が存在している。
ここで、動作判定部112による動作判定結果が正常である場合、かつ、受信判定部114による受信判定結果が正常である場合を想定する。かかる場合、動作取得部116は、ユーザU−1の動作に対応するようにロボット30−4の動作を制御する。図13を参照すると、ユーザU−1が両手を挙げている動作が認識され、ユーザU−1の動作に合わせて、両手を挙げた動作をするように制御されたロボット30−5が存在している。
続いて、ロボット30−1の動作を制御するための信号の入力の異常が検出された場合を想定する。より具体的には、動作判定部112による動作判定結果が異常である場合、または、受信判定部114による受信判定結果が異常である場合を想定する。かかる場合、動作取得部116は、異常が検出されてからロボット30−1の動作が所定の動作に遷移するまでに、ロボット30−1を、異常が検出された際のロボット30−1の動作および所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する。
例えば、本開示の第1の実施形態と同様に、動作制御部116は、異常が時間T1を超えて検出された場合、異常と関連するロボット30−1の第1の認識対象部位に対応するロボット30−1の制御対象部位の動作を、所定の動作に含まれる第1の動作に遷移させてよい。第1の動作は、本開示の第1の実施形態と同様に、特に限定されない。
図14は、異常が時間T1を超えて検出された場合におけるロボット30−1の動作制御例を示す図である。図14を参照すると、ロボット30−1の例としてロボット30−6が存在している。しかし、ユーザU−1が顔の前に手を位置させているため、ロボット30−6も、顔の前に手を位置させてしまっている。
ここで、ユーザU−1の手が検出されないという異常が時間T1を超えて検出された場合を想定する。かかる場合、動作取得部116は、異常が検出された第1の認識対象部位「ユーザU−1の手」に対応する制御対象部位「ロボット30−6の手」の動作を、第1の動作「揺らぐような動作」に遷移させる。図14を参照すると、手が揺らぐような動作に遷移されたロボット30−8が存在している。
このとき、動作取得部116は、異常が検出された第1の認識対象部位「ユーザU−1の手」の撮像画像における位置に基づいて制御対象部位「ロボット30−6の手」の動作を、第1の動作「揺らぐような動作」に遷移させるとよい。図14に示した例では、第1の認識対象部位「ユーザU−1の手」の異常がユーザU−1の顔の位置で検出されている。そのため、動作取得部116は、顔の位置からは離れた位置に制御対象部位「ロボット30−8の手」を位置させている。
また、動作取得部116は、ロボット30−6の動作がロボット30−8に遷移するまでに(すなわち、異常が検出されてから第1の動作「揺らぐような動作」に遷移するまでに)、ロボット30−6を、異常が検出された際のロボット30−1の動作および所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する。図14を参照すると、ロボット30−7の手の位置が、手の位置とロボット30−8の手の位置との中間となるように制御され、かつ、手の向きが、ロボット30−6の手の向きとロボット30−8の手の向きとの中間となるように制御されたロボット30−7が存在している。
続いて、時間T2を超えて異常が検出された場合を想定する。かかる場合には、例えば、動作制御部116−1は、ロボット30−1の全体の動作を、所定の動作に含まれる第2の動作(標準状態)に遷移させてよい。本開示の第1の実施形態と同様に、第2の動作(標準状態)は特に限定されない。
図15は、異常が時間T2を超えて検出された場合におけるロボット30−1の動作制御例を示す図である。図15を参照すると、ロボット30−1の例としてロボット30−9が存在している。具体的に、異常が時間T1を超え、異常が検出された認識対象部位「ユーザU−1の手」に対応する制御対象部位「ロボット30−9の手」の動作が、第1の動作「揺らぐような動作」に遷移されている。
ここで、ユーザU−1の手が検出されないという異常が時間T2を超えて検出された場合を想定する。かかる場合、動作取得部116−1は、ロボット30−9の全体の動作を、第2の動作(標準状態)「両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作」に遷移させる。図15を参照すると、両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作に遷移されたロボット30−11、30−12が表示されている。
このとき、動作取得部116は、異常が検出された認識対象「ユーザU−1」の撮像画像における位置に基づいてロボット30−9の全体の動作を、第2の動作(標準状態)「両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作」に遷移させるとよい。例えば、認識対象「ユーザU−1」の異常が撮像画像の中央で検出された場合、動作取得部116は、制御対象「ロボット30−11、30−12」を撮像画像の中央に対応する位置に位置させてよい。
また、動作取得部116は、ロボット30−9の動作がロボット30−11、30−12に遷移するまでに(すなわち、異常が検出されてから第2の動作(標準状態)「両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作」に遷移するまでに)、ロボット30−9を、異常が検出された際のロボット30−9の動作および所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する。図15を参照すると、手の位置が、ロボット30−9の手の位置とロボット30−11、30−12の手の位置との中間となるように制御され、かつ、手の向きが、ロボット30−9の手の向きとロボット30−11、30−12の手の向きとの中間となるように制御されたロボット30−10が存在している。
図16は、情報処理装置10−1における動作制御部116の動作の例を示すフローチャートである。図16に示すように、まず、動作制御部116は、ロボットの各部位の位置および姿勢を初期状態に設定する(S21)。
続いて、動作制御部116は、少なくとも一つの認識対象部位に対応する入力が時間T1を超えて異常という条件が成立しない場合(S22において「No」)、各認識対象部位に対応するロボットの部位の位置および姿勢を、対応する認識対象部位の位置および姿勢に応じて制御する(S23)。そして、動作制御部116は、動作をS22に移行させる。
一方、動作制御部116は、少なくとも一つの認識対象部位に対応する入力が時間T1を超えて異常という条件が成立する場合(S22において「Yes」)、時間T1よりも長い時間T2を超えて異常という条件が成立するか否かを判定する(S24)。
動作制御部116は、長い時間T2を超えて異常という条件が成立しない場合(S24において「No」)、入力の異常が時間T1を超えていない認識対象部位に対応するロボットの部位の位置および姿勢を、対応する認識対象部位の位置および姿勢に応じて制御する(S25)。そして、動作制御部116は、時間T1を超えて入力が異常な認識対象部位に対応するロボットの部位が異常検出位置に対応する位置で揺らぎ動作をするように制御する(S26)。そして、動作制御部116は、動作をS22に移行させる。
一方、動作制御部116は、長い時間T2を超えて異常という条件が成立する場合(S24において「Yes」)、各認識対象部位に対応するロボットの部位の位置および姿勢を、標準状態に設定し、その部位が揺らぎ動作をするように制御する(S27)。そして、動作制御部116は、動作をS22に移行させる。
以上、本開示の第3の実施形態について説明した。
<4.ハードウェア構成例>
次に、図17を参照して、本開示の実施形態に係る情報処理装置10のハードウェア構成例について説明する。図17は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
図17に示すように、情報処理装置10は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置10は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置10は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置10は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置10の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能し得る。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro−Luminescence)ディスプレイ、プロジェクタなどの表示装置、ホログラムの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などであり得る。出力装置917は、情報処理装置10の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置10と外部接続機器929との間で各種のデータが交換され得る。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、測距センサ、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置10の筐体の姿勢など、情報処理装置10自体の状態に関する情報や、情報処理装置10の周辺の明るさや騒音など、情報処理装置10の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
<5.むすび>
以上説明したように、本開示の実施形態によれば、オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御する動作制御部を備え、前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる
少なくとも一つの第1の中間動作を行うよう制御する、情報処理装置が提供される。かかる構成によれば、オブジェクトの動作の人間らしさを高めることが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した制御部110が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
例えば、上記した情報処理装置10−1の動作が実現されれば、各構成の位置は特に限定されない。情報処理装置10−1における各部の処理の一部は、情報処理装置10−2によって行われてもよいし、サーバ装置(不図示)によって行われてもよい。具体的な一例として、情報処理装置10−1における制御部110が有する各ブロックの一部または全部は、情報処理装置10−2またはサーバ装置(不図示)などに存在していてもよい。例えば、情報処理装置10−1における動作取得部111、動作判定部112の一部または全部は、情報処理装置10−2またはサーバ装置(不図示)などに存在していてもよい。
同様に、上記した情報処理装置10−2の動作が実現されれば、各構成の位置は特に限定されない。情報処理装置10−2における各部の処理の一部は、情報処理装置10−1によって行われてもよいし、サーバ装置(不図示)によって行われてもよい。具体的な一例として、情報処理装置10−2における制御部110が有する各ブロックの一部または全部は、情報処理装置10−1またはサーバ装置(不図示)などに存在していてもよい。例えば、情報処理装置10−2における動作取得部111、動作判定部112の一部または全部は、情報処理装置10−1またはサーバ装置(不図示)などに存在していてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御する動作制御部を備え、
前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する、
情報処理装置。
(2)
前記所定の動作は第1の動作を含み、
前記動作制御部は、前記信号入力の異常が第1の時間を超えて検出された場合、前記信号入力の異常と関連する前記ユーザの第1の認識対象部位に対応する前記オブジェクトの制御対象部位の動作を前記第1の動作に遷移させる、
前記(1)に記載の情報処理装置。
(3)
前記動作制御部は、前記信号入力の異常が前記第1の時間を超えて検出された場合、撮像画像における前記第1の認識対象部位の位置に基づいて、前記制御対象部位の動作を前記第1の動作に遷移させる、
前記(2)に記載の情報処理装置。
(4)
前記動作制御部は、
前記第1の動作と、前記ユーザの第2の認識対象部位の動作とが関係付けられている場合において、前記信号入力の異常が前記第1の時間を超えて検出された場合、かつ、前記第2の認識対象部位の動作が認識された場合、前記制御対象部位の動作を前記第1の動作に遷移させる、
前記(2)または(3)に記載の情報処理装置。
(5)
前記情報処理装置は、
前記第1の認識対象部位の動作と前記第2の認識対象部位の動作とが単一の撮像画像から認識された場合に、前記第1の認識対象部位の動作と前記第2の認識対象部位の動作とを関連付ける動作生成部を備える、
前記(4)に記載の情報処理装置。
(6)
前記所定の動作は第2の動作を含み、
前記動作制御部は、前記信号入力の異常が前記第1の時間よりも長い第2の時間を超えて検出された場合、前記オブジェクトの全体の動作を前記第2の動作に遷移させる、
前記(2)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記動作制御部は、前記信号入力の異常が前記第2の時間を超えて検出された場合、撮像画像における前記第1の認識対象部位の位置に基づいて前記オブジェクトの全体の動作を前記第2の動作に遷移させる、
前記(6)に記載の情報処理装置。
(8)
前記情報処理装置は、
前記ユーザの行動状態が所定の条件を満たす場合に、前記ユーザの行動状態に基づいて前記第2の動作を生成する動作生成部を備える、
前記(6)に記載の情報処理装置。
(9)
前記所定の条件は、前記ユーザの発話量が所定量よりも少ないという条件および前記ユーザの動きが所定の動きよりも小さいという条件の少なくともいずれか一つを含む、
前記(8)に記載の情報処理装置。
(10)
前記第2の動作は、互いに異なる複数の動作を含み、
前記動作制御部は、前記信号入力の異常が前記第2の時間を超えて検出された場合、前記オブジェクトの全体の動作が前記複数の動作の間で切り替えられるように前記オブジェクトの全体の動作を制御する、
前記(6)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記動作制御部は、前記信号入力の異常が前記第2の時間を超えて検出された場合、前記オブジェクトの全体の動作を、前記ユーザの動作に基づいて選択された前記第2の動作に遷移させる、
前記(6)〜(9)のいずれか一項に記載の情報処理装置。
(12)
前記信号入力から認識される前記ユーザの動作が所定の動作範囲に収まらない場合に、前記信号入力の異常が検出される、
前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記情報処理装置は、
前記ユーザの動作に応じた前記信号入力を生成する外部装置から受信される前記信号入力の異常を検出する受信判定部を備える、
前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(14)
前記受信判定部は、前記外部装置から受信する前記信号入力が示す前記オブジェクトの動作を制御するための値が、所定の回数以上連続して同一の値を示す場合、前記信号入力の異常を検出する、
前記(13)に記載の情報処理装置。
(15)
前記受信判定部は、前記信号入力が所定の時間を超えて受信されない場合、前記信号入力の異常を検出する、
前記(13)に記載の情報処理装置。
(16)
前記動作制御部は、前記信号入力の異常が検出された後に前記信号入力の正常が検出された場合に、前記オブジェクトの動作を前記所定の動作から前記ユーザの動作に基づくように遷移させるまでに、前記オブジェクトを、前記所定の動作とは異なる少なくとも一つの第2の中間動作を行うよう制御する、
前記(1)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記オブジェクトは、実空間に存在する実オブジェクトを含む、
前記(1)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記オブジェクトは、仮想空間に存在する仮想オブジェクトを含む、
前記(1)〜(16)のいずれか一項に記載の情報処理装置。
(19)
オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御することを含み、
プロセッサにより、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御することを含む、
情報処理方法。
(20)
コンピュータを、
オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御する動作制御部を備え、
前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する、
情報処理装置として機能させるためのプログラム。
1 情報処理システム
10 情報処理装置
20 アバター
30 ロボット
110 制御部
111 動作取得部
112 動作判定部
113 通信制御部
114 受信判定部
115 動作生成部
116 動作制御部
120 撮像部
130 音情報検出部
140 記憶部
150 通信部
160 表示部
170 音情報出力部

Claims (19)

  1. オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、第1の動作を含む所定の動作を継続するように前記オブジェクトの動作を制御し、
    前記信号入力の異常が第1の時間を超えて検出された場合、前記信号入力の異常と関連する前記ユーザの第1の認識対象部位に対応する前記オブジェクトの制御対象部位の動作を前記第1の動作に遷移させる動作制御部を備え、
    前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する、
    情報処理装置。
  2. 前記動作制御部は、前記信号入力の異常が前記第1の時間を超えて検出された場合、撮像画像における前記第1の認識対象部位の位置に基づいて、前記制御対象部位の動作を前記第1の動作に遷移させる、
    請求項に記載の情報処理装置。
  3. 前記動作制御部は、
    前記第1の動作と、前記ユーザの第2の認識対象部位の動作とが関係付けられている場合において、前記信号入力の異常が前記第1の時間を超えて検出された場合、かつ、前記第2の認識対象部位の動作が認識された場合、前記制御対象部位の動作を前記第1の動作に遷移させる、
    請求項に記載の情報処理装置。
  4. 前記情報処理装置は、
    前記第1の認識対象部位の動作と前記第2の認識対象部位の動作とが単一の撮像画像から認識された場合に、前記第1の認識対象部位の動作と前記第2の認識対象部位の動作とを関連付ける動作生成部を備える、
    請求項に記載の情報処理装置。
  5. 前記所定の動作は第2の動作を含み、
    前記動作制御部は、前記信号入力の異常が前記第1の時間よりも長い第2の時間を超えて検出された場合、前記オブジェクトの全体の動作を前記第2の動作に遷移させる、
    請求項に記載の情報処理装置。
  6. 前記動作制御部は、前記信号入力の異常が前記第2の時間を超えて検出された場合、撮像画像における前記第1の認識対象部位の位置に基づいて前記オブジェクトの全体の動作を前記第2の動作に遷移させる、
    請求項に記載の情報処理装置。
  7. 前記情報処理装置は、
    前記ユーザの行動状態が所定の条件を満たす場合に、前記ユーザの行動状態に基づいて前記第2の動作を生成する動作生成部を備える、
    請求項に記載の情報処理装置。
  8. 前記所定の条件は、前記ユーザの発話量が所定量よりも少ないという条件および前記ユーザの動きが所定の動きよりも小さいという条件の少なくともいずれか一つを含む、
    請求項に記載の情報処理装置。
  9. 前記第2の動作は、互いに異なる複数の動作を含み、
    前記動作制御部は、前記信号入力の異常が前記第2の時間を超えて検出された場合、前記オブジェクトの全体の動作が前記複数の動作の間で切り替えられるように前記オブジェクトの全体の動作を制御する、
    請求項に記載の情報処理装置。
  10. 前記動作制御部は、前記信号入力の異常が前記第2の時間を超えて検出された場合、前記オブジェクトの全体の動作を、前記ユーザの動作に基づいて選択された前記第2の動作に遷移させる、
    請求項に記載の情報処理装置。
  11. 前記信号入力から認識される前記ユーザの動作が所定の動作範囲に収まらない場合に、前記信号入力の異常が検出される、
    請求項1に記載の情報処理装置。
  12. 前記情報処理装置は、
    前記ユーザの動作に応じた前記信号入力を生成する外部装置から受信される前記信号入力の異常を検出する受信判定部を備える、
    請求項1に記載の情報処理装置。
  13. 前記受信判定部は、前記外部装置から受信する前記信号入力が示す前記オブジェクトの動作を制御するための値が、所定の回数以上連続して同一の値を示す場合、前記信号入力の異常を検出する、
    請求項12に記載の情報処理装置。
  14. 前記受信判定部は、前記信号入力が所定の時間を超えて受信されない場合、前記信号入力の異常を検出する、
    請求項12に記載の情報処理装置。
  15. 前記動作制御部は、前記信号入力の異常が検出された後に前記信号入力の正常が検出された場合に、前記オブジェクトの動作を前記所定の動作から前記ユーザの動作に基づくように遷移させるまでに、前記オブジェクトを、前記所定の動作とは異なる少なくとも一つの第2の中間動作を行うよう制御する、
    請求項1に記載の情報処理装置。
  16. 前記オブジェクトは、実空間に存在する実オブジェクトを含む、
    請求項1に記載の情報処理装置。
  17. 前記オブジェクトは、仮想空間に存在する仮想オブジェクトを含む、
    請求項1に記載の情報処理装置。
  18. オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、第1の動作を含む所定の動作を継続するように前記オブジェクトの動作を制御し、
    前記信号入力の異常が第1の時間を超えて検出された場合、前記信号入力の異常と関連する前記ユーザの第1の認識対象部位に対応する前記オブジェクトの制御対象部位の動作を前記第1の動作に遷移させることを含み、
    プロセッサにより、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御することを含む、
    情報処理方法。
  19. コンピュータを、
    オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、第1の動作を含む所定の動作を継続するように前記オブジェクトの動作を制御し、
    前記信号入力の異常が第1の時間を超えて検出された場合、前記信号入力の異常と関連する前記ユーザの第1の認識対象部位に対応する前記オブジェクトの制御対象部位の動作を前記第1の動作に遷移させる動作制御部を備え、
    前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する、
    情報処理装置として機能させるためのプログラム。
JP2019519083A 2017-05-18 2018-03-13 情報処理装置、情報処理方法およびプログラム Active JP6927295B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017098755 2017-05-18
JP2017098755 2017-05-18
PCT/JP2018/009601 WO2018211798A1 (ja) 2017-05-18 2018-03-13 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2018211798A1 JPWO2018211798A1 (ja) 2020-05-14
JP6927295B2 true JP6927295B2 (ja) 2021-08-25

Family

ID=64274224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019519083A Active JP6927295B2 (ja) 2017-05-18 2018-03-13 情報処理装置、情報処理方法およびプログラム

Country Status (4)

Country Link
US (1) US11372473B2 (ja)
JP (1) JP6927295B2 (ja)
CN (1) CN110612552A (ja)
WO (1) WO2018211798A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4273851A4 (en) 2021-02-12 2024-06-05 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146435A (ja) 2004-11-17 2006-06-08 Univ Waseda 動作伝達システムおよび動作伝達方法
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9245177B2 (en) 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
US8448056B2 (en) * 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US9652992B2 (en) * 2012-10-09 2017-05-16 Kc Holdings I Personalized avatar responsive to user physical state and context
US10007332B2 (en) * 2015-09-28 2018-06-26 Interblock D.D. Electronic gaming machine in communicative control with avatar display from motion-capture system
CA3042490A1 (en) * 2015-11-06 2017-05-11 Mursion, Inc. Control system for virtual characters
US11318350B2 (en) * 2016-12-29 2022-05-03 BioMech Sensor LLC Systems and methods for real-time data quantification, acquisition, analysis, and feedback

Also Published As

Publication number Publication date
WO2018211798A1 (ja) 2018-11-22
CN110612552A (zh) 2019-12-24
JPWO2018211798A1 (ja) 2020-05-14
US11372473B2 (en) 2022-06-28
US20210333862A1 (en) 2021-10-28

Similar Documents

Publication Publication Date Title
US10162594B2 (en) Information processing device, method of information processing, and program
US20200258314A1 (en) Information processing device, information processing method, and recording medium
JP6897728B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN108431728A (zh) 信息处理设备、信息处理方法以及程序
EP3528024B1 (en) Information processing device, information processing method, and program
US11151804B2 (en) Information processing device, information processing method, and program
WO2014185170A1 (ja) 画像処理装置、画像処理方法およびプログラム
JP6504058B2 (ja) 情報処理システム、情報処理方法およびプログラム
JP6627775B2 (ja) 情報処理装置、情報処理方法およびプログラム
TWI467413B (zh) 掌上型電子裝置及其螢幕畫面自動旋轉方法
JP6927295B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6969577B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2018168222A1 (ja) 情報処理装置、撮像装置および電子機器
JP6065084B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7156301B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2019054037A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7078036B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2021182174A (ja) 情報処理装置、情報処理方法およびプログラム
WO2024195562A1 (ja) 情報処理装置、情報処理方法、プログラム
WO2022196093A1 (ja) 情報処理装置、視線検出方法、プログラム
WO2016147693A1 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210719

R151 Written notification of patent or utility model registration

Ref document number: 6927295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151