JP2019005846A - ロボット、ロボットの制御方法及びプログラム - Google Patents

ロボット、ロボットの制御方法及びプログラム Download PDF

Info

Publication number
JP2019005846A
JP2019005846A JP2017123607A JP2017123607A JP2019005846A JP 2019005846 A JP2019005846 A JP 2019005846A JP 2017123607 A JP2017123607 A JP 2017123607A JP 2017123607 A JP2017123607 A JP 2017123607A JP 2019005846 A JP2019005846 A JP 2019005846A
Authority
JP
Japan
Prior art keywords
imaging
predetermined
robot
image
predetermined part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017123607A
Other languages
English (en)
Inventor
哲司 牧野
Tetsuji Makino
哲司 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017123607A priority Critical patent/JP2019005846A/ja
Priority to US15/988,667 priority patent/US20180376069A1/en
Priority to CN201810640812.0A priority patent/CN109108962A/zh
Publication of JP2019005846A publication Critical patent/JP2019005846A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40413Robot has multisensors surrounding operator, to understand intention of operator
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Hospice & Palliative Care (AREA)
  • Acoustics & Sound (AREA)
  • Child & Adolescent Psychology (AREA)
  • Image Analysis (AREA)

Abstract

【課題】誤作動を防ぐことができるロボット、ロボットの制御方法及びプログラムを提供する。
【解決手段】ロボット100は、動作手段と、撮像部104と、動作制御手段と、判定部114と、撮像制御手段と、を備える。撮像部104は、所定の部位に配置されて被写体を撮像する。動作制御手段は、動作手段を制御して所定の部位を動かす。判定部114は、撮像部104が被写体を撮像している時に、動作制御手段が所定の部位を動かしているか否かを判定する。撮像制御手段は、判定部114によって所定の部位を動かしていると判定されると、所定の部位の動きが被写体の画像に影響を与えないように撮像手段を制御する。
【選択図】図2

Description

本発明は、ロボット、ロボットの制御方法及びプログラムに関する。
人間や動物等に模した形状を有し、ユーザに感情表現をすることができるロボットが知られている。特許文献1は、頭部を傾動させる頭部傾動機構と頭部を回動させる頭部回動機構とを備え、頭部傾動動作と頭部回動動作との組み合わせ動作により、頭部の頷きや首ふりなどの感情表現を実施するロボットを開示している。
特開2016−101441号公報
カメラを頭部などの可動部に配置すると、頭部の頷きや首ふりなどの動作を実行した際、カメラの撮像範囲も連動して変動する。カメラの撮像範囲が変動すると、カメラで撮像した画像の解析に影響する。画像の解析が誤って実施されると、それに応じて実施されるロボットの動作に誤動作が生じる虞がある。
本発明は、上記のような課題を解決するためになされたものであり、誤作動を防ぐことができるロボット、ロボットの制御方法及びプログラムを提供することを目的とする。
本発明の目的を達成するため、本発明に係るロボットの一様態は、
自装置を動作させる動作手段と、
所定の部位に配置されて被写体を撮像する撮像手段と、
前記動作手段を制御して前記所定の部位を動かす動作制御手段と、
前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段と、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御手段と、
を備える、
ことを特徴とする。
また、本発明の目的を達成するため、本発明に係るロボットの制御方法の一様態は、
自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットの制御方法であって、
前記動作手段を制御して前記所定の部位を動かす動作制御ステップと、
前記撮像手段が前記被写体を撮像している時に、前記動作制御ステップで前記所定の部位を動かしているか否かを判定する判定ステップと、
前記判定ステップによって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御ステップと、
を含む、
ことを特徴とする。
また、本発明の目的を達成するため、本発明に係るプログラムの一様態は、
自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットを制御するコンピュータを、
前記動作手段を制御して前記所定の部位を動かす動作制御手段、
前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御手段、
として機能させる、
ことを特徴とする。
本発明によれば、誤作動を防ぐことができるロボット、ロボットの制御方法及びプログラムを提供することができる。
本発明の第1の実施の形態に係るロボットを示す図である。 本発明の第1の実施の形態に係るロボットの構成を示すブロック図である。 本発明の第1の実施の形態に係る感情表現処理を示すフローチャートである。 本発明の第2の実施の形態に係るロボットを示す図である。 本発明の第2の実施の形態に係るロボットの構成を示すブロック図である。 本発明の第2の実施の形態に係る感情表現処理を示すフローチャートである。 本発明の第2の実施の形態に係る感情動作処理を示すフローチャートである。 本発明の第2の実施の形態の変形例に係る撮像部が撮像した画像を示す図である。 本発明の第2の実施の形態の変形例に係る撮像部が撮像した画像を示す図である。 本発明の第2の実施の形態の変形例に係る撮像部が撮像した画像を示す図である。 本発明の第3の実施の形態に係るロボットを示す図である。 本発明の第3の実施の形態に係るロボットの構成を示すブロック図である。 本発明の第3の実施の形態に係る感情表現処理を示すフローチャートである。 本発明の第3の実施の形態に係る感情動作処理を示すフローチャートである。
以下、本発明を実施するための形態に係るロボットを図面を参照しながら説明する。
(第1の実施の形態)
本発明の実施形態に係るロボットは、画像を撮像する撮像部を頭部に有して、所定の対象であるユーザなどの動き、表情などを捉え、ユーザなどの動き、表情などに応じて(即ち、ユーザとの交流を介する交流動作をするように)自律的に動作するロボット装置である。ロボット100は、図1に示すように、人をデフォルメした形状を有し、目と耳とを模した部材が配置された、所定の部位である頭部101と、手と足とを模した部材が配置された胴体部102と、胴体部102に頭部101を連結する首関節103と、頭部101に配置された撮像部104と、胴体部102の内部に配置された制御部110および電源部120と、胴体部102の背中に設けられた操作ボタン130と、を備える。
首関節103は、頭部101と胴体部102とを連結する部材であり、頭部101を回転する複数のモータを有する。複数のモータは、後述する制御部110により駆動される。頭部101は、首関節103により、胴体部102に対して、ピッチ軸Xmの軸回り、ロール軸Zmの軸回り、ヨー軸Ymの軸回りに回転可能である。首関節103は、動作手段の1例として機能する。
撮像部104は、頭部101の前面の下部、人の顔でいうところの鼻の位置に設けられている。撮像部104は、制御部110の制御に基づいて、所定の対象を所定の時間毎(例えば、1/60秒毎)に撮像し、撮像した画像を後述する制御部110に出力する。撮像部104は、撮像手段として機能する。
電源部120は、胴体部102に内蔵された充電池から構成され、ロボット100の各部に電力を供給する。
操作ボタン130は、胴体部102の背中に設けられ、ロボット100を操作するためのボタンであり、電源ボタンを含む。
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)から構成される。制御部110は、CPUがROMに記憶されたプログラムを読み出してRAM上で実行することにより、図2に示すように、画像取得部111と、画像解析部112と、表現制御部(動作制御部)113と、判定部114として機能する。
画像取得部111は、撮像部104の撮像動作を制御し、撮像部104が撮像した画像を取得し、取得した画像をRAMに記憶する。画像取得部111は、後述する感情動作フラグがOFFであるとき、撮像部104が撮像した画像を取得し、感情動作フラグがONであるとき、撮像部104が撮像した画像の取得を停止する。又は、撮像部104により撮像された画像の記録を停止する。なお、以下の説明では、画像取得部111が取得した画像を取得画像とも表記する。画像取得部111は、撮像制御手段として機能する。
画像解析部112は、RAMに記憶された取得画像を解析し、ユーザの顔の表情を判別する。ユーザの顔の表情は、「喜」の表情、「怒」の表情を含む。まず、画像解析部112は、公知の手法を用いて、ユーザの顔を検出する。例えば、取得画像内で、予めROMに記憶した人間の顔のテンプレートに合致する部分をユーザの顔として検出する。画像解析部112は、ユーザの顔を取得画像の中心部に検出しないときは、頭部101を上下左右に動かし、ユーザの顔を取得画像の中心部で検出した向きで停止する。つぎに、画像解析部112は、公知の手法を用いて、取得画像中で顔として検出した部分に写る口元の形状に基づいて表情を判別する。例えば、画像解析部112は、口元の形状が口角の上がっている形状であると判定すると、「喜」の表情であると判別する。画像解析部112は、口元の形状が口角の下がっている形状であると判定すると、「怒」の表情であると判別する。画像解析部112は、画像解析手段として機能する。
表現制御部113は、画像解析部112により判別されたユーザの顔の表情に基づいて、首関節103に頭部101を感情動作させる。例えば、画像解析部112が、ユーザの表情を「喜」の表情であると判別すると、表現制御部113は、首関節103に頭部101を縦に振る感情動作(頷き動作)として、ピッチ軸Xmの軸回りに往復動作させる。画像解析部112が、ユーザの表情を「怒」の表情であると判別すると、表現制御部113は、首関節103に頭部101を横に振る感情動作(首ふり動作)として、ヨー軸Ymの軸回りに往復動作させる。表現制御部113は、感情動作を開始すると、感情動作フラグをONにし、RAMに記憶する。これにより、表現制御部113の制御モードが変更される。表現制御部113は、感情動作を開始して一定期間(例えば、5秒)経過すると、感情動作を停止する。表現制御部113(動作制御部)は、動作制御手段として機能する。
判定部114は、表現制御部113によりロボット100が感情動作しているか否かを判定する。判定部114は、ロボット100が感情動作を終了したと判定すると、感情動作フラグをOFFにし、RAMに記憶する。判定部114は、ロボット100が感情動作を終了していないと判定すると、感情動作フラグをONにしたままにする。なお、電源投入時には、判定部114は、感情動作フラグをOFFにし、RAMに記憶する。判定部114は、判定手段として機能する。
つぎに、以上の構成を有するロボット100が実行する感情表現処理について説明する。感情表現処理は、ユーザの顔の表情を判別し、ユーザの顔の表情に応じて頭部101を動作させる処理である。
ユーザが操作ボタン130を操作し電源をONにすると、ロボット100は電源をONにする指示に応答し、図3に示す感情表現処理を開始する。以下、ロボット100が実行する感情表現処理を、フローチャートを用いて説明する。
まず、画像取得部111は、撮像部104に撮像を開始させる(ステップS101)。つぎに、判定部114は、感情表現フラグをOFFにし、RAMに記憶する(ステップS102)。つぎに、画像取得部111は、撮像部104が撮像した画像を取得する(ステップS103)。画像取得部111は、取得した画像をRAMに記憶する。
つぎに、画像解析部112は、公知の手法を用いて、取得画像を解析しユーザの顔を検出し、取得画像の中心部にユーザの顔を検出したか否かを判定する(ステップS104)。画像解析部112は、例えば、取得画像内で、予めROMに記憶した人間の顔のテンプレートに合致する部分をユーザの顔として検出し、検出した顔が取得画像の中心部にあるか否かを判定する。画像解析部112が、取得画像の中心部にユーザの顔を検出していないと判定すると(ステップS104;NO)、画像解析部112は、ロボット100の頭部101を上下左右の何れかの向きに動かす(ステップS105)。例えば、取得画像の右部にユーザの顔を検出していた場合、頭部101を左に向くように、ヨー軸Ymの軸回りに回転する。つぎに、ステップS103に戻って、画像解析部112は、撮像した画像を新たに取得する(ステップS103)。つぎに、画像解析部112は、新たに取得した取得画像の中心部にユーザの顔を検出したか否かを判定する(ステップS104)。
つぎに、取得画像の中心部にユーザの顔を検出したと判定すると(ステップS104;YES)、画像解析部112は、ユーザの表情を解析する(ステップS106)。つぎに、画像解析部112は、ユーザの表情が「喜」または「怒」の表情であるか否かを判別する(ステップS107)。例えば、画像解析部112は、口元の形状が口角の上がっている形状であると判定すると、「喜」の表情であると判別する。画像解析部112は、口元の形状が口角の下がっている形状であると判定すると、「怒」の表情であると判別する。つぎに、ユーザの表情が「喜」または「怒」の表情でないと判別されると(ステップS107;NO)、ステップS103に戻って、ステップS103からステップS107を繰り返す。
つぎに、ユーザの表情が「喜」または「怒」の表情であると判別されると(ステップS107;YES)、表現制御部113は、感情動作フラグをONにし、RAMに記憶する(ステップS108)。つぎに、画像取得部111は、画像の取得を停止する(ステップS109)。即ち、撮像部104の撮像を停止する、又は、撮像部104により撮像された画像の記録を停止する。表現制御部113は、画像解析部112により判別されたユーザの顔の表情に基づいて、首関節103に頭部101を感情動作としての動作を実施する(ステップS110)。例えば、ユーザの表情を「喜」の表情であると判別した場合、表現制御部113は、首関節103に頭部101を縦に振る感情動作として、ピッチ軸Xmの軸回りに往復動作させる。画像解析部112が、ユーザの表情を「怒」の表情であると判別した場合、表現制御部113は、首関節103に頭部101を横に振る感情動作として、ヨー軸Ymの軸回りに往復動作させる。
つぎに、判定部114は、表現制御部113によりロボット100が感情動作を終了したか否かを判定する(ステップS111)。判定部114が、感情動作を終了していないと判定すると(ステップS110;NO)、ステップS110に戻り、感情動作を終了するまで、ステップS110からステップS111を繰り返す。なお、表現制御部113は、感情動作を開始して一定期間(例えば、5秒)経過すると、感情動作を停止する。
判定部114は、感情動作を終了したと判定すると(ステップS111;YES)、感情動作フラグをOFFにし、RAMに記憶する(ステップS112)。つぎに、画像取得部111は、画像の取得を開始する(ステップS113)。つぎに、ユーザにより操作ボタン130に終了指示が入力されたか否かを判定する(ステップS114)。操作ボタン130に終了指示が入力されていない場合(ステップS114;NO)、ステップS103に戻って、ステップS103からステップS112を繰り返す。操作ボタン130に終了指示が入力された場合(ステップS114;YES)、感情表現処理を終了する。
以上のように、ロボット100によれば、感情表現を実施していない場合、撮像部104により撮像された画像の取得を開始し、感情表現を実施している場合、画像取得部111は、撮像部104が撮像した画像の取得を停止する。これにより、画像解析部112は、頭部101が動いていない時に、ユーザの表情を解析する。一方、頭部101が感情表現するために動いている時に、ユーザの表情の解析を停止する。このため、ロボット100は、頭部101が動いていない時に撮像されたブレのない画像に基づいて、感情表現を実施できる。頭部101が動いている時に撮像された画像は、ブレている虞があり、頭部101が動いている時に撮像された画像を取得しない。これらにより、ロボット100の誤動作を防ぐことができる。また、ロボット100は、ユーザの顔を取得画像の中心部に検出しないときは、頭部101を上下左右に動かし、ユーザの顔を取得画像の中心部で検出した向きで停止する。これにより、ロボット100の頭部101の視線がユーザに向いているように見せることができる。
(第1の実施の形態の変形例)
第1の実施の形態のロボット100では、感情動作を実施していない場合、画像取得部111が、撮像部104により撮像された画像を取得し、感情動作を実施している場合、画像取得部111が、撮像部104により撮像された画像の取得を停止する例について説明した。第1の実施の形態のロボット100は、感情動作を実施していない場合、ユーザの表情を解析し、感情動作を実施している場合、ユーザの表情の解析を停止できればよい。例えば、画像取得部111は、感情動作を実施していない場合、撮像部104に画像を撮像するように制御し、感情動作を実施している場合、撮像部104に画像の撮像を停止するように制御してもよい。また、画像解析部112は、感情動作を実施していない場合、ユーザの表情を解析し、感情動作を実施している場合、ユーザの表情の解析を停止するように制御してもよい。
また、ロボット100では、表現制御部113は、感情動作を実施する直前の首関節103の角度をRAMに記録しておき、感情動作を終了したとき、首関節103の角度を感情動作を実施する直前の首関節103の角度に戻してもよい。このようにすることで、感情動作終了後に頭部101の視線をユーザに向けることができる。
また、画像解析部112は、予め特定の人の顔のデータをROMに記憶しておいてもよい。画像解析部112が、画像取得部111により取得した画像に予め記憶した特定の人の顔が写っていると判定したとき、表現制御部113が、頭部101の感情動作を実行するようにしてもよい。
(第2の実施の形態)
上述の第1の実施の形態のロボット100では、感情表現を実施している場合に、ユーザの表情の解析を停止する例について説明した。第2の実施の形態のロボット200では、感情表現を実施している場合に、頭部101の動きを相殺するように、画像の撮像範囲を上下左右に動かす例について説明する。
第2の実施の形態のロボット200では、図4に示すように、撮像部204は、そのレンズの光軸が縦方向Xcおよび横方向Ycに動くように配置されている。また、第2の実施の形態の制御部210は、図5に示すように、第1の実施の形態のロボット100の制御部110の機能に加えて、撮像制御部115として機能する。第2の実施の形態のロボット200のその他の構成は、第1の実施の形態と同じである。
図4に示す撮像部204は、頭部101の前面の下部、人の顔でいうところの鼻の位置に設けられている。撮像部204は、制御部110の制御に基づいて、所定の対象を所定の時間毎に撮像し、撮像した画像を後述する制御部210に出力する。また、撮像部204は、制御部210の制御に基づいて、撮像範囲が上下に動くように、レンズの光軸が縦方向Xc、または撮像範囲が左右に動くように、レンズの光軸が横方向Ycに首振り動作する。
図5に示す撮像制御部115は、感情動作フラグがONになっているとき、頭部101の動きを相殺するように、撮像部204の向きを制御する。頭部101がピッチ軸Xmの軸回りに往復動作したとき、撮像部204は、制御部210の制御に基づいて、頭部101の動きを相殺するように、縦方向Xcに首振り動作する。頭部101がヨー軸Ymの軸回りに往復動作したとき、撮像部204は、制御部210の制御に基づいて、頭部101の動きを相殺するように、横方向Ycに首振り動作する。撮像制御部115は、撮像制御手段として機能する。
つぎに、以上の構成を有するロボット200が実行する感情表現処理について説明する。第2の実施の形態の感情表現処理のステップS201からステップS208は、第1の実施の形態の感情表現処理のステップS101からステップS108と同じである。ステップS209以降の感情表現処理について図6および図7を参照しながら説明する。
表現制御部113が、ステップS208で感情動作フラグをONにして、RAMに記憶すると、表現制御部113は、感情動作処理を実行する(ステップS209)。感情動作処理を開始すると、図7に示すように、撮像制御部115は、頭部101の動きを相殺する、撮像部204のレンズの光軸の向きの制御を開始する(ステップS301)。具体的には、頭部101がピッチ軸Xmの軸回りに往復動作したとき、撮像部204は、制御部210の制御に基づいて、頭部101の動きを相殺するように、縦方向Xcに首振り動作する制御を開始する。頭部101がヨー軸Ymの軸回りに往復動作したとき、撮像部204は、制御部210の制御に基づいて、頭部101の動きを相殺するように、横方向Ycに首振り動作する制御を開始する。
つぎに、表現制御部113は、画像解析部112により判別されたユーザの顔の表情に基づいて、首関節103に頭部101を動作させる(ステップS302)。例えば、ユーザの表情を「喜」の表情であると判別した場合、表現制御部113は、首関節103に頭部101を縦に振る感情動作として、ピッチ軸Xmの軸回りに往復動作させる。画像解析部112が、ユーザの表情を「怒」の表情であると判別した場合、表現制御部113は、首関節103に頭部101を横に振る感情動作として、ヨー軸Ymの軸回りに往復動作させる。このとき、撮像制御部115は、頭部101の動きを相殺するように、撮像部204のレンズの光軸の向きの制御する。このため、撮像部204は、ブレのない画像を撮像することができる。
つぎに、画像取得部111は、ユーザを撮像した画像を取得する(ステップS303)。つぎに、画像解析部112は、ユーザの表情を解析する(ステップS304)。つぎに、画像解析部112は、ユーザの表情が「喜」または「怒」の表情であるか否かを判別する(ステップS305)。例えば、画像解析部112は、口元の形状が口角の上がっている形状であると判定すると、「喜」の表情であると判別する。画像解析部112は、口元の形状が口角の下がっている形状であると判定すると、「怒」の表情であると判別する。つぎに、ユーザの表情が「喜」または「怒」の表情であると判別すると(ステップS305;YES)、ステップS302に戻って、新たに判定したユーザの顔の表情に基づいて、首関節103に頭部101を感情動作させる(ステップS302)。
ユーザの表情が「喜」または「怒」の表情でないと判別すると(ステップS305;NO)、判定部114は、表現制御部113によりロボット100が感情動作を終了した否かを判定する(ステップS306)。判定部114が、感情動作を終了していないと判定すると(ステップS306;NO)、ステップS302に戻り、感情動作を終了するまで、ステップS302からステップS306を繰り返す。なお、表現制御部113は、感情動作を開始して一定期間経過すると、感情動作を停止する。
判定部114は、感情動作を終了したと判定すると(ステップS306;YES)、図6に戻って、感情動作フラグをOFFにし、RAMに記憶する(ステップS210)。つぎに、撮像制御部115は、撮像部204のレンズの光軸の向きの制御を停止する(ステップS211)。つぎに、ユーザにより操作ボタン130に終了指示が入力されたか否か判定する(ステップS212)。操作ボタン130に終了指示が入力されていない場合(ステップS212;NO)、ステップS203に戻って、ステップS203からステップS212を繰り返す。操作ボタン130に終了指示が入力された場合(ステップS212;YES)、感情表現処理を終了する。
以上のように、ロボット200によれば、感情表現を実施している場合、撮像制御部115は、頭部101の動きを相殺するように、撮像部204の向きを制御する。これにより、感情動作を実施している間に撮像部204で撮像した画像にブレが少なくなる。このため、感情表現を実施しているときであっても、ユーザの表情の解析を正確に実施することができ、ロボット200の誤動作を防ぐことができる。また、ロボット200は、感情表現を実施している時に、ユーザの表情を解析できる。このため、例えば、ロボット200が「喜」の感情表現をしている間に、ユーザの表情を解析し、ユーザの表情が「怒」であると判定すると、ロボット200は、「怒」の感情表現に変更することが可能である。
(第2の実施の形態の変形例)
第2の実施の形態のロボット200では、感情動作を実施している時に、撮像制御部115は、頭部101の動きを相殺するように、撮像部204の向きを制御する例について説明した。第2の実施の形態のロボット200は、撮像した画像のブレを少なくすることができればこの例に限定されない。例えば、画像取得部111は、撮像部204が撮像した画像をトリミングした画像を取得し、頭部101の動きを相殺するように、画像をトリミングする範囲を変更してもよい。
具体的には、画像取得部111は、図8に示すように、画像Iの一部を、ユーザなどの所定の対象TGを含むように切り出したトリミング画像TIを取得し、画像解析部112は、トリミング画像TIを解析し、ユーザ等の所定の対象TGの表情を判別する。このとき所定の対象TGは、画像Iの中心部に写っている。感情表現するために頭部101が左に向くと、図9に示すように、撮像範囲が左にずれる。このため、画像Iに写る所定の対象TGは、画像Iの右に異動する。このとき、画像取得部111は、頭部101が左に向いた分だけ、トリミングする範囲を右に移動する。画像取得部111は、図9に示すトリミング画像TIを取得する。頭部101が右に向くと、図10に示すように、撮像範囲が右にずれる。このため、画像Iに写る所定の対象TGは、画像Iの左に異動する。このとき、画像取得部111は、頭部101が右に向いた分だけ、トリミングする範囲を左に移動する。画像取得部111は、図10に示すトリミング画像TIを取得する。頭部101が上下に首振りした場合には、トリミングする範囲を上下に変更する。このようにすることで、撮像部204を動かすことなく、ブレの少ない画像を得ることができ、ロボット200の誤動作を防ぐことができる。なお、撮像部204は、広角レンズまたは魚眼レンズを備えるとよい。このようにすることで、頭部101の首振り角が大きくても所定の対象TGを撮像することができる。
(第3の実施の形態)
上述の第1の実施の形態のロボット100および第2の実施の形態のロボット200では、撮像部104、204で所定の対象を撮像し、感情表現する例について説明した。第3の実施の形態のロボット300では、マイクで収音した音声に基づいて、感情表現する例について説明する。
第3の実施の形態のロボット300は、図11に示すように、音声を収音するマイク群105を備えている。また、第3の実施の形態の制御部310は、図12に示すように、第1の実施の形態のロボット100の制御部110の機能に加えて、音声取得部116と、音声解析部117と、して機能する。第3の実施の形態のロボット300のその他の構成は、第1の実施の形態と同じである。
図11に示すマイク群105は、頭部101の人の顔でいうところの額の位置に配置され、5つのマイク105a〜105eを含み、音声取得部116に収音した音声を入力する。5つのマイク105a〜105eは、それぞれ異なる向きから到達する音声を収音する。マイク105aは、マイク群105が配置されている部分の中心に配置され、ロボット300からみて正面の音声を収音する。マイク105bは、ロボット300からみて、マイク群105が配置されている部分の右に配置され、マイク105aで収音する範囲より右の範囲から発生した音声を収音する。マイク105cは、ロボット300からみて、マイク群105が配置されている部分の左に配置され、マイク105aで収音する範囲より左の範囲から発生した音声を収音する。マイク105dは、ロボット300からみて、マイク群105が配置されている部分の下に配置され、マイク105aで収音する範囲より下の範囲から発生した音声を収音する。マイク105eは、ロボット300からみて、マイク群105が配置されている部分の上に配置され、マイク105aで収音する範囲より上の範囲から発生した音声を収音する。
図12に示す音声取得部116は、マイク群105により収音された音声を取得し、RAMに記憶する。音声取得部116は、感情動作フラグOFFのとき、マイク105aで収音した音声を取得する。音声取得部116は、感情動作フラグONのとき、頭部101を動かした向きと逆の向きの方向から到達する音声を取得するように、マイク105a〜105eの何れかから音声を取得する。例えば、ロボット300から見て、頭部101が右を向いているとき、マイク群105が配置されている部分の左に配置されたマイク105cで収音した音声を取得する。同様に、頭部101が左を向いているとき、マイク105bで収音した音声を取得する。頭部101が上を向いているとき、マイク105dで収音した音声を取得する。頭部101が下を向いているとき、マイク105eで収音した音声を取得する。音声取得部116は、音声取得手段として機能する。
音声解析部117は、音声取得部116に取得された音声を解析し、音声の語尾の音程により感情を判別する。音声解析部117は、語尾の音程が上がっていると判定すると、「喜」の音声であると判別する。音声解析部117は、語尾の音程が下がっていると判定すると、「怒」の音声であると判別する。
つぎに、以上の構成を有するロボット300が実行する感情表現処理について説明する。第3の実施の形態の感情表現処理のステップS401からステップS405は、第1の実施の形態の感情表現処理のステップS101からステップS105と同じである。ステップS406以降の感情表現処理について図13および図14を参照しながら説明する。
図13に示すように、取得画像の中心部にユーザの顔を検出したと判定すると(ステップS404;YES)、音声取得部116は、マイク105aで収音した音声を取得する(ステップS406)。これにより、頭部101はユーザを向いており、マイク105aはユーザの音声を収音することができる。つぎに、音声解析部117は、取得した音声を解析する(ステップS407)。つぎに、音声解析部117は、取得した音声が「喜」または「怒」の音声であるか否かを判別する(ステップS408)。例えば、音声解析部117は、語尾の音程が上がっていると判定すると、「喜」の音声であると判別する。音声解析部117は、語尾の音程が下がっていると判定すると、「怒」の音声であると判別する。つぎに、取得した音声が「喜」または「怒」の音声でないと判別すると(ステップS408;NO)、ステップS403に戻って、ステップS403からステップS408を繰り返す。
つぎに、音声が「喜」または「怒」の音声であると判別すると(ステップS408;YES)、表現制御部113は、感情動作フラグをONにし、RAMに記憶する(ステップS409)。表現制御部113は、感情動作処理を実行する(ステップS410)。感情動作処理を開始すると、図14に示すように、音声取得部116は、頭部101の動きを相殺するように、マイク105a〜105eの何れかから音声を取得するように、音声を取得するマイクの選択を開始する(ステップS501)。
つぎに、表現制御部113は、音声解析部117の解析結果に基づいて、首関節103に頭部101を動作させる(ステップS502)。例えば、音声解析部117が「喜」の音声であると判別した場合、表現制御部113は、首関節103に頭部101を縦に振る感情動作として、ピッチ軸Xmの軸回りに往復動作させる。音声解析部117が「怒」の音声であると判別した場合、表現制御部113は、首関節103に頭部101を横に振る感情動作として、ヨー軸Ymの軸回りに往復動作させる。
つぎに、音声取得部116は、音声を取得する(ステップS503)。詳細には、音声取得部116は、ロボット300から見て、頭部101が右を向いているとき、マイク105cで収音した音声を取得する。頭部101が左を向いているとき、マイク105bで収音した音声を取得する。頭部101が上を向いているとき、マイク105dで収音した音声を取得する。頭部101が下を向いているとき、マイク105eで収音した音声を取得する。
つぎに、音声解析部117は、音声取得部116により取得された音声を解析する(ステップS504)。つぎに、音声解析部117は、「喜」または「怒」の音声であるか否かを判別する(ステップS505)。音声解析部117が「喜」または「怒」の音声であると判別すると(ステップS505;YES)、新たに解析した解析結果に基づいて、首関節103に頭部101を動作させる(ステップS502)。
音声が「喜」または「怒」の音声でないと判別すると(ステップS505;NO)、判定部114は、表現制御部113によりロボット300が感情動作を終了した否かを判定する(ステップS506)。判定部114が、感情動作を終了していないと判定すると(ステップS506;NO)、ステップS502に戻り、感情動作を終了するまで、ステップS502からステップS506を繰り返す。なお、表現制御部113は、感情動作を開始して一定期間経過すると、感情動作を停止する。
判定部114は、感情動作を終了したと判定すると(ステップS506;YES)、図13に戻って、感情動作フラグをOFFにし、RAMに記憶する(ステップS411)。つぎに、音声取得部116は、音声を取得するマイクをマイク105aに戻す(ステップS412)。つぎに、ユーザにより操作ボタン130に終了指示が入力されたか否か判定する(ステップS413)。操作ボタン130に終了指示が入力されていない場合(ステップS413;NO)、ステップS403に戻って、ステップS403からステップS412を繰り返す。操作ボタン130に終了指示が入力された場合(ステップS413;YES)、感情表現処理を終了する。
以上のように、ロボット300によれば、感情表現を実施している時に、音声取得部116は、頭部101の動きを相殺するように、マイク105a〜105eの何れかから音声を取得する。これにより、ロボット300が頭部101の向きを変えたとしても、正面から発生した音声を収音することができる。このため、感情表現を実施しているときであっても、ユーザが発した音声を収音して、この音声を解析することができ、ロボット300の誤動作を防ぐことができる。また、ロボット300は、感情表現を実施している時に、音声を解析できる。このため、例えば、ロボット300が「喜」の感情表現をしている間に、音声を解析し、音声が「怒」の音声であると判定すると、ロボット300は、「怒」の感情表現に変更することが可能である。
(第3の実施の形態の変形例)
第3の実施の形態のロボット300では、感情動作を実施している時に、音声取得部116は、頭部101の動きを相殺するように、マイク105a〜105eの何れかから音声を取得する例について説明した。ロボット300は、感情動作を実施している時に、音声取得部116は、マイク105a〜105eから音声の取得を停止してもよい。また、音声取得部116により取得された音声の記録を停止してもよい。このようにすることで、ロボット300が頭部101の向きを変えた時に収音した音声により感情動作することによる誤動作を防ぐことができる。この場合、ロボット300は、1つのマイクを備えてもよい。また、音声取得部116が、マイク105a〜105eから音声の取得を停止する代わりに、感情動作を実施している時に、音声解析部117が解析を停止してもよい。
(変形例)
上述の実施の形態では、ロボット100〜300が、「喜」および「怒」の感情表現を実施する例について説明したが、ロボット100〜300は、ユーザなどの所定の対象に表現を実行すればよく、「喜」および「怒」以外の感情を表現してもよく、感情表現以外の動きを表現してもよい。
上述の実施の形態では、ロボット100〜300が、ユーザとの交流を介した交流動作をする例について説明したが、ユーザとは独立してロボット100〜300が単独で実行する動作であって、ユーザとの交流を介さない自発的な一人動作を、ロボット100〜300がする例においても同様に適用することができる。
上述の実施の形態では、画像解析部112が、取得画像を解析し、ユーザの顔の表情を判別する例について説明したが、画像解析部112は、ロボット100〜300の動作の基になる情報を得ることができればよく、ユーザの顔の表情を判別する場合に限定されない。例えば、画像解析部112は、ユーザの顔の向きやユーザの体の動きを判別してもよい。この場合、ユーザの顔がロボット100〜300を向いているとき、ロボット100〜300は、所定の動作をしてもよく、ユーザの体の動きが所定のパターンであるとき、ロボット100〜300は、所定の動作をしてもよい。
上述の実施の形態では、撮像部104、204が頭部101の鼻の位置に設けられる例について説明したが、撮像部104、204は、所定の部位である頭部101に設けられればよく、右目または左目に設けられてもよく、右目と左目の間の位置または額の位置に設けられてもよい。また、撮像部104、204を右目および左目に設け、3次元画像を取得するようにしてもよい。
上述の実施の形態では、ロボット100〜300が、人を模した形状を有する例について説明したが、ロボット100〜300の形状は、特に限定されず、例えば、犬または猫を含む動物を模した形状を有してもよく、想像上の生き物を模した形状であってもよい。
上述の実施の形態では、ロボット100〜300が、頭部101と、胴体部102と、頭部101に配置された撮像部204と、から構成される例について説明したが、ロボット100は、所定の部位を動かすことができ、所定の部位に撮像部204が配置されるものであれば特に限定されない。所定の部位は、例えば、手、足、尻尾などであってもよい。
上述の実施の形態では、ロボット100〜300が、ユーザに感情表現を含む表現を実施する例について説明したが、ロボット100〜300が、表現を実施する所定の対象は、人に限らず、犬、猫を含むペットなどの動物であってもよい。この場合、画像解析部112は、動物の表情を解析してもよい。
また、CPU、RAM、ROM等から構成される制御部110、210、310が実行する感情表現処理を行う中心となる部分は、専用のシステムによらず、通常の情報携帯端末(スマートフォン、タブレットPC(Personal Computer))、パーソナルコンピュータなどを用いて実行可能である。たとえば、上述の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)等)に格納して配布し、このコンピュータプログラムを情報携帯端末などにインストールすることにより、上述の処理を実行する情報端末を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置にこのコンピュータプログラムを格納しておき、通常の情報処理端末などがダウンロード等することで情報処理装置を構成してもよい。
また、制御部110、210、310の機能を、OS(Operating System)とアプリケーションプログラムとの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にこのコンピュータプログラムを掲示し、ネットワークを介してこのコンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、上述の処理を実行できるように構成してもよい。
本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記)
(付記1)
自装置を動作させる動作手段と、
所定の部位に配置されて被写体を撮像する撮像手段と、
前記動作手段を制御して前記所定の部位を動かす動作制御手段と、
前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段と、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御手段と、
を備える、
ことを特徴とするロボット。
(付記2)
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記撮像制御手段は、前記撮像手段の撮像を停止する、又は、前記撮像手段により撮像された前記被写体の画像の記録を停止する、
ことを特徴とする付記1に記載のロボット。
(付記3)
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記撮像制御手段は、前記所定の部位の動きを相殺するように前記撮像手段の撮像する向きを制御する、
ことを特徴とする付記1又は2に記載のロボット。
(付記4)
前記所定の部位に配置されたマイクが収音した音声を取得する音声取得手段を更に備え、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記音声取得手段は、前記音声の取得を停止する、又は、前記音声取得手段により取得された前記音声の記録を停止する、
ことを特徴とする付記1乃至3の何れか1つに記載のロボット。
(付記5)
前記撮像手段は、所定の対象を撮像し、
前記動作制御手段は、前記動作手段を制御して、前記所定の対象との交流を介した交流動作をするように前記所定の部位を動かす、
ことを特徴とする付記1乃至4の何れか1つに記載のロボット。
(付記6)
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記動作制御手段は、前記所定の対象を撮像した前記被写体の画像の一部を、前記所定の対象を含むように切り出したトリミング画像を取得する、
ことを特徴とする付記5に記載のロボット。
(付記7)
前記所定の対象の顔の表情を解析する画像解析手段を更に備え、
前記動作制御手段は、前記画像解析手段により解析された前記顔の表情に応じて、前記所定の対象への感情表現を表すように前記所定の部位を動かす、
ことを特徴とする付記5又は6に記載のロボット。
(付記8)
前記所定の部位に配置された複数のマイクが収音した音声を取得する音声取得手段を更に備え、
前記複数のマイクは、それぞれ異なる向きから到達する前記音声を収音し、
前記音声取得手段は、前記撮像手段により取得された前記被写体の画像に写る前記所定の対象に基づいて、前記所定の対象から到達した前記音声を収音する前記マイクから前記音声を取得し、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記音声取得手段は、前記所定の対象から到達する前記音声を取得するように、前記音声を取得する前記マイクを変更する、
ことを特徴とする付記5乃至7の何れか1つに記載のロボット。
(付記9)
前記動作制御手段は、前記動作手段を制御して、所定の対象とは独立して前記自装置が単独で実行する動作であって、前記所定の対象との交流を介さない自発的な一人動作をするように前記所定の部位を動かす、
ことを特徴とする付記1乃至4の何れか1つに記載のロボット。
(付記10)
前記所定の対象は、人又は動物を含む、
ことを特徴とする付記5乃至9の何れか1つに記載のロボット。
(付記11)
前記動作制御手段は、前記所定の部位を動かす処理を終了すると、前記所定の部位を動かす処理を開始する前の位置に、前記所定の部位を戻す、
ことを特徴とする付記1乃至10の何れか1つに記載のロボット。
(付記12)
胴体部と、前記胴体部と前記所定の部位とを連結する首関節と、を更に備え、
前記所定の部位は、頭部であり、
前記動作制御手段の制御に基づいて、前記首関節は、前記頭部を前記胴体部に対して動かす、
ことを特徴とする付記1乃至11の何れか1つに記載のロボット。
(付記13)
前記頭部の動きは、前記頭部の頷き又は首振りを含む、
ことを特徴とする付記12に記載のロボット。
(付記14)
自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットの制御方法であって、
前記動作手段を制御して前記所定の部位を動かす動作制御ステップと、
前記撮像手段が前記被写体を撮像している時に、前記動作制御ステップで前記所定の部位を動かしているか否かを判定する判定ステップと、
前記判定ステップによって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御ステップと、
を含む、
ことを特徴とするロボットの制御方法。
(付記15)
自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットを制御するコンピュータを、
前記動作手段を制御して前記所定の部位を動かす動作制御手段、
前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御手段、
として機能させる、
ことを特徴とするプログラム。
100、200、300…ロボット、101…頭部、102…胴体部、103…首関節、104、204…撮像部、105…マイク群、105a〜105e…マイク、110、210、310…制御部、111…画像取得部、112…画像解析部、113…表現制御部、114…判定部、115…撮像制御部、116…音声取得部、117…音声解析部、120…電源部、130…操作ボタン、I…画像、TG…所定の対象、TI…トリミング画像
本発明の目的を達成するため、本発明に係るロボットの一様態は、
自装置を動作させる動作手段と、
所定の部位に配置されて被写体を撮像する撮像手段と、
前記動作手段を制御して前記所定の部位を動かす動作制御手段と、
前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段と、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えてしまい前記動作手段が誤動作を起こすことのないように前記撮像手段を制御する、又は、前記撮像手段により撮像された前記被写体の画像の処理を制御する撮像制御手段と、
を備える、
ことを特徴とする。
また、本発明の目的を達成するため、本発明に係るロボットの制御方法の一様態は、
自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットの制御方法であって、
前記動作手段を制御して前記所定の部位を動かす動作制御ステップと、
前記撮像手段が前記被写体を撮像している時に、前記動作制御ステップで前記所定の部位を動かしているか否かを判定する判定ステップと、
前記判定ステップによって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えてしまい前記動作手段が誤動作を起こすことのないように前記撮像手段を制御する、又は、前記撮像手段により撮像された前記被写体の画像の処理を制御する撮像制御ステップと、
を含む、
ことを特徴とする。
また、本発明の目的を達成するため、本発明に係るプログラムの一様態は、
自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットを制御するコンピュータを、
前記動作手段を制御して前記所定の部位を動かす動作制御手段、
前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えてしまい前記動作手段が誤動作を起こすことのないように前記撮像手段を制御する、又は、前記撮像手段により撮像された前記被写体の画像の処理を制御する撮像制御手段、
として機能させる、
ことを特徴とする。
判定部114は、表現制御部113によりロボット100が感情動作しているか否かを判定する。判定部114は、ロボット100が感情動作を終了したと判定すると、感情動作フラグをOFFにし、RAMに記憶する。判定部114は、ロボット100が感情動作を終了していないと判定すると、感情動作フラグをONにしたままにする。なお、電源投入時には、判定部114は、感情動作フラグをOFFにし、RAMに記憶する。判定部114は、判定手段として機能する。
つぎに、取得画像の中心部にユーザの顔を検出したと判定すると(ステップS104;YES)、画像解析部112は、ユーザの表情を解析する(ステップS106)。つぎに、画像解析部112は、ユーザの表情が「喜」または「怒」の表情であるか否かを判別する(ステップS107)。例えば、画像解析部112は、口元の形状が口角の上がっている形状であると判定すると、「喜」の表情であると判別する。画像解析部112は、口元の形状が口角の下がっている形状であると判定すると、「怒」の表情であると判別する。つぎに、ユーザの表情が「喜」または「怒」の表情でないと判別されると(ステップS107;NO)、ステップS103に戻って、ステップS103からステップS107までを繰り返す。
つぎに、判定部114は、表現制御部113によりロボット100が感情動作を終了したか否かを判定する(ステップS111)。判定部114が、感情動作を終了していないと判定すると(ステップS110;NO)、ステップS110に戻り、感情動作を終了するまで、ステップS110からステップS111までを繰り返す。なお、表現制御部113は、感情動作を開始して一定期間(例えば、5秒)経過すると、感情動作を停止する。
判定部114は、感情動作を終了したと判定すると(ステップS111;YES)、感情動作フラグをOFFにし、RAMに記憶する(ステップS112)。つぎに、画像取得部111は、画像の取得を開始する(ステップS113)。つぎに、ユーザにより操作ボタン130に終了指示が入力されたか否かを判定する(ステップS114)。操作ボタン130に終了指示が入力されていない場合(ステップS114;NO)、ステップS103に戻って、ステップS103からステップS112までを繰り返す。操作ボタン130に終了指示が入力された場合(ステップS114;YES)、感情表現処理を終了する。
つぎに、以上の構成を有するロボット200が実行する感情表現処理について説明する。第2の実施の形態の感情表現処理のステップS201からステップS208までは、第1の実施の形態の感情表現処理のステップS101からステップS108までと同じである。ステップS209以降の感情表現処理について図6および図7を参照しながら説明する。
ユーザの表情が「喜」または「怒」の表情でないと判別すると(ステップS305;NO)、判定部114は、表現制御部113によりロボット100が感情動作を終了した否かを判定する(ステップS306)。判定部114が、感情動作を終了していないと判定すると(ステップS306;NO)、ステップS302に戻り、感情動作を終了するまで、ステップS302からステップS306までを繰り返す。なお、表現制御部113は、感情動作を開始して一定期間経過すると、感情動作を停止する。
判定部114は、感情動作を終了したと判定すると(ステップS306;YES)、図6に戻って、感情動作フラグをOFFにし、RAMに記憶する(ステップS210)。つぎに、撮像制御部115は、撮像部204のレンズの光軸の向きの制御を停止する(ステップS211)。つぎに、ユーザにより操作ボタン130に終了指示が入力されたか否か判定する(ステップS212)。操作ボタン130に終了指示が入力されていない場合(ステップS212;NO)、ステップS203に戻って、ステップS203からステップS212までを繰り返す。操作ボタン130に終了指示が入力された場合(ステップS212;YES)、感情表現処理を終了する。
具体的には、画像取得部111は、図8に示すように、画像Iの一部を、ユーザなどの所定の対象TGを含むように切り出したトリミング画像TIを取得し、画像解析部112は、トリミング画像TIを解析し、ユーザ等の所定の対象TGの表情を判別する。このとき所定の対象TGは、画像Iの中心部に写っている。感情表現するために頭部101が左に向くと、図9に示すように、撮像範囲が左にずれる。このため、画像Iに写る所定の対象TGは、画像Iの右に動する。このとき、画像取得部111は、頭部101が左に向いた分だけ、トリミングする範囲を右に移動する。画像取得部111は、図9に示すトリミング画像TIを取得する。頭部101が右に向くと、図10に示すように、撮像範囲が右にずれる。このため、画像Iに写る所定の対象TGは、画像Iの左に動する。このとき、画像取得部111は、頭部101が右に向いた分だけ、トリミングする範囲を左に移動する。画像取得部111は、図10に示すトリミング画像TIを取得する。頭部101が上下に首振りした場合には、トリミングする範囲を上下に変更する。このようにすることで、撮像部204を動かすことなく、ブレの少ない画像を得ることができ、ロボット200の誤動作を防ぐことができる。なお、撮像部204は、広角レンズまたは魚眼レンズを備えるとよい。このようにすることで、頭部101の首振り角が大きくても所定の対象TGを撮像することができる。
図11に示すマイク群105は、頭部101の人の顔でいうところの額の位置に配置され、5つのマイク105a〜105eを含み、音声取得部116に収音した音声を入力する。5つのマイク105a〜105eは、それぞれ異なる向きから到達する音声を収音する。マイク105aは、マイク群105が配置されている部分の中心に配置され、ロボット300からみて正面の音声を収音する。マイク105bは、ロボット300からみて、マイク群105が配置されている部分の右に配置され、マイク105aで収音する範囲より右の範囲から発生した音声を収音する。マイク105cは、ロボット300からみて、マイク群105が配置されている部分の左に配置され、マイク105aで収音する範囲より左の範囲から発生した音声を収音する。マイク105dは、ロボット300からみて、マイク群105が配置されている部分の下に配置され、マイク105aで収音する範囲より下の範囲から発生した音声を収音する。マイク105eは、ロボット300からみて、マイク群105が配置されている部分の上に配置され、マイク105aで収音する範囲より上の範囲から発生した音声を収音する。
図12に示す音声取得部116は、マイク群105により収音された音声を取得し、RAMに記憶する。音声取得部116は、感情動作フラグOFFのとき、マイク105aで収音した音声を取得する。音声取得部116は、感情動作フラグONのとき、頭部101を動かした向きと逆の向きの方向から到達する音声を取得するように、マイク105a〜105eの何れかから音声を取得する。例えば、ロボット300から見て、頭部101が右を向いているとき、マイク群105が配置されている部分の左に配置されたマイク105cで収音した音声を取得する。同様に、頭部101が左を向いているとき、マイク105bで収音した音声を取得する。頭部101が上を向いているとき、マイク105dで収音した音声を取得する。頭部101が下を向いているとき、マイク105eで収音した音声を取得する。音声取得部116は、音声取得手段として機能する。
つぎに、以上の構成を有するロボット300が実行する感情表現処理について説明する。第3の実施の形態の感情表現処理のステップS401からステップS405までは、第1の実施の形態の感情表現処理のステップS101からステップS105までと同じである。ステップS406以降の感情表現処理について図13および図14を参照しながら説明する。
図13に示すように、取得画像の中心部にユーザの顔を検出したと判定すると(ステップS404;YES)、音声取得部116は、マイク105aで収音した音声を取得する(ステップS406)。これにより、頭部101はユーザを向いており、マイク105aはユーザの音声を収音することができる。つぎに、音声解析部117は、取得した音声を解析する(ステップS407)。つぎに、音声解析部117は、取得した音声が「喜」または「怒」の音声であるか否かを判別する(ステップS408)。例えば、音声解析部117は、語尾の音程が上がっていると判定すると、「喜」の音声であると判別する。音声解析部117は、語尾の音程が下がっていると判定すると、「怒」の音声であると判別する。つぎに、取得した音声が「喜」または「怒」の音声でないと判別すると(ステップS408;NO)、ステップS403に戻って、ステップS403からステップS408までを繰り返す。
音声が「喜」または「怒」の音声でないと判別すると(ステップS505;NO)、判定部114は、表現制御部113によりロボット300が感情動作を終了した否かを判定する(ステップS506)。判定部114が、感情動作を終了していないと判定すると(ステップS506;NO)、ステップS502に戻り、感情動作を終了するまで、ステップS502からステップS506までを繰り返す。なお、表現制御部113は、感情動作を開始して一定期間経過すると、感情動作を停止する。
判定部114は、感情動作を終了したと判定すると(ステップS506;YES)、図13に戻って、感情動作フラグをOFFにし、RAMに記憶する(ステップS411)。つぎに、音声取得部116は、音声を取得するマイクをマイク105aに戻す(ステップS412)。つぎに、ユーザにより操作ボタン130に終了指示が入力されたか否か判定する(ステップS413)。操作ボタン130に終了指示が入力されていない場合(ステップS413;NO)、ステップS403に戻って、ステップS403からステップS412までを繰り返す。操作ボタン130に終了指示が入力された場合(ステップS413;YES)、感情表現処理を終了する。
上述の実施の形態では、撮像部104、204が頭部101の鼻の位置に設けられる例について説明したが、撮像部104、204は、所定の部位である頭部101に設けられればよく、右目または左目に設けられてもよく、右目と左目の間の位置または額の位置に設けられてもよい。また、撮像部104、204を右目および左目に設け、3次元画像を取得するようにしてもよい。
また、制御部110、210、310の機能を、OS(Operating System)とアプリケーションプログラムとの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記媒体や記憶装置に格納してもよい。

Claims (15)

  1. 自装置を動作させる動作手段と、
    所定の部位に配置されて被写体を撮像する撮像手段と、
    前記動作手段を制御して前記所定の部位を動かす動作制御手段と、
    前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段と、
    前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御手段と、
    を備える、
    ことを特徴とするロボット。
  2. 前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記撮像制御手段は、前記撮像手段の撮像を停止する、又は、前記撮像手段により撮像された前記被写体の画像の記録を停止する、
    ことを特徴とする請求項1に記載のロボット。
  3. 前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記撮像制御手段は、前記所定の部位の動きを相殺するように前記撮像手段の撮像する向きを制御する、
    ことを特徴とする請求項1又は2に記載のロボット。
  4. 前記所定の部位に配置されたマイクが収音した音声を取得する音声取得手段を更に備え、
    前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記音声取得手段は、前記音声の取得を停止する、又は、前記音声取得手段により取得された前記音声の記録を停止する、
    ことを特徴とする請求項1乃至3の何れか1項に記載のロボット。
  5. 前記撮像手段は、所定の対象を撮像し、
    前記動作制御手段は、前記動作手段を制御して、前記所定の対象との交流を介した交流動作をするように前記所定の部位を動かす、
    ことを特徴とする請求項1乃至4の何れか1項に記載のロボット。
  6. 前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記動作制御手段は、前記所定の対象を撮像した前記被写体の画像の一部を、前記所定の対象を含むように切り出したトリミング画像を取得する、
    ことを特徴とする請求項5に記載のロボット。
  7. 前記所定の対象の顔の表情を解析する画像解析手段を更に備え、
    前記動作制御手段は、前記画像解析手段により解析された前記顔の表情に応じて、前記所定の対象への感情表現を表すように前記所定の部位を動かす、
    ことを特徴とする請求項5又は6に記載のロボット。
  8. 前記所定の部位に配置された複数のマイクが収音した音声を取得する音声取得手段を更に備え、
    前記複数のマイクは、それぞれ異なる向きから到達する前記音声を収音し、
    前記音声取得手段は、前記撮像手段により取得された前記被写体の画像に写る前記所定の対象に基づいて、前記所定の対象から到達した前記音声を収音する前記マイクから前記音声を取得し、
    前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記音声取得手段は、前記所定の対象から到達する前記音声を取得するように、前記音声を取得する前記マイクを変更する、
    ことを特徴とする請求項5乃至7の何れか1項に記載のロボット。
  9. 前記動作制御手段は、前記動作手段を制御して、所定の対象とは独立して前記自装置が単独で実行する動作であって、前記所定の対象との交流を介さない自発的な一人動作をするように前記所定の部位を動かす、
    ことを特徴とする請求項1乃至4の何れか1項に記載のロボット。
  10. 前記所定の対象は、人又は動物を含む、
    ことを特徴とする請求項5乃至9の何れか1項に記載のロボット。
  11. 前記動作制御手段は、前記所定の部位を動かす処理を終了すると、前記所定の部位を動かす処理を開始する前の位置に、前記所定の部位を戻す、
    ことを特徴とする請求項1乃至10の何れか1項に記載のロボット。
  12. 胴体部と、前記胴体部と前記所定の部位とを連結する首関節と、を更に備え、
    前記所定の部位は、頭部であり、
    前記動作制御手段の制御に基づいて、前記首関節は、前記頭部を前記胴体部に対して動かす、
    ことを特徴とする請求項1乃至11の何れか1項に記載のロボット。
  13. 前記頭部の動きは、前記頭部の頷き又は首振りを含む、
    ことを特徴とする請求項12に記載のロボット。
  14. 自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットの制御方法であって、
    前記動作手段を制御して前記所定の部位を動かす動作制御ステップと、
    前記撮像手段が前記被写体を撮像している時に、前記動作制御ステップで前記所定の部位を動かしているか否かを判定する判定ステップと、
    前記判定ステップによって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御ステップと、
    を含む、
    ことを特徴とするロボットの制御方法。
  15. 自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットを制御するコンピュータを、
    前記動作手段を制御して前記所定の部位を動かす動作制御手段、
    前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段、
    前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御手段、
    として機能させる、
    ことを特徴とするプログラム。
JP2017123607A 2017-06-23 2017-06-23 ロボット、ロボットの制御方法及びプログラム Pending JP2019005846A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017123607A JP2019005846A (ja) 2017-06-23 2017-06-23 ロボット、ロボットの制御方法及びプログラム
US15/988,667 US20180376069A1 (en) 2017-06-23 2018-05-24 Erroneous operation-preventable robot, robot control method, and recording medium
CN201810640812.0A CN109108962A (zh) 2017-06-23 2018-06-20 机器人、机器人的控制方法以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017123607A JP2019005846A (ja) 2017-06-23 2017-06-23 ロボット、ロボットの制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2019005846A true JP2019005846A (ja) 2019-01-17

Family

ID=64692865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017123607A Pending JP2019005846A (ja) 2017-06-23 2017-06-23 ロボット、ロボットの制御方法及びプログラム

Country Status (3)

Country Link
US (1) US20180376069A1 (ja)
JP (1) JP2019005846A (ja)
CN (1) CN109108962A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020114315A (ja) * 2019-01-18 2020-07-30 株式会社大一商会 遊技機
JP2021064067A (ja) * 2019-10-10 2021-04-22 沖電気工業株式会社 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190141303A (ko) * 2018-06-14 2019-12-24 엘지전자 주식회사 이동 로봇의 동작 방법
JP7107017B2 (ja) * 2018-06-21 2022-07-27 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
KR102148032B1 (ko) 2018-06-25 2020-08-26 엘지전자 주식회사 로봇
KR102148031B1 (ko) * 2018-06-25 2020-10-14 엘지전자 주식회사 로봇
WO2021159712A1 (zh) * 2020-02-14 2021-08-19 北京百度网讯科技有限公司 一种机器人

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003089077A (ja) * 2001-09-12 2003-03-25 Toshiba Corp ロボット
JP2003266364A (ja) * 2002-03-18 2003-09-24 Sony Corp ロボット装置
JP2008168375A (ja) * 2007-01-10 2008-07-24 Sky Kk ボディランゲージロボット、ボディランゲージロボットの制御方法及び制御プログラム
JP2009241247A (ja) * 2008-03-10 2009-10-22 Kyokko Denki Kk ステレオ画像型検出移動装置
JP2010541065A (ja) * 2007-09-26 2010-12-24 本田技研工業株式会社 3次元飲料容器位置決定装置
JP2011011330A (ja) * 2009-06-03 2011-01-20 Canon Inc カメラ付きロボット
JP2011233072A (ja) * 2010-04-30 2011-11-17 Fujitsu Ltd ロボット、位置推定方法及びプログラム
JP2013099823A (ja) * 2011-11-09 2013-05-23 Panasonic Corp ロボット装置、ロボット制御方法、ロボット制御プログラム、およびロボットシステム
JP2016068197A (ja) * 2014-09-30 2016-05-09 富士ソフト株式会社 ロボット

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08237541A (ja) * 1995-02-22 1996-09-13 Fanuc Ltd カメラぶれ補正機能付き画像処理装置
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
CN1219397C (zh) * 2002-10-22 2005-09-14 张晓林 仿生型自动视觉和视线控制系统及方法
JP4899217B2 (ja) * 2007-06-12 2012-03-21 国立大学法人東京工業大学 前庭動眼反射の原理を用いる眼球運動制御装置
CN104493827A (zh) * 2014-11-17 2015-04-08 福建省泉州市第七中学 智能认知机器人及其认知系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003089077A (ja) * 2001-09-12 2003-03-25 Toshiba Corp ロボット
JP2003266364A (ja) * 2002-03-18 2003-09-24 Sony Corp ロボット装置
JP2008168375A (ja) * 2007-01-10 2008-07-24 Sky Kk ボディランゲージロボット、ボディランゲージロボットの制御方法及び制御プログラム
JP2010541065A (ja) * 2007-09-26 2010-12-24 本田技研工業株式会社 3次元飲料容器位置決定装置
JP2009241247A (ja) * 2008-03-10 2009-10-22 Kyokko Denki Kk ステレオ画像型検出移動装置
JP2011011330A (ja) * 2009-06-03 2011-01-20 Canon Inc カメラ付きロボット
JP2011233072A (ja) * 2010-04-30 2011-11-17 Fujitsu Ltd ロボット、位置推定方法及びプログラム
JP2013099823A (ja) * 2011-11-09 2013-05-23 Panasonic Corp ロボット装置、ロボット制御方法、ロボット制御プログラム、およびロボットシステム
JP2016068197A (ja) * 2014-09-30 2016-05-09 富士ソフト株式会社 ロボット

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020114315A (ja) * 2019-01-18 2020-07-30 株式会社大一商会 遊技機
JP2021064067A (ja) * 2019-10-10 2021-04-22 沖電気工業株式会社 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法
JP7392377B2 (ja) 2019-10-10 2023-12-06 沖電気工業株式会社 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法

Also Published As

Publication number Publication date
US20180376069A1 (en) 2018-12-27
CN109108962A (zh) 2019-01-01

Similar Documents

Publication Publication Date Title
JP2019005846A (ja) ロボット、ロボットの制御方法及びプログラム
US10589426B2 (en) Robot
US10445917B2 (en) Method for communication via virtual space, non-transitory computer readable medium for storing instructions for executing the method on a computer, and information processing system for executing the method
JP6572943B2 (ja) ロボット、ロボットの制御方法及びプログラム
US20180373413A1 (en) Information processing method and apparatus, and program for executing the information processing method on computer
US10262461B2 (en) Information processing method and apparatus, and program for executing the information processing method on computer
US10453248B2 (en) Method of providing virtual space and system for executing the same
WO2017215297A1 (zh) 云端互动系统及其多感知型智能机器人和感知互动方法
JP6263252B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US10438394B2 (en) Information processing method, virtual space delivering system and apparatus therefor
JP6392911B2 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
US20190025586A1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
US20190005732A1 (en) Program for providing virtual space with head mount display, and method and information processing apparatus for executing the program
JP6565853B2 (ja) コミュニケーション装置
JP7483940B2 (ja) 顔イメージ生成方法、装置、電子機器及び可読記憶媒体
JP2018124981A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2019106220A (ja) ヘッドマウントデバイスを介して仮想空間を提供するためにコンピュータで実行されるプログラムおよび方法ならびに情報処理装置
JP2019032844A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP7431903B2 (ja) 撮影システム、撮影方法、撮影プログラム、及びぬいぐるみ
JP2019010710A (ja) ロボット展示装置、ロボット展示システム、ロボット展示方法およびプログラム
JP2018092635A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6856572B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
CN111730608A (zh) 控制装置、机器人、控制方法以及存储介质
JP2020179005A (ja) ロボット及び方法
JP6853589B1 (ja) 首掛け型装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200204