JP2019005846A - ロボット、ロボットの制御方法及びプログラム - Google Patents
ロボット、ロボットの制御方法及びプログラム Download PDFInfo
- Publication number
- JP2019005846A JP2019005846A JP2017123607A JP2017123607A JP2019005846A JP 2019005846 A JP2019005846 A JP 2019005846A JP 2017123607 A JP2017123607 A JP 2017123607A JP 2017123607 A JP2017123607 A JP 2017123607A JP 2019005846 A JP2019005846 A JP 2019005846A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- predetermined
- robot
- image
- predetermined part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000003384 imaging method Methods 0.000 claims abstract description 171
- 230000014509 gene expression Effects 0.000 claims description 104
- 230000002996 emotional effect Effects 0.000 claims description 73
- 230000008921 facial expression Effects 0.000 claims description 58
- 238000010191 image analysis Methods 0.000 claims description 54
- 230000008569 process Effects 0.000 claims description 47
- 241001465754 Metazoa Species 0.000 claims description 6
- 230000002269 spontaneous effect Effects 0.000 claims description 2
- 210000003128 head Anatomy 0.000 description 107
- 230000008451 emotion Effects 0.000 description 86
- 238000004458 analytical method Methods 0.000 description 32
- 230000006870 function Effects 0.000 description 19
- 230000009471 action Effects 0.000 description 17
- 230000007257 malfunction Effects 0.000 description 11
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 238000009966 trimming Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 210000001061 forehead Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/683—Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/0015—Face robots, animated artificial faces for imitating human expressions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40413—Robot has multisensors surrounding operator, to understand intention of operator
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Manipulator (AREA)
- Toys (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Hospice & Palliative Care (AREA)
- Acoustics & Sound (AREA)
- Child & Adolescent Psychology (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】ロボット100は、動作手段と、撮像部104と、動作制御手段と、判定部114と、撮像制御手段と、を備える。撮像部104は、所定の部位に配置されて被写体を撮像する。動作制御手段は、動作手段を制御して所定の部位を動かす。判定部114は、撮像部104が被写体を撮像している時に、動作制御手段が所定の部位を動かしているか否かを判定する。撮像制御手段は、判定部114によって所定の部位を動かしていると判定されると、所定の部位の動きが被写体の画像に影響を与えないように撮像手段を制御する。
【選択図】図2
Description
自装置を動作させる動作手段と、
所定の部位に配置されて被写体を撮像する撮像手段と、
前記動作手段を制御して前記所定の部位を動かす動作制御手段と、
前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段と、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御手段と、
を備える、
ことを特徴とする。
自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットの制御方法であって、
前記動作手段を制御して前記所定の部位を動かす動作制御ステップと、
前記撮像手段が前記被写体を撮像している時に、前記動作制御ステップで前記所定の部位を動かしているか否かを判定する判定ステップと、
前記判定ステップによって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御ステップと、
を含む、
ことを特徴とする。
自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットを制御するコンピュータを、
前記動作手段を制御して前記所定の部位を動かす動作制御手段、
前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御手段、
として機能させる、
ことを特徴とする。
本発明の実施形態に係るロボットは、画像を撮像する撮像部を頭部に有して、所定の対象であるユーザなどの動き、表情などを捉え、ユーザなどの動き、表情などに応じて(即ち、ユーザとの交流を介する交流動作をするように)自律的に動作するロボット装置である。ロボット100は、図1に示すように、人をデフォルメした形状を有し、目と耳とを模した部材が配置された、所定の部位である頭部101と、手と足とを模した部材が配置された胴体部102と、胴体部102に頭部101を連結する首関節103と、頭部101に配置された撮像部104と、胴体部102の内部に配置された制御部110および電源部120と、胴体部102の背中に設けられた操作ボタン130と、を備える。
第1の実施の形態のロボット100では、感情動作を実施していない場合、画像取得部111が、撮像部104により撮像された画像を取得し、感情動作を実施している場合、画像取得部111が、撮像部104により撮像された画像の取得を停止する例について説明した。第1の実施の形態のロボット100は、感情動作を実施していない場合、ユーザの表情を解析し、感情動作を実施している場合、ユーザの表情の解析を停止できればよい。例えば、画像取得部111は、感情動作を実施していない場合、撮像部104に画像を撮像するように制御し、感情動作を実施している場合、撮像部104に画像の撮像を停止するように制御してもよい。また、画像解析部112は、感情動作を実施していない場合、ユーザの表情を解析し、感情動作を実施している場合、ユーザの表情の解析を停止するように制御してもよい。
上述の第1の実施の形態のロボット100では、感情表現を実施している場合に、ユーザの表情の解析を停止する例について説明した。第2の実施の形態のロボット200では、感情表現を実施している場合に、頭部101の動きを相殺するように、画像の撮像範囲を上下左右に動かす例について説明する。
第2の実施の形態のロボット200では、感情動作を実施している時に、撮像制御部115は、頭部101の動きを相殺するように、撮像部204の向きを制御する例について説明した。第2の実施の形態のロボット200は、撮像した画像のブレを少なくすることができればこの例に限定されない。例えば、画像取得部111は、撮像部204が撮像した画像をトリミングした画像を取得し、頭部101の動きを相殺するように、画像をトリミングする範囲を変更してもよい。
上述の第1の実施の形態のロボット100および第2の実施の形態のロボット200では、撮像部104、204で所定の対象を撮像し、感情表現する例について説明した。第3の実施の形態のロボット300では、マイクで収音した音声に基づいて、感情表現する例について説明する。
第3の実施の形態のロボット300では、感情動作を実施している時に、音声取得部116は、頭部101の動きを相殺するように、マイク105a〜105eの何れかから音声を取得する例について説明した。ロボット300は、感情動作を実施している時に、音声取得部116は、マイク105a〜105eから音声の取得を停止してもよい。また、音声取得部116により取得された音声の記録を停止してもよい。このようにすることで、ロボット300が頭部101の向きを変えた時に収音した音声により感情動作することによる誤動作を防ぐことができる。この場合、ロボット300は、1つのマイクを備えてもよい。また、音声取得部116が、マイク105a〜105eから音声の取得を停止する代わりに、感情動作を実施している時に、音声解析部117が解析を停止してもよい。
上述の実施の形態では、ロボット100〜300が、「喜」および「怒」の感情表現を実施する例について説明したが、ロボット100〜300は、ユーザなどの所定の対象に表現を実行すればよく、「喜」および「怒」以外の感情を表現してもよく、感情表現以外の動きを表現してもよい。
(付記1)
自装置を動作させる動作手段と、
所定の部位に配置されて被写体を撮像する撮像手段と、
前記動作手段を制御して前記所定の部位を動かす動作制御手段と、
前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段と、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御手段と、
を備える、
ことを特徴とするロボット。
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記撮像制御手段は、前記撮像手段の撮像を停止する、又は、前記撮像手段により撮像された前記被写体の画像の記録を停止する、
ことを特徴とする付記1に記載のロボット。
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記撮像制御手段は、前記所定の部位の動きを相殺するように前記撮像手段の撮像する向きを制御する、
ことを特徴とする付記1又は2に記載のロボット。
前記所定の部位に配置されたマイクが収音した音声を取得する音声取得手段を更に備え、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記音声取得手段は、前記音声の取得を停止する、又は、前記音声取得手段により取得された前記音声の記録を停止する、
ことを特徴とする付記1乃至3の何れか1つに記載のロボット。
前記撮像手段は、所定の対象を撮像し、
前記動作制御手段は、前記動作手段を制御して、前記所定の対象との交流を介した交流動作をするように前記所定の部位を動かす、
ことを特徴とする付記1乃至4の何れか1つに記載のロボット。
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記動作制御手段は、前記所定の対象を撮像した前記被写体の画像の一部を、前記所定の対象を含むように切り出したトリミング画像を取得する、
ことを特徴とする付記5に記載のロボット。
前記所定の対象の顔の表情を解析する画像解析手段を更に備え、
前記動作制御手段は、前記画像解析手段により解析された前記顔の表情に応じて、前記所定の対象への感情表現を表すように前記所定の部位を動かす、
ことを特徴とする付記5又は6に記載のロボット。
前記所定の部位に配置された複数のマイクが収音した音声を取得する音声取得手段を更に備え、
前記複数のマイクは、それぞれ異なる向きから到達する前記音声を収音し、
前記音声取得手段は、前記撮像手段により取得された前記被写体の画像に写る前記所定の対象に基づいて、前記所定の対象から到達した前記音声を収音する前記マイクから前記音声を取得し、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記音声取得手段は、前記所定の対象から到達する前記音声を取得するように、前記音声を取得する前記マイクを変更する、
ことを特徴とする付記5乃至7の何れか1つに記載のロボット。
前記動作制御手段は、前記動作手段を制御して、所定の対象とは独立して前記自装置が単独で実行する動作であって、前記所定の対象との交流を介さない自発的な一人動作をするように前記所定の部位を動かす、
ことを特徴とする付記1乃至4の何れか1つに記載のロボット。
前記所定の対象は、人又は動物を含む、
ことを特徴とする付記5乃至9の何れか1つに記載のロボット。
前記動作制御手段は、前記所定の部位を動かす処理を終了すると、前記所定の部位を動かす処理を開始する前の位置に、前記所定の部位を戻す、
ことを特徴とする付記1乃至10の何れか1つに記載のロボット。
胴体部と、前記胴体部と前記所定の部位とを連結する首関節と、を更に備え、
前記所定の部位は、頭部であり、
前記動作制御手段の制御に基づいて、前記首関節は、前記頭部を前記胴体部に対して動かす、
ことを特徴とする付記1乃至11の何れか1つに記載のロボット。
前記頭部の動きは、前記頭部の頷き又は首振りを含む、
ことを特徴とする付記12に記載のロボット。
自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットの制御方法であって、
前記動作手段を制御して前記所定の部位を動かす動作制御ステップと、
前記撮像手段が前記被写体を撮像している時に、前記動作制御ステップで前記所定の部位を動かしているか否かを判定する判定ステップと、
前記判定ステップによって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御ステップと、
を含む、
ことを特徴とするロボットの制御方法。
自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットを制御するコンピュータを、
前記動作手段を制御して前記所定の部位を動かす動作制御手段、
前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御手段、
として機能させる、
ことを特徴とするプログラム。
自装置を動作させる動作手段と、
所定の部位に配置されて被写体を撮像する撮像手段と、
前記動作手段を制御して前記所定の部位を動かす動作制御手段と、
前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段と、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えてしまい前記動作手段が誤動作を起こすことのないように前記撮像手段を制御する、又は、前記撮像手段により撮像された前記被写体の画像の処理を制御する撮像制御手段と、
を備える、
ことを特徴とする。
自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットの制御方法であって、
前記動作手段を制御して前記所定の部位を動かす動作制御ステップと、
前記撮像手段が前記被写体を撮像している時に、前記動作制御ステップで前記所定の部位を動かしているか否かを判定する判定ステップと、
前記判定ステップによって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えてしまい前記動作手段が誤動作を起こすことのないように前記撮像手段を制御する、又は、前記撮像手段により撮像された前記被写体の画像の処理を制御する撮像制御ステップと、
を含む、
ことを特徴とする。
自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットを制御するコンピュータを、
前記動作手段を制御して前記所定の部位を動かす動作制御手段、
前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えてしまい前記動作手段が誤動作を起こすことのないように前記撮像手段を制御する、又は、前記撮像手段により撮像された前記被写体の画像の処理を制御する撮像制御手段、
として機能させる、
ことを特徴とする。
Claims (15)
- 自装置を動作させる動作手段と、
所定の部位に配置されて被写体を撮像する撮像手段と、
前記動作手段を制御して前記所定の部位を動かす動作制御手段と、
前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段と、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御手段と、
を備える、
ことを特徴とするロボット。 - 前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記撮像制御手段は、前記撮像手段の撮像を停止する、又は、前記撮像手段により撮像された前記被写体の画像の記録を停止する、
ことを特徴とする請求項1に記載のロボット。 - 前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記撮像制御手段は、前記所定の部位の動きを相殺するように前記撮像手段の撮像する向きを制御する、
ことを特徴とする請求項1又は2に記載のロボット。 - 前記所定の部位に配置されたマイクが収音した音声を取得する音声取得手段を更に備え、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記音声取得手段は、前記音声の取得を停止する、又は、前記音声取得手段により取得された前記音声の記録を停止する、
ことを特徴とする請求項1乃至3の何れか1項に記載のロボット。 - 前記撮像手段は、所定の対象を撮像し、
前記動作制御手段は、前記動作手段を制御して、前記所定の対象との交流を介した交流動作をするように前記所定の部位を動かす、
ことを特徴とする請求項1乃至4の何れか1項に記載のロボット。 - 前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記動作制御手段は、前記所定の対象を撮像した前記被写体の画像の一部を、前記所定の対象を含むように切り出したトリミング画像を取得する、
ことを特徴とする請求項5に記載のロボット。 - 前記所定の対象の顔の表情を解析する画像解析手段を更に備え、
前記動作制御手段は、前記画像解析手段により解析された前記顔の表情に応じて、前記所定の対象への感情表現を表すように前記所定の部位を動かす、
ことを特徴とする請求項5又は6に記載のロボット。 - 前記所定の部位に配置された複数のマイクが収音した音声を取得する音声取得手段を更に備え、
前記複数のマイクは、それぞれ異なる向きから到達する前記音声を収音し、
前記音声取得手段は、前記撮像手段により取得された前記被写体の画像に写る前記所定の対象に基づいて、前記所定の対象から到達した前記音声を収音する前記マイクから前記音声を取得し、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記音声取得手段は、前記所定の対象から到達する前記音声を取得するように、前記音声を取得する前記マイクを変更する、
ことを特徴とする請求項5乃至7の何れか1項に記載のロボット。 - 前記動作制御手段は、前記動作手段を制御して、所定の対象とは独立して前記自装置が単独で実行する動作であって、前記所定の対象との交流を介さない自発的な一人動作をするように前記所定の部位を動かす、
ことを特徴とする請求項1乃至4の何れか1項に記載のロボット。 - 前記所定の対象は、人又は動物を含む、
ことを特徴とする請求項5乃至9の何れか1項に記載のロボット。 - 前記動作制御手段は、前記所定の部位を動かす処理を終了すると、前記所定の部位を動かす処理を開始する前の位置に、前記所定の部位を戻す、
ことを特徴とする請求項1乃至10の何れか1項に記載のロボット。 - 胴体部と、前記胴体部と前記所定の部位とを連結する首関節と、を更に備え、
前記所定の部位は、頭部であり、
前記動作制御手段の制御に基づいて、前記首関節は、前記頭部を前記胴体部に対して動かす、
ことを特徴とする請求項1乃至11の何れか1項に記載のロボット。 - 前記頭部の動きは、前記頭部の頷き又は首振りを含む、
ことを特徴とする請求項12に記載のロボット。 - 自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットの制御方法であって、
前記動作手段を制御して前記所定の部位を動かす動作制御ステップと、
前記撮像手段が前記被写体を撮像している時に、前記動作制御ステップで前記所定の部位を動かしているか否かを判定する判定ステップと、
前記判定ステップによって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御ステップと、
を含む、
ことを特徴とするロボットの制御方法。 - 自装置を動作させる動作手段と、所定の部位に配置されて被写体を撮像する撮像手段と、を備えるロボットを制御するコンピュータを、
前記動作手段を制御して前記所定の部位を動かす動作制御手段、
前記撮像手段が前記被写体を撮像している時に、前記動作制御手段が前記所定の部位を動かしているか否かを判定する判定手段、
前記判定手段によって前記所定の部位を動かしていると判定される場合に、前記所定の部位の動きが前記被写体の画像に影響を与えないように前記撮像手段を制御する撮像制御手段、
として機能させる、
ことを特徴とするプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017123607A JP2019005846A (ja) | 2017-06-23 | 2017-06-23 | ロボット、ロボットの制御方法及びプログラム |
US15/988,667 US20180376069A1 (en) | 2017-06-23 | 2018-05-24 | Erroneous operation-preventable robot, robot control method, and recording medium |
CN201810640812.0A CN109108962A (zh) | 2017-06-23 | 2018-06-20 | 机器人、机器人的控制方法以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017123607A JP2019005846A (ja) | 2017-06-23 | 2017-06-23 | ロボット、ロボットの制御方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019005846A true JP2019005846A (ja) | 2019-01-17 |
Family
ID=64692865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017123607A Pending JP2019005846A (ja) | 2017-06-23 | 2017-06-23 | ロボット、ロボットの制御方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20180376069A1 (ja) |
JP (1) | JP2019005846A (ja) |
CN (1) | CN109108962A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020114315A (ja) * | 2019-01-18 | 2020-07-30 | 株式会社大一商会 | 遊技機 |
JP2021064067A (ja) * | 2019-10-10 | 2021-04-22 | 沖電気工業株式会社 | 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190141303A (ko) * | 2018-06-14 | 2019-12-24 | 엘지전자 주식회사 | 이동 로봇의 동작 방법 |
JP7107017B2 (ja) * | 2018-06-21 | 2022-07-27 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
KR102148032B1 (ko) | 2018-06-25 | 2020-08-26 | 엘지전자 주식회사 | 로봇 |
KR102148031B1 (ko) * | 2018-06-25 | 2020-10-14 | 엘지전자 주식회사 | 로봇 |
WO2021159712A1 (zh) * | 2020-02-14 | 2021-08-19 | 北京百度网讯科技有限公司 | 一种机器人 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003089077A (ja) * | 2001-09-12 | 2003-03-25 | Toshiba Corp | ロボット |
JP2003266364A (ja) * | 2002-03-18 | 2003-09-24 | Sony Corp | ロボット装置 |
JP2008168375A (ja) * | 2007-01-10 | 2008-07-24 | Sky Kk | ボディランゲージロボット、ボディランゲージロボットの制御方法及び制御プログラム |
JP2009241247A (ja) * | 2008-03-10 | 2009-10-22 | Kyokko Denki Kk | ステレオ画像型検出移動装置 |
JP2010541065A (ja) * | 2007-09-26 | 2010-12-24 | 本田技研工業株式会社 | 3次元飲料容器位置決定装置 |
JP2011011330A (ja) * | 2009-06-03 | 2011-01-20 | Canon Inc | カメラ付きロボット |
JP2011233072A (ja) * | 2010-04-30 | 2011-11-17 | Fujitsu Ltd | ロボット、位置推定方法及びプログラム |
JP2013099823A (ja) * | 2011-11-09 | 2013-05-23 | Panasonic Corp | ロボット装置、ロボット制御方法、ロボット制御プログラム、およびロボットシステム |
JP2016068197A (ja) * | 2014-09-30 | 2016-05-09 | 富士ソフト株式会社 | ロボット |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08237541A (ja) * | 1995-02-22 | 1996-09-13 | Fanuc Ltd | カメラぶれ補正機能付き画像処理装置 |
TWI221574B (en) * | 2000-09-13 | 2004-10-01 | Agi Inc | Sentiment sensing method, perception generation method and device thereof and software |
CN1219397C (zh) * | 2002-10-22 | 2005-09-14 | 张晓林 | 仿生型自动视觉和视线控制系统及方法 |
JP4899217B2 (ja) * | 2007-06-12 | 2012-03-21 | 国立大学法人東京工業大学 | 前庭動眼反射の原理を用いる眼球運動制御装置 |
CN104493827A (zh) * | 2014-11-17 | 2015-04-08 | 福建省泉州市第七中学 | 智能认知机器人及其认知系统 |
-
2017
- 2017-06-23 JP JP2017123607A patent/JP2019005846A/ja active Pending
-
2018
- 2018-05-24 US US15/988,667 patent/US20180376069A1/en not_active Abandoned
- 2018-06-20 CN CN201810640812.0A patent/CN109108962A/zh not_active Withdrawn
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003089077A (ja) * | 2001-09-12 | 2003-03-25 | Toshiba Corp | ロボット |
JP2003266364A (ja) * | 2002-03-18 | 2003-09-24 | Sony Corp | ロボット装置 |
JP2008168375A (ja) * | 2007-01-10 | 2008-07-24 | Sky Kk | ボディランゲージロボット、ボディランゲージロボットの制御方法及び制御プログラム |
JP2010541065A (ja) * | 2007-09-26 | 2010-12-24 | 本田技研工業株式会社 | 3次元飲料容器位置決定装置 |
JP2009241247A (ja) * | 2008-03-10 | 2009-10-22 | Kyokko Denki Kk | ステレオ画像型検出移動装置 |
JP2011011330A (ja) * | 2009-06-03 | 2011-01-20 | Canon Inc | カメラ付きロボット |
JP2011233072A (ja) * | 2010-04-30 | 2011-11-17 | Fujitsu Ltd | ロボット、位置推定方法及びプログラム |
JP2013099823A (ja) * | 2011-11-09 | 2013-05-23 | Panasonic Corp | ロボット装置、ロボット制御方法、ロボット制御プログラム、およびロボットシステム |
JP2016068197A (ja) * | 2014-09-30 | 2016-05-09 | 富士ソフト株式会社 | ロボット |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020114315A (ja) * | 2019-01-18 | 2020-07-30 | 株式会社大一商会 | 遊技機 |
JP2021064067A (ja) * | 2019-10-10 | 2021-04-22 | 沖電気工業株式会社 | 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法 |
JP7392377B2 (ja) | 2019-10-10 | 2023-12-06 | 沖電気工業株式会社 | 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法 |
Also Published As
Publication number | Publication date |
---|---|
US20180376069A1 (en) | 2018-12-27 |
CN109108962A (zh) | 2019-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019005846A (ja) | ロボット、ロボットの制御方法及びプログラム | |
US10589426B2 (en) | Robot | |
US10445917B2 (en) | Method for communication via virtual space, non-transitory computer readable medium for storing instructions for executing the method on a computer, and information processing system for executing the method | |
JP6572943B2 (ja) | ロボット、ロボットの制御方法及びプログラム | |
US20180373413A1 (en) | Information processing method and apparatus, and program for executing the information processing method on computer | |
US10262461B2 (en) | Information processing method and apparatus, and program for executing the information processing method on computer | |
US10453248B2 (en) | Method of providing virtual space and system for executing the same | |
WO2017215297A1 (zh) | 云端互动系统及其多感知型智能机器人和感知互动方法 | |
JP6263252B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
US10438394B2 (en) | Information processing method, virtual space delivering system and apparatus therefor | |
JP6392911B2 (ja) | 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
US20190025586A1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
US20190005732A1 (en) | Program for providing virtual space with head mount display, and method and information processing apparatus for executing the program | |
JP6565853B2 (ja) | コミュニケーション装置 | |
JP7483940B2 (ja) | 顔イメージ生成方法、装置、電子機器及び可読記憶媒体 | |
JP2018124981A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2019106220A (ja) | ヘッドマウントデバイスを介して仮想空間を提供するためにコンピュータで実行されるプログラムおよび方法ならびに情報処理装置 | |
JP2019032844A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP7431903B2 (ja) | 撮影システム、撮影方法、撮影プログラム、及びぬいぐるみ | |
JP2019010710A (ja) | ロボット展示装置、ロボット展示システム、ロボット展示方法およびプログラム | |
JP2018092635A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6856572B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
CN111730608A (zh) | 控制装置、机器人、控制方法以及存储介质 | |
JP2020179005A (ja) | ロボット及び方法 | |
JP6853589B1 (ja) | 首掛け型装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180601 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180601 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190718 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190723 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200204 |