JP7403552B2 - ロボット、制御処理方法及び制御処理プログラム - Google Patents
ロボット、制御処理方法及び制御処理プログラム Download PDFInfo
- Publication number
- JP7403552B2 JP7403552B2 JP2021552119A JP2021552119A JP7403552B2 JP 7403552 B2 JP7403552 B2 JP 7403552B2 JP 2021552119 A JP2021552119 A JP 2021552119A JP 2021552119 A JP2021552119 A JP 2021552119A JP 7403552 B2 JP7403552 B2 JP 7403552B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- camera
- camera robot
- pattern
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 5
- 230000033001 locomotion Effects 0.000 claims description 201
- 238000003384 imaging method Methods 0.000 claims description 41
- 230000008921 facial expression Effects 0.000 claims description 24
- 238000009434 installation Methods 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 14
- 230000033764 rhythmic process Effects 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 52
- 238000012545 processing Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 6
- 239000000428 dust Substances 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 3
- 238000010411 cooking Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010255 response to auditory stimulus Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H30/00—Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
- A63H30/02—Electrical arrangements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H33/00—Other toys
- A63H33/22—Optical, colour, or shadow toys
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H5/00—Musical or noise- producing devices for additional toy effects other than acoustical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/02—Bodies
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B2206/00—Systems for exchange of information between different pieces of apparatus, e.g. for exchanging trimming information, for photo finishing
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Manipulator (AREA)
Description
本開示は、他のロボットとともに動作して1以上の被写体を撮像する技術に関するものである。
近年、様々なロボットが市場に導入されている。また、カメラを備えた複数のロボットが協調動作を行う技術も開発されている。
例えば、特許文献1には、複数台のロボットカメラが相互に撮影情報を交換すると共に協調動作して、状況に応じた撮影が自動的に行え、且つ必要に応じて人がロボットカメラを操作するロボットカメラ装置が開示されている。
しかしながら、上記従来の技術では、被写体のよい表情を引き出すことが困難であり、更なる改善が必要とされていた。
本開示は、上記の問題を解決するためになされたもので、楽しい雰囲気の空間を1以上の被写体に提供することができ、1以上の被写体のよい表情を引き出すことができる技術を提供することを目的とするものである。
本開示の一態様に係るロボットは、他のロボットとともに動作して1以上の被写体を撮像するロボットであって、周囲を撮像する撮像部と、撮像画像内から1以上の被写体を検出する検出部と、検出された前記1以上の被写体の属性に基づいて前記ロボットの動作パターンを選択する選択部と、選択された前記動作パターンに従って前記他のロボットを動作させるための指示情報を前記他のロボットへ送信する送信部と、選択された前記動作パターンに従って前記ロボットを動作させる動作部と、選択された前記動作パターンに従って前記ロボット及び前記他のロボットが動作している間、前記1以上の被写体を撮像した画像を出力する出力部と、を備える。
本開示によれば、楽しい雰囲気の空間を1以上の被写体に提供することができ、1以上の被写体のよい表情を引き出すことができる。
(本開示の基礎となった知見)
上記の従来技術におけるロボットカメラ装置は、撮影用カメラ及びロボットカメラ駆動部を有する1以上のロボットカメラと、撮影範囲内における被写体の3次元位置を計測する位置検出部と、被写体の音声情報を含む状態検出用の情報を計測する状態検出部と、番組特有のショットに関する撮影手法を含む種々の撮影制御情報を綜合的に管理するシナリオサーバとを備えている。そして、1以上のロボットカメラ、位置検出部、状態検出部、及びシナリオサーバがユニット化されて分散配置されると共に、通信ネットワークを介して各ユニット間で相互に通信できるように構成されている。
上記の従来技術におけるロボットカメラ装置は、撮影用カメラ及びロボットカメラ駆動部を有する1以上のロボットカメラと、撮影範囲内における被写体の3次元位置を計測する位置検出部と、被写体の音声情報を含む状態検出用の情報を計測する状態検出部と、番組特有のショットに関する撮影手法を含む種々の撮影制御情報を綜合的に管理するシナリオサーバとを備えている。そして、1以上のロボットカメラ、位置検出部、状態検出部、及びシナリオサーバがユニット化されて分散配置されると共に、通信ネットワークを介して各ユニット間で相互に通信できるように構成されている。
上記の1以上のロボットカメラは、単に被写体を自動的に撮影するだけである。そのため、1以上のロボットカメラが動作することによって、被写体の表情が変化することはなく、被写体のよい表情を引き出すことが困難であった。
以上の課題を解決するために、本開示の一態様に係るロボットは、他のロボットとともに動作して1以上の被写体を撮像するロボットであって、周囲を撮像する撮像部と、撮像画像内から1以上の被写体を検出する検出部と、検出された前記1以上の被写体の属性に基づいて前記ロボットの動作パターンを選択する選択部と、選択された前記動作パターンに従って前記他のロボットを動作させるための指示情報を前記他のロボットへ送信する送信部と、選択された前記動作パターンに従って前記ロボットを動作させる動作部と、選択された前記動作パターンに従って前記ロボット及び前記他のロボットが動作している間、前記1以上の被写体を撮像した画像を出力する出力部と、を備える。
この構成によれば、1以上の被写体の属性に基づいてロボットの動作パターンが選択され、選択された動作パターンに従ってロボット及び他のロボットが動作し、選択された動作パターンに従ってロボット及び他のロボットが動作している間、1以上の被写体を撮像した画像が出力される。
したがって、選択された動作パターンに従って複数のロボットが同時に動作するので、楽しい雰囲気の空間を1以上の被写体に提供することができ、1以上の被写体のよい表情を引き出すことができる。
また、上記のロボットにおいて、検出された前記1以上の被写体が子供及び大人のいずれであるかを認識する被写体認識部をさらに備え、前記選択部は、検出された前記1以上の被写体が子供のみである場合、第1の動作パターンを選択し、検出された前記1以上の被写体が子供のみではない場合、前記第1の動作パターンよりも前記ロボットの動作量が少ない第2の動作パターンを選択してもよい。
この構成によれば、1以上の被写体が子供のみである場合と、1以上の被写体が子供のみではない場合とで、異なる動作パターンで複数のロボットが動作するので、子供を飽きさせることなく、子供から様々な表情を引き出すことができる。
また、上記のロボットにおいて、前記ロボットが持ち上げられたことを検知するセンサをさらに備え、前記選択部は、前記ロボットが持ち上げられたことが検知された場合、持ち上げられたことに対して反応する第3の動作パターンを選択し、前記送信部は、前記ロボットが持ち上げられたことを示す持ち上げ情報を前記他のロボットへ送信してもよい。
この構成によれば、ロボットが持ち上げられたことが検知された場合、持ち上げられたことに対して反応する第3の動作パターンが選択され、第3の動作パターンに従ってロボットが動作する。したがって、例えば、嫌がるような第3動作パターンでロボットが動作することにより、持ち上げた人物に対してロボットを置くように促すことができる。また、1以上の被写体は、意図的にロボットを持ち上げることにより、第1動作パターン及び第2動作パターンとは異なる第3動作パターンによるロボットの動作を楽しむことができる。
また、上記のロボットにおいて、前記持ち上げ情報を前記他のロボットから受信する受信部をさらに備え、前記選択部は、前記他のロボットからの前記持ち上げ情報が受信された場合、前記他のロボットが持ち上げられたことに対して反応する第4の動作パターンを選択してもよい。
この構成によれば、他のロボットからの持ち上げ情報が受信された場合、他のロボットが持ち上げられたことに対して反応する第4の動作パターンが選択される。したがって、例えば、怒るような第4動作パターンでロボットが動作することにより、持ち上げた人物に対して他のロボットを置くように促すことができる。
また、上記のロボットにおいて、前記センサは、持ち上げられた前記ロボットが置かれたことを検知し、前記選択部は、前記ロボットが置かれたことが検知された場合、前記ロボットが持ち上げられる前に動作していた動作パターンを選択してもよい。
この構成によれば、持ち上げられたロボットが置かれた場合、ロボットが持ち上げられる前の動作パターンでロボットを動作させることができる。
また、上記のロボットにおいて、周囲の音を収集する集音部と、収集された前記音が音楽であることを認識する音楽認識部と、スピーカと、をさらに備え、前記選択部は、認識された前記音楽のリズムに合わせて音を前記スピーカから出力する第5の動作パターンを選択してもよい。
この構成によれば、収集された音が音楽であることが認識された場合、認識された音楽のリズムに合わせて音がスピーカから出力されるので、楽しい雰囲気の空間を1以上の被写体に提供することができ、1以上の被写体のよい表情を引き出すことができる。
また、上記のロボットにおいて、前記ロボットの設置場所を示す設置場所情報と、前記ロボットに予め設定されている性格を示す性格情報とを記憶する記憶部と、前記他のロボットの前記設置場所情報及び前記性格情報を前記他のロボットから受信する受信部と、をさらに備え、前記動作部は、前記ロボットの前記設置場所が前記他のロボットの前記設置場所と同じである場合、前記ロボットの前記性格と前記他のロボットの前記性格とに基づいて、選択された前記動作パターンの動作量を変化させてもよい。
この構成によれば、例えば、ロボットの性格には、相性のよい組み合わせと、相性の悪い組み合わせとが設定されている。この場合、設置場所が同じである複数のロボットの性格が相性のよい組み合わせであれば、選択された動作パターンの動作量が増加される。また、設置場所が同じである複数のロボットの性格が相性の悪い組み合わせであれば、選択された動作パターンの動作量が減少される。このように、複数のロボットに対して設定された性格により、選択された動作パターンの動作量が変化するので、1以上の被写体を飽きさせることなく、複数のロボットの仮想的な関係を形成することができる。
また、上記のロボットにおいて、前記ロボットの本体に形成された表示部と、前記本体に形成されたスピーカと、前記本体の一部を駆動する駆動部と、をさらに備え、前記動作部は、選択された前記動作パターンに従って、所定の表情を示す画像を前記表示部に表示させ、所定の音を前記スピーカから出力させ、所定の駆動パターンに応じて前記本体の一部を前記駆動部に駆動させてもよい。
この構成によれば、複数の動作パターンに対して、表情を示す画像、音及び本体の一部の駆動パターンを予め対応付けて記憶しておくことにより、選択された動作パターンに従って、表示部、スピーカ及び駆動部を動作させることができ、1以上の被写体が楽しめる空間を提供することができる。
本開示の他の態様に係る制御処理方法は、他のロボットとともに動作して1以上の被写体を撮像するロボットにおける制御処理方法であって、周囲を撮像し、撮像画像内から1以上の被写体を検出し、検出された前記1以上の被写体の属性に基づいて前記ロボットの動作パターンを選択し、選択された前記動作パターンに従って前記他のロボットを動作させるための指示情報を前記他のロボットへ送信し、選択された前記動作パターンに従って前記ロボットを動作させ、選択された前記動作パターンに従って前記ロボット及び前記他のロボットが動作している間、前記1以上の被写体を撮像した画像を出力する。
この構成によれば、1以上の被写体の属性に基づいてロボットの動作パターンが選択され、選択された動作パターンに従ってロボット及び他のロボットが動作し、選択された動作パターンに従ってロボット及び他のロボットが動作している間、1以上の被写体を撮像した画像が出力される。
したがって、選択された動作パターンに従って複数のロボットが同時に動作するので、楽しい雰囲気の空間を1以上の被写体に提供することができ、1以上の被写体のよい表情を引き出すことができる。
本開示の他の態様に係る制御処理プログラムは、他のロボットとともに動作して1以上の被写体をロボットに撮像させるための制御処理プログラムであって、周囲を撮像する撮像部と、撮像画像内から1以上の被写体を検出する検出部と、検出された前記1以上の被写体の属性に基づいて前記ロボットの動作パターンを選択する選択部と、選択された前記動作パターンに従って前記他のロボットを動作させるための指示情報を前記他のロボットへ送信する送信部と、選択された前記動作パターンに従って前記ロボットを動作させる動作部と、選択された前記動作パターンに従って前記ロボット及び前記他のロボットが動作している間、前記1以上の被写体を撮像した画像を出力する出力部としてコンピュータを機能させる。
この構成によれば、1以上の被写体の属性に基づいてロボットの動作パターンが選択され、選択された動作パターンに従ってロボット及び他のロボットが動作し、選択された動作パターンに従ってロボット及び他のロボットが動作している間、1以上の被写体を撮像した画像が出力される。
したがって、選択された動作パターンに従って複数のロボットが同時に動作するので、楽しい雰囲気の空間を1以上の被写体に提供することができ、1以上の被写体のよい表情を引き出すことができる。
以下添付図面を参照しながら、本開示の実施の形態について説明する。なお、以下の実施の形態は、本開示を具体化した一例であって、本開示の技術的範囲を限定するものではない。
(実施の形態1)
図1は、本開示の実施の形態1における撮像システムの全体構成を示す図である。
図1は、本開示の実施の形態1における撮像システムの全体構成を示す図である。
図1に示す撮像システムは、第1カメラロボット1、第2カメラロボット2、第3カメラロボット3及びサーバ4を備える。
第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3は、家庭内の同一の空間内に配置される。第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3は、例えば、リビングルームに配置される。第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3のそれぞれは、1以上の被写体を検出し、検出した1以上の被写体を撮像する。被写体は、人物である。
第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3は、ネットワーク5を介して互いに通信可能に接続されている。第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3のうちの1のカメラロボットは、検出された1以上の被写体の属性に基づいて、複数の動作パターンの中から第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3の動作パターンを選択する。1のカメラロボットは、選択した動作パターンを他のカメラロボットへ通知する。1のカメラロボットは、選択した動作パターンに従って動作する。他のカメラロボットは、通知された動作パターンに従って動作する。
属性は、例えば、被写体が大人であるか子供であるかを示す情報である。第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3は、1以上の被写体が子供のみである場合の第1動作パターンと、1以上の被写体が子供のみではない場合の第2動作パターンとを異ならせる。
また、第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3のそれぞれは、ネットワーク5を介してサーバ4と通信可能に接続されている。ネットワーク5は、例えば、インターネットである。第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3のそれぞれは、撮像した画像を、ネットワーク5を介してサーバ4へ送信する。
なお、本実施の形態1では、撮像システムは、3台のカメラロボットを備えているが、本開示は特にこれに限定されず、2台のカメラロボット又は4台以上のカメラロボットを備えてもよい。
続いて、本実施の形態1における第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3の構成について説明する。
図2は、本開示の実施の形態1における第1カメラロボットの外観を示す斜視図であり、図3は、本開示の実施の形態1における第1カメラロボットの外観を示す正面図であり、図4は、本開示の実施の形態1における第1カメラロボットの外観を示す背面図である。なお、第2カメラロボット2及び第3カメラロボット3の構成は、第1カメラロボット1の構成と同じであるので、第1カメラロボット1の構成のみを説明する。
第1カメラロボット1の本体100は、下部筐体101と、下部筐体101の上に設けられた上部筐体102とを含む。上部筐体102は、下部筐体101に対して旋回可能に取り付けられている。上部筐体102は、不図示の駆動部により、垂直方向に沿った中心線を回転軸として左方向及び右方向に旋回する。
第1カメラロボット1は、カメラ11、スピーカ15及び表示部16を備える。
カメラ11は、第1カメラロボット1の本体100に形成される。カメラ11は、下部筐体101の正面側に設けられる。カメラ11は、第1カメラロボット1の周囲にいる1以上の被写体を撮像する。
スピーカ15は、第1カメラロボット1の本体100に形成される。スピーカ15は、下部筐体101の背面側に設けられる。スピーカ15は、音を出力する。
表示部16は、第1カメラロボット1の本体100に形成される。表示部16は、上部筐体102の正面側に設けられる。表示部16は、円形状の液晶表示装置であり、人間の目を模した画像を表示する。表示部16は、表現する表情に応じて、表示する目の種類を変更する。
図5は、本開示の実施の形態1における第1カメラロボットの構成を示すブロック図である。
図5に示す第1カメラロボット1は、カメラ11、画像認識部12、制御部13、メモリ14、スピーカ15、表示部16、シャッター部17、駆動部18及び通信部19を備える。
カメラ11は、第1カメラロボット1の周囲を撮像する。
画像認識部12は、カメラ11による撮像画像内から1以上の被写体を検出する。被写体は、人物である。また、画像認識部12は、検出した1以上の被写体の属性を認識する。属性は、子供及び大人のいずれかである。画像認識部12は、顔、身長及び体型などの人物の特徴に基づいて、撮像画像内の1以上の被写体の属性が子供及び大人のいずれであるかを認識する。子供は、例えば15歳以下の人物である。なお、子供は、例えば12歳以下の人物であってもよく、1歳から6歳までの幼児であってもよい。
制御部13は、画像認識部12によって検出された1以上の被写体の属性に基づいてカメラロボットの動作パターンを選択する。制御部13は、画像認識部12によって検出された1以上の被写体が子供のみである場合、第1の動作パターンを選択し、画像認識部12によって検出された1以上の被写体が子供のみではない場合、第1の動作パターンよりもカメラロボットの動作量が少ない第2の動作パターンを選択する。
メモリ14は、複数の動作パターンのそれぞれに、上部筐体102を旋回させるための駆動パターンと、表示部16に表示する表情を表す画像と、スピーカ15から出力する音とを対応付けて予め記憶する。
制御部13は、選択した動作パターンに従って第1カメラロボット1を動作させる。制御部13は、選択した動作パターンに対応付けられている駆動パターンに応じた制御信号を駆動部18へ出力し、選択した動作パターンに対応付けられている画像を表示部16へ出力し、選択した動作パターンに対応付けられている音をスピーカ15へ出力する。
スピーカ15は、制御部13から入力される音を出力する。スピーカ15は、選択された動作パターンに対応付けられた所定の音を出力する。
表示部16は、制御部13から入力される画像を表示する。表示部16は、選択された動作パターンに対応付けられた所定の表情を示す画像を表示する。
駆動部18は、第1カメラロボット1の本体100の一部を駆動する。駆動部18は、制御部13から入力される制御信号に応じて上部筐体102を旋回させる。駆動部18は、選択された動作パターンに対応付けられた所定の駆動パターンに応じて本体100の一部を駆動する。
制御部13は、選択された動作パターンに従って、所定の表情を示す画像を表示部16に表示させ、所定の音をスピーカ15から出力させ、所定の駆動パターンに応じて本体100の一部を駆動部18に駆動させる。
シャッター部17は、選択された動作パターンに従って第1カメラロボット1及び他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)が動作している間、1以上の被写体を撮像した画像をカメラ11に出力させる。カメラ11は、選択された動作パターンに従って第1カメラロボット1及び他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)が動作している間、1以上の被写体を撮像した画像を出力する。カメラ11は、1以上の被写体を撮像した画像を通信部19へ出力する。
シャッター部17は、制御部13によって選択された動作パターンによる動作が開始された場合、カメラ11による撮像画像の出力を開始させる。シャッター部17は、撮像画像を1秒ごとに出力させる。シャッター部17は、画像認識部12によって1以上の被写体が検出されなくなった場合、カメラ11による撮像画像の出力を終了させる。また、制御部13は、画像認識部12によって1以上の被写体が検出されなくなった場合、動作パターンに従った第1カメラロボット1の動作を終了させる。
なお、カメラ11は、1以上の被写体を撮像した画像をメモリ14へ出力してもよい。この場合、メモリ14は、1以上の被写体を撮像した画像を記憶してもよい。1以上の被写体を撮像した画像がメモリ14に記憶される場合、撮像システムはサーバ4を備えていなくてもよい。
通信部19は、制御部13によって選択された動作パターンに従って他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)を動作させるための動作開始指示情報を他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)へ送信する。また、通信部19は、カメラ11から出力された撮像画像をサーバ4へ送信する。
また、通信部19は、他のカメラロボット(第2カメラロボット2又は第3カメラロボット3)によって選択された動作パターンに従って第1カメラロボット1を動作させるための動作開始指示情報を他のカメラロボット(第2カメラロボット2又は第3カメラロボット3)から受信する。制御部13は、通信部19によって受信された動作開始指示情報に含まれる動作パターンに従って第1カメラロボット1を動作させる。
また、制御部13は、画像認識部12によって1以上の被写体が検出されなくなった場合、通信部19に対し、他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)の動作を終了させるための動作終了指示情報を他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)へ送信させる。通信部19は、動作終了指示情報を他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)へ送信する。
また、通信部19は、動作終了指示情報を他のカメラロボット(第2カメラロボット2又は第3カメラロボット3)から受信する。制御部13は、通信部19によって動作終了指示情報が受信された場合、動作パターンに従った第1カメラロボット1の動作を終了させる。
なお、メモリ14は、第1カメラロボット1が設置された家の住人の顔画像と、大人及び子供のいずれであるかを示す属性情報とを予め対応付けて記憶していてもよい。画像認識部12は、メモリ14に記憶されている顔画像を用いて撮像画像内の1以上の被写体の顔を認識し、認識した顔が子供及び大人のいずれであるかを認識してもよい。これにより、より正確な属性識別が可能となる。
本実施の形態1では、動作開始指示情報を送信したカメラロボットが、主カメラロボットとなり、動作開始指示情報を受信したカメラロボットが、従カメラロボットとなる。従カメラロボットは、主カメラロボットから受信した動作開始指示情報に含まれる動作パターンに従って従カメラロボットを動作させるとともに、撮像画像を出力する。すなわち、複数のカメラロボットのうち、最も早く1以上の被写体を検出した1のカメラロボットが主カメラロボットとなり、他のカメラロボットは従カメラロボットとなる。従カメラロボットは、主カメラロボットからの指示に従う。
なお、優先順位が複数のカメラロボットに付与されていてもよい。複数のカメラロボットのうちの少なくとも1のカメラロボットが1以上の被写体を検出した場合、複数のカメラロボットのうちの最も優先順位の高いカメラロボットが主カメラロボットとなってもよい。
また、第1カメラロボット1は、1以上の被写体を検出した場合、1以上の被写体のうちの第1カメラロボット1に最も近い被写体までの距離を被写体距離として算出し、算出した被写体距離を他のカメラロボットへ送信してもよい。そして、第1カメラロボット1は、他のカメラロボットによって算出された被写体距離を受信してもよい。第1カメラロボット1は、自身で算出した被写体距離と、他のカメラロボットから受信した被写体距離とのうち、被写体距離が最も短いカメラロボットを主カメラロボットに決定してもよい。例えば、第1カメラロボット1で算出した被写体距離が最も短い場合、第1カメラロボット1は、自身を主カメラロボットに決定してもよい。一方、他のカメラロボットで算出した被写体距離が最も短い場合、第1カメラロボット1は、自身を従カメラロボットに決定してもよい。
続いて、本開示の実施の形態1における撮像システムの動作について説明する。
図6は、本開示の実施の形態1における撮像システムの動作について説明するための第1のフローチャートであり、図7は、本開示の実施の形態1における撮像システムの動作について説明するための第2のフローチャートである。なお、図6及び図7の説明では、第1カメラロボット1が主カメラロボットであり、第2カメラロボット2及び第3カメラロボット3が従カメラロボットである。
まず、ステップS1において、第1カメラロボット1のカメラ11は、周囲を撮像した撮像画像を取得する。カメラ11は、取得した撮像画像を画像認識部12へ出力する。
次に、ステップS2において、画像認識部12は、撮像画像から1以上の被写体を検出したか否かを判断する。本実施の形態1における被写体は、人物である。ここで、撮像画像から1以上の被写体を検出していないと判断された場合(ステップS2でNO)、ステップS1に処理が戻る。
一方、撮像画像から1以上の被写体を検出したと判断された場合(ステップS2でYES)、ステップS3において、画像認識部12は、検出した1以上の被写体の属性が子供及び大人のいずれであるかを認識する。
次に、ステップS4において、制御部13は、画像認識部12によって認識された1以上の被写体が子供のみであるか否かを判断する。
ここで、1以上の被写体が子供のみであると判断された場合(ステップS4でYES)、ステップS5において、制御部13は、第1動作パターンを選択する。第1動作パターンは、第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3が騒ぐ状況を表現する動作パターンである。
一方、1以上の被写体が子供のみではないと判断された場合、すなわち、1以上の被写体が大人と子供とで構成されると判断された場合又は1以上の被写体が大人のみであると判断された場合(ステップS4でNO)、ステップS6において、制御部13は、第1動作パターンとは異なる第2動作パターンを選択する。第2動作パターンは、第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3がおとなしくしている状況を表現する動作パターンである。
次に、ステップS7において、通信部19は、制御部13によって選択された動作パターンに従って第2カメラロボット2及び第3カメラロボット3を動作させるための動作開始指示情報を第2カメラロボット2及び第3カメラロボット3へ送信する。
次に、ステップS8において、制御部13は、選択した動作パターンの動作を開始する。制御部13は、第1動作パターンを選択した場合、第1動作パターンに対応付けられている駆動パターンに応じた制御信号を駆動部18へ出力し、第1動作パターンに対応付けられている画像を表示部16へ出力し、第1動作パターンに対応付けられている音をスピーカ15へ出力する。
第1動作パターンには、例えば、上部筐体102を一方向に所定の角度で回転させるとともに他方向に所定の角度で回転させる動作を繰り返す駆動パターンが対応付けられている。
また、第1動作パターンには、例えば、笑った目を模した画像が対応付けられている。
図8は、本実施の形態1において、第1動作パターンが選択された場合に表示部に表示される画像の一例を示す図である。
図8に示すように、第1動作パターンが選択された場合、表示部16は、笑った目を模した画像を表示する。
また、第1動作パターンには、例えば、子供が楽しくなるような音楽が対応付けられている。
さらに、制御部13は、第2動作パターンを選択した場合、第2動作パターンに対応付けられている駆動パターンに応じた制御信号を駆動部18へ出力し、第2動作パターンに対応付けられている画像を表示部16へ出力し、第2動作パターンに対応付けられている音をスピーカ15へ出力する。第2動作パターンには、例えば、上部筐体102を動作させない駆動パターンが対応付けられている。
また、第2動作パターンには、例えば、潤んだ目を模した画像が対応付けられている。
図9は、本実施の形態1において、第2動作パターンが選択された場合に表示部に表示される画像の一例を示す図である。
図9に示すように、第2動作パターンが選択された場合、表示部16は、潤んだ目を模した画像を表示する。
また、第2動作パターンには、例えば、無音又は静かな音楽が対応付けられている。
図7に戻って、次に、ステップS9において、シャッター部17は、カメラ11による撮像画像の出力を開始する。なお、シャッター部17は、例えば1秒毎にカメラ11から通信部19へ撮像画像を出力させる。通信部19は、1秒毎にカメラ11から取得した撮像画像をサーバ4へ送信する。なお、シャッター部17は、選択された動作パターンに従って第1カメラロボット1が動作している間、すなわち、撮像を開始してから撮像画像内に1以上の被写体が検出されなくなるまでの間、撮像画像を出力させる。
また、ステップS21において、第2カメラロボット2の通信部19は、第1カメラロボット1によって送信された動作開始指示情報を受信する。動作開始指示情報は、第1カメラロボット1によって選択された動作パターンを特定する情報を含む。
次に、ステップS22において、制御部13は、第1カメラロボット1によって選択された動作パターンの動作を開始する。制御部13は、第1カメラロボット1によって第1動作パターンが選択された場合、第1動作パターンに対応付けられている駆動パターンに応じた制御信号を駆動部18へ出力し、第1動作パターンに対応付けられている画像を表示部16へ出力し、第1動作パターンに対応付けられている音をスピーカ15へ出力する。なお、第2カメラロボット2における第1動作パターンは、第1カメラロボット1における第1動作パターンと同じである。
また、制御部13は、第1カメラロボット1によって第2動作パターンが選択された場合、第2動作パターンに対応付けられている駆動パターンに応じた制御信号を駆動部18へ出力し、第2動作パターンに対応付けられている画像を表示部16へ出力し、第2動作パターンに対応付けられている音をスピーカ15へ出力する。なお、第2カメラロボット2における第2動作パターンは、第1カメラロボット1における第2動作パターンと同じである。
次に、ステップS23において、シャッター部17は、カメラ11による撮像画像の出力を開始する。なお、シャッター部17は、例えば1秒毎にカメラ11から通信部19へ撮像画像を出力させる。通信部19は、1秒毎にカメラ11から取得した撮像画像をサーバ4へ送信する。なお、シャッター部17は、選択された動作パターンに従って第2カメラロボット2が動作している間、すなわち、撮像を開始してから撮像画像内に1以上の被写体が検出されなくなるまで(動作終了指示情報を受信するまで)の間、撮像画像を出力させる。
また、ステップS31において、第3カメラロボット3の通信部19は、第1カメラロボット1によって送信された動作開始指示情報を受信する。
なお、第3カメラロボット3によるステップS31~ステップS33の処理は、第2カメラロボット2によるステップS21~ステップS23の処理と同じである。
このように、1以上の被写体が子供のみである場合は、第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3は、楽しく騒いでいる状況を作り出す。これにより、第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3は、1以上の子供を楽しい気分にさせ、1以上の子供のよい表情を引き出すことができる。そして、このような楽しく騒いでいる状況において撮像画像が出力されることにより、サーバ4は、1以上の子供のよい表情の撮像画像を取得することができる。
また、1以上の被写体が子供のみではない場合は、第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3は、静かな状況を作り出す。これにより、第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3は、子供のみがいる場合と、大人がいる場合とで、異なる状況を作り出すことができ、1以上の子供を飽きさせないようにすることができる。
次に、ステップS10において、第1カメラロボット1の画像認識部12は、撮像画像から1以上の被写体を検出したか否かを判断する。ここで、撮像画像から1以上の被写体を検出したと判断された場合(ステップS10でYES)、ステップS10の処理が繰り返され、選択した動作パターンの動作と、撮像画像の出力とが引き続き行われる。
一方、撮像画像から1以上の被写体を検出していないと判断された場合(ステップS10でNO)、ステップS11において、通信部19は、動作パターンに従った第2カメラロボット2及び第3カメラロボット3の動作を終了させるための動作終了指示情報を第2カメラロボット2及び第3カメラロボット3へ送信する。
次に、ステップS12において、制御部13は、選択した動作パターンの動作を終了する。
次に、ステップS13において、シャッター部17は、カメラ11による撮像画像の出力を終了する。
また、ステップS24において、第2カメラロボット2の通信部19は、第1カメラロボット1によって送信された動作終了指示情報を受信する。
次に、ステップS25において、制御部13は、第1カメラロボット1によって選択された動作パターンの動作を終了する。
次に、ステップS26において、シャッター部17は、カメラ11による撮像画像の出力を終了する。
また、ステップS34において、第3カメラロボット3の通信部19は、第1カメラロボット1によって送信された動作終了指示情報を受信する。
なお、第3カメラロボット3によるステップS34~ステップS36の処理は、第2カメラロボット2によるステップS24~ステップS26の処理と同じである。
以上のように、1以上の被写体の属性に基づいて第1カメラロボット1の動作パターンが選択され、選択された動作パターンに従って第1カメラロボット1及び他のロボット(第2カメラロボット2及び第3カメラロボット3)が動作し、選択された動作パターンに従って第1カメラロボット1及び他のロボット(第2カメラロボット2及び第3カメラロボット3)が動作している間、1以上の被写体を撮像した画像が出力される。
したがって、選択された動作パターンに従って複数のカメラロボット(第1カメラロボット1、第2カメラロボット2及び第3カメラロボット3)が同時に動作するので、楽しい雰囲気の空間を1以上の被写体に提供することができ、1以上の被写体のよい表情を引き出すことができる。
なお、本実施の形態1において、メモリ14は、第1カメラロボット1の設置場所を示す設置場所情報と、第1カメラロボット1に予め設定されている性格を示す性格情報とを記憶してもよい。通信部19は、他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)の設置場所情報及び性格情報を他のロボット(第2カメラロボット2及び第3カメラロボット3)から受信してもよい。この場合、制御部13は、第1カメラロボット1の設置場所が他のロボット(第2カメラロボット2又は第3カメラロボット3)の設置場所と同じである場合、第1カメラロボット1の性格と他のロボット(第2カメラロボット2又は第3カメラロボット3)の性格とに基づいて、選択された動作パターンの動作量を変化させてもよい。
設置場所は、例えば、リビングルームのテーブル及びリビングルームの棚などである。設置場所は、ユーザにより入力される。性格は、例えば、「騒がしい」、「普通」及び「おとなしい」の3種類である。性格は、ユーザにより入力されてもよいし、予め設定されていてもよい。相性のよい性格の組み合わせと、相性の悪い性格の組み合わせとがある。例えば、「騒がしい」と「騒がしい」との組み合わせ、「普通」と「普通」との組み合わせ及び「おとなしい」と「おとなしい」との組み合わせは、相性がよい。また、「騒がしい」と「おとなしい」との組み合わせは、相性が悪い。
制御部13は、第1カメラロボット1と設置場所が同じであり、第1カメラロボット1と相性がよい性格が設定されている他のカメラロボットが存在する場合、選択した動作パターンにおける動作量を10%増加させてもよい。また、制御部13は、第1カメラロボット1と設置場所が同じであり、第1カメラロボット1と相性が悪い性格が設定されている他のカメラロボットが存在する場合、選択した動作パターンにおける動作量を10%減少させてもよい。例えば、駆動部18は、上部筐体102を旋回させる角度を10%増加又は減少させてもよく、上部筐体102を旋回させる速度を10%増加又は減少させてもよい。また、スピーカ15は、出力する音の音量を10%増加又は減少させてもよい。
また、本実施の形態1において、撮像システムは、端末装置をさらに備えてもよい。端末装置は、例えば、スマートフォン又はタブレット型コンピュータであり、ユーザによって使用される。サーバ4は、複数のカメラロボットによって撮像された画像を端末装置へ送信してもよい。端末装置は、サーバ4によって送信された撮像画像を受信し、受信した撮像画像を記憶及び/又は表示してもよい。
また、端末装置は、サーバ4に蓄積された複数の撮像画像のうち、ユーザが好む撮像画像の選択を受け付けてもよい。サーバ4は、ユーザによって選択された撮像画像のみを端末装置へ送信してもよい。さらに、サーバ4は、ユーザによって選択された複数の撮像画像を教師データとして学習することにより識別モデルを作成してもよい。そして、サーバ4は、複数のカメラロボットから受信した複数の撮像画像を識別モデルに入力し、識別モデルから出力される撮像画像を端末装置へ送信してもよい。これにより、ユーザが好む撮像画像を自動的に抽出することができ、ユーザが撮像画像を選択する手間を省くことができる。
(実施の形態2)
続いて、本開示の実施の形態2における撮像システムについて説明する。
続いて、本開示の実施の形態2における撮像システムについて説明する。
本実施の形態2では、実施の形態1の第1動作パターン及び第2動作パターンに加えて、複数のカメラロボットのうちの1のカメラロボットが持ち上げられた状況を表現する第3動作パターン及び第4動作パターンが選択される。
図10は、本開示の実施の形態2における第1カメラロボットの構成を示すブロック図である。本実施の形態2における撮像システムは、第1カメラロボット1A、第2カメラロボット2A、第3カメラロボット3A及びサーバ4を備える。なお、第2カメラロボット2A及び第3カメラロボット3Aの構成は、第1カメラロボット1Aの構成と同じであるので、第1カメラロボット1Aの構成のみを説明する。本実施の形態2において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。
図10に示す第1カメラロボット1Aは、カメラ11、画像認識部12、制御部13A、メモリ14、スピーカ15、表示部16、シャッター部17、駆動部18、通信部19A及び持ち上げセンサ20を備える。
持ち上げセンサ20は、第1カメラロボット1Aが持ち上げられたことを検知する。持ち上げセンサ20は、例えば光センサであり、下部筐体101の底面に設けられる。持ち上げセンサ20は、第1カメラロボット1Aが持ち上げられたことを検知した場合、第1検知信号を制御部13Aへ出力する。
また、持ち上げセンサ20は、持ち上げられた第1カメラロボット1Aが置かれたことを検知する。持ち上げセンサ20は、第1カメラロボット1Aが置かれたことを検知した場合、第2検知信号を制御部13Aへ出力する。
制御部13Aは、持ち上げセンサ20によって第1カメラロボット1Aが持ち上げられたことが検知された場合、持ち上げられたことに対して反応する第3動作パターンを選択する。制御部13Aは、持ち上げセンサ20から第1検知信号が入力された場合、第1動作パターン又は第2動作パターンから第3動作パターンに切り替える。ことのとき、制御部13Aは、第1カメラロボット1Aが持ち上げられる前に動作していた動作パターンをメモリ14に記憶する。
また、制御部13Aは、持ち上げセンサ20によって第1カメラロボット1Aが置かれたことが検知された場合、第1カメラロボット1Aが持ち上げられる前に動作していた動作パターンを選択する。制御部13Aは、持ち上げセンサ20から第2検知信号が入力された場合、第3動作パターンから、メモリ14に記憶されている第1カメラロボット1Aが持ち上げられる前に動作していた動作パターンに切り替える。
通信部19Aは、第1カメラロボット1Aが持ち上げられたことを示す持ち上げ情報を他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)へ送信する。
また、通信部19Aは、持ち上げ情報を他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)から受信する。制御部13Aは、他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)からの持ち上げ情報が受信された場合、他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)が持ち上げられたことに対して反応する第4動作パターンを選択する。
また、通信部19Aは、持ち上げられた第1カメラロボット1Aが置かれたことを示す載置情報を他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)へ送信する。載置情報は、第1カメラロボット1が持ち上げられる前に動作していた動作パターンを含む。
また、通信部19Aは、載置情報を他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)から受信する。制御部13Aは、他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)からの載置情報が受信された場合、他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)が持ち上げられる前に動作していた動作パターンを選択する。このとき、載置情報は、他のカメラロボット(第2カメラロボット2及び第3カメラロボット3)が持ち上げられる前に動作していた動作パターンを含む。
続いて、本開示の実施の形態2における撮像システムの動作について説明する。
図11は、本開示の実施の形態2における撮像システムの動作について説明するための第1のフローチャートであり、図12は、本開示の実施の形態2における撮像システムの動作について説明するための第2のフローチャートであり、図13は、本開示の実施の形態2における撮像システムの動作について説明するための第3のフローチャートであり、図14は、本開示の実施の形態2における撮像システムの動作について説明するための第4のフローチャートである。なお、図11~図14の説明では、第1カメラロボット1Aが主カメラロボットであり、第2カメラロボット2A及び第3カメラロボット3Aが従カメラロボットである。
ステップS101~ステップS109の処理は、図6及び図7のステップS1~ステップS9の処理と同じである。また、ステップS131~ステップS133の処理は、図7のステップS21~ステップS23の処理と同じである。また、ステップS151~ステップS153の処理は、図7のステップS31~ステップS33の処理と同じである。
次に、ステップS110において、第1カメラロボット1Aの画像認識部12は、撮像画像から1以上の被写体を検出したか否かを判断する。ここで、撮像画像から1以上の被写体を検出していないと判断された場合(ステップS110でNO)、ステップS121に処理が移行する。
一方、撮像画像から1以上の被写体を検出したと判断された場合(ステップS110でYES)、ステップS111において、制御部13Aは、第1カメラロボット1Aが持ち上げられたか否かを判断する。制御部13Aは、持ち上げセンサ20によって第1カメラロボット1Aが持ち上げられたことが検知された場合、第1カメラロボット1Aが持ち上げられたと判断する。
ここで、第1カメラロボット1Aが持ち上げられていないと判断された場合(ステップS111でNO)、ステップS110に処理が戻る。
一方、第1カメラロボット1Aが持ち上げられたと判断された場合(ステップS111でYES)、ステップS112において、制御部13Aは、現在の動作パターン、すなわち第1カメラロボット1Aが持ち上げられる前の動作パターンをメモリ14に記憶する。
次に、ステップS113において、制御部13Aは、第3動作パターンを選択する。第3動作パターンは、自身(第1カメラロボット1A)が持ち上げられたことに対して反応する状況を表現する動作パターンである。
次に、ステップS114において、通信部19Aは、第1カメラロボット1Aが持ち上げられたことを示す持ち上げ情報を第2カメラロボット2及び第3カメラロボット3へ送信する。
次に、ステップS115において、制御部13Aは、第3動作パターンの動作を開始する。制御部13Aは、第3動作パターンに対応付けられている駆動パターンに応じた制御信号を駆動部18へ出力し、第3動作パターンに対応付けられている画像を表示部16へ出力し、第3動作パターンに対応付けられている音をスピーカ15へ出力する。
第3動作パターンには、例えば、上部筐体102を一方向に所定の角度で回転させるとともに他方向に所定の角度で回転させる動作を繰り返す駆動パターンが対応付けられている。
また、第3動作パターンには、例えば、嫌がる目を模した画像が対応付けられている。
図15は、本実施の形態2において、第3動作パターンが選択された場合に表示部に表示される画像の一例を示す図である。
図15に示すように、第3動作パターンが選択された場合、表示部16は、嫌がる目を模した画像を表示する。
また、第3動作パターンには、例えば、ブザー音又は泣いているような音声が対応付けられている。
図13に戻って、ステップS134において、第2カメラロボット2Aの通信部19Aは、第1カメラロボット1によって送信された持ち上げ情報を受信する。
次に、ステップS135において、制御部13Aは、第4動作パターンを選択する。第4動作パターンは、他のカメラロボット(第1カメラロボット1A)が持ち上げられたことに対して反応する状況を表現する動作パターンである。
次に、ステップS136において、制御部13Aは、第4動作パターンの動作を開始する。制御部13Aは、第4動作パターンに対応付けられている駆動パターンに応じた制御信号を駆動部18へ出力し、第4動作パターンに対応付けられている画像を表示部16へ出力し、第4動作パターンに対応付けられている音をスピーカ15へ出力する。
第4動作パターンには、例えば、上部筐体102を一方向に所定の角度で回転させるとともに他方向に所定の角度で回転させる動作を繰り返す駆動パターンが対応付けられている。
また、第4動作パターンには、例えば、怒った目を模した画像が対応付けられている。
図16は、本実施の形態2において、第4動作パターンが選択された場合に表示部に表示される画像の一例を示す図である。
図16に示すように、第4動作パターンが選択された場合、表示部16は、怒った目を模した画像を表示する。
また、第4動作パターンには、例えば、ブザー音又は怒っているような音声が対応付けられている。
図13に戻って、ステップS154において、第3カメラロボット3Aの通信部19Aは、第1カメラロボット1Aによって送信された持ち上げ情報を受信する。
なお、第3カメラロボット3AによるステップS154~ステップS156の処理は、第2カメラロボット2AによるステップS134~ステップS136の処理と同じである。
このように、持ち上げられたカメラロボットは、嫌がるような第3動作パターンで動作し、他のカメラロボットは、怒ったような第4動作パターンで動作するので、持ち上げた人物に対してカメラロボットを置くように促すことができる。
次に、ステップS116において、第1カメラロボット1Aの制御部13Aは、第1カメラロボット1Aが持ち上げられてから所定時間が経過したか否かを判断する。ここで、第1カメラロボット1Aが持ち上げられてから所定時間が経過したと判断された場合(ステップS116でYES)、ステップS121へ処理が移行する。
一方、第1カメラロボット1Aが持ち上げられてから所定時間が経過していないと判断された場合(ステップS116でNO)、ステップS117において、制御部13Aは、第1カメラロボット1Aが置かれたか否かを判断する。制御部13Aは、持ち上げセンサ20によって第1カメラロボット1Aが置かれたことが検知された場合、第1カメラロボット1Aが置かれたと判断する。
ここで、第1カメラロボット1Aが置かれていないと判断された場合(ステップS117でNO)、ステップS116へ処理が戻る。
一方、第1カメラロボット1Aが置かれたと判断された場合(ステップS117でYES)、ステップS118において、制御部13Aは、第1カメラロボット1Aが持ち上げられる前の動作パターンを選択する。制御部13Aは、第1カメラロボット1Aが持ち上げられる前の動作パターンをメモリ14から読み出す。
次に、ステップS119において、通信部19Aは、第1カメラロボット1Aが置かれたことを示す載置情報を第2カメラロボット2及び第3カメラロボット3へ送信する。なお、載置情報は、第1カメラロボット1Aが持ち上げられる前の動作パターンを特定する情報を含む。
次に、ステップS120において、制御部13Aは、第1カメラロボット1Aが持ち上げられる前の動作パターンの動作を開始する。第1カメラロボット1Aが持ち上げられる前の動作パターンが第1動作パターンであった場合、制御部13Aは、第1動作パターンの動作を開始する。また、第1カメラロボット1Aが持ち上げられる前の動作パターンが第2動作パターンであった場合、制御部13Aは、第2動作パターンの動作を開始する。そして、第1カメラロボット1Aが持ち上げられる前の動作パターンの動作が開始された後、ステップS110に処理が戻る。
また、ステップS137において、第2カメラロボット2Aの通信部19Aは、第1カメラロボット1Aによって送信された載置情報を受信する。
次に、ステップS138において、制御部13Aは、第1カメラロボット1Aが持ち上げられる前の動作パターンの動作を開始する。第1カメラロボット1Aが持ち上げられる前の動作パターンは、載置情報に含まれている。なお、第2カメラロボット2Aの制御部13Aは、第4動作パターンの動作を開始する前に、第1カメラロボット1Aが持ち上げられる前の動作パターンをメモリ14に記憶してもよい。
また、ステップS157において、第3カメラロボット3Aの通信部19Aは、第1カメラロボット1Aによって送信された載置情報を受信する。
なお、第3カメラロボット3AによるステップS157~ステップS158の処理は、第2カメラロボット2AによるステップS137~ステップS138の処理と同じである。
ステップS110で撮像画像から1以上の被写体を検出していないと判断された場合(ステップS110でNO)、又はステップS116で第1カメラロボット1Aが持ち上げられてから所定時間が経過したと判断された場合(ステップS116でYES)、ステップS121において、通信部19Aは、動作パターンに従った第2カメラロボット2A及び第3カメラロボット3Aの動作を終了させるための動作終了指示情報を第2カメラロボット2A及び第3カメラロボット3Aへ送信する。
なお、ステップS121~ステップS123の処理は、図7のステップS11~ステップS13の処理と同じである。また、ステップS139~ステップS141の処理は、図7のステップS24~ステップS26の処理と同じである。また、ステップS159~ステップS161の処理は、図7のステップS34~ステップS36の処理と同じである。
以上のように、第1カメラロボット1Aが持ち上げられたことが検知された場合、持ち上げられたことに対して反応する第3の動作パターンが選択され、第3の動作パターンに従って第1カメラロボット1Aが動作する。したがって、例えば、嫌がるような第3動作パターンで第1カメラロボット1Aが動作することにより、持ち上げた人物に対して第1カメラロボット1Aを置くように促すことができる。また、1以上の被写体は、意図的に第1カメラロボット1Aを持ち上げることにより、第1動作パターン及び第2動作パターンとは異なる第3動作パターンによる第1カメラロボット1Aの動作を楽しむことができる。
(実施の形態3)
続いて、本開示の実施の形態3における撮像システムについて説明する。
続いて、本開示の実施の形態3における撮像システムについて説明する。
本実施の形態3では、実施の形態1の第1動作パターン及び第2動作パターンに加えて、複数のカメラロボットが音楽のリズムに合わせて音をスピーカから出力する状況を表現する第5動作パターンが選択される。
図17は、本開示の実施の形態3における第1カメラロボットの構成を示すブロック図である。本実施の形態3における撮像システムは、第1カメラロボット1B、第2カメラロボット2B、第3カメラロボット3B及びサーバ4を備える。なお、第2カメラロボット2B及び第3カメラロボット3Bの構成は、第1カメラロボット1Bの構成と同じであるので、第1カメラロボット1Bの構成のみを説明する。本実施の形態3において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。
図17に示す第1カメラロボット1Bは、カメラ11、画像認識部12、制御部13B、メモリ14、スピーカ15、表示部16、シャッター部17、駆動部18、通信部19B、集音部21及び音楽認識部22を備える。
集音部21は、例えばマイクロフォンであり、周囲の音を収集する。
音楽認識部22は、集音部21によって収集された音が音楽であることを認識する。なお、収集された音が音楽であることを認識する技術は、公知技術である。例えば、収集された音から曲名を特定する技術がある。音楽認識部22は、収集された音から曲名を特定した場合、収集された音が音楽であると認識してもよい。
制御部13Bは、音楽認識部22によって認識された音楽のリズムに合わせて音をスピーカ15から出力する第5動作パターンを選択する。
通信部19Bは、制御部13Bによって選択された第5動作パターンに従って他のカメラロボット(第2カメラロボット2B及び第3カメラロボット3B)を動作させるための音楽開始指示情報を他のカメラロボット(第2カメラロボット2B及び第3カメラロボット3B)へ送信する。
また、通信部19Bは、他のカメラロボット(第2カメラロボット2B又は第3カメラロボット3B)によって選択された第5動作パターンに従って第1カメラロボット1Bを動作させるための音楽開始指示情報を他のカメラロボット(第2カメラロボット2B又は第3カメラロボット3B)から受信する。制御部13Bは、通信部19Bによって受信された音楽開始指示情報に含まれる第5動作パターンに従って第1カメラロボット1Bを動作させる。
また、通信部19Bは、第1カメラロボット1Bが音楽の認識を終了したことを示す音楽終了指示情報を他のカメラロボット(第2カメラロボット2B及び第3カメラロボット3B)へ送信する。音楽終了指示情報は、第1カメラロボット1Bが音楽を認識する前に動作していた動作パターンを含む。
また、通信部19Bは、音楽終了指示情報を他のカメラロボット(第2カメラロボット2B及び第3カメラロボット3B)から受信する。制御部13Bは、他のカメラロボット(第2カメラロボット2B及び第3カメラロボット3B)からの音楽終了指示情報が受信された場合、他のカメラロボット(第2カメラロボット2B及び第3カメラロボット3B)が音楽を認識する前に動作していた動作パターンを選択する。このとき、音楽終了指示情報は、他のカメラロボット(第2カメラロボット2B及び第3カメラロボット3B)が音楽を認識する前に動作していた動作パターンを含む。
続いて、本開示の実施の形態3における撮像システムの動作について説明する。
図18は、本開示の実施の形態3における撮像システムの動作について説明するための第1のフローチャートであり、図19は、本開示の実施の形態3における撮像システムの動作について説明するための第2のフローチャートであり、図20は、本開示の実施の形態3における撮像システムの動作について説明するための第3のフローチャートであり、図21は、本開示の実施の形態3における撮像システムの動作について説明するための第4のフローチャートである。なお、図18~図21の説明では、第1カメラロボット1Bが主カメラロボットであり、第2カメラロボット2B及び第3カメラロボット3Bが従カメラロボットである。
ステップS201~ステップS209の処理は、図6及び図7のステップS1~ステップS9の処理と同じである。また、ステップS231~ステップS233の処理は、図7のステップS21~ステップS23の処理と同じである。また、ステップS251~ステップS253の処理は、図7のステップS31~ステップS33の処理と同じである。
次に、ステップS210において、第1カメラロボット1Bの画像認識部12は、撮像画像から1以上の被写体を検出したか否かを判断する。ここで、撮像画像から1以上の被写体を検出していないと判断された場合(ステップS210でNO)、ステップS221に処理が移行する。
一方、撮像画像から1以上の被写体を検出したと判断された場合(ステップS210でYES)、ステップS211において、集音部21は、周囲の音を収集する。
次に、ステップS212において、制御部13Bは、集音部21によって収集された音が音楽であるか否かを判断する。制御部13Bは、音楽認識部22によって収集された音が音楽であると認識された場合、収集された音が音楽であると判断する。音楽は、歌及び楽器により演奏される曲を含む。また、音楽は、1以上の被写体により歌われたり、テレビ、ラジオ又はスマートフォンなどから出力されたりする。
ここで、収集された音が音楽ではないと判断された場合(ステップS212でNO)、ステップS210に処理が戻る。
一方、収集された音が音楽であると判断された場合(ステップS212でYES)、ステップS213において、制御部13Bは、現在の動作パターン、すなわち音楽が認識される前の動作パターンをメモリ14に記憶する。
次に、ステップS214において、制御部13Bは、第5動作パターンを選択する。第5動作パターンは、認識された音楽のリズムに合わせて音をスピーカ15から出力する動作パターンである。例えば、制御部13Bは、音楽のリズムに同期させて太鼓又は笛などの楽器の音をスピーカ15から出力する。
次に、ステップS215において、通信部19Bは、制御部13Bによって選択された第5動作パターンに従って第2カメラロボット2及び第3カメラロボット3を動作させるための音楽開始指示情報を第2カメラロボット2及び第3カメラロボット3へ送信する。
次に、ステップS216において、制御部13Bは、選択した第5動作パターンの動作を開始する。制御部13Bは、音楽のリズムに同期させた駆動パターンに応じた制御信号を駆動部18へ出力し、第5動作パターンに対応付けられている画像を表示部16へ出力し、第5動作パターンに対応付けられている音を音楽のリズムに同期させてスピーカ15へ出力する。
第5動作パターンには、例えば、上部筐体102を一方向に所定の角度で回転させるとともに他方向に所定の角度で回転させる動作を、音楽のリズムに同期させて繰り返す駆動パターンが対応付けられている。また、第5動作パターンには、例えば、図8に示す笑った目を模した画像が対応付けられている。また、第5動作パターンには、例えば、太鼓又は笛などの楽器の音が対応付けられている。
また、ステップS234において、第2カメラロボット2Bの通信部19Bは、第1カメラロボット1によって送信された音楽開始指示情報を受信する。
次に、ステップS235において、制御部13Bは、第5動作パターンを選択する。なお、第2カメラロボット2Bにおける第5動作パターンは、第1カメラロボット1Bにおける第5動作パターンと同じである。
次に、ステップS236において、制御部13Bは、第5動作パターンの動作を開始する。制御部13Bは、第5動作パターンに対応付けられている駆動パターンに応じた制御信号を駆動部18へ出力し、第5動作パターンに対応付けられている画像を表示部16へ出力し、第5動作パターンに対応付けられている音を音楽のリズムに同期させてスピーカ15へ出力する。
また、ステップS254において、第3カメラロボット3Bの通信部19Bは、第1カメラロボット1Bによって送信された音楽開始指示情報を受信する。
なお、第3カメラロボット3BによるステップS254~ステップS256の処理は、第2カメラロボット2BによるステップS234~ステップS236の処理と同じである。
このように、複数のカメラロボットは、周囲で流れている音楽に合わせて音を出力するので、周囲を楽しい雰囲気にし、1以上の被写体からよい表情を引き出すことができる。
次に、ステップS217において、第1カメラロボット1Bの制御部13Bは、音楽が終了したか否かを判断する。制御部13Bは、音楽認識部22によって収集された音が音楽ではないと認識された場合、音楽が終了したと判断する。ここで、音楽が終了していないと判断された場合(ステップS217でNO)、ステップS217の判断処理が繰り返される。
一方、音楽が終了したと判断された場合(ステップS217でYES)、ステップS218において、制御部13Bは、音楽が認識される前の動作パターンを選択する。制御部13Bは、音楽が認識される前の動作パターンをメモリ14から読み出す。
次に、ステップS219において、通信部19Bは、第5動作パターンに従った第2カメラロボット2及び第3カメラロボット3の動作を終了させるための音楽終了指示情報を第2カメラロボット2及び第3カメラロボット3へ送信する。なお、音楽終了指示情報は、音楽が認識される前の動作パターンを特定する情報を含む。
次に、ステップS220において、制御部13Bは、音楽が認識される前の動作パターンの動作を開始する。音楽が認識される前の動作パターンが第1動作パターンであった場合、制御部13Bは、第1動作パターンの動作を開始する。また、音楽が認識される前の動作パターンが第2動作パターンであった場合、制御部13Bは、第2動作パターンの動作を開始する。そして、音楽が認識される前の動作パターンの動作が開始された後、ステップS210に処理が戻る。
また、ステップS237において、第2カメラロボット2Bの通信部19Bは、第1カメラロボット1Bによって送信された音楽終了指示情報を受信する。
次に、ステップS238において、制御部13Bは、音楽が認識される前の動作パターンの動作を開始する。音楽が認識される前の動作パターンは、音楽終了指示情報に含まれている。なお、第2カメラロボット2Bの制御部13Bは、第5動作パターンの動作を開始する前に、音楽が認識される前の動作パターンをメモリ14に記憶してもよい。
また、ステップS257において、第3カメラロボット3Bの通信部19Bは、第1カメラロボット1Bによって送信された音楽終了指示情報を受信する。
なお、第3カメラロボット3BによるステップS257~ステップS258の処理は、第2カメラロボット2BによるステップS237~ステップS238の処理と同じである。
また、ステップS210で撮像画像から1以上の被写体を検出していないと判断された場合(ステップS210でNO)、ステップS221において、通信部19Bは、動作パターンに従った第2カメラロボット2A及び第3カメラロボット3Aの動作を終了させるための動作終了指示情報を第2カメラロボット2A及び第3カメラロボット3Aへ送信する。
なお、ステップS221~ステップS223の処理は、図7のステップS11~ステップS13の処理と同じである。また、ステップS239~ステップS241の処理は、図7のステップS24~ステップS26の処理と同じである。また、ステップS259~ステップS261の処理は、図7のステップS34~ステップS36の処理と同じである。
以上のように、収集された音が音楽であることが認識された場合、認識された音楽のリズムに合わせて音がスピーカ15から出力されるので、楽しい雰囲気の空間を1以上の被写体に提供することができ、1以上の被写体のよい表情を引き出すことができる。
なお、本実施の形態3において、音楽認識部22は、1以上の被写体が歌う歌を取得し、取得した歌の曲名を特定してもよい。そして、制御部13Bは、音楽認識部22によって特定された曲名に対応する音楽を、通信部19Bを介してサーバ4から取得し、取得した音楽をスピーカ15から出力してもよい。
また、サーバ4が音楽認識部22を備えてもよい。この場合、通信部19Bは、収集された音をサーバ4へ送信し、サーバ4による認識結果を受信してもよい。
また、本実施の形態1~3において、カメラ11の被写体の良い表情を引き出すということはロボット周辺の人々を楽しませるということと等価である。そのため、カメラ機能が搭載されていないロボットにも実施の形態1~3の機能は適用可能である。
また、第1カメラロボット、第2カメラロボット及び第3カメラロボットは、テレビ又はタブレット型コンピュータから映像と共に出力される音に応じた動作を実行してもよい。この場合、第1カメラロボット、第2カメラロボット及び第3カメラロボットは、テレビ又はタブレット型コンピュータから映像と共に出力される音を取得する集音部と、集音部によって取得された音を認識する音認識部とをさらに備えてもよい。音認識部は、人物の会話の内容を認識してもよい。制御部は、認識された会話の途中で簡単な音声をスピーカ15から出力させてもよい。例えば、制御部は、会話の間に挟む短い言葉を音声としてスピーカ15から出力させてもよい。
また、音認識部は、人物の音声の内容を認識してもよい。制御部は、認識された音声に応じた感情と同じ感情を表す音声をスピーカ15から出力させてもよい。例えば、制御部は、コメディ番組などにおける笑い声が認識された場合、笑い声をスピーカ15から出力させてもよい。また、制御部は、音量又は音数に合わせて動きの量を変化させてもよい。例えば、制御部は、爆発音又は騒がしい音が認識された場合、音量に応じて動作量を大きくしてもよい。また、制御部は、音楽に合わせて動きの量を変化させてもよい。例えば、制御部は、音楽が認識された場合、音楽のテンポに合わせて動作させてもよい。
このように、第1カメラロボット、第2カメラロボット及び第3カメラロボットが、テレビ又はタブレット型コンピュータに出力される映像及び音声に反応して動作する。これにより、ユーザの映像体験をより楽しいものにすることができる。
また、第1カメラロボット、第2カメラロボット及び第3カメラロボットは、端末からSNS(Social Networking Service)サイトに文字が投稿された場合、投稿された文字に応じた動作を実行してもよい。この場合、第1カメラロボット、第2カメラロボット及び第3カメラロボットは、端末からSNSサイトに投稿された文字を、端末又はSNSサイトから受信する通信部と、受信された文字を認識する文字認識部とをさらに備えてもよい。制御部は、認識された文字に応じた音声をスピーカ15から出力させてもよい。なお、制御部は、認識された文字に応じて異なる音声をスピーカ15から出力させてもよい。
また、第1カメラロボット、第2カメラロボット及び第3カメラロボットは、端末からEC(Electronic Commerce)サイトで商品が購入された場合、購入された商品に応じた動作を実行してもよい。この場合、第1カメラロボット、第2カメラロボット及び第3カメラロボットは、端末からECサイトで購入した商品に関する情報を、端末又はECサイトから受信する通信部をさらに備えてもよい。制御部は、受信された商品に関する情報に応じた音声をスピーカ15から出力させてもよい。なお、制御部は、商品の金額に応じて異なる音声をスピーカ15から出力させてもよい。
このように、第1カメラロボット、第2カメラロボット及び第3カメラロボットが、インターネット上におけるユーザの行為に反応して動作する。これにより、第1カメラロボット、第2カメラロボット及び第3カメラロボットがインターネットの世界とリアルな世界とをつなぎ、ユーザの生活をより楽しいものにすることができる。
また、第1カメラロボット、第2カメラロボット及び第3カメラロボットは、匂い、明るさ又は空気質の変化に応じた動作を実行してもよい。この場合、第1カメラロボット、第2カメラロボット及び第3カメラロボットは、匂いセンサ、明るさセンサ又はほこりセンサをさらに備えてもよい。匂いセンサは、周囲の匂い成分を検出する。制御部は、検出された匂い成分に予め対応付けられている表情を示す画像を表示部16に表示させ、検出された匂い成分に予め対応付けられている駆動パターンに応じて本体100の一部を駆動部18に駆動させてもよい。なお、制御部は、匂い成分に応じて異なる動作を実行してもよい。例えば、制御部は、夕飯の匂いに対し、嬉しい表情を示す画像を表示部16に表示させてもよい。また、ほこりセンサは、周囲のほこりの量を検知する。制御部は、検出されたほこりの量に予め対応付けられている表情を示す画像を表示部16に表示させてもよい。なお、制御部は、ほこりの量に応じて異なる動作を実行してもよい。
これにより、周囲の匂い、明るさ又は空気質の変化に反応して、ユーザの生活をより楽しいものにしたり、ユーザの生活を補助したりすることができる。
また、第1カメラロボット、第2カメラロボット及び第3カメラロボットは、家電機器の動作の変化に応じた動作を実行してもよい。この場合、第1カメラロボット、第2カメラロボット及び第3カメラロボットは、所定の動作が完了したことを示す動作完了信号を家電機器から受信する通信部をさらに備えてもよい。制御部は、動作完了信号が受信された場合、所定の音をスピーカ15から出力させてもよい。例えば、制御部は、調理が完了したことを示す動作完了信号が電子レンジから受信された場合、調理が完了したことを通知する音声をスピーカ15から出力させてもよい。また、例えば、制御部は、コーヒーのドリップが完了したことを示す動作完了信号がコーヒーメーカから受信された場合、コーヒーのドリップが完了したことを通知する音声をスピーカ15から出力させてもよい。
このように、第1カメラロボット、第2カメラロボット及び第3カメラロボットが家電機器と連携して動作するので、家電機器を用いたユーザの生活をより楽しいものにすることができる。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
本開示の実施の形態に係る装置の機能の一部又は全ては典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
また、本開示の実施の形態に係る装置の機能の一部又は全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。
また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。
また、上記フローチャートに示す各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、同様の効果が得られる範囲で上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
本開示に係る技術は、楽しい雰囲気の空間を1以上の被写体に提供することができ、1以上の被写体のよい表情を引き出すことができるので、他のロボットとともに動作して1以上の被写体を撮像する技術として有用である。
Claims (10)
- 他のロボットとともに動作して1以上の被写体を撮像するロボットであって、
周囲を撮像する撮像部と、
撮像画像内から1以上の被写体を検出する検出部と、
検出された前記1以上の被写体の属性に基づいて前記ロボットの動作パターンを選択する選択部と、
選択された前記動作パターンに従って前記他のロボットを動作させるための指示情報を前記他のロボットへ送信する送信部と、
選択された前記動作パターンに従って前記ロボットを動作させる動作部と、
選択された前記動作パターンに従って前記ロボット及び前記他のロボットが動作している間、前記1以上の被写体を撮像した画像を出力する出力部と、
を備えるロボット。 - 検出された前記1以上の被写体が子供及び大人のいずれであるかを認識する被写体認識部をさらに備え、
前記選択部は、検出された前記1以上の被写体が子供のみである場合、第1の動作パターンを選択し、検出された前記1以上の被写体が子供のみではない場合、前記第1の動作パターンよりも前記ロボットの動作量が少ない第2の動作パターンを選択する、
請求項1記載のロボット。 - 前記ロボットが持ち上げられたことを検知するセンサをさらに備え、
前記選択部は、前記ロボットが持ち上げられたことが検知された場合、持ち上げられたことに対して反応する第3の動作パターンを選択し、
前記送信部は、前記ロボットが持ち上げられたことを示す持ち上げ情報を前記他のロボットへ送信する、
請求項1又は2記載のロボット。 - 前記持ち上げ情報を前記他のロボットから受信する受信部をさらに備え、
前記選択部は、前記他のロボットからの前記持ち上げ情報が受信された場合、前記他のロボットが持ち上げられたことに対して反応する第4の動作パターンを選択する、
請求項3記載のロボット。 - 前記センサは、持ち上げられた前記ロボットが置かれたことを検知し、
前記選択部は、前記ロボットが置かれたことが検知された場合、前記ロボットが持ち上げられる前に動作していた動作パターンを選択する、
請求項3又は4記載のロボット。 - 周囲の音を収集する集音部と、
収集された前記音が音楽であることを認識する音楽認識部と、
スピーカと、
をさらに備え、
前記選択部は、認識された前記音楽のリズムに合わせて音を前記スピーカから出力する第5の動作パターンを選択する、
請求項1~5のいずれか1項に記載のロボット。 - 前記ロボットの設置場所を示す設置場所情報と、前記ロボットに予め設定されている性格を示す性格情報とを記憶する記憶部と、
前記他のロボットの前記設置場所情報及び前記性格情報を前記他のロボットから受信する受信部と、
をさらに備え、
前記動作部は、前記ロボットの前記設置場所が前記他のロボットの前記設置場所と同じである場合、前記ロボットの前記性格と前記他のロボットの前記性格とに基づいて、選択された前記動作パターンの動作量を変化させる、
請求項1~6のいずれか1項に記載のロボット。 - 前記ロボットの本体に形成された表示部と、
前記本体に形成されたスピーカと、
前記本体の一部を駆動する駆動部と、
をさらに備え、
前記動作部は、選択された前記動作パターンに従って、所定の表情を示す画像を前記表示部に表示させ、所定の音を前記スピーカから出力させ、所定の駆動パターンに応じて前記本体の一部を前記駆動部に駆動させる、
請求項1~7のいずれか1項に記載のロボット。 - 他のロボットとともに動作して1以上の被写体を撮像するロボットにおける制御処理方法であって、
周囲を撮像し、
撮像画像内から1以上の被写体を検出し、
検出された前記1以上の被写体の属性に基づいて前記ロボットの動作パターンを選択し、
選択された前記動作パターンに従って前記他のロボットを動作させるための指示情報を前記他のロボットへ送信し、
選択された前記動作パターンに従って前記ロボットを動作させ、
選択された前記動作パターンに従って前記ロボット及び前記他のロボットが動作している間、前記1以上の被写体を撮像した画像を出力する、
制御処理方法。 - 他のロボットとともに動作して1以上の被写体をロボットに撮像させるための制御処理プログラムであって、
周囲を撮像する撮像部と、
撮像画像内から1以上の被写体を検出する検出部と、
検出された前記1以上の被写体の属性に基づいて前記ロボットの動作パターンを選択する選択部と、
選択された前記動作パターンに従って前記他のロボットを動作させるための指示情報を前記他のロボットへ送信する送信部と、
選択された前記動作パターンに従って前記ロボットを動作させる動作部と、
選択された前記動作パターンに従って前記ロボット及び前記他のロボットが動作している間、前記1以上の被写体を撮像した画像を出力する出力部としてコンピュータを機能させる、
制御処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023208699A JP2024025810A (ja) | 2019-10-16 | 2023-12-11 | 制御装置、制御方法及び制御プログラム |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962915858P | 2019-10-16 | 2019-10-16 | |
US62/915,858 | 2019-10-16 | ||
JP2019231304 | 2019-12-23 | ||
JP2019231304 | 2019-12-23 | ||
PCT/JP2020/031335 WO2021075144A1 (ja) | 2019-10-16 | 2020-08-19 | ロボット、制御処理方法及び制御処理プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023208699A Division JP2024025810A (ja) | 2019-10-16 | 2023-12-11 | 制御装置、制御方法及び制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021075144A1 JPWO2021075144A1 (ja) | 2021-04-22 |
JP7403552B2 true JP7403552B2 (ja) | 2023-12-22 |
Family
ID=75537802
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021552119A Active JP7403552B2 (ja) | 2019-10-16 | 2020-08-19 | ロボット、制御処理方法及び制御処理プログラム |
JP2023208699A Pending JP2024025810A (ja) | 2019-10-16 | 2023-12-11 | 制御装置、制御方法及び制御プログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023208699A Pending JP2024025810A (ja) | 2019-10-16 | 2023-12-11 | 制御装置、制御方法及び制御プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11991437B2 (ja) |
JP (2) | JP7403552B2 (ja) |
CN (1) | CN114303365A (ja) |
WO (1) | WO2021075144A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016068262A1 (ja) | 2014-10-29 | 2016-05-06 | 京セラ株式会社 | コミュニケーションロボット |
WO2018047900A1 (ja) | 2016-09-09 | 2018-03-15 | Groove X株式会社 | ゲストを受け入れる自律行動型ロボット |
JP2019150893A (ja) | 2018-02-28 | 2019-09-12 | シャープ株式会社 | ロボット制御システム、ロボット制御方法およびロボット制御プログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001334482A (ja) * | 2000-03-24 | 2001-12-04 | Sony Corp | ロボット装置及びロボット装置の行動決定方法 |
JP2002185837A (ja) | 2000-12-18 | 2002-06-28 | Oyo Keisoku Kenkyusho:Kk | ロボットカメラ装置 |
JP2005328461A (ja) * | 2004-05-17 | 2005-11-24 | Nippon Telegr & Teleph Corp <Ntt> | テレビ会議装置及び多地点テレビ会議システム |
KR20090103078A (ko) * | 2008-03-27 | 2009-10-01 | 인제대학교 산학협력단 | 휴대폰 합체 로봇 및 원격 제어 방법 |
CN102483559B (zh) * | 2009-12-28 | 2016-01-13 | 株式会社尼康 | 摄影装置 |
JP2012175487A (ja) * | 2011-02-23 | 2012-09-10 | Brother Ind Ltd | 会議端末、会議システム、会議方法、及び会議プログラム |
JP6481866B2 (ja) * | 2014-01-28 | 2019-03-13 | ソニー株式会社 | 情報処理装置、撮像装置、情報処理方法、及び、プログラム |
JP2015186020A (ja) * | 2014-03-24 | 2015-10-22 | オリンパス株式会社 | 表示機器、撮影機器及び表示方法 |
JP6432290B2 (ja) * | 2014-11-07 | 2018-12-05 | カシオ計算機株式会社 | 撮像装置、撮像制御方法、及びプログラム |
KR101736134B1 (ko) * | 2014-11-14 | 2017-05-16 | 이창길 | 행동블록을 이용한 로봇 구동 시스템 및 그 방법 |
US9724824B1 (en) * | 2015-07-08 | 2017-08-08 | Sprint Communications Company L.P. | Sensor use and analysis for dynamic update of interaction in a social robot |
US20180353869A1 (en) * | 2015-12-17 | 2018-12-13 | Lyrebird Interactive Holdings Pty Ltd | Apparatus and method for an interactive entertainment media device |
CN106131393A (zh) * | 2016-06-15 | 2016-11-16 | 北京小米移动软件有限公司 | 拍照提示方法及装置 |
DE102016221578B3 (de) * | 2016-11-03 | 2018-03-29 | Sivantos Pte. Ltd. | Verfahren zur Takterkennung mittels eines Hörgerätes |
WO2018098968A1 (zh) * | 2016-11-30 | 2018-06-07 | 华为技术有限公司 | 一种拍照方法、装置及终端设备 |
JP7109207B2 (ja) * | 2018-02-23 | 2022-07-29 | パナソニックホールディングス株式会社 | 相互作用装置、相互作用方法、相互作用プログラム及びロボット |
-
2020
- 2020-08-19 JP JP2021552119A patent/JP7403552B2/ja active Active
- 2020-08-19 WO PCT/JP2020/031335 patent/WO2021075144A1/ja active Application Filing
- 2020-08-19 CN CN202080059815.0A patent/CN114303365A/zh active Pending
-
2022
- 2022-02-22 US US17/677,747 patent/US11991437B2/en active Active
-
2023
- 2023-12-11 JP JP2023208699A patent/JP2024025810A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016068262A1 (ja) | 2014-10-29 | 2016-05-06 | 京セラ株式会社 | コミュニケーションロボット |
WO2018047900A1 (ja) | 2016-09-09 | 2018-03-15 | Groove X株式会社 | ゲストを受け入れる自律行動型ロボット |
JP2019150893A (ja) | 2018-02-28 | 2019-09-12 | シャープ株式会社 | ロボット制御システム、ロボット制御方法およびロボット制御プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2021075144A1 (ja) | 2021-04-22 |
CN114303365A (zh) | 2022-04-08 |
US20220182533A1 (en) | 2022-06-09 |
US11991437B2 (en) | 2024-05-21 |
JP2024025810A (ja) | 2024-02-26 |
JPWO2021075144A1 (ja) | 2021-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6888096B2 (ja) | ロボット、サーバおよびヒューマン・マシン・インタラクション方法 | |
US10713006B2 (en) | Image display apparatus, topic selection method, topic selection program, image display method, and image display program | |
US9539506B2 (en) | System and method for playsets using tracked objects and corresponding virtual worlds | |
US8622831B2 (en) | Responsive cutscenes in video games | |
JP7254772B2 (ja) | ロボットインタラクションのための方法及びデバイス | |
US8601379B2 (en) | Methods for interactive communications with real time effects and avatar environment interaction | |
JP5819856B2 (ja) | モーション・キャプチャー・システムにおけるユーザー意図の認識 | |
KR102655147B1 (ko) | 상호작용 애니메이션 캐릭터 헤드 시스템 및 방법 | |
CN105141587B (zh) | 一种虚拟玩偶互动方法及装置 | |
JPWO2016068262A1 (ja) | コミュニケーションロボット | |
JP2020039029A (ja) | 動画配信システム、動画配信方法、及び動画配信プログラム | |
CN107000210A (zh) | 用于提供持久伙伴装置的设备和方法 | |
JP2022093479A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN109521927A (zh) | 机器人互动方法和设备 | |
CN112262024A (zh) | 用于增强数字体验的动态机器人配置的系统和方法 | |
JP2020202575A (ja) | 動画配信システム、動画配信方法、及び動画配信プログラム | |
JP7403552B2 (ja) | ロボット、制御処理方法及び制御処理プログラム | |
JPWO2020095368A1 (ja) | 情報処理システム、表示方法およびコンピュータプログラム | |
JP2018186326A (ja) | ロボット装置及びプログラム | |
JP6647711B2 (ja) | ビデオチャットロボットシステム、手渡し遊び制御方法および手渡し遊び制御プログラム | |
US20220321772A1 (en) | Camera Control Method and Apparatus, and Terminal Device | |
US11615715B2 (en) | Systems and methods to improve brushing behavior | |
US20230218984A1 (en) | Methods and systems for interactive gaming platform scene generation utilizing captured visual data and artificial intelligence-generated environment | |
CN112508161A (zh) | 陪伴数字替身的控制方法、系统和存储介质 | |
JP2022178967A (ja) | 撮像システム、カメラロボット及びサーバ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7403552 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |