JP2016055361A - Control device, robot, and control program - Google Patents

Control device, robot, and control program Download PDF

Info

Publication number
JP2016055361A
JP2016055361A JP2014181763A JP2014181763A JP2016055361A JP 2016055361 A JP2016055361 A JP 2016055361A JP 2014181763 A JP2014181763 A JP 2014181763A JP 2014181763 A JP2014181763 A JP 2014181763A JP 2016055361 A JP2016055361 A JP 2016055361A
Authority
JP
Japan
Prior art keywords
robot
unit
trigger
user
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014181763A
Other languages
Japanese (ja)
Other versions
JP6494961B2 (en
Inventor
中村 珠幾
Tamaki Nakamura
珠幾 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014181763A priority Critical patent/JP6494961B2/en
Publication of JP2016055361A publication Critical patent/JP2016055361A/en
Application granted granted Critical
Publication of JP6494961B2 publication Critical patent/JP6494961B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a control device or the like capable of photographing at various scenes and facilitating operations by a user at the time of starting an imaging function.SOLUTION: A control device (1) comprises an imaging start part (51) for starting an imaging part (72), in the case where it is decided by a gripping determination part (22) that the detection content to be decided to be a predetermined trigger by a trigger judgment part (21) is a trigger indicating an imaging start, and that the user grips a robot (10).SELECTED DRAWING: Figure 1

Description

本発明は、撮影部の機能を制御する制御装置、制御装置を備えるロボット、および撮影部の機能を制御する制御プログラムに関する。   The present invention relates to a control device that controls functions of a photographing unit, a robot including the control device, and a control program that controls functions of the photographing unit.

従来から、カメラを備えたロボットに関する技術が知られている。例えば、特許文献1には、ロボットに備えられたカメラが、トリガ信号の入力によって撮像対象の撮像を開始する技術が開示されている。   Conventionally, a technique related to a robot equipped with a camera is known. For example, Patent Document 1 discloses a technique in which a camera provided in a robot starts imaging an imaging target by inputting a trigger signal.

特開2012‐166314号公報(2012年9月6日公開)JP 2012-166314 A (published September 6, 2012)

しかしながら、特許文献1におけるトリガ信号は、撮影対象の位置を検出するためのものである。このため、特許文献1の技術は、様々な場面で撮影を行う場合に、汎用性がなく不向きであるという問題がある。   However, the trigger signal in Patent Document 1 is for detecting the position of the photographing target. For this reason, the technique of Patent Document 1 has a problem that it is unsuitable because it is not versatile when shooting in various scenes.

また、現在の普及している携帯用カメラは、通常時では電源スイッチがOFF状態であり、使用時にはユーザによる何らかの操作により電源スイッチがON状態とされる。このため、ユーザは、従来の携帯用カメラを用いて撮影する際、携帯用カメラを撮影可能な位置に移動させるとともに、携帯用カメラの電源スイッチを手動でON状態にするという少なくとも2つの動作を行う必要がある。すなわち、ユーザによる撮影機能の操作が煩雑となるという問題がある。   In addition, in the currently popular portable cameras, the power switch is normally turned off, and when used, the power switch is turned on by some user operation. For this reason, when shooting using a conventional portable camera, the user moves the portable camera to a position where shooting is possible, and manually turns on the power switch of the portable camera. There is a need to do. That is, there is a problem that the operation of the photographing function by the user becomes complicated.

本発明は、上記の問題点に鑑みてなされたものであって、その目的は、様々な場面で撮影することが可能であり、撮影機能を起動する際のユーザによる操作を簡易とする制御装置を提供することにある。   The present invention has been made in view of the above-described problems, and a purpose of the present invention is to provide a control device that can shoot in various scenes and that can be easily operated by a user when starting a shooting function. Is to provide.

上記の課題を解決するために、本発明の一態様に係る制御装置は、ロボットに設けられた撮影部の起動を制御するための制御装置であって、上記ロボットが検知した検知内容が所定のトリガであるか否かを判定するトリガ判定手段と、上記ユーザが上記ロボットを把持しているか否かを判定する把持判定手段と、上記撮影部を起動させる起動手段と、を備え、上記トリガ判定手段により所定のトリガであると判定された上記検知内容が、撮影開始を示すトリガであり、かつ、上記把持判定手段により上記ユーザが上記ロボットを把持していることが判定された場合に、上記起動手段は上記撮影部を起動させることを特徴としている。   In order to solve the above-described problem, a control device according to one aspect of the present invention is a control device for controlling activation of a photographing unit provided in a robot, and the detected content detected by the robot is a predetermined value. Trigger determination means comprising: trigger determination means for determining whether or not it is a trigger; gripping determination means for determining whether or not the user is holding the robot; and activation means for activating the photographing unit. When the detection content determined to be a predetermined trigger by the means is a trigger indicating the start of shooting, and the grip determination means determines that the user is gripping the robot, The starting means starts the photographing unit.

本発明の一態様によれば、制御装置は、撮影開始のトリガに応じて、ユーザがロボットを把持することにより、撮影部の撮影機能を起動することができる。それゆえ、ユーザは様々な場面でバリエーション豊富な撮影を行うことができるとともに、撮影機能を起動する際のユーザによる操作が簡易となる。   According to one aspect of the present invention, the control device can activate the photographing function of the photographing unit when the user holds the robot in response to a trigger for starting photographing. Therefore, the user can perform a wide variety of shooting in various scenes, and the operation by the user when starting the shooting function is simplified.

本発明の一実施形態に係るロボットの要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the principal part structure of the robot which concerns on one Embodiment of this invention. 本発明の概要を示す図である。It is a figure which shows the outline | summary of this invention. 上記ロボットが備える把持判定部の判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the determination process of the holding | grip determination part with which the said robot is provided. 実施形態1に係る制御装置の処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of processing of the control device according to the first embodiment. 実施形態2に係る制御装置の処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of processing of a control device according to a second embodiment. 実施形態3に係る制御装置の処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of processing of a control device according to a third embodiment.

〔実施形態1〕
以下、本発明の一実施形態について、図1〜図4に基づいて説明する。本発明に係るロボットは、カメラを備えており、ユーザにより把持されている場合にカメラ撮影を行うものである。また、ロボットは二足歩行可能なロボットでもよいし、アニメキャラクタや動物などの形状のロボットでもよい。なお、ロボットの大きさは携帯可能な大きさである。
Embodiment 1
Hereinafter, an embodiment of the present invention will be described with reference to FIGS. The robot according to the present invention includes a camera and performs camera photographing when being held by a user. Further, the robot may be a robot capable of walking on two legs, or may be a robot having a shape such as an animation character or an animal. Note that the size of the robot is a portable size.

(本発明の概要)
図2は、本発明の概要を示す図である。図2の(a)に示すロボットは、通常状態(V=0)にある。通常状態(V=0)とは、撮影機能を起動させていない状態であり、例えば、ロボットは、図2の(a)に示すように、撮影に不適切な姿勢(形状)となっていてもよい。
(Outline of the present invention)
FIG. 2 is a diagram showing an outline of the present invention. The robot shown in FIG. 2A is in a normal state (V = 0). The normal state (V = 0) is a state in which the photographing function is not activated. For example, as shown in FIG. 2A, the robot has a posture (shape) inappropriate for photographing. Also good.

図2の(b)に示すロボットは、カメラ利用準備状態(V=1)にある。カメラ利用準備状態(V=1)とは、ユーザが把持し易い姿勢(形状)にある状態である。より具体的には、ユーザによる撮影開始の指示(例えば、音声「写真撮るよー」)が検出されると、ロボットは、図2の(a)に示す通常状態(V=0)から、カメラ利用準備状態(V=1)に変化する。例えば、ロボットに首部位がある場合には、図2の(b)に示すように、ロボットは、ロボットの首を真っ直ぐにすることにより、ロボットの体の向きとロボットの撮影方向とを同一方向とし、ユーザが撮影方向を認識し易い姿勢(撮影し易い姿勢)に変化する。なお、ロボットの姿勢がユーザの把持し易い形状(V=1)に変化した後、ロボットは、「はーい。持ち上げてー」などと発話することにより、ロボットがカメラ利用準備状態となったことをユーザに知らせてもよい。   The robot shown in FIG. 2B is in a camera use ready state (V = 1). The camera use ready state (V = 1) is a state in which the user is easy to hold (shape). More specifically, when an instruction to start shooting by the user (for example, voice “take a picture”) is detected, the robot uses the camera from the normal state (V = 0) shown in FIG. The state changes to the ready state (V = 1). For example, when the robot has a neck region, as shown in FIG. 2B, the robot straightens the robot's neck so that the direction of the robot's body and the shooting direction of the robot are the same direction. And the posture is changed so that the user can easily recognize the shooting direction (the posture in which shooting is easy). After the robot posture changes to a shape that is easy for the user to grasp (V = 1), the robot speaks “Yes. Lift it up” to indicate that the robot is ready to use the camera. You may inform the user.

図2の(c)の左側に示すロボットは、カメラ利用可能状態(V=2)にある。カメラ利用可能状態(V=2)とは、カメラの撮影機能が起動した状態である。例えば、ロボットは、図2の(b)に示したカメラ利用準備状態でユーザによって把持され、撮影に適する高さまで持ち上げられると、カメラの撮影機能を起動し、カメラ利用可能状態(V=2)となる。なお、ロボットは、カメラの撮影機能を起動する際に、ロボットに備えられた表示画面にカメラによるスルー画像を表示してもよい。   The robot shown on the left side of FIG. 2C is in a camera available state (V = 2). The camera available state (V = 2) is a state in which the photographing function of the camera is activated. For example, when the robot is gripped by the user in the camera use ready state shown in FIG. 2B and lifted to a height suitable for photographing, the robot activates the photographing function of the camera, and the camera usable state (V = 2). It becomes. Note that the robot may display a through image from the camera on a display screen provided in the robot when the imaging function of the camera is activated.

図2の(c)に左側に示すロボットは、例えばユーザの「はい、チーズ」などの音声を検出するとカメラ撮影を行い、撮影後に「かしゃー」と発話することによりカメラ撮影を行ったことをユーザに知らせる。なお、ロボットは、ユーザにより既に把持された状態で、ユーザによる撮影開始の指示(例えば音声「写真撮るよー」)を検出した場合、通常状態(V=0)からカメラ利用可能状態(V=2)に変化し、カメラ撮影を行ってもよい。   The robot shown on the left side of FIG. 2 (c), for example, detects the user's voice such as “Yes, cheese”, and then performs camera shooting, and speaks “kasha” after shooting. Tell the user. Note that when the robot detects an instruction to start shooting (for example, voice “Take a picture”) from the normal state (V = 0) while being already held by the user, the robot can use the camera (V = 2). ) And camera shooting may be performed.

図2の(c)の右側に示すロボットは、カメラ撮影後に、撮影停止の指示が検出されないまま、ロボットを置ける場所まで降ろされたものである。図2の(c)に示すように、ユーザにより把持されていないロボットは、カメラの撮影機能および表示画面へのスルー画像の表示を停止する。すなわち、該ロボットは、カメラ利用可能状態(V=2)からカメラ利用準備状態(V=1)または通常状態(V=0)に変化する。   The robot shown on the right side of FIG. 2 (c) is lowered to a place where the robot can be placed without taking a shooting stop instruction after the camera shooting. As shown in FIG. 2C, the robot that is not gripped by the user stops the shooting function of the camera and the display of the through image on the display screen. That is, the robot changes from the camera available state (V = 2) to the camera use ready state (V = 1) or the normal state (V = 0).

図2の(d)の左側に示すロボットは、通常状態(V=0)にあり、カメラ撮影を終了した後、ユーザの音声によりカメラ利用可能状態(V=2)から変化したものである。より具体的には、ユーザによる撮影停止の指示(例えば、音声「おしまい。おろすよー」)が検出されると、ロボットは、カメラの撮影機能および表示画面へのスルー画像の表示を停止し、ロボット自身の姿勢を自立し易い形状に変化させる。なお、撮影停止の指示が検出されると、ロボットは、「はーい」などと発話することにより、ロボットがカメラ利用可能状態ではなくなることをユーザに知らせてもよい。   The robot shown on the left side of FIG. 2D is in the normal state (V = 0), and after the camera shooting is finished, the robot is changed from the camera available state (V = 2) by the user's voice. More specifically, when an instruction to stop shooting (for example, the voice “End. Lower”) is detected by the user, the robot stops the shooting function of the camera and the display of the through image on the display screen. Change your posture into a shape that is easy to stand on your own. When an instruction to stop shooting is detected, the robot may inform the user that the robot is no longer in a camera usable state by saying “Yes”.

図2の(d)の右側に示すロボットは、図2の(d)の左側に示すロボットが、該ロボットを置ける場所まで降ろされ、置かれたものである。図2の(d)の右側に示すロボットは、通常状態(V=0)である。なお、図2の(d)の右側に示すロボットの姿勢は、図2の(a)に示すロボットの姿勢と同一であることに限定しない。   The robot shown on the right side of FIG. 2 (d) is a robot shown on the left side of FIG. 2 (d) that has been lowered to a place where the robot can be placed. The robot shown on the right side of FIG. 2D is in a normal state (V = 0). Note that the posture of the robot shown on the right side of FIG. 2D is not limited to be the same as the posture of the robot shown in FIG.

(ロボットの要部構成)
図1は、本発明の一実施形態に係るロボット10の要部構成の一例を示すブロック図である。図1に示すように、ロボット10は、制御装置1、検知部60、駆動部71、カメラ(撮影部)72、表示画面73、音声出力部74、および記憶部80を備える。制御装置1は、検知部60によって検知されたデータを取得し、取得したデータに基づいて、駆動部71、カメラ72、表示画面73、および音声出力部74の機能を制御する。なお、制御装置1の詳細については、後述する。
(Robot main part configuration)
FIG. 1 is a block diagram illustrating an example of a main configuration of a robot 10 according to an embodiment of the present invention. As shown in FIG. 1, the robot 10 includes a control device 1, a detection unit 60, a drive unit 71, a camera (imaging unit) 72, a display screen 73, an audio output unit 74, and a storage unit 80. The control device 1 acquires data detected by the detection unit 60 and controls the functions of the drive unit 71, the camera 72, the display screen 73, and the audio output unit 74 based on the acquired data. Details of the control device 1 will be described later.

検知部60は、音声入力部61、物体検知部62、GPS受信部63、温度センサ64、加速度センサ65、グリップセンサ66を備える。音声入力部61は、ユーザの音声を集音するものであり、例えばマイクで構成される。物体検知部62は、ロボットの周囲にある物体の形状を検知するものであり、例えば赤外線センサまたはカメラで構成される。赤外線センサは、白黒で物体の形状を検知するものであり、物体の色および形状を検知するカメラと比較して、低消費電力で動作する。また、物体検知部62としてのカメラは、比較的、低解像度を有するものが好ましい。GPS受信部63は、GPS(global positioning system)からの電波を受信するものである。温度センサ64は、ロボットの周囲の温度を検知するものである。加速度センサ65は、ロボットの動きにより生じるロボットの加速度を検知するものである。グリップセンサ66は、ユーザがロボットを把持しているか否かを検知する。例えば、グリップセンサ66は、静電容量式センサまたは感圧式センサである。   The detection unit 60 includes a voice input unit 61, an object detection unit 62, a GPS reception unit 63, a temperature sensor 64, an acceleration sensor 65, and a grip sensor 66. The voice input unit 61 collects a user's voice, and is composed of, for example, a microphone. The object detection unit 62 detects the shape of an object around the robot, and is composed of, for example, an infrared sensor or a camera. An infrared sensor detects the shape of an object in black and white, and operates with lower power consumption than a camera that detects the color and shape of an object. The camera as the object detection unit 62 preferably has a relatively low resolution. The GPS receiver 63 receives radio waves from a GPS (global positioning system). The temperature sensor 64 detects the temperature around the robot. The acceleration sensor 65 detects the acceleration of the robot caused by the movement of the robot. The grip sensor 66 detects whether or not the user is holding the robot. For example, the grip sensor 66 is a capacitance type sensor or a pressure sensitive sensor.

駆動部71は、制御装置1からの通知に従ってロボットを駆動し、例えばサーボモータで構成される。   The drive unit 71 drives the robot in accordance with the notification from the control device 1, and is configured by a servo motor, for example.

カメラ72は、制御装置1からの通知に従って撮影を行う。なお、カメラ72は、比較的。高解像度を有する者が好ましい。また、カメラ72は、物体検知部62としてのカメラと同一のものであってもよいし、異なるものであってもよい。カメラ72が物体検知部62としてのカメラと同一のものである場合、物体検知部62として動作するカメラの解像度は低く、制御装置1からの通知に従って動作するカメラの解像度は高いものとする。   The camera 72 performs shooting according to the notification from the control device 1. In addition, the camera 72 is relatively. Those with high resolution are preferred. Further, the camera 72 may be the same as or different from the camera as the object detection unit 62. When the camera 72 is the same as the camera as the object detection unit 62, the resolution of the camera that operates as the object detection unit 62 is low, and the resolution of the camera that operates according to the notification from the control device 1 is high.

表示画面73は、制御装置1からの通知に従って、カメラ72によって撮影された画像(スルー画像を含む)を表示するものである。例えば、表示画面73は、タッチパネルを備えたLCD(Liquid crystal display:液晶ディスプレイ)が用いられる。   The display screen 73 displays an image (including a through image) captured by the camera 72 in accordance with a notification from the control device 1. For example, the display screen 73 is an LCD (Liquid crystal display) provided with a touch panel.

音声出力部74は、制御装置1からの通知に従って音声を出力する。音声出力部74は、例えばスピーカである。   The sound output unit 74 outputs sound according to the notification from the control device 1. The audio output unit 74 is, for example, a speaker.

記憶部80は、制御装置1が実行する制御プログラム、および、ロボット10が使用する各種データを記憶するものである。例えば、記憶部80は、ハードディスク、フラッシュメモリなどの不揮発性の記憶装置によって構成される。   The storage unit 80 stores a control program executed by the control device 1 and various data used by the robot 10. For example, the storage unit 80 is configured by a nonvolatile storage device such as a hard disk or a flash memory.

(制御装置の構成)
図1に示すように、制御装置1は、判定部2、姿勢制御部(姿勢制御手段)3、時間計測部4、撮影制御部5、表示部(表示手段)6、および音声合成部7を備える。判定部2は検知部60から出力される検知内容を判定し、判定結果を姿勢制御部3および撮影制御部5に通知する。
(Configuration of control device)
As shown in FIG. 1, the control device 1 includes a determination unit 2, a posture control unit (posture control unit) 3, a time measurement unit 4, a photographing control unit 5, a display unit (display unit) 6, and a voice synthesis unit 7. Prepare. The determination unit 2 determines the detection content output from the detection unit 60 and notifies the posture control unit 3 and the imaging control unit 5 of the determination result.

判定部2は、トリガ判定部(トリガ判定手段)21、および把持判定部(把持判定手段)22を備える。トリガ判定部21は、検知部60によって検知された検知内容が、所定のトリガであるか否かを判定する。所定のトリガとは、撮影開始を示す指示、撮影停止を示す指示、撮影方向を撮影対象の移動先に追従することを示す指示である。なお、トリガ判定部21の判定例については、後述する。   The determination unit 2 includes a trigger determination unit (trigger determination unit) 21 and a grip determination unit (grip determination unit) 22. The trigger determination unit 21 determines whether or not the detection content detected by the detection unit 60 is a predetermined trigger. The predetermined trigger is an instruction indicating start of shooting, an instruction indicating stop of shooting, and an instruction indicating that the shooting direction follows the movement destination of the shooting target. A determination example of the trigger determination unit 21 will be described later.

把持判定部22は、加速度センサ65またはグリップセンサ66の検知内容に基づいて、ユーザがロボットを把持しているか否かを判定する。また、把持判定部22は、加速度センサ65の検知内容に基づいて、ユーザがロボットを任意の場所(置かれている場所)から撮影に適する高さに移動させた(持ち上げた)か否かを、および、ロボットを任意の場所に置いた(降ろした)か否かを判定する。把持判定部22の判定例については、図3にて後述する。   The grip determination unit 22 determines whether the user is gripping the robot based on the detection content of the acceleration sensor 65 or the grip sensor 66. In addition, the grip determination unit 22 determines whether the user has moved (lifted) the robot from an arbitrary place (place where it is placed) to a height suitable for shooting based on the detection content of the acceleration sensor 65. And whether or not the robot is placed (lowered) in an arbitrary place. A determination example of the grip determination unit 22 will be described later with reference to FIG.

姿勢制御部3は、トリガ判定部21および把持判定部22の判定結果に基づいて駆動部71を制御する。例えば、検知部60によって検知された検知内容が、撮影開始を示すトリガであるとトリガ判定部21によって判定され、かつ把持判定部22によってユーザはロボットを把持していないと判定された場合に、姿勢制御部3は、ロボットをカメラ利用準備状態(V=1)の姿勢に変化させる。また例えば、検知部60によって検知された検知内容が、撮影停止を示すトリガであるとトリガ判定部21によって判定され、かつ把持判定部22によってユーザはロボットを把持していると判定された場合に、姿勢制御部3は、ロボットを自立可能な姿勢に変化させる。   The posture control unit 3 controls the drive unit 71 based on the determination results of the trigger determination unit 21 and the grip determination unit 22. For example, when the detection content detected by the detection unit 60 is determined to be a trigger indicating the start of shooting by the trigger determination unit 21 and the grip determination unit 22 determines that the user is not gripping the robot, The posture control unit 3 changes the robot to a posture in a camera use preparation state (V = 1). In addition, for example, when the detection content detected by the detection unit 60 is determined by the trigger determination unit 21 to be a trigger indicating that shooting is stopped, and the user is determined to be holding the robot by the grip determination unit 22 The posture control unit 3 changes the robot to a posture in which it can stand on its own.

時間計測部4は、姿勢制御部3からの通知に応じて、姿勢制御部3がロボットの姿勢をカメラ利用状態(V=1)に変化させた時刻からの時間を計測する。そして、計測した時間が所定の時間を超えると姿勢制御部3に通知する。なお、所定の時間は、予め設定された時間であり、ロボットの状態がカメラ利用準備状態(V=1)からカメラ利用可能状態(V=2)に変化するまでに要する時間よりも長い時間である(例えば3分)。   In response to the notification from the posture control unit 3, the time measurement unit 4 measures the time from the time when the posture control unit 3 changes the posture of the robot to the camera use state (V = 1). When the measured time exceeds a predetermined time, the posture control unit 3 is notified. The predetermined time is a preset time, which is longer than the time required for the robot state to change from the camera use ready state (V = 1) to the camera available state (V = 2). Yes (eg 3 minutes).

撮影制御部5は、判定部2から通知される判定結果に応じて、カメラ72の撮影機能を制御する。撮影制御部5は、撮影起動部(起動手段)51、撮影停止部(停止手段)52、および撮影方向変更部(撮影方向変更手段)53を備える。   The shooting control unit 5 controls the shooting function of the camera 72 according to the determination result notified from the determination unit 2. The shooting control unit 5 includes a shooting start unit (starting unit) 51, a shooting stop unit (stop unit) 52, and a shooting direction changing unit (shooting direction changing unit) 53.

撮影起動部51は、トリガ判定部21および把持判定部22の判定結果に基づいて、カメラ72の撮影機能を起動する。例えば、検知部60によって検知された検知内容が、撮影開始を示すトリガであるとトリガ判定部21によって判定され、かつ把持判定部22によってユーザはロボットを把持している(持ち上げた)と判定された場合に、カメラ72の撮影機能を起動する。なお、カメラ72が物体検知部62としてのカメラと同一である場合、撮影起動部51は、カメラ72の解像度を高く設定して、カメラ72の撮影機能を起動する。   The imaging activation unit 51 activates the imaging function of the camera 72 based on the determination results of the trigger determination unit 21 and the grip determination unit 22. For example, the trigger determination unit 21 determines that the detection content detected by the detection unit 60 is a trigger indicating the start of shooting, and the grip determination unit 22 determines that the user is holding (raising) the robot. If the camera 72 is activated, the shooting function of the camera 72 is activated. When the camera 72 is the same as the camera as the object detection unit 62, the shooting activation unit 51 sets the resolution of the camera 72 high and activates the shooting function of the camera 72.

撮影停止部52は、トリガ判定部21および把持判定部22の判定結果に基づいて、撮影起動部51により起動されたカメラ72の撮影機能を停止する。例えば、検知部60によって検知された検知内容が、撮影停止を示すトリガであるとトリガ判定部21によって判定された場合、または、把持判定部22によってユーザはロボットを把持していない(置いた)と判定された場合に、カメラ72の撮影機能を停止する。   The imaging stop unit 52 stops the imaging function of the camera 72 activated by the imaging activation unit 51 based on the determination results of the trigger determination unit 21 and the grip determination unit 22. For example, when it is determined by the trigger determination unit 21 that the detection content detected by the detection unit 60 is a trigger indicating that shooting is stopped, or the user does not hold (put) the robot by the grip determination unit 22. When it is determined that the shooting function of the camera 72 is stopped.

撮影方向変更部53は、トリガ判定部21および把持判定部22の判定結果に基づいて、駆動部71を制御することにより、カメラ72の撮影方向を撮影対象の移動先に追従させる機能(追従機能)を制御する。そして、カメラによる動画撮影を制御する。撮影対象の位置を特定する方法については、音声入力部61が検知する音声を用いてもよいし、物体検知部62が検知する検知内容に基づいた画像認識を利用してもよい。   The shooting direction changing unit 53 controls the drive unit 71 based on the determination results of the trigger determination unit 21 and the gripping determination unit 22, thereby causing the shooting direction of the camera 72 to follow the moving destination of the shooting target (tracking function). ) To control. Then, moving image shooting by the camera is controlled. As a method for specifying the position of the shooting target, a sound detected by the sound input unit 61 may be used, or image recognition based on the detection content detected by the object detection unit 62 may be used.

例えば、検知部60によって検知された検知内容が、追従開始を示すトリガであるとトリガ判定部21によって判定され、かつ、把持判定部22によってユーザがロボットを把持していないと判定された場合に、撮影方向変更部53は、カメラの撮影方向を撮影対象の移動先に追従させ、動画撮影を開始する。また、把持判定部22によりユーザがロボット10を把持していることが判定された場合に、撮影方向変更部53は、カメラの撮影方向の追従を停止し、動画撮影を停止する。   For example, when the trigger detection unit 21 determines that the detection content detected by the detection unit 60 is a trigger indicating the start of tracking, and the grip determination unit 22 determines that the user is not gripping the robot. The shooting direction changing unit 53 causes the shooting direction of the camera to follow the movement destination of the shooting target, and starts moving image shooting. When the grip determining unit 22 determines that the user is holding the robot 10, the shooting direction changing unit 53 stops following the shooting direction of the camera and stops moving image shooting.

表示部6は、撮影制御部5からの通知に応じて、カメラ72によって撮影される画像(スルー画像を含む)を表示画面73に表示させる。   The display unit 6 displays an image (including a through image) captured by the camera 72 on the display screen 73 in response to a notification from the imaging control unit 5.

音声合成部7は、撮影制御部5からの通知に応じて音声を合成し、合成した音声を音声出力部74に出力させる。   The voice synthesizer 7 synthesizes the voice in response to the notification from the shooting control unit 5 and causes the voice output unit 74 to output the synthesized voice.

(トリガ判定部の判定例)
検知部60による検知内容が撮影開始を示すトリガであるか否かの判定は、音声入力部61、物体検知部62、GPS受信部63、温度センサ64、または加速度センサ65による検知内容に基づいて行われる。
(Example of determination by the trigger determination unit)
The determination as to whether or not the detection content by the detection unit 60 is a trigger indicating the start of shooting is based on the detection content by the voice input unit 61, the object detection unit 62, the GPS reception unit 63, the temperature sensor 64, or the acceleration sensor 65. Done.

例えば、音声入力部61がユーザの音声を検知すると、トリガ判定部21は、音声入力部61が検知した音声が撮影開始を示すトリガか否かを判定する。音声入力部61が検知した音声は、撮影開始を示す直接的な指示(ユーザの音声「カメラ起動して」など)であってもよいし、撮影開始を示す間接的な指示であってもよい(ロボット10の音声「写真撮ったら?」の発話に対して、ユーザの音声「そうだね」の回答など)。   For example, when the voice input unit 61 detects the user's voice, the trigger determination unit 21 determines whether the voice detected by the voice input unit 61 is a trigger indicating the start of shooting. The voice detected by the voice input unit 61 may be a direct instruction (such as the user's voice “camera activated”) indicating the start of shooting or an indirect instruction indicating the start of shooting. (For example, an answer of the user's voice “That's right” in response to the voice of the robot 10 “Take me a picture?”).

また、例えば、物体検知部62が物体の存在を検知すると、トリガ判定部21は、物体検知部62が検知した物体を解析し、解析した物体が、予め設定されているジェスチャ(グー、チョキ、パー等)、人の顔またはランドマークであるか否かを判定する。物体検知部62が検知した物体が、予め設定されているジェスチャ、人の顔またはランドマークである場合、トリガ判定部21は、物体検知部62による検知内容は撮影開始を示すトリガであると判定する。なお、ランドマークとは、観光名所等であり、ユーザが記念撮影をする可能性が高い施設である。また、トリガ判定部21の判定に用いられるジェスチャおよびランドマークは、ユーザにより予め設定されていてもよい。   In addition, for example, when the object detection unit 62 detects the presence of an object, the trigger determination unit 21 analyzes the object detected by the object detection unit 62, and the analyzed object is a gesture (goo, choki, Par or the like), whether it is a human face or landmark. When the object detected by the object detection unit 62 is a preset gesture, human face, or landmark, the trigger determination unit 21 determines that the detection content of the object detection unit 62 is a trigger indicating the start of shooting. To do. A landmark is a tourist attraction or the like, and is a facility where a user is highly likely to take a commemorative photo. Moreover, the gesture and landmark used for determination of the trigger determination part 21 may be preset by the user.

また例えば、GPS受信部63がGPS信号を受信すると、トリガ判定部21は、GPS受信部63が受信したGPS信号からロボット10の現在位置を特定する。そして、トリガ判定部21は、GPS信号に基づいて特定した位置が、所定の地域内にある場合、GPS受信部63による検知内容は撮影開始を示すトリガであると判定する。なお、所定の地域は、観光地などのユーザが記念撮影をする可能性が高い場所であり、ユーザにより予め設定されていてもよい。   For example, when the GPS receiving unit 63 receives a GPS signal, the trigger determination unit 21 specifies the current position of the robot 10 from the GPS signal received by the GPS receiving unit 63. Then, when the position specified based on the GPS signal is within a predetermined area, the trigger determination unit 21 determines that the content detected by the GPS reception unit 63 is a trigger indicating the start of imaging. The predetermined area is a place where the user is likely to take a commemorative photo, such as a sightseeing spot, and may be set in advance by the user.

また例えば、温度センサ64が検知した温度が、所定の温度の範囲外である場合、トリガ判定部21は、温度センサ64による検知内容は撮影開始を示すトリガであると判定する。なお、所定の温度とは、ロボット10が普段いる土地における温度(例えば、5℃〜35℃)であり、ユーザにより設定されてもよいし、温度センサ64により検知された温度に基づいて算出されてもよい。   For example, when the temperature detected by the temperature sensor 64 is outside the predetermined temperature range, the trigger determination unit 21 determines that the detection content by the temperature sensor 64 is a trigger indicating the start of imaging. The predetermined temperature is a temperature (for example, 5 ° C. to 35 ° C.) in the land where the robot 10 is usually located, and may be set by the user or calculated based on the temperature detected by the temperature sensor 64. May be.

また例えば、トリガ判定部21は、加速度センサ65による検知内容から、加速度を算出し、算出した加速度が所定の値よりも大きな値である場合に、加速度センサ65による検知内容は撮影開始を示すトリガであると判定する。なお、所定の値は、後述するT1よりも大きい値とし、不慮の事故等による衝撃で生じる加速度の値を下回るものとする。例えば、所定の値は、ロボット10の材質および重さによって設定される。   Further, for example, the trigger determination unit 21 calculates the acceleration from the content detected by the acceleration sensor 65, and when the calculated acceleration is larger than a predetermined value, the content detected by the acceleration sensor 65 is a trigger indicating the start of shooting. It is determined that The predetermined value is set to a value larger than T1, which will be described later, and is lower than the value of acceleration caused by an accident due to an accident or the like. For example, the predetermined value is set according to the material and weight of the robot 10.

また、検知部60による検知内容が、撮影停止を示すトリガ、または撮影方向を撮影対象の移動先に追従することを示すトリガであるか否かの判定は、音声入力部61による検知内容に基づいて行われる。なお、音声認識技術については、公知技術を用いるものとする。   Further, whether or not the detection content by the detection unit 60 is a trigger indicating that the shooting is stopped or a trigger that indicates that the shooting direction follows the movement destination of the shooting target is determined based on the detection content by the voice input unit 61. Done. As a voice recognition technique, a known technique is used.

(把持判定部の制御例)
図3は、ロボット10が備える把持判定部22の判定処理の一例を示すフローチャートである。図3に示すように、ロボット10は、任意の場所に置かれている状態(状態の初期化S=1)にあり(S41)、把持判定部22は、加速度センサ65により検知された検知内容を取得する。そして、把持判定部22は、加速度センサ65により検知された検知内容に基づいて、ロボット10の加速度の値A(A=X+Y+Z)を算出する(S42)。S42後、把持判定部22は、S42にて算出した値Aと第1閾値T1とを比較する(S43)。
(Control example of gripping judgment unit)
FIG. 3 is a flowchart illustrating an example of determination processing of the grip determination unit 22 provided in the robot 10. As shown in FIG. 3, the robot 10 is in a state where it is placed at an arbitrary place (state initialization S = 1) (S <b> 41), and the grip determination unit 22 detects the detected content detected by the acceleration sensor 65. To get. Then, the grip determination unit 22 calculates an acceleration value A (A = X 2 + Y 2 + Z 2 ) of the robot 10 based on the detection content detected by the acceleration sensor 65 (S42). After S42, the grip determination unit 22 compares the value A calculated in S42 with the first threshold value T1 (S43).

なお、加速度センサ65は、互いに直交する3軸方向における値(X、YおよびZ)を出力する。加速度センサ65が出力する、X軸方向、Y軸方向およびZ軸方向の加速度値の範囲は、各々、−1以上+1以下である。また、第1閾値T1は、ユーザによってロボット10が任意の場所(置かれている場所)から撮影に適する高さに移動させられた(持ち上げられた)と、判定できる値とする。例えば、第1閾値T1は、ロボット10の材質および重さによって設定される。   The acceleration sensor 65 outputs values (X, Y, and Z) in three axial directions orthogonal to each other. The ranges of acceleration values output by the acceleration sensor 65 in the X-axis direction, the Y-axis direction, and the Z-axis direction are −1 or more and +1 or less, respectively. The first threshold value T1 is a value that can be determined when the user has moved (lifted) the robot 10 from an arbitrary place (place where it is placed) to a height suitable for shooting. For example, the first threshold T1 is set according to the material and weight of the robot 10.

S42にて算出した値Aが、第1閾値T1より大きい値の場合(S43にてYES)、把持判定部22は、ロボット10が任意の場所から撮影に適する高さに移動させられた(持ち上げられた)と判定する(S44)。そして、把持判定部22は、ロボット10を、ユーザによって把持されている状態(持ち上げられた状態、S=2)にあると設定する(S45)。一方、S43にてNOの場合、S42以降の処理を繰り返す。   When the value A calculated in S42 is larger than the first threshold value T1 (YES in S43), the grip determination unit 22 is moved to a height suitable for photographing from the arbitrary position of the robot 10 (lifted). (S44). Then, the grip determination unit 22 sets the robot 10 as being gripped by the user (lifted state, S = 2) (S45). On the other hand, if NO at S43, the processing after S42 is repeated.

次に、ロボット10がユーザによって把持されている状態(S=2)にある場合について、図3に示すS61〜S64に基づいて説明する。把持判定部22は、S42と同様に、加速度センサ65により検知された検知内容を取得し、加速度センサ65により検知された検知内容に基づいて、ロボット10の加速度の値Aを算出する(S61)。S61後、把持判定部22は、S61にて算出した値Aと第2閾値T2とを比較する(S62)。なお、第2閾値T2は、第1閾値T1よりも小さい値であり、ユーザによってロボット10が任意の場所に置かれた(降ろされた)と、判定できる値とする。例えば、第2閾値T2は、ロボット10の材質および重さによって設定される。   Next, the case where the robot 10 is held by the user (S = 2) will be described based on S61 to S64 shown in FIG. As in S42, the grip determination unit 22 acquires the detection content detected by the acceleration sensor 65, and calculates the acceleration value A of the robot 10 based on the detection content detected by the acceleration sensor 65 (S61). . After S61, the grip determination unit 22 compares the value A calculated in S61 with the second threshold T2 (S62). Note that the second threshold value T2 is a value smaller than the first threshold value T1, and is a value that can be determined when the user places the robot 10 in an arbitrary place (lowered). For example, the second threshold T2 is set according to the material and weight of the robot 10.

S61にて算出した値Aが、第2閾値T2より小さい値の場合(S62にてYES)、把持判定部22は、ロボット10が任意の場所に置かれた(降ろされた)と判定する(S63)。そして、把持判定部22は、ロボット10を、ユーザによって把持されていない状態(置かれている状態、S=1)にあると設定する(S64)。一方、S62にてNOの場合、S61以降の処理を繰り返す。   When the value A calculated in S61 is smaller than the second threshold value T2 (YES in S62), the gripping determination unit 22 determines that the robot 10 has been placed (lowered) in an arbitrary location ( S63). Then, the grip determination unit 22 sets the robot 10 to be in a state where it is not gripped by the user (placed state, S = 1) (S64). On the other hand, if NO at S62, the processing after S61 is repeated.

(カメラ機能の制御例)
図4は、本実施形態に係る制御装置1の処理の一例を示すフローチャートである。図4に示す処理が開始される際のロボット10は、通常状態(V=0)にあるものとして説明する。まず、トリガ判定部21は、検知部60により検知された検知内容が、撮影開始を示すトリガであるか否かを判定する(S1)。検知部60により検知された検知内容が、撮影開始を示すトリガである場合(S1にてYES)、把持判定部22は、ロボット10がユーザにより把持されている状態(S=2)にあるか否かを判定する(S2)。把持判定部22がS=2であると判定する場合(S2にてYES)、撮影起動部51はカメラの撮影機能を起動させ、かつ、表示部6はカメラにより撮影される画像を表示画面73に表示させ、ロボット10の状態はカメラ利用可能状態V=2となる(S5)。
(Camera function control example)
FIG. 4 is a flowchart illustrating an example of processing of the control device 1 according to the present embodiment. The robot 10 when the process shown in FIG. 4 is started will be described as being in a normal state (V = 0). First, the trigger determination unit 21 determines whether or not the detection content detected by the detection unit 60 is a trigger indicating the start of imaging (S1). When the detection content detected by the detection unit 60 is a trigger indicating the start of shooting (YES in S1), the grip determination unit 22 is in a state where the robot 10 is gripped by the user (S = 2). It is determined whether or not (S2). When the grip determination unit 22 determines that S = 2 (YES in S2), the shooting start unit 51 starts the shooting function of the camera, and the display unit 6 displays an image shot by the camera on the display screen 73. The state of the robot 10 becomes the camera available state V = 2 (S5).

一方、把持判定部22がS=2でないと判定する場合、すなわち、ロボット10がユーザにより把持されていない状態(S=1)にあると判定する場合(S2にてNO)、姿勢制御部3は、ロボット10の姿勢をカメラ利用準備状態(V=1)に変化させる(S3)。S3の後、把持判定部22は、ロボット10が任意の場所から撮影に適する高さに移動させられた(持ち上げられた)状態(S=2)にあるか否かを判定する(S4)。把持判定部22がS=2であると判定する場合(S4にてYES)、S5の処理に移行する。なお、S4にてNOの場合はS4の処理を繰り返す。   On the other hand, when the grip determination unit 22 determines that S = 2 is not satisfied, that is, when it is determined that the robot 10 is not gripped by the user (S = 1) (NO in S2), the posture control unit 3 Changes the posture of the robot 10 to the camera use ready state (V = 1) (S3). After S3, the grip determination unit 22 determines whether or not the robot 10 is moved (lifted) from any place to a height suitable for shooting (S = 2) (S4). When the grip determination unit 22 determines that S = 2 (YES in S4), the process proceeds to S5. If NO in S4, the process in S4 is repeated.

次に、カメラの撮影機能を停止する処理について、図4に示すS6〜S10に基づいて説明する。ロボット10はカメラ利用可能状態V=2であり、把持判定部22は、ロボット10が任意の場所に置かれた(降ろされた)状態(S=1)にあるか否かを判定する(S6)。把持判定部22がS=1にあると判定する場合(S6にてYES)、撮影停止部52はカメラの撮影機能を停止し、かつ、表示部6は表示画面73への表示を停止し、ロボット10の状態は通常状態V=0となる(S7)。   Next, a process for stopping the photographing function of the camera will be described based on S6 to S10 shown in FIG. The robot 10 is in the camera available state V = 2, and the gripping determination unit 22 determines whether or not the robot 10 is in a state where it is placed (lowered) at an arbitrary place (S = 1) (S6). ). When the grip determination unit 22 determines that S = 1 (YES in S6), the shooting stop unit 52 stops the shooting function of the camera, and the display unit 6 stops display on the display screen 73, The state of the robot 10 is the normal state V = 0 (S7).

一方、把持判定部22がS=1でないと判定する場合、すなわち、ロボット10がユーザに把持されている状態(S=2)にあると判定する場合(S6にてNO)、トリガ判定部21は、検知部60により検知された検知内容が、撮影停止を示すトリガであるか否かを判定する(S8)。検知部60により検知された検知内容が、撮影停止を示すトリガである場合(S8にてYES)、S7の処理と同様に、撮影停止部52はカメラの撮影機能の停止し、かつ、表示部6は表示画面73への表示を停止し、ロボット10の状態は通常状態V=0となる(S9)。S9の後、姿勢制御部3は、ロボット10を自立可能な姿勢に変化させる(S10)。なお、S8にてNOの場合、S6以降の処理を繰り返す。   On the other hand, when the grip determination unit 22 determines that S = 1 is not true, that is, when it is determined that the robot 10 is being gripped by the user (S = 2) (NO in S6), the trigger determination unit 21 Determines whether or not the detection content detected by the detection unit 60 is a trigger indicating a stop of photographing (S8). When the detection content detected by the detection unit 60 is a trigger indicating the stop of shooting (YES in S8), the shooting stop unit 52 stops the shooting function of the camera and displays the same as in the process of S7. 6 stops displaying on the display screen 73, and the state of the robot 10 becomes the normal state V = 0 (S9). After S9, the posture control unit 3 changes the robot 10 to a posture in which it can stand on its own (S10). If NO in S8, the processes after S6 are repeated.

(効果)
上記の構成によれば、撮影開始を示すトリガが検出され、かつ、ユーザがロボット10を把持している場合に、カメラの撮影機能が起動する。また、撮影停止を示すトリガが検出されるか、またはユーザがロボット10を把持していない場合、カメラの撮影機能が停止する。このため、ユーザは様々な場面でバリエーション豊富な撮影を行うことができるとともに、撮影機能の起動および停止のユーザによる操作が簡易となる。例えば、撮影機能を起動する際、静止画撮影、動画撮影、およびバーコード認識に至るまでの操作が簡易となる。
(effect)
According to the above configuration, when the trigger indicating the start of shooting is detected and the user is holding the robot 10, the shooting function of the camera is activated. In addition, when a trigger indicating that shooting is stopped is detected or the user does not hold the robot 10, the shooting function of the camera is stopped. For this reason, the user can perform a variety of shootings in various scenes, and the user's operations for starting and stopping the shooting function are simplified. For example, when the shooting function is activated, operations up to still image shooting, moving image shooting, and barcode recognition are simplified.

また、上記の構成によれば、撮影開始を示すトリガが検知され、かつユーザがロボット10を把持していない場合、ロボット10の姿勢はユーザが把持し易い形状に変化する。このため、ユーザは、撮影する際にロボット10を安定して把持することができる。それゆえ、カメラのピントを合わせることが容易となり、比較的鮮明な画像を撮影することが可能となる。   Further, according to the above configuration, when a trigger indicating the start of shooting is detected and the user does not hold the robot 10, the posture of the robot 10 changes to a shape that the user can easily hold. For this reason, the user can stably hold the robot 10 when photographing. Therefore, it becomes easy to focus the camera, and a relatively clear image can be taken.

また、上記の構成によれば、撮影停止を示すトリガが検知され、かつユーザがロボット10を把持している場合、ロボット10の姿勢は自立可能な姿勢に変化する。このため、ユーザは、ロボット10の転倒を心配することなくロボット10を任意の場所に置くことが可能となる。   Further, according to the above configuration, when a trigger indicating stop of photographing is detected and the user is holding the robot 10, the posture of the robot 10 changes to a posture in which it can stand on its own. For this reason, the user can place the robot 10 in an arbitrary place without worrying about the robot 10 falling.

また、上記の構成によれば、カメラの撮影機能の起動および停止に応じて、表示画面73への画像表示が制御される。このため、表示画面73への画像の表示を開始または停止する操作は不要となり、ユーザによる操作の煩雑化を防止できる。   Moreover, according to said structure, the image display on the display screen 73 is controlled according to starting and a stop of the imaging | photography function of a camera. For this reason, the operation for starting or stopping the display of the image on the display screen 73 is not necessary, and the operation by the user can be prevented from becoming complicated.

〔実施形態2〕
本発明の他の実施形態について、図5に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
The following will describe another embodiment of the present invention with reference to FIG. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

本実施形態では、ロボット10の状態が、ユーザによる音声指示またはタイムアウトにて、カメラ利用準備状態V=1から通常状態V=0に戻る処理について説明する。図5は、本実施形態に係る制御装置1の処理の一例を示すフローチャートである。図5に示す処理は、図4に示す処理に、S21〜S23を追加したものであり、図5に示すS11〜S20は、図4に示すS1〜S10に各々対応する。   In the present embodiment, a process will be described in which the state of the robot 10 returns from the camera use preparation state V = 1 to the normal state V = 0 by a voice instruction or time-out by the user. FIG. 5 is a flowchart illustrating an example of processing of the control device 1 according to the present embodiment. The process shown in FIG. 5 is obtained by adding S21 to S23 to the process shown in FIG. 4, and S11 to S20 shown in FIG. 5 respectively correspond to S1 to S10 shown in FIG.

上述したように、S11〜13の処理は、S1〜S3の処理と各々同様である。そして、図5に示すように、姿勢制御部3が、ロボット10の姿勢をカメラ利用準備状態(V=1)に変化させた(S13)後、姿勢制御部3は時間計測部4に通知し、時間計測部4は、姿勢制御部3がロボット10の姿勢をカメラ利用状態(V=1)に変化させた時刻からの時間を計測する(S21)。S21の後、把持判定部22は、ロボット10が任意の場所から撮影に適する高さに移動させられた(持ち上げられた)状態(S=2)にあるか否かを判定する(S14)。把持判定部22がS=2であると判定する場合(S14にてYES)、撮影起動部51はカメラの撮影機能を起動させ、かつ、表示部6はカメラにより撮影される画像を表示画面73に表示させて、ロボット10の状態はカメラ利用可能状態V=2となる(S15)。   As described above, the processing of S11 to 13 is the same as the processing of S1 to S3. Then, as shown in FIG. 5, after the posture control unit 3 changes the posture of the robot 10 to the camera use ready state (V = 1) (S <b> 13), the posture control unit 3 notifies the time measurement unit 4. The time measuring unit 4 measures the time from the time when the posture control unit 3 changes the posture of the robot 10 to the camera usage state (V = 1) (S21). After S21, the grip determination unit 22 determines whether or not the robot 10 is moved (lifted) from an arbitrary place to a height suitable for photographing (S = 2) (S14). When the grip determination unit 22 determines that S = 2 (YES in S14), the imaging activation unit 51 activates the imaging function of the camera, and the display unit 6 displays an image captured by the camera on the display screen 73. The state of the robot 10 is the camera available state V = 2 (S15).

一方、把持判定部22がS=2でないと判定する場合、すなわち、ロボット10が任意の場所に置かれている状態(S=1)にあると判定する場合(S14にてNO)、トリガ判定部21は、検知部60により検知された検知内容が、撮影停止を示すトリガであるか否かを判定する(S22)。検知部60により検知された検知内容が、撮影停止を示すトリガである場合(S22にてYES)、姿勢制御部3は、ロボット10を自立し易い姿勢に変化させる(S20)。   On the other hand, when the gripping determination unit 22 determines that S = 2 is not satisfied, that is, when it is determined that the robot 10 is in an arbitrary place (S = 1) (NO in S14), trigger determination The unit 21 determines whether or not the detection content detected by the detection unit 60 is a trigger indicating a photographing stop (S22). When the detection content detected by the detection unit 60 is a trigger indicating a stop of photographing (YES in S22), the posture control unit 3 changes the robot 10 to a posture in which it is easy to stand up (S20).

また、検知部60により検知された検知内容が、撮影停止を示すトリガでない場合(S22にてNO)、時間計測部4は、S21にて計測開始した時間が所定の時間を超えるか否かを判定する(S23)。S21にて計測開始した時間が所定の時間を超える場合(S23にてYES)、S20の処理に移行する。なお、S23にてNOの場合、S14以降の処理を繰り返す。   Further, when the detection content detected by the detection unit 60 is not a trigger indicating a shooting stop (NO in S22), the time measurement unit 4 determines whether or not the measurement start time exceeds a predetermined time in S21. Determine (S23). If the measurement start time in S21 exceeds the predetermined time (YES in S23), the process proceeds to S20. If NO in S23, the processes after S14 are repeated.

(効果)
上記の構成によれば、ロボット10の姿勢がユーザの把持し易い姿勢に変化させた時刻からの時間が、所定時間を超えた場合、ロボット10の姿勢が自立可能な姿勢に変化する。このため、撮影が不要となった場合に、ユーザの操作無しで、ロボット10の姿勢は自動で自立可能な姿勢に変化することが可能となる。
(effect)
According to said structure, when the time from the time when the attitude | position of the robot 10 was changed to the attitude | position in which a user is easy to hold | grip exceeds predetermined time, the attitude | position of the robot 10 will change to the attitude | position which can become independent. For this reason, when shooting is no longer necessary, the posture of the robot 10 can be automatically changed to a posture capable of self-sustaining without any user operation.

〔実施形態3〕
本発明の他の実施形態について、図6に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 3]
The following will describe another embodiment of the present invention with reference to FIG. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

本実施形態では、カメラの撮影方向が撮影対象の動く方向に追従する処理について説明する。図6は、本実施形態に係る制御装置1の処理の一例を示すフローチャートである。図6に示す処理が開始される際のロボット10は、通常状態(V=0)にあるものとして説明する。   In the present embodiment, processing in which the shooting direction of the camera follows the moving direction of the shooting target will be described. FIG. 6 is a flowchart illustrating an example of processing of the control device 1 according to the present embodiment. The robot 10 when the process shown in FIG. 6 is started will be described as being in a normal state (V = 0).

図6に示すように、トリガ判定部21は、検知部60により検知された検知内容が、撮影方向を撮影対象の動く方向に追従することを示すトリガであるか否かを判定する(S31)。検知部60により検知された検知内容が、撮影方向を撮影対象の動く方向に追従することを示すトリガである場合(S31にてYES)、把持判定部22は、ロボット10がユーザにより把持されている状態(S=2)にあるか否かを判定する(S32)。   As illustrated in FIG. 6, the trigger determination unit 21 determines whether or not the detection content detected by the detection unit 60 is a trigger indicating that the shooting direction follows the moving direction of the shooting target (S31). . When the detection content detected by the detection unit 60 is a trigger indicating that the shooting direction follows the moving direction of the shooting target (YES in S31), the grip determination unit 22 indicates that the robot 10 is gripped by the user. It is determined whether it is in a state (S = 2) (S32).

把持判定部22がS=2でないと判定する場合(S32にてNO)、撮影方向変更部53は追従機能を起動させる(カメラ追従状態V=3、S33)。S33の際、撮影方向変更部53は、カメラによる動画撮影を開始させるとともに、表示画面73に撮影した動画像を表示させてもよい。また、S33の際、撮影方向変更部53は、追従機能を起動させる際、表示画面73にスルー画像を表示させてもよい。なお、把持判定部22がS=2であると判定する場合(S32にてYES)、S32の判定処理を繰り返す。   When the grip determination unit 22 determines that S = 2 is not satisfied (NO in S32), the shooting direction changing unit 53 activates the tracking function (camera tracking state V = 3, S33). At the time of S33, the shooting direction changing unit 53 may start moving image shooting by the camera and display the shot moving image on the display screen 73. In S33, the shooting direction changing unit 53 may display a through image on the display screen 73 when the tracking function is activated. If grip determination unit 22 determines that S = 2 (YES in S32), the determination process of S32 is repeated.

S33の後、把持判定部22は、ロボット10が任意の場所から撮影に適する高さに移動させられた(持ち上げられた)状態(S=2)にあるか否かを判定する(S34)。把持判定部22がS=2であると判定する場合(S34にてYES)、撮影起動部51は動画撮影の機能を一時的に停止させ、かつ、撮影方向変更部53は追従機能を一時的に停止させる(追従一時停止状態V=4、S35)。S35の際、撮影起動部51は静止画を撮影する機能を起動させてもよい。把持判定部22がS=2でないと判定する場合(S34にてNO)、S36の処理に移行する。   After S33, the grip determination unit 22 determines whether or not the robot 10 is moved (lifted) from any place to a height suitable for shooting (S = 2) (S34). When the grip determination unit 22 determines that S = 2 (YES in S34), the shooting start unit 51 temporarily stops the moving image shooting function, and the shooting direction change unit 53 temporarily sets the tracking function. (Follow-up pause state V = 4, S35). In S35, the shooting activation unit 51 may activate a function of shooting a still image. If grip determination unit 22 determines that S = 2 is not satisfied (NO in S34), the process proceeds to S36.

S35の後、トリガ判定部21は、検知部60により検知された検知内容が、追従停止を示すトリガであるか否かを判定する(S36)。検知部60により検知された検知内容が、追従停止を示すトリガである場合(S36にてYES)、撮影方向変更部53は追従機能を停止し、カメラによる動画撮影を停止させる(S37)。一方、S36にてNOの場合、把持判定部22は、ロボット10が任意の場所に置かれた(降ろされた)状態(S=1)にあるか否かを判定する(S38)。   After S35, the trigger determination unit 21 determines whether or not the detection content detected by the detection unit 60 is a trigger indicating follow-up stop (S36). If the detection content detected by detection unit 60 is a trigger indicating follow-up stop (YES in S36), shooting direction changing unit 53 stops the follow-up function and stops moving image shooting by the camera (S37). On the other hand, in the case of NO in S36, the grip determination unit 22 determines whether or not the robot 10 is in a state where it is placed (lowered) in an arbitrary place (S = 1) (S38).

把持判定部22がS=1であると判定する場合(S38にてYES)、S33以降の処理を繰り返す。把持判定部22がS=2でないと判定する場合(S38にてNO)、S36以降の処理を繰り返す。   If grip determination unit 22 determines that S = 1 (YES in S38), the processing from S33 onward is repeated. If grip determination unit 22 determines that S = 2 is not satisfied (NO in S38), the processing from S36 is repeated.

(効果)
上記の構成によれば、追従開始を示すトリガが検出され、ユーザがロボット10を把持していない場合に、カメラの撮影方向は、撮影対象の移動先に追従するように変更される。このため、動いている撮影対象を自動で捕捉しつつ、撮影することが可能となる。
(effect)
According to the configuration described above, when the trigger indicating the start of tracking is detected and the user does not hold the robot 10, the shooting direction of the camera is changed so as to follow the moving destination of the shooting target. For this reason, it is possible to take a picture while automatically capturing a moving subject.

また、上記の構成によれば、追従停止を示すトリガが検出され、ユーザがロボット10を把持している場合に、カメラの撮影方向の変更は停止される。このため、ユーザが把持した状態でカメラ撮影を行う際に、ピントがぼけることを防止することが可能となる。   Moreover, according to said structure, when the trigger which shows a follow-up stop is detected and the user is holding the robot 10, the change of the imaging direction of a camera is stopped. For this reason, it is possible to prevent the camera from being out of focus when shooting with the camera held by the user.

〔ソフトウェアによる実現例〕
制御装置1の制御ブロック(特に、判定部2、姿勢制御部3、時間計測部4、撮影制御部5、および表示部6)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
A control block (in particular, a determination unit 2, an attitude control unit 3, a time measurement unit 4, an imaging control unit 5, and a display unit 6) of the control device 1 is a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. Hardware), or software using a CPU (Central Processing Unit).

後者の場合、制御装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the control device 1 includes a CPU that executes instructions of a program that is software that implements each function, a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by a computer (or CPU), or A storage device (these are referred to as “recording media”), a RAM (Random Access Memory) that expands the program, and the like are provided. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る制御装置(1)は、ロボット(10)に設けられた撮影部(カメラ72)の起動を制御するための制御装置であって、上記ロボットが検知した検知内容が所定のトリガであるか否かを判定するトリガ判定手段(トリガ判定部21)と、ユーザが上記ロボットを把持しているか否かを判定する把持判定手段(把持判定部22)と、上記撮影部を起動させる起動手段(撮影起動部51)と、を備え、上記トリガ判定手段により所定のトリガであると判定された上記検知内容が、撮影開始を示すトリガであり、かつ、上記把持判定手段により上記ユーザが上記ロボットを把持していることが判定された場合に、上記起動手段は上記撮影部を起動させることを特徴としている。
[Summary]
The control device (1) according to the first aspect of the present invention is a control device for controlling the activation of the photographing unit (camera 72) provided in the robot (10), and the detected content detected by the robot is predetermined. A trigger determination unit (trigger determination unit 21) for determining whether or not the user is a trigger, a grip determination unit (grip determination unit 22) for determining whether or not the user is holding the robot, and the photographing unit. Activation means (photographing activation unit 51) to be activated, and the detected content determined to be a predetermined trigger by the trigger determining means is a trigger indicating the start of imaging, and the grip determining means When it is determined that the user is holding the robot, the activation unit activates the imaging unit.

上記の構成によれば、トリガ判定手段により所定のトリガであると判定された検知内容が、撮影開始を示すトリガであり、かつ、把持判定手段によりユーザがロボットを把持していることが判定された場合に、起動手段は撮影部を起動させる。撮影開始を示すトリガは、例えばユーザによる音声指示である。このため、制御装置は、撮影開始のトリガに応じて、ユーザがロボットを把持することにより、撮影部の撮影機能を起動することができる。それゆえ、ユーザは様々な場面でバリエーション豊富な撮影を行うことができるとともに、撮影機能を起動する際のユーザによる操作が簡易となる。   According to the above configuration, the detection content determined as the predetermined trigger by the trigger determination unit is a trigger indicating the start of photographing, and it is determined by the grip determination unit that the user is holding the robot. In the case where the camera is activated, the activation means activates the photographing unit. The trigger indicating the start of shooting is, for example, a voice instruction from the user. For this reason, the control apparatus can start the imaging | photography function of an imaging | photography part, when a user holds a robot according to the trigger of imaging | photography start. Therefore, the user can perform a wide variety of shooting in various scenes, and the operation by the user when starting the shooting function is simplified.

本発明の態様2に係る制御装置は、上記態様1において、上記ロボットに設けられた駆動部(71)を駆動させることにより、上記ロボットの姿勢を変化させる姿勢制御手段(姿勢制御部3)をさらに備え、上記トリガ判定手段により所定のトリガであると判定された上記検知内容が撮影開始を示すトリガであり、かつ、上記把持判定手段により上記ユーザが上記ロボットを把持していないことが判定された場合に、上記姿勢制御手段は、上記ロボットの姿勢をユーザが把持し易い姿勢に変化させてもよい。   In the control device according to aspect 2 of the present invention, in the aspect 1, the control unit (posture control unit 3) that changes the posture of the robot by driving the drive unit (71) provided in the robot. In addition, it is determined that the detection content determined to be a predetermined trigger by the trigger determination unit is a trigger indicating the start of photographing, and the grip determination unit determines that the user is not gripping the robot. In this case, the posture control means may change the posture of the robot to a posture that the user can easily hold.

上記の構成によれば、上記制御装置は、トリガ判定手段により所定のトリガであると判定された検知内容が撮影開始を示すトリガであり、かつ、把持判定手段によりユーザがロボットを把持していないことが判定された場合に、ロボットの姿勢をユーザが把持し易い姿勢に変化させる。このため、ユーザは、撮影する際にロボットを安定して把持することができる。それゆえ、撮影部のピントを合わせることが容易となり、比較的鮮明な画像を撮影することが可能となる。   According to the above configuration, in the control device, the detection content determined to be the predetermined trigger by the trigger determination unit is a trigger indicating the start of photographing, and the user does not hold the robot by the grip determination unit If it is determined, the posture of the robot is changed to a posture that the user can easily hold. For this reason, the user can stably hold the robot when photographing. Therefore, it is easy to focus the photographing unit, and it is possible to photograph a relatively clear image.

本発明の態様3に係る制御装置は、上記態様2において、上記トリガ判定手段により所定のトリガであると判定された上記検知内容が撮影停止を示すトリガであり、かつ、上記把持判定手段により上記ユーザが上記ロボットを把持していることが判定された場合に、上記姿勢制御手段は、上記ロボットの姿勢を自立可能な姿勢に変化させてもよい。   In the control device according to aspect 3 of the present invention, in the aspect 2, the detection content that is determined to be a predetermined trigger by the trigger determination unit is a trigger that indicates photographing stop, and the grip determination unit performs the above operation. When it is determined that the user is holding the robot, the posture control means may change the posture of the robot to a posture capable of being independent.

上記の構成によれば、上記制御装置は、トリガ判定手段により所定のトリガであると判定された検知内容が撮影停止を示すトリガであり、かつ、把持判定手段によりユーザがロボットを把持していることが判定された場合に、ロボットの姿勢を自立可能な姿勢に変化させる。このため、ユーザは、撮影を終了した際に、ロボットの転倒を心配することなく、ロボットを任意の場所に置くことが可能となる。   According to the above configuration, in the control device, the detection content determined to be the predetermined trigger by the trigger determination unit is a trigger indicating that the photographing is stopped, and the user is holding the robot by the grip determination unit If it is determined, the posture of the robot is changed to a posture capable of being independent. For this reason, the user can place the robot in an arbitrary place without worrying about the robot falling over when the photographing is finished.

本発明の態様4に係る制御装置は、上記態様2において、上記姿勢制御手段が上記ロボットの姿勢をユーザが把持し易い姿勢を変化させた時刻からの時間が、所定時間を超えた場合、上記姿勢制御手段は、上記ロボットの姿勢を自立可能な姿勢に変化させてもよい。   In the control device according to aspect 4 of the present invention, in the above aspect 2, when the time from the time when the posture control unit changes the posture in which the user can easily grip the posture of the robot exceeds a predetermined time, The posture control means may change the posture of the robot to a posture in which it can stand on its own.

上記の構成によれば、上記制御装置は、姿勢制御手段がロボットの姿勢をユーザが把持し易い姿勢を変化させた時刻からの時間が、所定時間を超えた場合、ロボットの姿勢を自立可能な姿勢に変化させる。このため、撮影が不要となった場合に、ユーザの操作無しで、ロボットの姿勢は自動で自立可能な姿勢に変化することができる。   According to said structure, the said control apparatus can be independent of the robot's attitude | position when the time from the time when the attitude | position control means changed the attitude | position which a user is easy to hold | grip the attitude of a robot exceeds predetermined time. Change to posture. For this reason, when shooting is not necessary, the posture of the robot can be changed to a posture capable of being self-supported automatically without any user operation.

本発明の態様5に係る制御装置は、上記態様1から4のいずれか1態様において、上記起動手段が上記撮影部を起動させた場合に、上記ロボットに設けられた表示画面(73)に、上記撮影部により撮影される撮影画像を表示させる表示手段(表示部6)をさらに備えていてもよい。   The control device according to aspect 5 of the present invention provides the control screen according to any one of the aspects 1 to 4 on the display screen (73) provided in the robot when the activation unit activates the imaging unit. You may further provide the display means (display part 6) which displays the picked-up image image | photographed by the said imaging | photography part.

上記の構成によれば、上記制御装置は、起動手段によって撮影部を起動された場合に、ロボットに設けられた表示画面に記撮影部により撮影される撮影画像を表示させる。このため、撮影機能を起動する際に、自動で表示画面への表示を開始することができる。それゆえ、表示画面への表示を開始する操作が不要となる。   According to said structure, the said control apparatus displays the picked-up image image | photographed by the recording part on the display screen provided in the robot, when the imaging | photography part is started by the starting means. For this reason, when starting an imaging | photography function, the display on a display screen can be started automatically. Therefore, an operation for starting display on the display screen becomes unnecessary.

本発明の態様6に係る制御装置は、上記態様1から5のいずれか1態様において、上記撮影部の機能を停止させる停止手段(撮影停止部52)をさらに備え、上記把持判定手段によって上記ユーザが上記ロボットを把持していないことが判定された場合に、上記停止手段は、上記起動手段により起動された上記撮影部の機能を停止させてもよい。   The control device according to aspect 6 of the present invention is the control apparatus according to any one of the aspects 1 to 5, further including a stopping unit (shooting stop unit 52) for stopping the function of the shooting unit, wherein the user is determined by the grip determination unit. When it is determined that the robot is not gripping the robot, the stop unit may stop the function of the photographing unit started by the start unit.

上記の構成によれば、上記制御装置は、把持判定手段によってユーザがロボットを把持していないことが判定された場合に、起動手段により起動された撮影部の機能を停止させる。このため、ユーザがロボットを手放すことにより、自動で撮影部の撮影機能を停止することができる。それゆえ、撮影機能を終了する際のユーザによる操作の煩雑化を防止することが可能となる。   According to said structure, the said control apparatus stops the function of the imaging | photography part started by the starting means, when it is determined by the holding | grip determination means that the user is not holding the robot. For this reason, when the user releases the robot, the photographing function of the photographing unit can be automatically stopped. Therefore, it is possible to prevent complication of the operation by the user when ending the photographing function.

本発明の態様7に係る制御装置は、上記態様6において、上記起動手段が上記撮影部を起動させた場合に、上記ロボットに設けられた表示画面に、上記撮影部により撮影される撮影画像を表示させる表示手段をさらに備え、上記停止手段が上記起動手段により起動された上記撮影部の機能を停止させた場合に、上記表示手段は、上記ロボットに設けられた表示画面に、上記撮影部により撮影される撮影画像を表示させることを停止してもよい。   In the control device according to aspect 7 of the present invention, in the above aspect 6, when the activation unit activates the imaging unit, a captured image captured by the imaging unit is displayed on a display screen provided in the robot. Display means for displaying, and when the stopping means stops the function of the photographing section activated by the starting means, the display means is displayed on the display screen provided in the robot by the photographing section. You may stop displaying the picked-up image image | photographed.

上記の構成によれば、上記制御装置は、停止手段が上記起動手段により起動された撮影部の機能を停止させた場合に、上記ロボットに設けられた表示画面に、撮影部により撮影される撮影画像を表示させることを停止する。このため、撮影機能を停止する際に、自動で表示画面への表示を停止することができる。それゆえ、表示画面への表示を停止する操作が不要となる。   According to the above configuration, when the stop unit stops the function of the imaging unit activated by the activation unit, the control device captures an image captured by the imaging unit on the display screen provided in the robot. Stop displaying the image. For this reason, when the photographing function is stopped, the display on the display screen can be automatically stopped. Therefore, an operation for stopping the display on the display screen becomes unnecessary.

本発明の態様8に係る制御装置は、上記態様1から7のいずれか1態様において、上記ロボットに設けられた駆動部を駆動させることにより、上記撮影部の撮影方向を変更する撮影方向変更手段(撮影方向変更部53)を備え、上記トリガ判定手段により所定のトリガであると判定された上記検知内容が、追従開始を示すトリガであり、かつ、上記把持判定手段により上記ユーザが上記ロボットを把持していないことが判定された場合に、上記撮影方向変更手段は、上記撮影部により撮影される撮影対象の移動先に、上記撮影部の撮影方向を追従させてもよい。   A control device according to an eighth aspect of the present invention is the control device according to any one of the first to seventh aspects, wherein the photographing direction changing unit changes the photographing direction of the photographing unit by driving a driving unit provided in the robot. (The shooting direction changing unit 53), the detection content determined to be a predetermined trigger by the trigger determination unit is a trigger indicating start of tracking, and the user determines the robot by the grip determination unit. When it is determined that the camera is not gripped, the shooting direction changing means may cause the shooting direction of the shooting unit to follow the movement destination of the shooting target shot by the shooting unit.

上記の構成によれば、上記制御装置は、トリガ判定手段により所定のトリガであると判定された検知内容が、追従開始を示すトリガであり、かつ、把持判定手段によりユーザがロボットを把持していないことが判定された場合に、撮影部により撮影される撮影対象の移動先に、撮影部の撮影方向を追従させる。このため、動いている撮影対象を自動で捕捉しつつ、撮影することが可能となる。   According to the above configuration, in the control device, the detection content determined to be the predetermined trigger by the trigger determination unit is a trigger indicating start of tracking, and the user is holding the robot by the grip determination unit. When it is determined that there is no image, the shooting direction of the shooting unit is made to follow the movement destination of the shooting target shot by the shooting unit. For this reason, it is possible to take a picture while automatically capturing a moving subject.

本発明の態様9に係る制御装置は、上記態様8において、上記撮影方向変更手段は、上記把持判定手段により上記ユーザが上記ロボットを把持していることが判定された場合に、上記撮影部の撮影方向の追従を停止してもよい。   In the control device according to aspect 9 of the present invention, in the aspect 8, the imaging direction changing unit is configured to control the imaging unit when the grip determining unit determines that the user is holding the robot. The tracking of the shooting direction may be stopped.

上記の構成によれば、上記制御装置は、把持判定手段によりユーザがロボットを把持していることが判定された場合に、撮影部の撮影方向の追従を停止する。このため、ユーザがロボットを把持した状態において、撮影部の撮影方向は撮影対象の動く先に変更されない。それゆえ、撮影する際に、ピントがぼけることを防止することが可能となる。   According to said structure, the said control apparatus stops the tracking of the imaging | photography direction of an imaging | photography part, when it determines with the user determining the holding | grip by the holding | grip determination means. For this reason, in the state where the user holds the robot, the shooting direction of the shooting unit is not changed to the moving destination of the shooting target. Therefore, it is possible to prevent the image from being out of focus when shooting.

本発明の態様10に係るロボットは、上記態様1から9のいずれか1態様に記載の制御装置を備えている。   A robot according to a tenth aspect of the present invention includes the control device according to any one of the first to ninth aspects.

上記の構成によれば、上記態様1から9のいずれか1態様と同様の効果を奏する。   According to said structure, there exists an effect similar to any one aspect of the said aspects 1-9.

本発明の各態様に係る制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記制御装置が備える各手段として動作させることにより上記制御装置をコンピュータにて実現させる制御装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The control device according to each aspect of the present invention may be realized by a computer. In this case, the control device is realized by the computer by causing the computer to operate as each unit included in the control device. A control program and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

本発明は、撮影機能を備えたロボットに利用することができる。   The present invention can be used for a robot having a photographing function.

1 制御装置
10 ロボット
21 トリガ判定部(トリガ判定手段)
22 把持判定部(把持判定手段)
3 姿勢制御部(姿勢制御手段)
4 時間計測部
51 撮影起動部(起動手段)
52 撮影停止部(停止手段)
53 撮影方向変更部(撮影方向変更手段)
6 表示部(表示手段)
60 検知部
71 駆動部
72 カメラ(撮影部)
73 表示画面
DESCRIPTION OF SYMBOLS 1 Control apparatus 10 Robot 21 Trigger determination part (trigger determination means)
22 Grasping determination unit (gripping determination means)
3 Attitude control unit (Attitude control means)
4 Time measurement part 51 Shooting start part (starting means)
52 Shooting stop (stopping means)
53 Shooting direction changing section (shooting direction changing means)
6 Display section (display means)
60 Detection Unit 71 Drive Unit 72 Camera (Photographing Unit)
73 Display screen

Claims (11)

ロボットに設けられた撮影部の起動を制御するための制御装置であって、
上記ロボットが検知した検知内容が所定のトリガであるか否かを判定するトリガ判定手段と、
ユーザが上記ロボットを把持しているか否かを判定する把持判定手段と、
上記撮影部を起動させる起動手段と、を備え、
上記トリガ判定手段により所定のトリガであると判定された上記検知内容が、撮影開始を示すトリガであり、かつ、上記把持判定手段により上記ユーザが上記ロボットを把持していることが判定された場合に、上記起動手段は上記撮影部を起動させることを特徴とする制御装置。
A control device for controlling activation of an imaging unit provided in a robot,
Trigger determination means for determining whether or not the detected content detected by the robot is a predetermined trigger;
Grip determination means for determining whether or not the user is gripping the robot;
An activation means for activating the imaging unit,
When the detection content determined to be a predetermined trigger by the trigger determination means is a trigger indicating the start of shooting, and the grip determination means determines that the user is holding the robot In addition, the activation unit activates the photographing unit.
上記ロボットに設けられた駆動部を駆動させることにより、上記ロボットの姿勢を変化させる姿勢制御手段をさらに備え、
上記トリガ判定手段により所定のトリガであると判定された上記検知内容が撮影開始を示すトリガであり、かつ、上記把持判定手段により上記ユーザが上記ロボットを把持していないことが判定された場合に、上記姿勢制御手段は、上記ロボットの姿勢をユーザが把持し易い姿勢に変化させることを特徴とする請求項1に記載の制御装置。
Further comprising posture control means for changing the posture of the robot by driving a drive unit provided in the robot;
When the detection content determined to be a predetermined trigger by the trigger determination means is a trigger indicating the start of shooting, and the grip determination means determines that the user is not gripping the robot The control apparatus according to claim 1, wherein the posture control means changes the posture of the robot to a posture that is easy for a user to hold.
上記トリガ判定手段により所定のトリガであると判定された上記検知内容が撮影停止を示すトリガであり、かつ、上記把持判定手段により上記ユーザが上記ロボットを把持していることが判定された場合に、上記姿勢制御手段は、上記ロボットの姿勢を自立可能な姿勢に変化させることを特徴とする請求項2に記載の制御装置。   When the detection content determined to be a predetermined trigger by the trigger determination unit is a trigger indicating a stop of photographing, and the grip determination unit determines that the user is holding the robot The control apparatus according to claim 2, wherein the posture control means changes the posture of the robot to a posture in which it can stand on its own. 上記姿勢制御手段が上記ロボットの姿勢をユーザが把持し易い姿勢を変化させた時刻からの時間が、所定時間を超えた場合、上記姿勢制御手段は、上記ロボットの姿勢を自立可能な姿勢に変化させることを特徴とする請求項2に記載の制御装置。   When the time from the time when the posture control unit changes the posture in which the user can easily grip the posture of the robot exceeds a predetermined time, the posture control unit changes the posture of the robot to a posture capable of being independent. The control device according to claim 2, wherein: 上記起動手段が上記撮影部を起動させた場合に、上記ロボットに設けられた表示画面に、上記撮影部により撮影される撮影画像を表示させる表示手段をさらに備えることを特徴とする請求項1から4のいずれか1項に記載の制御装置。   2. The display device according to claim 1, further comprising a display unit configured to display a photographed image photographed by the photographing unit on a display screen provided in the robot when the starting unit activates the photographing unit. 5. The control device according to any one of 4. 上記撮影部の機能を停止させる停止手段をさらに備え、
上記把持判定手段によって上記ユーザが上記ロボットを把持していないことが判定された場合に、上記停止手段は、上記起動手段により起動された上記撮影部の機能を停止させることを特徴とする請求項1から5のいずれか1項に記載の制御装置。
A stopping means for stopping the function of the photographing unit;
The said stopping means stops the function of the said imaging | photography part started by the said starting means, when the said grip determination means determines with the said user not holding the said robot. The control device according to any one of 1 to 5.
上記起動手段が上記撮影部を起動させた場合に、上記ロボットに設けられた表示画面に、上記撮影部により撮影される撮影画像を表示させる表示手段をさらに備え、
上記停止手段が上記起動手段により起動された上記撮影部の機能を停止させた場合に、上記表示手段は、上記ロボットに設けられた表示画面に、上記撮影部により撮影される撮影画像を表示させることを停止することを特徴とする請求項6に記載の制御装置。
When the activation unit activates the imaging unit, the robot further includes a display unit that displays a captured image captured by the imaging unit on a display screen provided in the robot,
When the stopping unit stops the function of the photographing unit activated by the starting unit, the display unit displays a photographed image photographed by the photographing unit on a display screen provided in the robot. The control device according to claim 6, wherein the control is stopped.
上記ロボットに設けられた駆動部を駆動させることにより、上記撮影部の撮影方向を変更する撮影方向変更手段を備え、
上記トリガ判定手段により所定のトリガであると判定された上記検知内容が、追従開始を示すトリガであり、かつ、上記把持判定手段により上記ユーザが上記ロボットを把持していないことが判定された場合に、上記撮影方向変更手段は、上記撮影部により撮影される撮影対象の移動先に、上記撮影部の撮影方向を追従させることを特徴とする請求項1から7のいずれか1項に記載の制御装置。
A driving direction change unit that changes a shooting direction of the shooting unit by driving a driving unit provided in the robot;
When the detection content determined to be a predetermined trigger by the trigger determination means is a trigger indicating start of follow-up, and the grip determination means determines that the user is not gripping the robot Furthermore, the said imaging | photography direction change means makes the imaging | photography direction of the said imaging | photography part track the moving destination of the imaging | photography object image | photographed by the said imaging | photography part, The one of Claim 1 to 7 characterized by the above-mentioned. Control device.
上記撮影方向変更手段は、上記把持判定手段により上記ユーザが上記ロボットを把持していることが判定された場合に、上記撮影部の撮影方向の追従を停止することを特徴とする請求項8に記載の制御装置。   The imaging direction changing unit stops tracking of the imaging direction of the imaging unit when the grip determining unit determines that the user is holding the robot. The control device described. 請求項1から9のいずれか1項に記載の制御装置を備えたロボット。   A robot provided with the control device according to claim 1. 請求項1から9のいずれか1項に記載の制御装置としてコンピュータを機能させるための制御プログラムであって、コンピュータを上記各手段として機能させるための制御プログラム。   A control program for causing a computer to function as the control device according to any one of claims 1 to 9, wherein the control program causes the computer to function as each of the means.
JP2014181763A 2014-09-05 2014-09-05 Control device, robot, and control program Expired - Fee Related JP6494961B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014181763A JP6494961B2 (en) 2014-09-05 2014-09-05 Control device, robot, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014181763A JP6494961B2 (en) 2014-09-05 2014-09-05 Control device, robot, and control program

Publications (2)

Publication Number Publication Date
JP2016055361A true JP2016055361A (en) 2016-04-21
JP6494961B2 JP6494961B2 (en) 2019-04-03

Family

ID=55756920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014181763A Expired - Fee Related JP6494961B2 (en) 2014-09-05 2014-09-05 Control device, robot, and control program

Country Status (1)

Country Link
JP (1) JP6494961B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199502A1 (en) * 2016-05-20 2017-11-23 シャープ株式会社 Robot, and control method and control program therefor
JP2018042227A (en) * 2016-09-06 2018-03-15 東友科技股▲ふん▼有限公司Teco Image Systems Co.,Ltd. Imaging method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010268112A (en) * 2009-05-13 2010-11-25 Olympus Imaging Corp Imaging device, and imaging method
JP2012166314A (en) * 2011-02-15 2012-09-06 Seiko Epson Corp Position detection device for robot, robotic system, and position detection method for robot
JP2013000875A (en) * 2011-06-21 2013-01-07 Kazunari Kuroki Remote guidance system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010268112A (en) * 2009-05-13 2010-11-25 Olympus Imaging Corp Imaging device, and imaging method
JP2012166314A (en) * 2011-02-15 2012-09-06 Seiko Epson Corp Position detection device for robot, robotic system, and position detection method for robot
JP2013000875A (en) * 2011-06-21 2013-01-07 Kazunari Kuroki Remote guidance system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199502A1 (en) * 2016-05-20 2017-11-23 シャープ株式会社 Robot, and control method and control program therefor
JPWO2017199502A1 (en) * 2016-05-20 2019-01-31 シャープ株式会社 Robot, control method therefor, and control program
JP2018042227A (en) * 2016-09-06 2018-03-15 東友科技股▲ふん▼有限公司Teco Image Systems Co.,Ltd. Imaging method
US10051184B2 (en) 2016-09-06 2018-08-14 Teco Image Systems Co., Ltd. Image capture method

Also Published As

Publication number Publication date
JP6494961B2 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
US11954816B2 (en) Display control device, display control method, and recording medium
US10222877B2 (en) Method and apparatus for presenting panoramic photo in mobile terminal, and mobile terminal
US11748968B2 (en) Target tracking method and system, readable storage medium, and mobile platform
CN107993292B (en) Augmented reality scene restoration method and device and computer readable storage medium
US9412190B2 (en) Image display system, image display apparatus, image display method, and non-transitory storage medium encoded with computer readable program
US11039072B2 (en) Display control apparatus, display control method, and computer program
CN109886208B (en) Object detection method and device, computer equipment and storage medium
JP6266577B2 (en) Electronics
US20210004005A1 (en) Image capture method and device, and machine-readable storage medium
JP6494961B2 (en) Control device, robot, and control program
KR20160088719A (en) Electronic device and method for capturing an image
US20150109527A1 (en) Wand for a wearable electronic device
KR101956694B1 (en) Drone controller and controlling method thereof
JP2015139124A (en) Device, system and method for image generation, and program
CN108881715A (en) Enabling method, apparatus, terminal and the storage medium of screening-mode
CN109345447A (en) The method and apparatus of face replacement processing
JP2018136449A (en) Display, display method, control device, and vehicle
WO2022014273A1 (en) Imaging assistance control device, imaging assistance control method, and imaging assistance system
JP6370598B2 (en) Imaging device
TWI502268B (en) Method for photography guiding and electronic device
JP2015056713A (en) Imaging apparatus and control method
WO2019059114A1 (en) Imaging device, image search method for imaging device, and image search program for imaging device
JP2018006797A (en) Electronic apparatus, electronic apparatus system, wearable apparatus, control program, still picture acquisition method and operation method for wearable apparatus
TW201815155A (en) Image capturing method and electronic device using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190306

R150 Certificate of patent or registration of utility model

Ref document number: 6494961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees