JP2006139525A - Autonomous mobile robot - Google Patents

Autonomous mobile robot Download PDF

Info

Publication number
JP2006139525A
JP2006139525A JP2004328360A JP2004328360A JP2006139525A JP 2006139525 A JP2006139525 A JP 2006139525A JP 2004328360 A JP2004328360 A JP 2004328360A JP 2004328360 A JP2004328360 A JP 2004328360A JP 2006139525 A JP2006139525 A JP 2006139525A
Authority
JP
Japan
Prior art keywords
camera
image
mobile robot
autonomous mobile
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004328360A
Other languages
Japanese (ja)
Inventor
Yasuhiro Asa
康博 朝
Minoru Arai
穣 荒井
Taiji Tajima
泰治 田島
Yuko Okada
祐子 岡田
Hirobumi Tanaka
博文 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Appliances Inc
Original Assignee
Hitachi Home and Life Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Home and Life Solutions Inc filed Critical Hitachi Home and Life Solutions Inc
Priority to JP2004328360A priority Critical patent/JP2006139525A/en
Publication of JP2006139525A publication Critical patent/JP2006139525A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a remote monitor system for automatically operating an autonomous mobile robot and an incorporated camera by selecting an object to be monitored from the photographic image of the camera without considering the attitude of the robot or the camera. <P>SOLUTION: This autonomous mobile robot incorporated with a camera is configured to automatically control the movement of the robot and the camera, and to project an object to be monitored at the center of the picture of the camera by storing the direction of the autonomous mobile robot and the direction and the angle of view of the incorporated camera at the time of photographing an image, and designating a position where the object to be monitored is photographed from among the photographic images. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、自律移動型ロボットに内蔵されたカメラからの映像を用いて、外部操作端末による遠隔監視を行なうシステムに関する。   The present invention relates to a system for performing remote monitoring by an external operation terminal using video from a camera built in an autonomous mobile robot.

移動機構とカメラを備え、自律的に移動するロボットを用いて、外部操作端末による遠隔監視を行なうシステムについては、従来から提案されている。
従来に提案されている技術は、ロボットに内蔵されたカメラで撮影した映像を外部操作端末に表示し、該映像を見て、ユーザーが該ロボットおよび該カメラの姿勢を認識し、ロボットの前進、後進、カメラのパン、チルトといった動作単位の指示を行なうことで監視対象物の映像を取得し、遠隔監視を実現するというものである(例えば、特許文献1又は2参照)。
A system that includes a moving mechanism and a camera and performs remote monitoring using an external operation terminal using a robot that moves autonomously has been proposed.
Conventionally proposed technology displays an image captured by a camera built in the robot on an external operation terminal, and the user recognizes the posture of the robot and the camera by looking at the image, the robot moves forward, By instructing operation units such as backward movement, camera pan, and tilt, an image of a monitoring object is acquired, and remote monitoring is realized (see, for example, Patent Document 1 or 2).

特開2002−321180号公報JP 2002-321180 A

特開2003−62776号公報JP 2003-62776 A

ユーザが視認するカメラ映像は、一般的に時間遅延を伴ない、該映像アングルや視野角は人間の視界と異なることから、該カメラが撮影した映像を基に該ロボットと該カメラの姿勢を認識し、ユーザが手動で該ロボットおよび該カメラの姿勢を制御し、監視対象物の映像を取得することは困難であった。   The camera image visually recognized by the user is generally accompanied by a time delay, and since the image angle and the viewing angle are different from the human field of view, the posture of the robot and the camera is recognized based on the image captured by the camera. However, it is difficult for the user to manually control the postures of the robot and the camera and acquire an image of the monitored object.

本発明の目的は、前記ロボットおよびカメラの姿勢をユーザが意識することなく、前記カメラ映像の中から監視対象物を選択することで、自動的に該ロボットと該カメラの動作操作を可能にする遠隔監視システムを提供することにある。   An object of the present invention is to automatically enable operation of the robot and the camera by selecting an object to be monitored from the camera image without the user being aware of the posture of the robot and the camera. To provide a remote monitoring system.

本願で開示する代表的な発明は以下の通りである。画像を撮像する撮像装置と、撮像された画像を上記入力端末に送出する送信部と、撮影時の上記自律移動型ロボットの進行方向と内蔵カメラの方向および画角を記憶する制御部と、入力端末から前記撮影された画像中の対象物位置指定情報を受信する受信部とを備えている自立移動型ロボットであって、制御部は前記自律移動型ロボットおよびカメラの移動制御を行ない、前記カメラの画面中央に前記監視対象物が映るように制御を行う。   Representative inventions disclosed in the present application are as follows. An imaging device that captures an image, a transmission unit that transmits the captured image to the input terminal, a control unit that stores the traveling direction of the autonomous mobile robot at the time of shooting, the direction and angle of view of the built-in camera, and an input A self-supporting mobile robot comprising a receiving unit for receiving object position designation information in the captured image from a terminal, wherein the control unit performs movement control of the autonomous mobile robot and camera, and the camera Control is performed so that the monitoring object is reflected in the center of the screen.

本発明によれば、カメラを内蔵した自律移動型ロボットを用いた遠隔監視システムにおいて、ユーザが手動で該ロボットおよびカメラの姿勢制御を行なうことなく、効率的に監視対象物の映像を取得することができる。   According to the present invention, in a remote monitoring system using an autonomous mobile robot with a built-in camera, a user can efficiently acquire an image of a monitoring object without manually controlling the posture of the robot and the camera. Can do.

本発明の自律移動型ロボット1は、図1に示すように外部操作端末100と通信手段200を介して双方向通信を行なうことができる。
通信手段200には、公衆電話回線、携帯電話回線、PHS回線、電力線、光ファイバ回線、ADSL回線などの公衆回線を利用することができる。さらに、通信手段200には、専用線を利用することができる。また、通信手段200の通信形態は、有線、無線のどちらでも可能である。また、通信手段200は、中継器を介することで、より遠方への通信を可能にすることができる。
As shown in FIG. 1, the autonomous mobile robot 1 of the present invention can perform bidirectional communication with the external operation terminal 100 via the communication means 200.
For the communication means 200, a public line such as a public telephone line, a cellular phone line, a PHS line, a power line, an optical fiber line, or an ADSL line can be used. Furthermore, a dedicated line can be used for the communication means 200. Further, the communication form of the communication means 200 can be either wired or wireless. Moreover, the communication means 200 can enable communication to a farther place through a repeater.

外部操作端末100は、画像を表示する表示装置101と、監視対象物の位置を選択するユーザーインターフェース102を備えている。
また、外部操作端末100には、自律移動型ロボット1から送信される画像を受信するための受信装置103を備えている。
また、外部操作端末100には、監視対象物選択信号302、ロボット制御信号、カメラ制御信号、監視開始要求信号、監視終了要求信号を自律移動型ロボット1へ送信する送信装置104を備えている。
The external operation terminal 100 includes a display device 101 that displays an image and a user interface 102 that selects a position of a monitoring target.
The external operation terminal 100 includes a receiving device 103 for receiving an image transmitted from the autonomous mobile robot 1.
Further, the external operation terminal 100 includes a transmission device 104 that transmits a monitoring object selection signal 302, a robot control signal, a camera control signal, a monitoring start request signal, and a monitoring end request signal to the autonomous mobile robot 1.

尚、携帯電話のほか、PDA、汎用コンピュータ、専用装置等を外部操作端末100として使用することができる。
又、ユーザーインターフェース102には、操作ボタン、ジョイスティック、タッチパネルを使用することができる。
In addition to a mobile phone, a PDA, a general-purpose computer, a dedicated device, or the like can be used as the external operation terminal 100.
For the user interface 102, an operation button, a joystick, or a touch panel can be used.

本発明の自律移動型ロボットの構造を図2に示す。図2は、本発明の自律移動型ロボットの構造の一実施例を示す、上面図および側面図である。
自律移動型ロボット1は、本体2と、本体2を床面の上で移動させる移動手段である右および左の車輪3a、3bおよびそれらを駆動するモータ4a、4bと、本体2の移動を制御する制御手段である制御装置5と、システムに電力を供給する電力供給部6と、本体2の前方周囲を撮影するカメラ7を備えている。左右のモータ4a、4bには、車輪の回転数を検出するロータリーエンコーダ13a、13bが取付けられている。また、本体2の下面には、本体2を支持する補助輪11が設けられている。本体全体は、側面カバー12と上面カバー14とで覆われている。モータ4a、4bは独立に制御することができ、それぞれの回転速度と回転方向を制御することにより、本体2を床面の上で、前進、後退、および旋回させることができる。
The structure of the autonomous mobile robot of the present invention is shown in FIG. FIG. 2 is a top view and a side view showing an embodiment of the structure of the autonomous mobile robot of the present invention.
The autonomous mobile robot 1 controls the movement of the main body 2, the right and left wheels 3a and 3b, which are moving means for moving the main body 2 on the floor, and the motors 4a and 4b for driving them. And a power supply unit 6 for supplying power to the system, and a camera 7 for photographing the front periphery of the main body 2. Rotary encoders 13a and 13b for detecting the rotation speed of the wheels are attached to the left and right motors 4a and 4b. An auxiliary wheel 11 that supports the main body 2 is provided on the lower surface of the main body 2. The entire main body is covered with a side cover 12 and an upper cover 14. The motors 4a and 4b can be controlled independently, and the main body 2 can be moved forward, backward, and swiveled on the floor surface by controlling the rotational speed and direction of rotation.

また、本体2には、方位角検出手段であるジャイロ8が搭載されている。ジャイロ8は、圧電振動ジャイロ等の角速度センサであり、本体2の床面上における旋回の速度を検出する。検出された角速度を制御装置5の内部で積分することにより、方位角が得られる。
また、本体2には、前方の障害物を検出する前方近接センサ9と、側方の障害物を検出する側方近接センサ10が設けられている。前方近接センサ9および側方近接センサ10は、対向する物体までの距離を検出する近接距離センサであり、赤外線ビームを発光し、対象物からの反射光の方向を検出することにより、距離を検出する。
The main body 2 is equipped with a gyro 8 as azimuth angle detecting means. The gyro 8 is an angular velocity sensor such as a piezoelectric vibration gyro, and detects the speed of turning on the floor surface of the main body 2. An azimuth angle is obtained by integrating the detected angular velocity inside the control device 5.
The main body 2 is provided with a front proximity sensor 9 that detects a front obstacle and a side proximity sensor 10 that detects a side obstacle. The front proximity sensor 9 and the side proximity sensor 10 are proximity distance sensors that detect the distance to an opposing object, and detect the distance by emitting an infrared beam and detecting the direction of reflected light from the object. To do.

また、本体2の下面前方には、段差センサ15a、15b、15c、15dが本体2に対して下向きに設けられている。段差センサ15a、15b、15c、15dは対向する物体までの距離を検出する近接距離センサであり、赤外線ビームを発光し、対象物からの反射光の方向を検出することにより、センサ正面から規定された距離以内の範囲の物体の有無を検出する。段差センサ15a、15b、15c、15dによって、自律移動型ロボット1の進行方向の床に落ち込みの段差が有る場合には検出が可能になる。   Further, step sensors 15 a, 15 b, 15 c, and 15 d are provided downward from the main body 2 in front of the lower surface of the main body 2. The step sensors 15a, 15b, 15c, and 15d are proximity distance sensors that detect the distance to an opposing object, and are defined from the front of the sensor by emitting an infrared beam and detecting the direction of reflected light from the object. The presence or absence of objects within a certain distance is detected. The step sensors 15a, 15b, 15c, and 15d can detect when there is a step difference in the traveling direction of the autonomous mobile robot 1.

また、カメラ7には、カメラ7の左右の向きを移動させる為のモータ20と、カメラ7の上下の向きを移動させる為のモータ21と、カメラ7のレンズ倍率を変更する手段が備えられており、カメラ制御信号に基づいて制御することができる。
また、本体2は、外部操作端末100にデータを送信するデータ送信装置18を備え、カメラ7で撮影した画像300を外部操作端末100に送信することができる。
また、本体2は、データ受信装置19を備え、外部操作端末100から送られてくる監視対象物選択信号302、ロボット制御信号、カメラ制御信号、監視開始要求信号、監視終了要求信号を受信することができる。
The camera 7 is also provided with a motor 20 for moving the left and right direction of the camera 7, a motor 21 for moving the vertical direction of the camera 7, and means for changing the lens magnification of the camera 7. And can be controlled based on the camera control signal.
In addition, the main body 2 includes a data transmission device 18 that transmits data to the external operation terminal 100, and can transmit an image 300 captured by the camera 7 to the external operation terminal 100.
The main body 2 includes the data receiving device 19 and receives a monitoring object selection signal 302, a robot control signal, a camera control signal, a monitoring start request signal, and a monitoring end request signal sent from the external operation terminal 100. Can do.

また、側面カバー12は、本体2と別体であり、ピアノ線17によって本体2と結合され、相対的に水平方向へ変位するようになっている。側面カバー12の内側には、側面カバー12の水平方向変位によって押下される接触センサ16a、16b、16c、16dが本体2に固定される形で設けられており、側面カバー12と外部の障害物との接触を検知する。側面カバーの一部は、光の透過性が高くなっており、カメラ7は、該側面カバーの一部を通して、周囲画像を撮影することができる。   The side cover 12 is separate from the main body 2 and is coupled to the main body 2 by a piano wire 17 so as to be relatively displaced in the horizontal direction. Inside the side cover 12, contact sensors 16a, 16b, 16c, and 16d that are pressed by the horizontal displacement of the side cover 12 are provided to be fixed to the main body 2, and the side cover 12 and external obstacles are provided. Detects contact with. A part of the side cover has high light permeability, and the camera 7 can take a surrounding image through a part of the side cover.

また、制御装置5は、CPU、メモリ、入出力回路を備える制御用コンピュータシステムであり、その制御アルゴリズムは、メモリに内蔵されたコンピュータプログラムにより実現される。前記メモリの一部は、画像300の記憶に用いることができる。さらに、前記メモリの一部は、地図記憶手段として、部屋の地図情報を記憶するために使用することができる。
また、制御装置5は、ロータリーエンコーダ13a、13b、ジャイロ8、前方近接センサ9、側方近接センサ10、接触センサ16a、16b、16c、16d、段差センサ15a、15b、15c、15dから得られるセンサ情報に基づいて、モータ4a、4bを制御して本体2を移動させることができる。
The control device 5 is a control computer system including a CPU, a memory, and an input / output circuit, and the control algorithm is realized by a computer program built in the memory. A part of the memory can be used for storing the image 300. Furthermore, a part of the memory can be used as a map storage means for storing room map information.
The control device 5 includes sensors obtained from the rotary encoders 13a and 13b, the gyro 8, the front proximity sensor 9, the side proximity sensor 10, the contact sensors 16a, 16b, 16c and 16d, and the step sensors 15a, 15b, 15c and 15d. Based on the information, the main body 2 can be moved by controlling the motors 4a and 4b.

前記ロボット制御信号とは、本体2を移動させるのに必要なパラメータである、車輪の回転速度、回転方向、回転角度のことである。制御装置5は、前記ロボット制御信号に基づいてモータ4a、4bの制御を行ない、本体2の移動を実現することができる。また、前記カメラ制御信号とは、カメラ7の向きを移動させるのに必要なパラメータである、モータ20、モータ21の回転速度、回転方向、回転角度のことである。さらに、前記カメラ制御信号は、カメラ7のレンズ倍率を変更するのに必要なパラメータである、レンズ倍率値も含んでいる。制御装置5は、前記カメラ制御信号に基づいてモータ20、モータ21、カメラ7のレンズ倍率を制御し、カメラの向きの移動を実現することができる。また、制御装置5は、外部操作端末100からの監視対象物選択信号302に基づいて、前記ロボット制御信号、および前記カメラ制御信号を自動的に生成し、該監視対象物がカメラ7の画面の中央に映るように、本体2、およびカメラ7を移動させることができる。ここで、カメラ7が水平方向に360度回転可能であり、このカメラ7の360度回転のみで、360度の周辺画像を取得できる場合は、カメラ制御信号のみで、監視対象物をカメラ7の画面の中央に映すことができる。
また、監視対象物選択信号302は、画像300の一部を指定する信号であり、画像の識別番号と、その画像中での指定された対象物位置の画素位置、画素ブロック位置のいずれかを特定できる情報を含む形態となる。
The robot control signal is a rotation speed, a rotation direction, and a rotation angle of a wheel, which are parameters necessary for moving the main body 2. The control device 5 can control the motors 4a and 4b based on the robot control signal to realize the movement of the main body 2. The camera control signal is a rotation speed, a rotation direction, and a rotation angle of the motor 20 and the motor 21, which are parameters necessary for moving the direction of the camera 7. Further, the camera control signal also includes a lens magnification value, which is a parameter necessary for changing the lens magnification of the camera 7. The control device 5 can control the lens magnification of the motor 20, the motor 21, and the camera 7 based on the camera control signal, thereby realizing movement of the camera direction. The control device 5 automatically generates the robot control signal and the camera control signal based on the monitoring object selection signal 302 from the external operation terminal 100, and the monitoring object is displayed on the screen of the camera 7. The main body 2 and the camera 7 can be moved so as to be reflected in the center. Here, when the camera 7 can be rotated 360 degrees in the horizontal direction and a 360-degree peripheral image can be acquired by only rotating the camera 7 360 degrees, the monitoring object can be moved to the camera 7 by only the camera control signal. Can be projected in the center of the screen.
The monitoring object selection signal 302 is a signal that designates a part of the image 300, and indicates either the identification number of the image, the pixel position of the designated object position in the image, or the pixel block position. It becomes a form including information that can be specified.

以下、本発明の遠隔監視システムの処理について説明する。
図3は、外部操作端末100から自律移動型ロボット1を操作し、監視対象物の映像を取得する処理における、自律移動型ロボット1側のフローチャートである。自律移動型ロボット1は、外部操作端末100から監視開始要求信号を受信すると、ステップ400に示すように、制御装置5によって本体2を360度その場旋回をしながらカメラ7によって複数の画像300を撮影することで、360度周囲画像を取得する。また、前記360度周囲画像は、同一のレンズ倍率で撮影するものとし、その倍率値は制御装置5に記憶しておく。また、前記360度周囲画像を構成する複数の画像300をそれぞれ撮影する瞬間の自律移動型ロボット1の方向307を制御装置5に記憶しておく。したがって、前記360度周囲画像を取得後においても、任意の方向を指定することで、自律移動型ロボット1は指定された方向を向くまで再びその場旋回行ない、その方向で撮像された画像を再撮影することができる。また、前記360度周囲画像を構成する複数の画像300には、それぞれ画像を識別する為のIDが割当てられ、制御装置5に記憶される。そして、ステップ401に示すように、前記360度周囲画像を外部操作端末100へ送信する。ここで、前記画像300を撮影した時の方向307を用い、前記360度周囲画像を構成する複数の画像300に対して射影変換を行ない、画像合成することで、加工画像(パノラマ画像)を生成することができる。この加工画像は、前期画像300と同様に制御装置5へ記憶し、外部操作端末100へ送信することができる。また、前記加工画像は、前記複数の画像300に逆変換することが可能である。
Hereinafter, processing of the remote monitoring system of the present invention will be described.
FIG. 3 is a flowchart on the side of the autonomous mobile robot 1 in the process of operating the autonomous mobile robot 1 from the external operation terminal 100 and acquiring an image of the monitored object. When the autonomous mobile robot 1 receives the monitoring start request signal from the external operation terminal 100, as shown in step 400, the control device 5 causes the camera 7 to turn the main body 2 360 degrees, and the camera 7 displays a plurality of images 300. A 360-degree surrounding image is acquired by photographing. The 360-degree surrounding image is taken with the same lens magnification, and the magnification value is stored in the control device 5. Further, the direction 307 of the autonomous mobile robot 1 at the moment when each of the plurality of images 300 constituting the 360-degree surrounding image is captured is stored in the control device 5. Therefore, even after acquiring the 360-degree surrounding image, by designating an arbitrary direction, the autonomous mobile robot 1 turns on the spot again until it turns to the specified direction, and the image captured in that direction is reproduced again. You can shoot. Each of the plurality of images 300 constituting the 360-degree surrounding image is assigned an ID for identifying the image and is stored in the control device 5. Then, as shown in step 401, the 360-degree surrounding image is transmitted to the external operation terminal 100. Here, using the direction 307 when the image 300 was taken, projective transformation is performed on the plurality of images 300 constituting the 360-degree surrounding image, and an image is synthesized to generate a processed image (panoramic image) can do. This processed image can be stored in the control device 5 and transmitted to the external operation terminal 100 as with the previous image 300. The processed image can be inversely converted into the plurality of images 300.

外部操作端末100は、受信した画像300、あるいは加工画像を表示装置101にて表示し、ユーザーは前記表示画像の中から監視対象物を見つけてユーザインターフェイス102を介して該監視対象物を指定する。外部操作端末は指定された監視対象物の画像中の画素位置を監視対象物選択信号302として、自律移動型ロボット1に送信する。ここで、外部操作端末100が画像300を受信した場合、監視対象物選択信号302には、画像300を識別するためのIDを含める。   The external operation terminal 100 displays the received image 300 or processed image on the display device 101, and the user finds the monitoring target object from the display image and designates the monitoring target object via the user interface 102. . The external operation terminal transmits the pixel position in the image of the designated monitoring object as the monitoring object selection signal 302 to the autonomous mobile robot 1. Here, when the external operation terminal 100 receives the image 300, the monitoring target selection signal 302 includes an ID for identifying the image 300.

そして、ステップ402に示すように、自律移動型ロボット1が、外部操作端末100からの監視対象物選択信号302を受信すると、監視対象物選択信号302の示す画素位置がカメラ7の画面中央にくる為の、水平旋回角度A1および垂直移動角度A2を求める(ステップ403)。図4は、画像300における、監視対象物選択信号302、水平旋回角度A1、垂直移動角度A2の関係を示している。水平旋回角度A1は、画像300の中心位置を始点とした監視対象物までの水平方向の角度であり、垂直移動角度A2は、画像300の中心位置を始点とした監視対象物までの垂直方向の角度である。また、図5は画像300におけるカメラ7の倍率値と、画角A1との関係を示しており、図5(a)は倍率値が1倍の時、図5(b)は倍率値がα倍の時を示している。図5(a)の画角A3は実世界の視野角と一致する角度であり、自律移動型ロボット1は、予め画角A3の値を記憶している。   Then, as shown in step 402, when the autonomous mobile robot 1 receives the monitoring object selection signal 302 from the external operation terminal 100, the pixel position indicated by the monitoring object selection signal 302 comes to the center of the screen of the camera 7. For this purpose, a horizontal turning angle A1 and a vertical movement angle A2 are obtained (step 403). FIG. 4 shows the relationship among the monitoring object selection signal 302, the horizontal turning angle A1, and the vertical movement angle A2 in the image 300. The horizontal turning angle A1 is a horizontal angle from the center position of the image 300 to the monitoring object, and the vertical movement angle A2 is a vertical movement angle from the center position of the image 300 to the monitoring object. Is an angle. FIG. 5 shows the relationship between the magnification value of the camera 7 in the image 300 and the angle of view A1, FIG. 5 (a) shows when the magnification value is 1, and FIG. 5 (b) shows that the magnification value is α. The times are shown. The angle of view A3 in FIG. 5A is an angle that matches the viewing angle in the real world, and the autonomous mobile robot 1 stores the value of the angle of view A3 in advance.

ここで、画角A3は、カメラ7を構成するCCDの画素数などに依存するため、搭載されるカメラ毎に異なる値となる。図5(b)の画角A4は、前記画角A3に依存し、その値は一般的に(A3/α)となる。図6は、画像300の画素解像度(水平方向)と水平旋回角度A5との関係を示している。水平方向の画素数309と前記画角の値を用いることで、1画素当たりの水平旋回角度A5を算出することができる。このようにして、監視対象物選択信号302と1画素当たりの水平旋回角度A5によって、水平旋回角度A1を求めることができる。   Here, since the angle of view A3 depends on the number of pixels of the CCD constituting the camera 7, etc., the angle of view A3 varies depending on the mounted camera. The angle of view A4 in FIG. 5B depends on the angle of view A3, and its value is generally (A3 / α). FIG. 6 shows the relationship between the pixel resolution (horizontal direction) of the image 300 and the horizontal turning angle A5. By using the number of pixels 309 in the horizontal direction and the value of the angle of view, the horizontal turning angle A5 per pixel can be calculated. In this way, the horizontal turning angle A1 can be obtained from the monitoring object selection signal 302 and the horizontal turning angle A5 per pixel.

図5、図6では、水平旋回角度についてのみ説明したが、垂直移動角度についても同様のことが言える。したがって、監視対象物選択信号302によって、垂直移動角度A2を求めることができる。   5 and 6, only the horizontal turning angle has been described, but the same applies to the vertical movement angle. Therefore, the vertical movement angle A2 can be obtained from the monitoring object selection signal 302.

そして、ステップ404に示すように、水平旋回角度A1と垂直移動角度A2から、ロボット制御信号、およびカメラ制御信号を生成する。水平旋回角度A1からは、ロボット制御信号が生成され、ステップ405、ステップ406に示すように、ロボットを指定角度A6だけ、本体2をその場旋回させる。図7は、指定角度A6と自律移動ロボット1の現在の進行方向500、水平旋回角度A1、画像300の方向307の関係を示している。図7において、監視対象物は、画像300の方向307から水平旋回角度A1だけ左旋回した方向に存在する。つまり、自律移動ロボット1の現在の進行方向500から指定角度A6だけ右旋回した方向である。監視対象物をカメラ画面中央に映す為には、指定角度A6を求める必要があり、これは前記進行方向500、画像300の方向307、水平旋回角度A1により算出できる。図7では、ロボット制御信号である指定角度A6の生成についてのみ説明したが、カメラ制御信号についても同様に算出することができる。   Then, as shown in step 404, a robot control signal and a camera control signal are generated from the horizontal turning angle A1 and the vertical movement angle A2. A robot control signal is generated from the horizontal turning angle A1, and as shown in steps 405 and 406, the main body 2 is turned on the spot by the designated angle A6. FIG. 7 shows the relationship between the designated angle A6, the current traveling direction 500 of the autonomous mobile robot 1, the horizontal turning angle A1, and the direction 307 of the image 300. In FIG. 7, the monitoring object exists in a direction left-turned from the direction 307 of the image 300 by the horizontal turning angle A1. That is, this is a direction in which the autonomous mobile robot 1 turns right from the current traveling direction 500 by the specified angle A6. In order to display the monitoring object in the center of the camera screen, it is necessary to obtain the designated angle A6, which can be calculated from the traveling direction 500, the direction 307 of the image 300, and the horizontal turning angle A1. In FIG. 7, only the generation of the designated angle A6, which is a robot control signal, has been described, but the camera control signal can be similarly calculated.

上記実施例では、カメラ7が1台という想定であるが、2台以上のカメラを搭載している場合は、ステレオ視により自律移動型ロボット1と監視対象物との距離を算出することができる。すなわち、各カメラ画面中における監視対象物の位置の違い(視差)を用いて距離を算出できる。この監視対象物までの距離からロボット制御信号を自動生成することで、監視対象物から任意の距離まで自律移動型ロボット1を移動させることができる。   In the above embodiment, it is assumed that there is one camera 7, but when two or more cameras are mounted, the distance between the autonomous mobile robot 1 and the monitoring object can be calculated by stereo vision. . That is, the distance can be calculated using the difference (parallax) of the position of the monitoring object in each camera screen. By automatically generating a robot control signal from the distance to the monitoring object, the autonomous mobile robot 1 can be moved from the monitoring object to an arbitrary distance.

ロボット、およびカメラの制御が終了すると、ステップ409に示すように、カメラ7によって画像300を撮影する。この画像300の中央には、監視対象物選択信号302にて指定された監視対象物が映っていることとなる。そして、ステップ401に戻り、指定された対象物が中心に撮像されている画像を外部操作端末100へ送信する。
また、ステップ410に示すように、自律移動型ロボット1が、外部操作端末100から監視終了要求信号を受信すると、上記フローを終了する。
When the control of the robot and the camera is finished, an image 300 is taken by the camera 7 as shown in step 409. In the center of the image 300, the monitoring object specified by the monitoring object selection signal 302 is reflected. Then, the process returns to step 401, and an image in which the designated target is imaged is transmitted to the external operation terminal 100.
Further, as shown in step 410, when the autonomous mobile robot 1 receives a monitoring end request signal from the external operation terminal 100, the above flow is ended.

また、自律移動型ロボット1が外部操作端末100から受信する信号は、既に外部の装置によって生成された、監視対象物選択信号302だけでなく、ロボット制御信号、およびカメラ制御信号を受信することができる。その場合は、図3において、ステップ402からステップ405へ進むこととなる。外部操作端末100から送信されるロボット制御信号は、制御装置5により自律移動型ロボットを前進、後進、その場旋回させることができる。また、外部操作端末100から送信されるカメラ制御信号は、モータ20を介して、カメラ7の上、下、左、右への移動、およびレンズ倍率値の変更を行なうことができる。
本発明によれば、カメラを内蔵した自律移動型ロボットを用いた遠隔監視システムにおいて、撮影画像の中から監視対象物を選択することにより、自動的にロボットの移動制御、およびカメラ制御を行ない、ユーザが手動で該ロボットおよびカメラの姿勢制御を行なうことなく、効率的に監視対象物の画像を取得することができる。
In addition, the signal received by the autonomous mobile robot 1 from the external operation terminal 100 is not only the monitoring target selection signal 302 generated by an external device, but also a robot control signal and a camera control signal. it can. In this case, the process proceeds from step 402 to step 405 in FIG. The robot control signal transmitted from the external operation terminal 100 can cause the autonomous mobile robot to move forward, backward, and turn on the spot by the control device 5. The camera control signal transmitted from the external operation terminal 100 can move the camera 7 up, down, left, and right and change the lens magnification value via the motor 20.
According to the present invention, in a remote monitoring system using an autonomous mobile robot with a built-in camera, by selecting a monitoring object from a captured image, the robot automatically performs movement control and camera control. The user can efficiently acquire an image of the monitoring object without manually controlling the posture of the robot and the camera.

図4、図5、図6、図7では、画像300についての処理を説明を行なったが、加工画像についても同様の処理が可能である。すなわち、加工画像を複数の画像300に逆変換すれば、上記処理と全く同じ処理を実行することができる。
また、上記のステップ400の説明では、自律移動型ロボット1の現在位置にて、360度周囲画像を撮影するように記したが、自律移動型ロボット1の制御装置5に部屋の地図情報を記憶している場合は、360度周囲画像を取得するのに適した位置を探索し、該位置まで自律移動型ロボット1を移動させた後に、ステップ400を実行することが可能である。前記360度周囲画像を取得するのに適した位置とは、例えば、自律移動型ロボット1と、該周囲に存在する障害物との距離のうち、最近距離が所定値より長い、もしくは最大となる位置であり、部屋全体の概観を撮影しやすい位置のことである。
4, 5, 6, and 7, the process for the image 300 has been described, but the same process can be performed for the processed image. That is, if the processed image is inversely converted into a plurality of images 300, the same processing as the above processing can be executed.
In the description of step 400 above, it is described that a 360-degree surrounding image is captured at the current position of the autonomous mobile robot 1, but room map information is stored in the control device 5 of the autonomous mobile robot 1. If it is, it is possible to search for a position suitable for acquiring a 360-degree surrounding image and move the autonomous mobile robot 1 to that position, and then execute step 400. The position suitable for acquiring the 360-degree surrounding image is, for example, the distance between the autonomous mobile robot 1 and an obstacle existing in the vicinity is longer than the maximum value or the maximum. It is a position that makes it easy to capture an overview of the entire room.

上記の様に、上記の課題を解決するために、本発明の自律移動型ロボットは、本体と、前記本体を床面の上で移動させる移動手段と、前記移動手段を制御して前記本体の移動を実現する移動制御手段と、前記本体に設けられ前記ロボットの周囲を撮影可能なカメラと、前記カメラの向きおよびレンズ倍率の制御が可能なカメラ制御手段と、前記カメラの撮影した画像を外部操作端末へ送信する送信手段と、外部操作端末からの監視対象物選択信号、ロボット制御信号、カメラ制御信号を受信する受信手段とを備えている。前記監視対象物選択信号は、前記外部操作端末が受信した画像中の画素位置を示す信号である。また、前記ロボット制御信号は、前進、後進、その場旋回といった前記自律移動型ロボットの動作を指示する信号である。また、前記カメラ制御信号は、前記カメラの上、下、左、右への回転移動、およびレンズ倍率の変更を指示する信号である。   As described above, in order to solve the above-described problems, the autonomous mobile robot according to the present invention includes a main body, a moving means for moving the main body on the floor surface, and the moving means by controlling the moving means. A movement control means for realizing movement; a camera provided in the main body capable of photographing the periphery of the robot; a camera control means capable of controlling the orientation and lens magnification of the camera; and an image captured by the camera Transmission means for transmitting to the operation terminal, and reception means for receiving a monitoring object selection signal, robot control signal, and camera control signal from the external operation terminal are provided. The monitoring object selection signal is a signal indicating a pixel position in an image received by the external operation terminal. The robot control signal is a signal for instructing the operation of the autonomous mobile robot such as forward movement, backward movement, and turn on the spot. The camera control signal is a signal for instructing the rotational movement of the camera up, down, left, and right, and changing the lens magnification.

また、前記自律移動型ロボットは、その場で360度旋回を行なうことで、全周囲の映像を複数の画像として記録する全周囲画像取得手段を備えている。
また、前記自律移動型ロボットは、該ロボットの現在の位置、および方向を認識する手段と、部屋の地図情報を記憶する手段とを備えており、前記全周囲画像の取得に適した、部屋全体を監視できる位置を探索する手段を備えている。
In addition, the autonomous mobile robot includes an all-around image obtaining unit that records 360-degree images as a plurality of images by performing 360-degree turning on the spot.
The autonomous mobile robot includes means for recognizing the current position and direction of the robot, and means for storing map information of the room, and is suitable for acquiring the all-around image. Means for searching for a position where monitoring can be performed.

また、前記自律移動型ロボットおよび前記カメラは、前記監視対象物選択信号に基づいて、該監視対象物が該カメラの画面中央に映るように、前記移動制御手段と前記カメラ制御手段を制御する監視制御手段を備えている。
また、前記自律移動型ロボットを遠隔操作するための外部操作端末は、前記カメラの撮影した画像を受信するための受信手段と、該画像を表示するための表示手段と、該表示画像から監視対象物を選択する監視対象物選択手段と、該監視対象物選択信号、およびロボット制御信号、カメラ制御信号を送信する送信手段とを備えている。
In addition, the autonomous mobile robot and the camera monitor the movement control unit and the camera control unit based on the monitoring object selection signal so that the monitoring object is reflected in the center of the screen of the camera. Control means are provided.
In addition, an external operation terminal for remotely operating the autonomous mobile robot includes a receiving unit for receiving an image captured by the camera, a display unit for displaying the image, and a monitoring target from the display image. Monitoring object selection means for selecting an object, and transmission means for transmitting the monitoring object selection signal, robot control signal, and camera control signal.

本願の遠隔監視システムの一構成を示す図。The figure which shows one structure of the remote monitoring system of this application. 本願の自律移動型ロボットの構造の一実施例を示す上面図および側面図。The top view and side view which show one Example of the structure of the autonomous mobile robot of this application. 本願の遠隔監視システム処理の一実施例のアルゴリズムを示すフローチャート。The flowchart which shows the algorithm of one Example of the remote monitoring system process of this application. 本願のカメラ撮影画像と制御パラメータの説明図。Explanatory drawing of the camera picked-up image and control parameter of this application. 本願のカメラ撮影画像におけるレンズ倍率と画角の説明図。Explanatory drawing of the lens magnification and a field angle in the camera picked-up image of this application. 本願のカメラ撮影画像における解像度と画素単位角度の説明図。Explanatory drawing of the resolution and pixel unit angle in the camera picked-up image of this application. 本願の自律移動型ロボットの旋回角度の説明図。Explanatory drawing of the turning angle of the autonomous mobile robot of this application.

符号の説明Explanation of symbols

1 自律移動型ロボット
2 本体
3a、3b 車輪
4a、4b 車輪用モータ
5 制御装置
6 電池
7 カメラ
8 ジャイロ
9 前方近接センサ
10 側方近接センサ
11 補助輪
12 本体側面カバー
13a、13b ロータリーエンコーダ
14 本体上面カバー
15a、15b、15c、15d 段差センサ
16a、16b、16c、16d 接触スイッチセンサ
17 側面カバー支持用ピアノ線
18 データ送信装置
19 データ受信装置
20 カメラ駆動用モータ
100 外部操作端末
101 表示装置
102 ユーザーインターフェース
103 データ受信装置
104 データ送信装置
200 通信手段
300 撮影画像
301 加工画像
302 監視対象物選択信号
303 ロボット制御信号
304 カメラ制御信号
305 監視開始要求信号
306 監視終了要求信号
307 撮影画像取得時のロボットの方向
308 レンズ倍率値
309 撮影画像における水平方向の画素数
500 ロボットの現在の方向
A1 水平旋回角度
A2 垂直移動角度
A3、A4 水平方向の画角
A5 1画素当たりの水平方向の画角
A6 旋回指定角度。
DESCRIPTION OF SYMBOLS 1 Autonomous mobile robot 2 Main body 3a, 3b Wheel 4a, 4b Wheel motor 5 Control apparatus 6 Battery 7 Camera 8 Gyro 9 Front proximity sensor 10 Side proximity sensor 11 Auxiliary wheel 12 Main body side cover 13a, 13b Rotary encoder 14 Main body upper surface Cover 15a, 15b, 15c, 15d Step sensor 16a, 16b, 16c, 16d Contact switch sensor 17 Side cover supporting piano wire 18 Data transmitter 19 Data receiver 20 Camera drive motor 100 External operation terminal 101 Display device 102 User interface 103 Data receiver 104 Data transmitter 200 Communication means 300 Captured image 301 Processed image 302 Monitoring object selection signal 303 Robot control signal 304 Camera control signal 305 Monitoring start request signal 306 Monitoring end request signal 307 Direction of the robot at the time of acquiring the captured image 308 Lens magnification value 309 Number of pixels in the horizontal direction in the captured image 500 Current direction of the robot A1 Horizontal turning angle A2 Vertical movement angles A3, A4 Horizontal angle of view A5 Horizontal direction per pixel Angle of view A6 Turn specified angle.

Claims (4)

ユーザインターフェイスを備える入力端末と接続された自律移動型ロボットであって、
画像を撮像する撮像装置と、
上記撮像した画像を上記入力端末に送出する送信部と、
上記撮影時の上記自律移動型ロボットの進行方向、内蔵カメラの方向および画角を記憶する制御部と、
前記入力端末から前記撮影された画像中の対象物位置指定情報を受信する受信部とを有し、
前記制御部は前記自律移動型ロボットおよびカメラの移動制御を行ない、前記カメラの画面中央に前記監視対象物が映るようにすることを特徴とする自律移動型ロボット。
An autonomous mobile robot connected to an input terminal having a user interface,
An imaging device for capturing an image;
A transmission unit for sending the captured image to the input terminal;
A control unit that stores the traveling direction of the autonomous mobile robot at the time of shooting, the direction of the built-in camera, and the angle of view;
A receiving unit for receiving object position designation information in the captured image from the input terminal;
The control unit controls the movement of the autonomous mobile robot and camera so that the monitoring object is reflected in the center of the screen of the camera.
上記対象物位置指定情報は、該対象物の存在する画像の識別番号と該画像中の指定された対象物の位置を特定する情報が含まれていることを特徴とする請求項1記載の自律移動型ロボット。   2. The autonomous system according to claim 1, wherein the object position designation information includes an identification number of an image in which the object exists and information for specifying a position of the designated object in the image. Mobile robot. 前記撮像装置が上記送信部を介して送出する画像は、上記撮像部を介して取得した該自律移動型ロボットの周囲360度を撮像した動画像であることを特徴とする請求項1又は2に記載の自律移動型ロボット。 The image transmitted from the imaging device via the transmission unit is a moving image obtained by imaging 360 degrees around the autonomous mobile robot obtained via the imaging unit. The autonomous mobile robot described. さらに走行場所の地図情報を記憶する記憶部を有し、
前記制御部は障害物との距離が閾値以上もしくは最長となる位置を探索する手段を備えていることを特徴とする請求項1乃至3の何れかに記載の自律移動型ロボット。
Furthermore, it has a storage unit that stores the map information of the travel location,
The autonomous mobile robot according to any one of claims 1 to 3, wherein the control unit includes means for searching for a position where the distance to the obstacle is equal to or longer than a threshold or the longest.
JP2004328360A 2004-11-12 2004-11-12 Autonomous mobile robot Withdrawn JP2006139525A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004328360A JP2006139525A (en) 2004-11-12 2004-11-12 Autonomous mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004328360A JP2006139525A (en) 2004-11-12 2004-11-12 Autonomous mobile robot

Publications (1)

Publication Number Publication Date
JP2006139525A true JP2006139525A (en) 2006-06-01

Family

ID=36620315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004328360A Withdrawn JP2006139525A (en) 2004-11-12 2004-11-12 Autonomous mobile robot

Country Status (1)

Country Link
JP (1) JP2006139525A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011529799A (en) * 2008-08-01 2011-12-15 ホーヤ ロボット カンパニー、リミテッド Small mobile robot with built-in auxiliary wheels for overcoming terrain
CN102561294A (en) * 2011-12-13 2012-07-11 河海大学 Telerobot-based geotechnical engineering parameter mobile test system and control system thereof
JP2013534339A (en) * 2010-08-05 2013-09-02 エスエヌユー アールアンドディービー ファウンデーション Drive command based vision system control system and method for target tracking
JP2013242738A (en) * 2012-05-22 2013-12-05 Sharp Corp Robot device, terminal device, remote control system for robot device and program
KR101380269B1 (en) 2008-08-22 2014-04-01 무라다기카이가부시끼가이샤 Self-controlling movement device
KR101527115B1 (en) * 2013-08-29 2015-06-10 (주)바램시스템 System for tracking object and method thereof, user terminal for controlling the system and method thereof
WO2015159961A1 (en) * 2014-04-18 2015-10-22 株式会社東芝 Autonomous traveling body
JP2016041201A (en) * 2014-08-18 2016-03-31 株式会社東芝 Vacuum cleaner and cleaning system
JP2016041202A (en) * 2014-08-18 2016-03-31 株式会社東芝 Vacuum cleaner and image display method
JP2016051343A (en) * 2014-08-29 2016-04-11 株式会社東芝 Autonomous traveling body
JP2016104512A (en) * 2016-02-29 2016-06-09 ソニー株式会社 Controller, control method, and program
US9766604B2 (en) 2011-08-02 2017-09-19 Sony Corporation Control device, control method, computer program product, and robot control system
JP2017168069A (en) * 2016-03-15 2017-09-21 群耀光電科技(蘇州)有限公司Lumiplus Technology (Suzhou) Co., Ltd. System for real-time monitoring carrier
KR20190082923A (en) * 2017-04-25 2019-07-10 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 Method and apparatus for drawing room layout
DE112021007829T5 (en) 2021-10-18 2024-04-04 Fanuc Corporation Control unit

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011529799A (en) * 2008-08-01 2011-12-15 ホーヤ ロボット カンパニー、リミテッド Small mobile robot with built-in auxiliary wheels for overcoming terrain
KR101380269B1 (en) 2008-08-22 2014-04-01 무라다기카이가부시끼가이샤 Self-controlling movement device
JP2013534339A (en) * 2010-08-05 2013-09-02 エスエヌユー アールアンドディービー ファウンデーション Drive command based vision system control system and method for target tracking
US10890884B2 (en) 2011-08-02 2021-01-12 Sony Corporation Control device, control method, computer program product, and robot control system
US9766604B2 (en) 2011-08-02 2017-09-19 Sony Corporation Control device, control method, computer program product, and robot control system
CN102561294A (en) * 2011-12-13 2012-07-11 河海大学 Telerobot-based geotechnical engineering parameter mobile test system and control system thereof
JP2013242738A (en) * 2012-05-22 2013-12-05 Sharp Corp Robot device, terminal device, remote control system for robot device and program
KR101527115B1 (en) * 2013-08-29 2015-06-10 (주)바램시스템 System for tracking object and method thereof, user terminal for controlling the system and method thereof
CN106255932A (en) * 2014-04-18 2016-12-21 东芝生活电器株式会社 Autonomous body
US9968232B2 (en) 2014-04-18 2018-05-15 Toshiba Lifestyle Products & Services Corporation Autonomous traveling body
WO2015159961A1 (en) * 2014-04-18 2015-10-22 株式会社東芝 Autonomous traveling body
CN106255932B (en) * 2014-04-18 2020-06-09 东芝生活电器株式会社 Autonomous walking body
EP3133458A4 (en) * 2014-04-18 2018-03-28 Toshiba Lifestyle Products & Services Corporation Autonomous traveling body
JP2015207120A (en) * 2014-04-18 2015-11-19 株式会社東芝 Autonomous travel body
KR101834678B1 (en) 2014-04-18 2018-03-05 도시바 라이프스타일 가부시키가이샤 Autonomous traveling body
JP2016041201A (en) * 2014-08-18 2016-03-31 株式会社東芝 Vacuum cleaner and cleaning system
JP2016041202A (en) * 2014-08-18 2016-03-31 株式会社東芝 Vacuum cleaner and image display method
JP2016051343A (en) * 2014-08-29 2016-04-11 株式会社東芝 Autonomous traveling body
JP2016104512A (en) * 2016-02-29 2016-06-09 ソニー株式会社 Controller, control method, and program
JP2017168069A (en) * 2016-03-15 2017-09-21 群耀光電科技(蘇州)有限公司Lumiplus Technology (Suzhou) Co., Ltd. System for real-time monitoring carrier
KR20190082923A (en) * 2017-04-25 2019-07-10 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 Method and apparatus for drawing room layout
JP2019528487A (en) * 2017-04-25 2019-10-10 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. Method and apparatus for drawing room layout diagram
US10747232B2 (en) 2017-04-25 2020-08-18 Beijing Xiaomi Mobile Software Co., Ltd. Method and device for drawing room layout
KR102279894B1 (en) * 2017-04-25 2021-07-20 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 Drawing method and device of room layout
DE112021007829T5 (en) 2021-10-18 2024-04-04 Fanuc Corporation Control unit

Similar Documents

Publication Publication Date Title
JP4448024B2 (en) Remote operation robot and robot self-position identification method
US10917560B2 (en) Control apparatus, movable apparatus, and remote-control system
JP2006139525A (en) Autonomous mobile robot
JP6380787B2 (en) IMAGING DEVICE, CAMERA, DISPLAY DEVICE, IMAGING METHOD, DISPLAY METHOD, AND PROGRAM
JPWO2017033619A1 (en) Imaging system and imaging control method
JP3489510B2 (en) Camera system and display device
KR20170044451A (en) System and Method for Controlling Remote Camera using Head mount display
JP2014063411A (en) Remote control system, control method, and program
US8692879B2 (en) Image capturing system, image capturing device, information processing device, and image capturing method
JP2000209575A (en) Monitor camera device
KR20150128140A (en) Around view system
JP2006086671A (en) Imaging apparatus having automatic tracking function
JP2007303913A (en) Foreign matter detecting device, robot device using the same, foreign matter detection method, and foreign matter detection program
KR101814714B1 (en) Method and system for remote control of camera in smart phone
JP2019161444A (en) Imaging device and autonomous traveling device including the same, and imaging method
JP2015012550A (en) Imaging apparatus and imaging system
JP2004363987A (en) Image presentation system
KR20140111079A (en) Method and System for Controlling Camera
JP2019106009A (en) Autonomous travel body and autonomous travel body system
WO2021014598A1 (en) Imaging device, imaging system, image processing device, imaging method, image processing method, and program
CN112073630A (en) Image pickup apparatus, control method for image pickup apparatus, and recording medium
KR102357263B1 (en) Holder device for supporting camera and method, computer-readable storage medium and computer program for controlling the holder device
KR20140075963A (en) Apparatus and Method for Remote Controlling Camera using Mobile Terminal
JP3864420B2 (en) Television receiver
JP2011077806A (en) Vehicle surroundings monitoring device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060509

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061005

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080205