JP2009056529A - Legged mobile robot - Google Patents

Legged mobile robot Download PDF

Info

Publication number
JP2009056529A
JP2009056529A JP2007224755A JP2007224755A JP2009056529A JP 2009056529 A JP2009056529 A JP 2009056529A JP 2007224755 A JP2007224755 A JP 2007224755A JP 2007224755 A JP2007224755 A JP 2007224755A JP 2009056529 A JP2009056529 A JP 2009056529A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
brightness
high
incident light
mobile robot
legged mobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007224755A
Other languages
Japanese (ja)
Inventor
Takamichi Shimada
Taro Yokoyama
貴通 嶋田
太郎 横山
Original Assignee
Honda Motor Co Ltd
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Abstract

PROBLEM TO BE SOLVED: To provide a legged mobile robot configured to take an image of a target with an appropriate brightness value even if a highly bright light source such as solar light comes into a mounted camera (imaging element).
SOLUTION: When an imaged region with high brightness taken by highly bright incident light is present on an image picked up by the imaging element, a hand is driven to block the highly bright incident light (S18 to S28), a head is rotated to avoid the highly bright incident light (S36 to S48), or legs are driven to avoid the light. Brightness reduction for reducing the brightness of the highly bright imaged region is thus carried out.
COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は脚式移動ロボットに関し、より具体的には視覚センサとしてのCCDカメラ(撮像素子)を備えると共に、それに太陽光などの高輝度の光源が写り込まれるときも撮影対象を適切な輝度値で撮影するようにした脚式移動ロボットに関する。 The present invention relates to a legged mobile robot, together with a more specifically comprises a CCD camera (image pickup device) as a visual sensor, it is also a shooting target appropriate luminance values ​​when incorporated-through high luminance of the light source such as sunlight in on the legged mobile robot to shoot.

従来、例えば下記の特許文献1において、太陽光などの高輝度の光源がカメラの画角内に写り込まれるとき、撮像素子面上に内部反射で発生するゴーストの位置、形状などを予測し、撮影画像のどの部分がゴーストか判定し、判定されたゴースト部分を撮影者の指定により、あるいは自動的に補正(低減処理)する技術が提案されている。 Conventionally, for example in the following Patent Document 1, when a high-intensity light sources such as sunlight is incorporated-through in the angle of view of the camera, the position of the ghost generated by internal reflection to the image pickup element on the surface, the shape and the like is predicted, which part of the captured image is determined whether the ghost, by designating the photographer the determined ghost portion, or is automatically corrected (reduction processing) technology has been proposed.
特開2006−129084号公報 JP 2006-129084 JP

特許文献1記載の技術はいわゆるデジタルカメラやビデオカメラであり、ユーザが人などの撮影対象に向けて操作して撮影するカメラについての技術であるが、その種のカメラを脚式移動ロボットなどの移動体に搭載して視覚センサとして使用することがある。 The technology described in Patent Document 1 is a so-called digital camera or video camera, the user is a technique for camera for photographing by operating towards the imaging target such as a human, such as legged mobile robot that kind of camera it may be used as a visual sensor mounted on the moving body.

そのような場合、図9に示す如く、太陽光やスポットライトなどの高輝度光源が撮像素子に撮像されるとき、光源の影響で暗部にいる本来撮影したい人などの撮影対象の輝度値が潰れてしまい、撮影対象を特定できないことがある。 In such a case, as shown in FIG. 9, when a high intensity light source such as sunlight or spotlights is imaged on the imaging element, the brightness value of the imaging target such as a person to be originally photographed who is in a dark portion due to the influence of the light source is crushed and will, it may not be possible to identify the shooting target. 図9で実際には人は画面に右側に存在する。 In fact, people in Figure 9 is present on the right side of the screen.

従ってこの発明の目的は上記した課題を解決し、搭載するカメラ(撮像素子)に太陽光などの高輝度の光源が写り込まれるときも、撮影対象を適切な輝度値で撮影するようにした脚式移動ロボットを提供することにある。 Legs therefore an object of the present invention which is adapted to solve the problems described above, even when a high intensity light source is incorporated-through, such as sunlight in a camera (imaging device) to be mounted, to shoot the shooting target in the appropriate luminance values It is to provide an expression mobile robot.

上記した課題を解決するために、請求項1に係る脚式移動ロボットにあっては、撮影対象を含む外界からの入射光によって画像を撮像する撮像素子と、前記撮像素子によって撮像された画像に高輝度の入射光によって撮像された高輝度撮像部位があるとき、前記高輝度撮像部位の輝度を低減する輝度低減動作を実行する輝度低減動作実行手段とを備える如く構成した。 To solve the problems described above, in the legged mobile robot according to claim 1 includes an imaging device for capturing an image by the incident light from the outside, including a shooting target, the image captured by the image sensor when there is a high-brightness imaging region captured by the high-brightness incident light, and as configured and a brightness reduction operation execution means for executing brightness reduction operation to reduce brightness of the high-brightness imaging region.

請求項2に係る脚式移動ロボットにあっては、基体と、前記基体に連結される腕部と、前記腕部に連結されるハンドとを少なくとも有すると共に、前記輝度低減動作実行手段は、前記ハンドを駆動して前記高輝度の入射光を遮断することで前記高輝度撮像部位の輝度を低減する如く構成した。 In the legged mobile robot according to claim 2, a substrate and an arm portion connected to the base body, and having at least a hand connected to the arm portion, the brightness reduction operation execution means, wherein by driving the hand and as configured to reduce brightness of the high-brightness imaging region by blocking the incident light of the high brightness.

請求項3に係る脚式移動ロボットにあっては、前記撮影対象が人であると共に、前記輝度低減動作実行手段は、人の画像パラメータを保持しつつ、前記ハンドを駆動して前記高輝度の入射光を遮断する如く構成した。 In the legged mobile robot according to claim 3, together with the imaging target is a human, the brightness reduction operation execution means, while retaining the image parameters of a person, the high intensity by driving the hand and as configured to block incident light.

請求項4に係る脚式移動ロボットにあっては、基体と、前記基体に連結されると共に、前記撮像素子が搭載される頭部とを少なくとも有すると共に、前記輝度低減動作実行手段は、前記頭部を回転させて前記高輝度撮像部位の輝度を低減する如く構成した。 In the legged mobile robot according to claim 4, and the substrate, while being connected to the substrate, and having at least a head in which the imaging element is mounted, wherein the brightness reduction operation execution means, said head and as configured to reduce brightness of the high-brightness imaging region of the part is rotated.

請求項5に係る脚式移動ロボットにあっては、基体と、前記基体に連結される頭部と脚部と腕部とを少なくとも有すると共に、前記輝度低減動作実行手段は、前記脚部を駆動して前記高輝度撮像部位の輝度を低減する如く構成した。 In the legged mobile robot according to claim 5, and the base, and having at least a head and legs and arms connected to said base, said brightness reduction operation execution means drives the legs and as configured to reduce brightness of the high-brightness imaging region by.

尚、上記で「高輝度の入射光」とは光源などの輝度が比較的高い入射光を、「高輝度撮像部位」とは高輝度の入射光によって画像に撮像される部位を意味する。 Incidentally, a relatively high incident light intensity, such as a "high-brightness incident light of" a light source in the above, the "high-brightness imaging region" refers to a site to be imaged in the image by the high-brightness incident light.

請求項1に係る脚式移動ロボットにあっては、撮影対象を含む外界からの入射光によって画像を撮像する撮像素子によって撮像された画像に高輝度の入射光によって撮像された高輝度撮像部位があるとき、その輝度を低減する輝度低減動作を実行する輝度低減動作実行手段とを備える如く構成したので、太陽光などの高輝度の入射光によって撮像された高輝度撮像部位があるときも、その輝度を低減することで人などの撮影対象を適切な輝度値で撮影することができる。 In the legged mobile robot according to claim 1, high-brightness imaging region captured by the high-brightness incident light on the image taken by the image pickup element that captures an image by incident light from the outside world, including a shooting target On one occasion, since as configured and a brightness reduction operation execution means for executing brightness reduction operation to reduce its brightness, even when there is a high luminance high-brightness imaging region captured by the incident light such as sunlight, that it is possible to photograph the photographic object such as a human in a suitable luminance value by reducing the brightness.

請求項2に係る脚式移動ロボットにあっては、ハンドなどを少なくとも有すると共に、ハンドを駆動して高輝度の入射光を遮断することで高輝度撮像部位の輝度を低減する如く構成したので、上記した効果に加え、撮像素子や画像処理の性能を上げることなく、人などの撮影対象を適切な輝度値で撮影することができる。 In the legged mobile robot according to claim 2, and having at least a like hand, since the as configured to reduce brightness of the high-brightness imaging region by blocking the high-brightness incident light by driving the hand, in addition to the effects mentioned above, without increasing the performance of the image pickup device and image processing, it is possible to shoot the shooting target, such as a human in a suitable luminance value.

請求項3に係る脚式移動ロボットにあっては、撮影対象である人の画像パラメータを保持しつつ、ハンドを駆動して高輝度の入射光を遮断する如く構成したので、上記した効果に加え、撮影対象である人を確実に撮影することができる。 In the legged mobile robot according to claim 3, while maintaining the image parameters of the person who is shooting the subject, since as configured to block high-brightness incident light by driving the hands, in addition to the effects mentioned above , it is possible to reliably shoot the people whose images are to be captured.

請求項4に係る脚式移動ロボットにあっては、撮像素子が搭載される頭部などを少なくとも有すると共に、頭部を回転させて前記高輝度撮像部位の輝度を低減する如く構成したので、同様に、撮像素子や画像処理の性能を上げることなく、人などの撮影対象を適切な輝度値で撮影することができると共に、高輝度撮像部位が比較的大きいときも確実に撮影対象を撮影することができる。 In the legged mobile robot according to claim 4, with at least having such head imaging element is mounted, since by rotating the head and as configured to reduce brightness of the high-brightness imaging region, similarly to, without increasing the performance of the image pickup device and image processing, it is possible to shoot the shooting target, such as a human with appropriate luminance values, be reliably photographed photographing target when high-brightness imaging region is relatively large can.

請求項5に係る脚式移動ロボットにあっては、基体に連結される脚部などを少なくとも有すると共に、脚部を駆動して前記高輝度撮像部位の輝度を低減する如く構成したので、同様に、撮像素子や画像処理の性能を上げることなく、人などの撮影対象を適切な輝度値で撮影することができると共に、高輝度撮像部位が比較的大きいときも一層確実に撮影対象を撮影することができる。 In the legged mobile robot according to claim 5, with at least having such legs being connected to the body, since the as configured to reduce brightness of the high-brightness imaging region by driving the legs, as well , without increasing the performance of the image pickup device and image processing, it is possible to shoot the shooting target, such as a human with appropriate luminance values, to shoot more reliably imaging object even when high-brightness imaging region is relatively large can.

以下、添付図面に即してこの発明に係る脚式移動ロボットを実施するための最良の形態について説明する。 Hereinafter, the best mode for carrying out the legged mobile robot according to the invention will now be explained with reference to the attached drawings.

図1はこの実施例に係る脚式移動ロボットの正面図、図2は図1に示すロボットの側面図である。 Figure 1 is a front view of a legged mobile robot according to this embodiment, FIG. 2 is a side view of the robot shown in FIG.

図1に示すように、脚式移動ロボット(移動体。以下単に「ロボット」という)10は、左右2本の脚部12L,12R(左側をL、右側をRとする。以下同じ)を備える。 As shown in FIG. 1, the legged mobile robot (mobile. Hereinafter referred to simply as "robot") 10 is provided with left and right legs 12L, 12R (the left side L, and the right and R. Hereinafter the same) . 脚部12L,12Rは、基体14の下部に連結される。 Legs 12L, 12R is connected to the lower portion of the base 14. 基体14の上部には頭部16が連結されると共に、側方には左右2本の腕部20L,20Rが連結される。 With the upper portion of the base body 14 is connected a head 16, on the side left and right arm portions 20L, 20R are connected. 左右の腕部20L,20Rの先端には、それぞれハンド(エンドエフェクタ)22L,22Rが連結される。 Left and right arms 20L, the tip of the 20R, respectively Hands (end effectors) 22L, 22R are connected. この実施例にあっては、脚式移動ロボットとして、2本の脚部と2本の腕部を備えた、1.3m程度の身長を有するヒューマノイド型のロボットを例にとる。 In the this embodiment, as legged mobile robots, with two legs and two arms, taken as an example humanoid robot having a height of about 1.3 m.

図2に示すように、基体14の背部には格納部24が設けられ、その内部には電子制御ユニット(以下「ECU」と呼ぶ)26およびバッテリ(図示せず)などが収容される。 As shown in FIG. 2, the back of the body 14 storage unit 24 is provided, on its inside (hereinafter referred to as "ECU") electronic control unit 26 and a battery (not shown) and the like are accommodated.

図3は、図1に示すロボット10をスケルトンで表す説明図である。 Figure 3 is a diagram of the robot 10 shown in FIG. 1 with the skeleton. 以下、図3を参照し、ロボット10の内部構造について関節を中心に説明する。 Hereinafter, with reference to FIG. 3 will be described focusing on joint internal structure of the robot 10. 尚、図示のロボット10は左右対称であるので、以降L,Rの付記を省略する。 Incidentally, it omitted because the robot 10 illustrated is symmetric, since L, and Appendix of R.

左右の脚部12は、それぞれ大腿リンク30と下腿リンク32と足部34とを備える。 Left and right legs 12 are each provided with a thigh link 30 and the shank link 32 and the foot 34. 大腿リンク30は、股関節を介して基体14に連結される。 Thigh link 30 is connected to the body 14 via a hip joint. 図3では、基体14を基体リンク36として簡略的に示すが、基体リンク36は、関節38を介して上半部36aと下半部36bとが相対変位自在に構成される。 In Figure 3, but schematically illustrating a substrate 14 as a body link 36, base link 36, and the upper half 36a and lower half 36b is displaced relative freely configured via a joint 38.

大腿リンク30と下腿リンク32は膝関節を介して連結されると共に、下腿リンク32と足部34は足関節を介して連結される。 With thigh links 30 and shank link 32 are connected through a knee joint, lower leg link 32 and the foot unit 34 are connected via the ankle joint. 股関節は、Z軸(ヨー軸)回りの回転軸40と、Y軸(ピッチ軸)回りの回転軸42と、X軸(ロール軸)回りの回転軸44とから構成される。 Hip is comprised of a Z-axis (yaw axis) of the rotary shaft 40, Y-axis (pitch axis) and around a rotation axis 42, X axis (roll axis) of the rotary shaft 44. 即ち、股関節は3自由度を備える。 In other words, the hip joint is provided with a three-degree-of-freedom.

膝関節はY軸回りの回転軸46から構成され、1自由度を備える。 The knee joint consists Y axis of the rotary shaft 46, provided with one degree of freedom. 足関節はY軸回りの回転軸48とX軸回りの回転軸50とから構成され、2自由度を備える。 Ankle consists Y axis of the rotary shaft 48 and the X axis of the rotary shaft 50. comprises two degrees of freedom. このように、左右の脚部12のそれぞれには3個の関節を構成する6個の回転軸(自由度)が与えられ、脚部全体としては合計12個の回転軸が与えられる。 Thus, the left and right six rotating shaft constituting the three joints in each leg portion 12 (degrees of freedom) is given, a total of 12 of the rotary shaft is provided as a whole leg.

脚部12は、アクチュエータ(図示せず)によって駆動される。 Legs 12 are driven by an actuator (not shown). 脚部12を駆動する脚部アクチュエータは基体14と脚部12の適宜位置に配置された12個の電動モータからなり、上記した12個の回転軸を個別に駆動する。 Leg actuator for driving the legs 12 consists of 12 electric motor disposed at an appropriate position of the substrate 14 and the leg 12, individually drive the 12 rotary shafts as described above.

また、左右の腕部20は、それぞれ上腕リンク52と下腕リンク54を備える。 Further, it left and right arms 20 are each provided with an upper arm link 52 and the forearm link 54. 上腕リンク52は、肩関節を介して基体14に連結される。 Upper arm link 52 is connected to the body 14 through a shoulder joint. 上腕リンク52と下腕リンク54は、肘関節を介して連結されると共に、下腕リンク54とハンド22は手首関節を介して連結される。 Upper arm link 52 and the forearm link 54, while being connected through the elbow joint, the forearm link 54 and hand 22 are connected through a wrist joint.

肩関節はY軸回りの回転軸56とX軸回りの回転軸58とZ軸回りの回転軸60とから構成され、3自由度を備える。 Shoulder joint consists Y axis of the rotary shaft 56 and the X axis of the rotary shaft 58 and the Z-axis of the rotary shaft 60. comprises three degrees of freedom. 肘関節はY軸回りの回転軸62から構成され、1自由度を備える。 Elbow joint is composed of Y-axis of the rotary shaft 62, provided with one degree of freedom. 手首関節はZ軸回りの回転軸64とY軸回りの回転軸66とX軸回りの回転軸68とから構成され、3自由度を備える。 Wrist joint consists Z axis of the rotary shaft 64 and the Y-axis of the rotary shaft 66 and the X axis of the rotary shaft 68. comprises three degrees of freedom. このように、左右の腕部20のそれぞれには3個の関節を構成する7個の回転軸(自由度)が与えられ、腕部全体として合計14個の回転軸が与えられる。 Thus, seven rotary axes each of the left and right arms 20 constituting the three joints (DOF) is given, a total of 14 of the rotary shaft is provided as a whole arm portion.

腕部20も、脚部12と同様に図示しないアクチュエータによって駆動される。 Arms 20 are also driven by actuators (not shown) similarly to the legs 12. 腕部20を駆動する腕部アクチュエータは基体14と腕部20の適宜位置に配置された14個の電動モータからなり、上記した14個の回転軸を個別に駆動する。 Arm actuators for driving the arms 20 is made of 14 pieces of the electric motor disposed at an appropriate position of the substrate 14 and the arms 20, individually drive the 14 rotary shafts as described above. ロボット10は脚部アクチュエータあるいは腕部アクチュエータの動作が制御されて各回転軸が適宜な角度で駆動されることにより、脚部12あるいは腕部20に所望の動きが与えられる。 The robot 10 by the rotary shaft is controlled operation of the leg actuators or arm actuators are driven to appropriate angles, the desired motion is given to the legs 12 or the arms 20.

ハンド22には、5本の指部70が設けられる。 The hand 22, five fingers 70 are provided. 指部70は図示しないハンドアクチュエータによって動作自在とされ、腕部20の動きに連動して物を把持する、あるいは適宜な方向を指差すなどの動作が実行可能とされる。 Fingers 70 are freely operated by hand actuator (not shown), operations such as grasping an object in conjunction with the movement of the arm portion 20, or the appropriate direction Pointing can be performed.

頭部16は、基体14に首関節を介して連結される。 Head 16 is connected via a neck joint to the substrate 14. 首関節はZ軸回りの回転軸72とY軸回りの回転軸74とから構成され、2自由度を備える。 Neck joint consists Z axis of the rotary shaft 72 and the Y-axis of the rotary shaft 74. comprises two degrees of freedom. 回転軸72,74も、図示しない頭部アクチュエータによって個別に駆動される。 Rotary shaft 72 and 74 are also individually driven by a head actuator (not shown). 頭部アクチュエータの動作を制御して回転軸72,74を適宜な角度で駆動することにより、頭部16を所望の方向に向けることができる。 By controlling the operation of the head actuator for driving the rotary shaft 72 and 74 to appropriate angles, it is possible to direct the head 16 in a desired direction. 基体リンク36も関節38に配置されたアクチュエータ(図示せず)を駆動することで、上半部36aと下半部36bが相対回転させられる。 Body link 36 by driving the actuator disposed in the joint 38 (not shown), the upper half portion 36a and a lower half portion 36b is rotated relative.

左右の脚部12には、それぞれ力センサ(6軸力センサ)76が取り付けられ、床面から脚部12に作用する床反力の3方向成分Fx,Fy,Fzとモーメントの3方向成分Mx,My,Mzを示す信号を出力する。 The left and right legs 12 is respectively force sensor (six-axis force sensor) 76 mounted, three direction components of a floor reaction force acting on the leg portion 12 from the floor Fx, Fy, three directional components Mx of Fz and moments , and it outputs a signal indicative My, a Mz. 左右の腕部20にも同種の力センサ78がハンド22と手首関節の間で取り付けられ、腕部20に作用する外力の3方向成分Fx,Fy,Fzとモーメントの3方向成分Mx,My,Mzを示す信号を出力する。 Left and right in the arm portion 20 the force sensor 78 of the same type are mounted between the hand 22 and wrist joint, three directional components Fx of the external force acting on the arms 20, Fy, three directional components of Fz and moment Mx, My, and it outputs a signal indicating a Mz.

基体14には傾斜センサ80が設置され、鉛直軸に対する基体14の傾斜角度とその角速度などの状態量を示す信号を出力する。 The base body 14 inclination sensor 80 is installed, and outputs a signal indicating the state quantities such as the tilt angle and its angular velocity of the substrate 14 relative to the vertical axis. 頭部16には、人などの撮影対象を含む外界からの入射光によって撮像する、2個(左右)の撮像素子、具体的にはCCDカメラ(以下「カメラ」という)82が設置される。 The head 16 is captured by the incident light from the outside world, including a shooting target, such as a human, an imaging device 2 (left and right), CCD camera (hereinafter referred to as "camera") specifically 82 is installed. また、頭部16には、マイクロフォン84aとスピーカ84bからなる音声入出力装置84が設けられる。 Further, the head 16, audio input and output device 84 comprising a microphone 84a and a speaker 84b is provided.

上記したセンサなどの出力は、ECU26(図2に示す)に入力される。 The output of such sensors described above are input to the ECU 26 (shown in FIG. 2). ECU26はマイクロコンピュータからなり、図示しないCPUや入出力回路、ROM、RAMなどを備える。 ECU26 is a microcomputer, includes a CPU and input and output circuits (not shown), ROM, RAM and the like.

図4は、ロボット10の構成をECU26の入出力関係を中心に示すブロック図である。 Figure 4 is a block diagram showing the configuration of the robot 10 mainly input-output relationship of the ECU 26.

図示の如く、ロボット10は、上記したセンサなどに加え、回転軸40などのそれぞれに配置されたロータリエンコーダ群86と、ジャイロセンサ88と、GPS受信器90と、人(撮影対象)が携行するICタグ92に無線系で接続されてICタグ92から発信されるICタグ情報を受信するICタグ信号受信器(リーダ)94を備える。 As illustrated, the robot 10 is added like the sensors described above, the rotary encoders 86 which are disposed in each of such the rotary shaft 40, a gyro sensor 88, a GPS receiver 90, a person (imaging object) is carried comprising an IC tag signal receiver (reader) 94 for receiving an IC tag information transmitted from the IC tag 92 is wirelessly connected based on the IC tag 92.

ロータリエンコーダ群86はそれぞれ、回転軸40などの回転角度、即ち、関節角度に応じた信号を出力する。 Each rotary encoders 86, the rotation angle of such rotation shaft 40, i.e., to output a signal corresponding to the joint angle. ジャイロセンサ88は、ロボット10の移動方向と距離に応じた信号を出力する。 The gyro sensor 88 outputs a signal corresponding to the moving direction and distance of the robot 10. GPS受信器90は衛星から発信された電波を受信し、ロボット10の位置情報(緯度と経度)を取得してECU26に出力する。 GPS receiver 90 receives a radio wave transmitted from a satellite, and outputs the ECU26 obtains the position information of the robot 10 (latitude and longitude).

ICタグ信号受信器94は、ICタグ92に記憶されると共に、それから発信される識別情報(RFID(Radio Frequency ID)、具体的にはICタグ92の携行者である人を識別する識別情報)を無線系で受信してECU26に出力する。 IC tag signal receiver 94, the identification information while being stored in the IC tag 92, then it is transmitted (RFID (Radio Frequency ID), identification information for identifying the person who is the individual carrying the IC tag 92 in particular) and outputs to receive and ECU26 wirelessly system.

ECU26は、力センサ76、傾斜センサ80およびロータリエンコーダ群86などの出力に基づいて歩容を生成して歩行制御を行う。 ECU26, the force sensor 76, and generates a gait performing walking control based on the output of such inclination sensor 80 and the rotary encoders 86. 具体的には、前記した脚部アクチュエータ(符号100で示す)の動作を制御して脚部12を駆動してロボット10を移動(歩行)させる。 Specifically, let the the leg actuators to control the operation of the (indicated by reference numeral 100) to drive the legs 12 move the robot 10 (walking). 歩容生成および歩行制御については本出願人が提案した特許第3726081号に記載されているので、詳細な説明は省略する。 Because it is described in Japanese Patent No. 3726081 proposed by the present applicant for gait generation and walking control, the detailed description thereof is omitted.

また、ECU26は、歩行制御などに付随して腕部アクチュエータ(符号102で示す)とハンドアクチュエータ(符号104で示す)の動作を制御して腕部20とハンド22を駆動すると共に、頭部アクチュエータ(符号106で示す)の動作を制御して頭部16の向きを調整する。 Further, ECU 26 is adapted to drive the arms 20 and the hand 22 by controlling the operation of the arm actuators in association with such walking control (indicated by reference numeral 102) and the hand actuator (shown at 104), the head actuator by controlling the operation of the (indicated by reference numeral 106) for adjusting the orientation of the head 16.

さらに、ECU26は、カメラ(撮像素子)82に高輝度撮像部位が撮像されているとき、その輝度を低減させる輝度低減動作を実行する。 Further, ECU 26 includes a camera when a high-brightness imaging region (the imaging device) 82 is captured, to perform the brightness reduction operation to reduce its brightness.

図5は、ECU26が輝度低減動作を実行するときの構成を機能的に示すブロック図である。 Figure 5 is a block diagram functionally showing the configuration when the ECU26 executes the brightness reduction operation.

図示の如く、そのときのECU26の動作を機能別に見ると、ECU26は、ステレオ処理部26aと、ヒストグラム生成部26bと、露出パラメータ設定部26cと、画像処理部26dと、行動生成部26eとからなる。 From As illustrated, when viewed separately functional operation of the ECU 26 at that time, ECU 26 includes a stereo processor 26a, a histogram generation unit 26b, and the exposure parameter setting unit 26c, and an image processing unit 26 d, the behavior generation unit 26e Become.

ステレオ処理部26aは、移動体(ロボット)10に搭載された2個のカメラ(撮像素子)82の出力を入力し、ステレオ処理によって視差から画素ごとの距離情報を算出する。 Stereo processor 26a inputs the output of the moving object (robot) two cameras mounted on the 10 (imaging device) 82, and calculates the distance information for each pixel from the disparity by stereo processing. カメラ82の画素の数は320×240とする。 The number of pixels of the camera 82 is set to 320 × 240. ステレオ処理部26aは、濃淡画像データから3次元(3D)データを算出して出力する。 Stereo processor 26a is 3-dimensional (3D) data calculated by the output from the gray-scale image data.

ヒストグラム生成部26bは撮影された画像の輝度値ヒストグラムを作成すると共に、距離ごとに、あるいは距離に応じて重み付けを行う。 With histogram generator 26b creates a luminance histogram of the photographed image, it performs weighting according to each distance or distances.

露出パラメータ設定部26cは、撮像したい距離の輝度値から露出パラメータ(より具体的にはシャッタ速度)を設定する。 Exposure parameter setting unit 26c (more specifically shutter speed) exposure parameters from the luminance value of the distance to be imaged to set the. カメラ82はロボット10に搭載されて視覚センサとして機能する関係上、自ら撮影対象を捜索して撮影することはなく、撮影画像から撮影対象を抽出しなければならない。 The camera 82 on the related functions as a visual sensor mounted on the robot 10 is not be taken by searching its own shooting target, it must be extracted shooting target from a captured image. そのため、カメラ82の絞りは最小に固定され、近距離、具体的には0.5mから2.5m程度で焦点が合うように調整される。 Therefore, the aperture of the camera 82 is fixed to a minimum, a short distance, in particular is adjusted to focus at 2.5m order of 0.5 m. 従って、露出パラメータとしてはシャッタ速度のみが調整自在とされる。 Therefore, only the shutter speed is freely adjusted as exposure parameters.

画像処理部26dは、ロボット10が移動するとき、視覚センサとしての画像処理を行う。 The image processing unit 26d, when the robot 10 moves and performs image processing as a visual sensor.

行動生成部26eは、カメラ82に光源などの高輝度の入射光によって撮像された高輝度撮像部位があるとき、その輝度を低減する輝度低減動作を実行する。 Behavior generation unit 26e, when there is a high-brightness imaging region captured by the high-brightness incident light, such as light sources to the camera 82, to perform the brightness reduction operation to reduce its brightness.

次いで、上記したECU26の動作をさらに詳細に説明する。 Then, further detailed description of the operation of the ECU26 described above.

図6は、図5と同様、ECU26が輝度低減動作するときの処理を示すフロー・チャートの前半部、図7はその後半部である。 Figure 6 is similar to FIG. 5, the first half of the flowchart showing the processing when the ECU26 operates brightness reduction, and FIG. 7 is a second half portion.

以下説明すると、S10において人(撮影対象)がいるか否か判断する。 Explaining, it is determined whether there is a person (imaging object) in S10. これは人が携行するICタグ92から発信される識別情報を受信するICタグ信号受信器94の出力から判断する。 This determines the output of the IC tag signal receiver 94 for receiving the identification information transmitted from the IC tag 92 a person to carry.

S10で否定されるときは上記した処理を繰り返すと共に、肯定されるときはS12に進み、移動して人に接近し、S14に進んで所定距離以内に接近した後、S16に進んでさらに接近する。 Together when the result is negative, it repeats the process described above in S10, in S12 when the result is affirmative, close to the person moves, after approaching within a predetermined distance proceeds to S14, further approaching proceeds to S16 .

次いでS18に進み、画像の中の高輝度撮像部位の方向と位置が検出されたか否か判断し、肯定されるときはS20に進み、最適なハンド22の姿勢を算出すると共に、否定されるときはS22に進み、ハンド22の姿勢としてデフォルト(既定値)を採用する。 Next, in S18, it is determined whether or not the direction and position of the high-brightness imaging region in the image is detected, the process proceeds to S20 when the result is affirmative, to calculate the orientation of optimal hand 22, when the result is negative proceeds to S22, to accept the default (default value) as the posture of the hand 22.

次いでS24に進み、ハンド22を太陽光などの光源、より正確には高輝度撮像部位にかざす、即ち、ハンド22を駆動して光源などの高輝度の入射光を遮断するように動作させる。 Next, in S24, the light source of the hand 22 such as sunlight, and more precisely held up to the high-brightness imaging region, i.e., by driving the hand 22 is operated to cut off the high-brightness incident light, such as light sources.

次いで、S26に進み、ハンド22の位置を近づけ(基体14に向けて引き寄せ)、S28に進み、光源、より正確には高輝度撮像部位よりもハンド22が大きくなったか、換言すれば高輝度の入射光がハンド22で遮断されたか否か判断し、否定されるときはS24に戻って上記の処理を繰り返す。 Then, the process proceeds to S26, closer to the position of the hand 22 (drawn toward the substrate 14), the process proceeds, the light source, more precisely whether the hand 22 is greater than the high-brightness imaging region, high luminance in other words S28 incident light is determined whether or not blocked by the hand 22, back to S24 to repeat the above process when it is denied.

図8は、上記したハンド22による高輝度撮像部位の輝度低減動作を説明する説明図である。 Figure 8 is an explanatory view illustrating a brightness reduction operation of the high-brightness imaging region by the hand 22 as described above.

図示の如く、ロボット10はハンド22Rを駆動し、光源からの高輝度の入射光(光軸)を遮断するように動作する。 As illustrated, the robot 10 drives the hand 22R, operates to cut off high-brightness incident light from the light source (optical axis). ハンド22Rの位置はA,B,Cの順で自身の頭部16に搭載されるカメラ82に近づき、光源からの入射光を遮断する面積も増加する一方、人についての撮像部位を遮断する可能性も増加する。 Position of the hand 22R is A, B, approaches the camera 82 mounted in its head 16 in this order and C, while also increasing the area to block the incident light from the light source, possible to cut off the imaging site for human sex is also increased.

従って、S18からS28までの処理においては、人についての撮像部位を保持しつつ、換言すれば人の画像パラメータを保持しつつ、光源からの高輝度の入射光を完全に遮断する位置、即ち、可能な限りAに近い位置となるように、ハンド22を駆動する。 Accordingly, in the processing from S18 to S28 while retaining the imaging site for the human, while maintaining the image parameters of a person other words, a high luminance position to completely block the incident light from the light source, i.e., as long as a position close to the a possible to drive the hand 22.

図6の説明に戻ると、次いでS30に進み、人の露出パラメータ、即ち、シャッタ速度を算出し、S32に進み、人の画像から顔を抽出の可能性を判断する。 Returning to the explanation of FIG. 6, the program proceeds to S30, the exposure parameters of human, i.e., calculates the shutter speed, the process proceeds to S32, to determine the possibility of extracting the face from a human image.

次いでS34に進み、顔が抽出できないか否か判断し、肯定されるときはS36に進み、光源などの高輝度の入射光によって撮像された高輝度撮像部位の輝度値の最大値が顔の輝度値を超えるか否か判断し、肯定されるときはS38に進み、頭部16の回転量を算出する。 Next, in S34, it is determined whether or not to extract the face, asserted proceeds to S36 when the maximum value of the luminance values ​​of the high-brightness imaging region captured by the high-brightness incident light, such as light source of the face luminance determining whether more than a value, the process proceeds to step S38 when the result is affirmative, to calculate the amount of rotation of the head 16.

次いでS40に進み、光源などの高輝度の入射光(光軸)をずらす(回避する)ための頭部16の移動の方向と大きさを算出し、S42に進み、目標方向に対する頭部16の移動指令値を決定し、S44に進み、それに従って頭部16を移動(回転)させ、S46に進み、リミット処理を行う。 The program then proceeds to S40, shifting the high-brightness incident light, such as light sources (optical axis) (avoiding to) calculates the moving direction and magnitude of the head 16 for, the process proceeds to S42, the head 16 with respect to the target direction determines a movement command value, the process proceeds to S44, it the head 16 is moved (rotated) in accordance with, the process proceeds to S46, a limiting process is carried out. 即ち、S18からS28までのハンド22の駆動によって高輝度撮像部位の輝度を十分に低減できなったと判断されることから、頭部16を回転させて高輝度の入射光を回避することとする。 That is, since it is determined to have become sufficiently reduce the brightness of the high-brightness imaging region by the driving of the hand 22 from S18 to S28, the and avoiding high brightness incident light by rotating the head 16.

次いでS48に進み、顔の抽出処理を実行し、S50に進み、顔が抽出できたか否か判断する。 Next, in S48, executes the extraction process of the face, the process proceeds to S50, the determination whether the face can be extracted. S50で否定されるときはS52(図7)に進み、高輝度撮像部位の輝度値の平均値が抽出された顔の輝度値を超えるか否か判断する。 When the result is negative in S50 the process proceeds to S52 (FIG. 7), determines whether more than a luminance value of the face where the average value of the brightness values ​​of high-brightness imaging region is extracted. S52で肯定されるときはS54に進み、歩容(回転など)の修正量を算出する。 When the result is affirmative in S52 the process proceeds to S54, calculates the correction amount of gait (such as rotation). 尚、S52で否定されるときはS54をスキップする。 Incidentally, skipping step S54 when the result is negative in S52.

次いでS56に進み、算出された修正量に従って歩容指令値を出力し、S58に進み、脚部12を駆動して歩行制御を実行する。 The program then proceeds to S56, and outputs the gait command value in accordance with correction amount calculated, the process proceeds to S58, to perform a walking control by driving the legs 12. その後でS18に戻り、上記の処理を繰り返す。 Then return to the S18, repeat the above process. 尚、S34で否定されるとき、あるいはS50で肯定されるときは顔を抽出できたことから以降の処理をスキップする。 Incidentally, when the determination is negative in S34, or when the result is affirmative in S50 skips subsequent processing since it can be extracted face.

この実施例に係る脚式移動ロボット10にあっては、人などの撮影対象を含む外界からの入射光によって画像を撮像する撮像素子(CCDカメラ)82と、前記撮像素子によって撮像された画像に高輝度の入射光によって撮像された高輝度撮像部位があるとき、前記高輝度撮像部位の輝度を低減する輝度低減動作を実行する輝度低減動作実行手段(ECU26、ステレオ処理部26a、ヒストグラム生成部26b、露出パラメータ設定部26c、画像処理部26d、行動生成部26e,S10からS58)とを備える如く構成したので、太陽光などの高輝度の入射光によって撮像された高輝度撮像部位があるときも、その輝度を低減することで人などの撮影対象を適切な輝度値で撮影することができる。 In the legged mobile robot 10 according to this embodiment includes an imaging device (CCD camera) 82 for capturing an image by the incident light from the outside, including a shooting target, such as a human, the image captured by the image sensor when the high-brightness incident light has high brightness imaging region captured, the high luminance brightness reduction operation execution means for executing brightness reduction operation to reduce brightness of the imaging region (ECU 26, the stereo processing unit 26a, a histogram generation unit 26b , exposure parameter setting unit 26c, the image processing unit 26 d, Owing to this arrangement comprises a behavior generation unit 26e, S10 S58) and, even when there is a high luminance high-brightness imaging region captured by the incident light such as sunlight , it is possible to shoot the shooting target such as a human by reducing the brightness at the appropriate luminance value.

また、基体14と、前記基体に連結される腕部20と、前記腕部に連結されるハンド22とを少なくとも有すると共に、前記輝度低減動作実行手段は、前記ハンド22を駆動して前記高輝度の入射光を遮断することで前記高輝度撮像部位の輝度を低減する(S18からS28)如く構成したので、上記した効果に加え、撮像素子や画像処理の性能を上げることなく、人などの撮影対象を適切な輝度値で撮影することができる。 Further, the substrate 14, an arm portion 20 which is connected to the substrate, and having at least a hand 22 which is connected to the arm portion, the brightness reduction operation execution means, the high luminance by driving the hand 22 said high intensity to reduce the brightness of the imaging region (S18 from S28) Owing to this structure by blocking the incident light, in addition to the effects mentioned above, without increasing the performance of the image pickup device and image processing, imaging such as human it is possible to shoot a subject in an appropriate brightness value.

また、前記撮影対象が人であると共に、前記輝度低減動作実行手段は、人の撮像部位、換言すれば人の画像パラメータを保持しつつ、前記ハンド22を駆動して前記高輝度の入射光を遮断する(S18からS28)如く構成したので、上記した効果に加え、撮影対象である人を確実に撮影することができる。 Further, with the imaging subject is a human, the brightness reduction operation execution means, the imaging site of a human, while maintaining the image parameters of a person other words, the incident light of the high brightness by driving the hand 22 since blocking (from S18 S28) and as configuration, in addition to the effects mentioned above, it is possible to reliably shoot a person whose images are to be captured.

また、基体14と、前記基体に連結されると共に、前記撮像素子が搭載される頭部16とを少なくとも有すると共に、前記輝度低減動作実行手段は、前記頭部16を回転させて前記高輝度撮像部位の輝度を低減する(S36からS46)如く構成したので、同様に、撮像素子や画像処理の性能を上げることなく、人などの撮影対象を適切な輝度値で撮影することができると共に、高輝度撮像部位が比較的大きいときも確実に撮影対象を撮影することができる。 Further, the substrate 14, while being connected to the substrate, and having at least a head 16 in which the imaging element is mounted, wherein the brightness reduction operation execution means, the high-brightness imaging by rotating the head 16 since (from S36 S46) to reduce the brightness of the sites were as configured similarly, without increasing the performance of the image pickup device and image processing, it is possible to shoot the shooting target, such as a human with appropriate luminance values, high it can be reliably photographed photographing target when brightness imaging region is relatively large.

また、基体14と、前記基体に連結される頭部16と脚部12と腕部20とを少なくとも有すると共に、前記輝度低減動作実行手段は、前記脚部12を駆動して前記高輝度撮像部位の輝度を低減する(S54からS58)如く構成したので、同様に、撮像素子や画像処理の性能を上げることなく、人などの撮影対象を適切な輝度値で撮影することができると共に、高輝度撮像部位が比較的大きいときも一層確実に撮影対象を撮影することができる。 Further, the substrate 14, and having at least a head 16 and a leg portion 12 and arm portion 20 which is connected to the substrate, the brightness reduction operation execution means, the high-brightness imaging region by driving the legs 12 since reduced to (S54 from S58) as constituting the luminance, similarly, without increasing the performance of the image pickup device and image processing, it is possible to shoot the shooting target, such as a human in a suitable luminance value, high luminance it can be captured more reliably imaging object even when imaging region is relatively large.

尚、上記において、撮影対象として人を予定したが、それ以外にロボット10の作業で予定される道具やワークなどの物体であっても良い。 In the above, it has been scheduled to human as an imaging target, otherwise the may be objects such as tools or work to be scheduled in the work of the robot 10.

また上記において、撮影対象の有無を撮影対象が携行するICタグ92から発信される識別情報を受信するICタグ信号受信器94の出力から判断するようにしたが、カメラ82の出力から判断しても良い。 In the above, has been adapted to determine from the output of the IC tag signal receiver 94 for receiving the identification information transmitted whether a photographing target from the IC tag 92 of the imaging object is carried, it is determined from the output of the camera 82 it may be. さらには外部からコマンドを入力して教示しても良い。 In addition it may be taught by entering the command from the outside.

また上記において、移動体の例として脚式移動ロボット、具体的には2足歩行ロボットを例示したが、それに限られるものではなく、自律移動自在であればどのようなものであっても良い。 In the above, the legged mobile robot as an example of a moving body, specifically is exemplified biped robot, the present invention is not limited thereto and may be any as long freely autonomous mobile.

この発明の実施例に係る脚式移動ロボットの正面図である。 It is a front view of a legged mobile robot according to an embodiment of the present invention. 図1に示すロボットの側面図である。 It is a side view of the robot shown in FIG. 図1に示すロボットをスケルトンで示す説明図である。 It is an explanatory view showing a robot skeleton shown in FIG. 図1に示すロボットの構成を電子制御ユニット(ECU)の入出力関係を中心に示すブロック図である。 The configuration of the robot shown in FIG. 1 is a block diagram mainly showing the input-output relationship of the electronic control unit (ECU). 図4に示す電子制御ユニットが高輝度撮像部位の輝度低減動作を行なうときの構成を機能的に示すブロック図である。 An electronic control unit shown in FIG. 4 is a block diagram functionally showing the configuration when performing a brightness reduction operation of the high-brightness imaging region. 図5と同様、電子制御ユニットが高輝度撮像部位の輝度低減動作を行なうときの処理を示すフロー・チャートの前半部である。 Similar to FIG. 5, a first half of the flowchart showing the processing when the electronic control unit performs the brightness reduction operation of the high-brightness imaging region. 図6フロー・チャートの後半部である。 FIG. 6, which is a second half of the flow chart. 図6の処理の中のハンドによる輝度低減動作を説明する説明図である。 Is an explanatory view illustrating a brightness reduction operation by the hand in the process of FIG. この実施例に係るカメラ(撮像素子)で撮影を予定する場面の一例である。 It is an example of a scene to schedule photographed by the camera according to this embodiment (image pickup device).

符号の説明 DESCRIPTION OF SYMBOLS

10:脚式移動ロボット(移動体、ロボット)、12:脚部、14:基体、20:腕部、26:ECU(電子制御ユニット)、26a:ステレオ処理部、26b:ヒストグラム生成部、26c:露出パラメータ設定部、26d:画像処理部、26e:行動生成部、82:CCDカメラ(撮像素子。カメラ)、92:ICタグ、94:ICタグ信号受信器 10: legged mobile robot (mobile robot), 12: leg, 14: substrate, 20: arm portion, 26: ECU (electronic control unit), 26a: stereo processor, 26b: histogram generation unit, 26c: exposure parameter setting unit, 26 d: image processing unit, 26e: behavior generation unit, 82: CCD camera (. imaging device camera), 92: IC tag, 94: IC tag signal receiver

Claims (5)

  1. 撮影対象を含む外界からの入射光によって画像を撮像する撮像素子と、前記撮像素子によって撮像された画像に高輝度の入射光によって撮像された高輝度撮像部位があるとき、前記高輝度撮像部位の輝度を低減する輝度低減動作を実行する輝度低減動作実行手段とを備えたことを特徴とする脚式移動ロボット。 An imaging device for capturing an image by the incident light from the outside, including a shooting target, wherein when there is a high-brightness imaging region captured by the high-brightness incident light to an image captured by the imaging device, of the high-brightness imaging region legged mobile robot is characterized in that a brightness reduction operation execution means for executing brightness reduction operation to reduce brightness.
  2. 基体と、前記基体に連結される腕部と、前記腕部に連結されるハンドとを少なくとも有すると共に、前記輝度低減動作実行手段は、前記ハンドを駆動して前記高輝度の入射光を遮断することで前記高輝度撮像部位の輝度を低減することを特徴とする請求項1記載の脚式移動ロボット。 A substrate and an arm portion connected to the base body, and having at least a hand connected to the arm portion, the brightness reduction operation execution means, for blocking the incident light of the high brightness by driving the hand legged mobile robot according to claim 1, wherein reducing the intensity of the high-brightness imaging region by.
  3. 前記撮影対象が人であると共に、前記輝度低減動作実行手段は、人の画像パラメータを保持しつつ、前記ハンドを駆動して前記高輝度の入射光を遮断することを特徴とする請求項2記載の脚式移動ロボット。 Together with the imaging target is a human, the brightness reduction operation execution means, while retaining the image parameters of human, according to claim 2, wherein by driving the hand, characterized in that to block the incident light of the high intensity of the legged mobile robot.
  4. 基体と、前記基体に連結されると共に、前記撮像素子が搭載される頭部とを少なくとも有すると共に、前記輝度低減動作実行手段は、前記頭部を回転させて前記高輝度撮像部位の輝度を低減することを特徴とする請求項1から3のいずれかに記載の脚式移動ロボット。 And the substrate, while being connected to the substrate, and having at least a head in which the imaging element is mounted, wherein the brightness reduction operation execution means, reduces the luminance of the high-brightness imaging region by rotating the head legged mobile robot according to any one of claims 1 to 3, characterized by.
  5. 基体と、前記基体に連結される頭部と脚部と腕部とを少なくとも有すると共に、前記輝度低減動作実行手段は、前記脚部を駆動して前記高輝度撮像部位の輝度を低減することを特徴とする請求項1から5のいずれかに記載の脚式移動ロボット。 A substrate, and having at least a head and legs and arms connected to said base, said brightness reduction operation execution means, to reduce the brightness of the high-brightness imaging region by driving the leg legged mobile robot according to any one of claims 1, wherein the 5.
JP2007224755A 2007-08-30 2007-08-30 Legged mobile robot Withdrawn JP2009056529A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007224755A JP2009056529A (en) 2007-08-30 2007-08-30 Legged mobile robot

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2007224755A JP2009056529A (en) 2007-08-30 2007-08-30 Legged mobile robot
US12230130 US8406505B2 (en) 2007-08-30 2008-08-25 Image brightness reduction for legged mobile robot
EP20080015060 EP2030740B1 (en) 2007-08-30 2008-08-26 Legged mobile robot
DE200860000660 DE602008000660D1 (en) 2007-08-30 2008-08-26 Mobile robot with legs

Publications (1)

Publication Number Publication Date
JP2009056529A true true JP2009056529A (en) 2009-03-19

Family

ID=40552756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007224755A Withdrawn JP2009056529A (en) 2007-08-30 2007-08-30 Legged mobile robot

Country Status (1)

Country Link
JP (1) JP2009056529A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011067941A (en) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc Visual perception system and method for humanoid robot

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011067941A (en) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc Visual perception system and method for humanoid robot

Similar Documents

Publication Publication Date Title
US5684531A (en) Ranging apparatus and method implementing stereo vision system
Fang et al. Adaptive active visual servoing of nonholonomic mobile robots
Kuniyoshi et al. A foveated wide angle lens for active vision
US20040199292A1 (en) Apparatus, process, and program for controlling movable robot control
US20050001906A1 (en) Apparatus for correction based upon detecting a camera shaking
US20060098967A1 (en) Image capture device
Senoo et al. High-speed batting using a multi-jointed manipulator
JP2002074339A (en) On-vehicle image pickup unit
JP2006005662A (en) Electronic camera and electronic camera system
US20030215130A1 (en) Method of processing passive optical motion capture data
JP2004030629A (en) Face detection apparatus, face detection method, robotic device, program, and recording medium
US5606390A (en) Visual-line detecting device and optical apparatus having the same
JP2003211381A (en) Robot control device
US20070242142A1 (en) Image restoration apparatus, camera and program
CN2645862Y (en) Mobile mechanical arm system
US20110234854A1 (en) Information processing apparatus, information processing method, and program
CN1701213A (en) Stereo camera supporting apparatus, stereo camera supporting method, calibration detection apparatus, calibration correction apparatus, and stereo camera system
JP2006139525A (en) Autonomous mobile robot
Nagumo et al. Human following behavior of an autonomous mobile robot using light-emitting device
US20100286823A1 (en) Robot
JP2006191524A (en) Auto framing device and photographing device
JP2006311311A (en) Imaging apparatus and method
US20060177209A1 (en) Imaging apparatus
US6614480B1 (en) Apparatus and a method for automatically focusing on a subject
JP2007160446A (en) Legged mobile robot control device and legged mobile robot, and legged mobile robot control method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101102