JP2009060289A - Exposure controller for camera - Google Patents

Exposure controller for camera Download PDF

Info

Publication number
JP2009060289A
JP2009060289A JP2007224753A JP2007224753A JP2009060289A JP 2009060289 A JP2009060289 A JP 2009060289A JP 2007224753 A JP2007224753 A JP 2007224753A JP 2007224753 A JP2007224753 A JP 2007224753A JP 2009060289 A JP2009060289 A JP 2009060289A
Authority
JP
Japan
Prior art keywords
image
luminance
brightness
value
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007224753A
Other languages
Japanese (ja)
Other versions
JP4933383B2 (en
Inventor
Takamichi Shimada
貴通 嶋田
Nobuo Higaki
信男 檜垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2007224753A priority Critical patent/JP4933383B2/en
Priority to US12/230,129 priority patent/US8026955B2/en
Priority to EP08015061.8A priority patent/EP2031441B1/en
Publication of JP2009060289A publication Critical patent/JP2009060289A/en
Application granted granted Critical
Publication of JP4933383B2 publication Critical patent/JP4933383B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an exposure controller for a camera mounted on a mobile object that enables the camera to image an object with suitable brightness even when a bright light source such as the sun is reflected within the camera's angle of view. <P>SOLUTION: The camera is mounted on a robot, generates a brightness histogram of an image picked up by at least two image pickup devices (CCD cameras) which pick up an image utilizing incident light from external world in which an object such as human being is present, sets exposure parameters including a shutter speed based on the generated brightness histogram (S10-S22), when the set exposure parameters are found to be out of the predetermined range, when a high-brightness imaging region picked up by high-brightness incident light is present in the image, judges whether it is necessary to remove the high-brightness imaging region (S24, S26), when it is determined that removal of the high-brightness imaging region is necessary, extracts the high-brightness imaging region and removes it from the image (S28, S30, S32). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明はカメラの露出制御装置に関し、より具体的には移動体に搭載されたカメラの露出制御装置に関する。   The present invention relates to a camera exposure control device, and more specifically to a camera exposure control device mounted on a moving body.

従来、例えば下記の特許文献1において、太陽光などの高輝度の光源がカメラの画角内に写り込まれるとき、撮像素子面上に内部反射で発生するゴーストの位置、形状などを予測し、撮影画像のどの部分がゴーストか判定し、判定されたゴースト部分を撮影者の指定により、あるいは自動的に補正(低減処理)する技術が提案されている。
特開2006−129084号公報
Conventionally, for example, in Patent Document 1 below, when a high-intensity light source such as sunlight is reflected within the angle of view of a camera, the position, shape, and the like of a ghost generated by internal reflection on the image sensor surface are predicted, There has been proposed a technique for determining which part of a photographed image is a ghost, and correcting (reducing processing) the determined ghost part by designation of a photographer or automatically.
JP 2006-129084 A

特許文献1記載の技術はいわゆるデジタルカメラやビデオカメラであり、ユーザが人などの撮影対象に向けて操作して撮影するカメラについての技術であるが、その種のカメラを移動ロボットなどの移動体に搭載して視覚センサとして使用することがある。   The technique described in Patent Document 1 is a so-called digital camera or video camera, which is a technique for a camera that is photographed by a user operating a shooting target such as a person. It may be used as a visual sensor.

そのような場合、画像内に本来撮影したい人などの撮影対象が写っているか不明であることから距離情報に基づいて露出パラメータを調整することになるが、図15に示す如く、太陽光やスポットライトなどの高輝度の光源がカメラの画角内に写り込まれるとき、輝度値の飽和を避けようとしてシャッタ速度を上げたり、絞りを閉じたりすると、撮影対象の輝度値が潰れてしまい、撮影対象の抽出などの後段の処理に適した画像が得られないことがある。図15で実際には人は画面に右側に存在する。   In such a case, since it is unclear whether or not a subject such as a person who wants to shoot is included in the image, exposure parameters are adjusted based on distance information. However, as shown in FIG. When a high-intensity light source such as a light is captured within the angle of view of the camera, if you increase the shutter speed or close the aperture to avoid saturation of the brightness value, the brightness value of the subject will be crushed and shot An image suitable for subsequent processing such as target extraction may not be obtained. In FIG. 15, the person is actually present on the right side of the screen.

従ってこの発明の目的は上記した課題を解決し、移動体に搭載されるカメラであって、太陽光などの高輝度の光源がカメラの画角内に写り込まれるときも撮影対象を適切な輝度値で撮影するようにしたカメラの露出制御装置を提供することにある。   Accordingly, an object of the present invention is to solve the above-described problems, and is a camera mounted on a moving body, and when a high-luminance light source such as sunlight is reflected within the angle of view of the camera, An object of the present invention is to provide an exposure control device for a camera that takes pictures with values.

上記した課題を解決するために、請求項1に係るカメラの露出制御装置にあっては、移動体に搭載され、撮影対象を含む外界からの入射光によって画像を撮像する少なくとも2個の撮像素子と、前記撮像素子によって撮像された画像の輝度値ヒストグラムを生成し、前記生成された輝度値ヒストグラムに基づいてシャッタ速度を含む露出パラメータを設定する露出パラメータ設定手段と、前記設定された露出パラメータが所定範囲内にあるか否か判断し、所定範囲内にないと判断されるとき、前記画像に高輝度の入射光によって撮像された高輝度撮像部位がある場合、前記高輝度撮像部位を除去する必要があるか否か判定する高輝度撮像部位除去要否判定手段と、前記高輝度撮像部位を除去する必要があると判定されるとき、前記高輝度撮像部位を抽出して前記画像から除去する高輝度撮像部位抽出・除去手段とを備える如く構成した。   In order to solve the above-described problem, in the camera exposure control apparatus according to claim 1, at least two image sensors that are mounted on a moving body and capture an image with incident light from the outside including the subject to be imaged. An exposure parameter setting means for generating a brightness value histogram of an image captured by the image sensor and setting an exposure parameter including a shutter speed based on the generated brightness value histogram, and the set exposure parameter It is determined whether or not the image is within a predetermined range. When it is determined that the image is not within the predetermined range, if the image has a high-intensity imaging region imaged by incident light with high luminance, the high-intensity imaging region is removed. A high-brightness imaging part removal necessity determination unit that determines whether or not it is necessary, and the high-brightness imaging when it is determined that the high-brightness imaging part needs to be removed Was composed as and a high-brightness imaging region extraction and removal means for removing from said image by extracting position.

上記で「高輝度の入射光」とは光源などの輝度が比較的高い入射光を、「高輝度撮像部位」とは高輝度の入射光によって画像に撮像される部位を意味する。   In the above, “high luminance incident light” means incident light having a relatively high luminance such as a light source, and “high luminance imaging portion” means a portion that is imaged by high luminance incident light.

請求項2に係るカメラの露出制御装置にあっては、前記露出パラメータ設定手段は、前記画像の中の前記撮影対象の輝度値と前記画像全体の最大輝度値を算出し、前記算出された輝度値について輝度値ヒストグラムを生成し、前記生成された輝度値ヒストグラムに基づいてシャッタ速度を含む露出パラメータを設定する如く構成した。   In the camera exposure control apparatus according to claim 2, the exposure parameter setting means calculates a luminance value of the photographing target in the image and a maximum luminance value of the entire image, and the calculated luminance is calculated. A luminance value histogram is generated for the values, and an exposure parameter including a shutter speed is set based on the generated luminance value histogram.

請求項3に係るカメラの露出制御装置にあっては、前記撮影対象が人であると共に、前記露出パラメータ設定手段は人の顔部の輝度値と前記画像全体の最大輝度値を算出する如く構成した。   In the camera exposure control apparatus according to claim 3, the photographing object is a person, and the exposure parameter setting means is configured to calculate a luminance value of a human face and a maximum luminance value of the entire image. did.

請求項4に係るカメラの露出制御装置にあっては、前記高輝度撮像部位抽出・除去手段は、前記画像の所定ブロックごとの輝度値の平均値を算出すると共に、輝度値の平均値が所定値以上のブロック群を抽出し、前記抽出されたブロック群の中央位置を算出することで前記高輝度撮像部位を抽出する如く構成した。   In the exposure control apparatus for a camera according to claim 4, the high-luminance imaging region extraction / removal unit calculates an average value of luminance values for each predetermined block of the image, and the average value of luminance values is predetermined. A block group equal to or greater than the value is extracted, and the center position of the extracted block group is calculated to extract the high-luminance imaging region.

請求項5に係るカメラの露出制御装置にあっては、前記高輝度撮像部位抽出・除去手段は、前記画像の所定ブロックごとの輝度値の平均値を算出し、前記算出された平均値が最も大きいブロックを抽出し、前記抽出されたブロックに基づいて前記高輝度撮像部位を抽出する如く構成した。   In the camera exposure control apparatus according to claim 5, the high-intensity imaging region extraction / removal unit calculates an average value of luminance values for each predetermined block of the image, and the calculated average value is the largest. A large block is extracted, and the high luminance imaging region is extracted based on the extracted block.

請求項6に係るカメラの露出制御装置にあっては、前記高輝度撮像部位抽出・除去手段は、前記高輝度撮像部位の位置と角度を特定すると共に、前記特定された高輝度撮像部位を前記画像から除去するように前記移動体に所定の行動を生成させる如く構成した。   In the camera exposure control apparatus according to claim 6, the high-intensity imaging part extraction / removal unit specifies a position and an angle of the high-intensity imaging part, and the specified high-intensity imaging part is The moving body is configured to generate a predetermined action so as to be removed from the image.

請求項1に係るカメラの露出制御装置にあっては、移動体に搭載され、撮影対象を含む外界からの入射光によって画像を撮像する少なくとも2個の撮像素子によって撮像された画像の輝度値ヒストグラムに基づいてシャッタ速度を含む露出パラメータを設定し、設定された露出パラメータが所定範囲内にあるか否か判断し、所定範囲内にないと判断されるとき、画像に高輝度の入射光によって撮像された高輝度撮像部位がある場合、それを除去する必要があるか否か判定すると共に、除去する必要があると判定されるとき、高輝度撮像部位を抽出して画像から除去する如く構成したので、太陽光などの高輝度の光源がカメラの画角内に写り込まれるときも、撮影対象を適切な輝度値で撮影することができる。   In the camera exposure control apparatus according to claim 1, a luminance value histogram of an image captured by at least two imaging elements mounted on a moving body and capturing an image with incident light from the outside including the subject to be imaged. The exposure parameter including the shutter speed is set based on the image, and it is determined whether or not the set exposure parameter is within the predetermined range. When it is determined that the exposure parameter is not within the predetermined range, the image is picked up with high-intensity incident light. If there is a high-brightness imaging part, it is determined whether it is necessary to remove it, and when it is determined that it is necessary to remove it, the high-brightness imaging part is extracted and removed from the image Therefore, even when a high-intensity light source such as sunlight is reflected within the angle of view of the camera, it is possible to photograph the photographing object with an appropriate luminance value.

請求項2に係るカメラの露出制御装置にあっては、画像の中の撮影対象の輝度値と画像全体の最大輝度値を算出し、算出された輝度値について輝度値ヒストグラムを生成し、それに基づいてシャッタ速度を含む露出パラメータを設定する如く構成したので、上記した効果に加え、太陽光などの高輝度の光源がカメラの画角内に写り込まれるときも、露出パラメータを的確に設定することができ、よって撮影対象を適切な輝度値で撮影することができる。   In the camera exposure control apparatus according to claim 2, the luminance value of the photographing target in the image and the maximum luminance value of the entire image are calculated, a luminance value histogram is generated for the calculated luminance value, and based thereon In addition to the effects described above, the exposure parameters must be set accurately even when a high-intensity light source such as sunlight is reflected within the angle of view of the camera. Therefore, it is possible to shoot an object to be shot with an appropriate luminance value.

請求項3に係るカメラの露出制御装置にあっては、撮影対象が人であると共に、露出パラメータ設定手段は人の顔部の輝度値と画像全体の最大輝度値を算出する如く構成したので、上記した効果に加え、太陽光などの高輝度のみならず、人の顔部のような低輝度の撮像部位がカメラの画角内に画角内に写り込まれるときも、露出パラメータを的確に設定することができ、よって撮影対象を適切な輝度値で撮影することができる。   In the exposure control apparatus for a camera according to claim 3, since the photographing object is a person, the exposure parameter setting means is configured to calculate the luminance value of the human face and the maximum luminance value of the entire image. In addition to the effects described above, the exposure parameters can be accurately adjusted when not only high brightness such as sunlight but also low-brightness imaging parts such as human faces are reflected within the angle of view of the camera. Therefore, the object to be imaged can be imaged with an appropriate luminance value.

請求項4に係るカメラの露出制御装置にあっては、画像の所定ブロックごとの輝度値の平均値を算出すると共に、それが所定値以上のブロック群を抽出し、抽出されたブロック群の中央位置を算出することで高輝度撮像部位を抽出する如く構成したので、上記した効果に加え、高輝度撮像部位を確実に抽出して画像から除去することができる。   In the camera exposure control apparatus according to claim 4, the average value of the luminance values for each predetermined block of the image is calculated, and a block group having the predetermined value or more is extracted, and the center of the extracted block group Since the high luminance imaging part is extracted by calculating the position, the high luminance imaging part can be reliably extracted and removed from the image in addition to the above-described effects.

請求項5に係るカメラの露出制御装置にあっては、画像の所定ブロックごとの輝度値の平均値を算出し、算出された平均値が最も大きいブロックを抽出し、抽出されたブロックに基づいて高輝度撮像部位を抽出する如く構成したので、上記した効果に加え、同様に高輝度撮像部位を確実に抽出して画像から除去することができる。   In the exposure control apparatus for a camera according to claim 5, an average value of luminance values for each predetermined block of the image is calculated, a block having the largest calculated average value is extracted, and based on the extracted block Since the configuration is such that the high-intensity imaging region is extracted, in addition to the above-described effect, similarly, the high-intensity imaging region can be reliably extracted and removed from the image.

請求項6に係るカメラの露出制御装置にあっては、高輝度撮像部位の位置と角度を特定すると共に、特定された高輝度撮像部位を画像から除去するように移動体に所定の行動を生成させる如く構成したので、上記した効果に加え、高輝度撮像部位を画像から確実に除去することができる。   In the camera exposure control device according to claim 6, the position and angle of the high-intensity imaging part are specified, and a predetermined action is generated in the moving body so as to remove the specified high-intensity imaging part from the image. Since it is configured as described above, in addition to the above-described effects, the high-luminance imaging region can be reliably removed from the image.

以下、添付図面に即してこの発明に係るカメラの露出制御装置を実施するための最良の形態について説明する。   The best mode for carrying out an exposure control apparatus for a camera according to the present invention will be described below with reference to the accompanying drawings.

図1はこの実施例に係るカメラの露出制御装置が搭載される移動体としての脚式移動ロボットの正面図、図2は図1に示すロボットの側面図である。   FIG. 1 is a front view of a legged mobile robot as a moving body on which the camera exposure control apparatus according to this embodiment is mounted, and FIG. 2 is a side view of the robot shown in FIG.

図1に示すように、脚式移動ロボット(移動体。以下単に「ロボット」という)10は、左右2本の脚部12L,12R(左側をL、右側をRとする。以下同じ)を備える。脚部12L,12Rは、基体14の下部に連結される。基体14の上部には頭部16が連結されると共に、側方には左右2本の腕部20L,20Rが連結される。左右の腕部20L,20Rの先端には、それぞれハンド(エンドエフェクタ)22L,22Rが連結される。この実施例にあっては、脚式移動ロボットとして、2本の脚部と2本の腕部を備えた、1.3m程度の身長を有するヒューマノイド型のロボットを例にとる。   As shown in FIG. 1, a legged mobile robot (moving body; hereinafter simply referred to as “robot”) 10 includes two left and right leg portions 12L and 12R (L on the left side and R on the right side; the same applies hereinafter). . The leg portions 12L and 12R are connected to the lower portion of the base 14. A head portion 16 is connected to the upper portion of the base body 14, and two left and right arm portions 20L and 20R are connected to the side. Hands (end effectors) 22L and 22R are connected to the tips of the left and right arm portions 20L and 20R, respectively. In this embodiment, a humanoid robot having a height of about 1.3 m and having two legs and two arms is taken as an example of a legged mobile robot.

図2に示すように、基体14の背部には格納部24が設けられ、その内部には電子制御ユニット(以下「ECU」と呼ぶ)26およびバッテリ(図示せず)などが収容される。   As shown in FIG. 2, a storage portion 24 is provided on the back of the base 14, and an electronic control unit (hereinafter referred to as “ECU”) 26, a battery (not shown), and the like are accommodated therein.

図3は、図1に示すロボット10をスケルトンで表す説明図である。以下、図3を参照し、ロボット10の内部構造について関節を中心に説明する。尚、図示のロボット10は左右対称であるので、以降L,Rの付記を省略する。   FIG. 3 is an explanatory diagram showing the robot 10 shown in FIG. 1 as a skeleton. Hereinafter, the internal structure of the robot 10 will be described with a focus on joints with reference to FIG. Since the illustrated robot 10 is bilaterally symmetric, L and R are not described below.

左右の脚部12は、それぞれ大腿リンク30と下腿リンク32と足部34とを備える。大腿リンク30は、股関節を介して基体14に連結される。図3では、基体14を基体リンク36として簡略的に示すが、基体リンク36は、関節38を介して上半部36aと下半部36bとが相対変位自在に構成される。   The left and right legs 12 include a thigh link 30, a crus link 32, and a foot 34, respectively. The thigh link 30 is connected to the base body 14 via a hip joint. In FIG. 3, the base body 14 is simply shown as the base link 36, but the base link 36 is configured such that the upper half 36 a and the lower half 36 b can be relatively displaced via a joint 38.

大腿リンク30と下腿リンク32は膝関節を介して連結されると共に、下腿リンク32と足部34は足関節を介して連結される。股関節は、Z軸(ヨー軸)回りの回転軸40と、Y軸(ピッチ軸)回りの回転軸42と、X軸(ロール軸)回りの回転軸44とから構成される。即ち、股関節は3自由度を備える。   The thigh link 30 and the lower leg link 32 are connected via a knee joint, and the lower leg link 32 and the foot 34 are connected via an ankle joint. The hip joint includes a rotation axis 40 around the Z axis (yaw axis), a rotation axis 42 around the Y axis (pitch axis), and a rotation axis 44 around the X axis (roll axis). That is, the hip joint has three degrees of freedom.

膝関節はY軸回りの回転軸46から構成され、1自由度を備える。足関節はY軸回りの回転軸48とX軸回りの回転軸50とから構成され、2自由度を備える。このように、左右の脚部12のそれぞれには3個の関節を構成する6個の回転軸(自由度)が与えられ、脚部全体としては合計12個の回転軸が与えられる。   The knee joint is composed of a rotation axis 46 around the Y axis and has one degree of freedom. The ankle joint includes a rotation axis 48 around the Y axis and a rotation axis 50 around the X axis, and has two degrees of freedom. In this way, each of the left and right leg parts 12 is provided with six rotation axes (degrees of freedom) constituting three joints, and the leg part as a whole is provided with a total of twelve rotation axes.

脚部12は、アクチュエータ(図示せず)によって駆動される。脚部12を駆動する脚部アクチュエータは基体14と脚部12の適宜位置に配置された12個の電動モータからなり、上記した12個の回転軸を個別に駆動する。   The leg 12 is driven by an actuator (not shown). The leg actuator that drives the leg 12 includes twelve electric motors arranged at appropriate positions of the base 14 and the leg 12, and individually drives the twelve rotating shafts described above.

また、左右の腕部20は、それぞれ上腕リンク52と下腕リンク54を備える。上腕リンク52は、肩関節を介して基体14に連結される。上腕リンク52と下腕リンク54は、肘関節を介して連結されると共に、下腕リンク54とハンド22は手首関節を介して連結される。   The left and right arm portions 20 include an upper arm link 52 and a lower arm link 54, respectively. The upper arm link 52 is connected to the base body 14 through a shoulder joint. The upper arm link 52 and the lower arm link 54 are connected via an elbow joint, and the lower arm link 54 and the hand 22 are connected via a wrist joint.

肩関節はY軸回りの回転軸56とX軸回りの回転軸58とZ軸回りの回転軸60とから構成され、3自由度を備える。肘関節はY軸回りの回転軸62から構成され、1自由度を備える。手首関節はZ軸回りの回転軸64とY軸回りの回転軸66とX軸回りの回転軸68とから構成され、3自由度を備える。このように、左右の腕部20のそれぞれには3個の関節を構成する7個の回転軸(自由度)が与えられ、腕部全体として合計14個の回転軸が与えられる。   The shoulder joint includes a rotation axis 56 around the Y axis, a rotation axis 58 around the X axis, and a rotation axis 60 around the Z axis, and has three degrees of freedom. The elbow joint is composed of a rotation shaft 62 around the Y axis and has one degree of freedom. The wrist joint includes a rotation axis 64 around the Z axis, a rotation axis 66 around the Y axis, and a rotation axis 68 around the X axis, and has three degrees of freedom. In this manner, each of the left and right arm portions 20 is provided with seven rotation axes (degrees of freedom) constituting three joints, and a total of 14 rotation axes are provided as the entire arm portion.

腕部20も、脚部12と同様に図示しないアクチュエータによって駆動される。腕部20を駆動する腕部アクチュエータは基体14と腕部20の適宜位置に配置された14個の電動モータからなり、上記した14個の回転軸を個別に駆動する。ロボット10は脚部アクチュエータあるいは腕部アクチュエータの動作が制御されて各回転軸が適宜な角度で駆動されることにより、脚部12あるいは腕部20に所望の動きが与えられる。   The arm portion 20 is also driven by an actuator (not shown) as with the leg portion 12. The arm actuator for driving the arm 20 is composed of 14 electric motors arranged at appropriate positions of the base 14 and the arm 20 and individually drives the 14 rotation shafts described above. In the robot 10, the movement of the leg actuator or the arm actuator is controlled so that each rotation axis is driven at an appropriate angle, whereby a desired movement is given to the leg 12 or the arm 20.

ハンド22には、5本の指部70が設けられる。指部70は図示しないハンドアクチュエータによって動作自在とされ、腕部20の動きに連動して物を把持する、あるいは適宜な方向を指差すなどの動作が実行可能とされる。   The hand 22 is provided with five finger portions 70. The finger unit 70 can be operated by a hand actuator (not shown), and can perform operations such as gripping an object in conjunction with the movement of the arm unit 20 or pointing in an appropriate direction.

頭部16は、基体14に首関節を介して連結される。首関節はZ軸回りの回転軸72とY軸回りの回転軸74とから構成され、2自由度を備える。回転軸72,74も、図示しない頭部アクチュエータによって個別に駆動される。頭部アクチュエータの動作を制御して回転軸72,74を適宜な角度で駆動することにより、頭部16を所望の方向に向けることができる。基体リンク36も関節38に配置されたアクチュエータ(図示せず)を駆動することで、上半部36aと下半部36bが相対回転させられる。   The head 16 is connected to the base 14 via a neck joint. The neck joint includes a rotation shaft 72 around the Z axis and a rotation shaft 74 around the Y axis, and has two degrees of freedom. The rotary shafts 72 and 74 are also individually driven by a head actuator (not shown). By controlling the operation of the head actuator and driving the rotary shafts 72 and 74 at an appropriate angle, the head 16 can be directed in a desired direction. The base link 36 also drives an actuator (not shown) disposed at the joint 38, whereby the upper half 36a and the lower half 36b are relatively rotated.

左右の脚部12には、それぞれ力センサ(6軸力センサ)76が取り付けられ、床面から脚部12に作用する床反力の3方向成分Fx,Fy,Fzとモーメントの3方向成分Mx,My,Mzを示す信号を出力する。左右の腕部20にも同種の力センサ78がハンド22と手首関節の間で取り付けられ、腕部20に作用する外力の3方向成分Fx,Fy,Fzとモーメントの3方向成分Mx,My,Mzを示す信号を出力する。   A force sensor (6-axis force sensor) 76 is attached to each of the left and right legs 12, and the three-direction components Fx, Fy, Fz of the floor reaction force acting on the leg 12 from the floor and the three-direction components Mx of the moment. , My, and Mz are output. The same type of force sensor 78 is also attached to the left and right arm portions 20 between the hand 22 and the wrist joint, and the three-direction components Fx, Fy, Fz of the external force acting on the arm portion 20 and the three-direction components Mx, My, A signal indicating Mz is output.

基体14には傾斜センサ80が設置され、鉛直軸に対する基体14の傾斜角度とその角速度などの状態量を示す信号を出力する。頭部16には、人などの撮影対象を含む外界からの入射光によって撮像する2個(左右)のCCDカメラ(以下「カメラ」という)82が設置され。また、頭部16には、マイクロフォン84aとスピーカ84bからなる音声入出力装置84が設けられる。   A tilt sensor 80 is installed on the base 14 and outputs a signal indicating a state quantity such as the tilt angle of the base 14 with respect to the vertical axis and its angular velocity. The head 16 is provided with two (left and right) CCD cameras (hereinafter referred to as “cameras”) 82 that capture images by incident light from the outside including a subject such as a person. The head 16 is provided with a voice input / output device 84 including a microphone 84a and a speaker 84b.

上記したセンサなどの出力は、ECU26(図2に示す)に入力される。ECU26はマイクロコンピュータからなり、図示しないCPUや入出力回路、ROM、RAMなどを備える。   The output of the above-described sensor or the like is input to the ECU 26 (shown in FIG. 2). The ECU 26 includes a microcomputer and includes a CPU, an input / output circuit, a ROM, a RAM, and the like (not shown).

図4は、ロボット10の構成をECU26の入出力関係を中心に示すブロック図である。   FIG. 4 is a block diagram showing the configuration of the robot 10 with the input / output relationship of the ECU 26 as the center.

図示の如く、ロボット10は、上記したセンサなどに加え、回転軸40などのそれぞれに配置されたロータリエンコーダ群86と、ジャイロセンサ88と、GPS受信器90と、人(撮影対象)が携行するICタグ92に無線系で接続されてICタグ92から発信されるICタグ情報を受信するICタグ信号受信器(リーダ)94を備える。   As shown in the figure, the robot 10 is carried by a rotary encoder group 86, a gyro sensor 88, a GPS receiver 90, and a person (photographing target) arranged on each of the rotating shafts 40 in addition to the above-described sensors. An IC tag signal receiver (reader) 94 that is connected to the IC tag 92 wirelessly and receives IC tag information transmitted from the IC tag 92 is provided.

ロータリエンコーダ群86はそれぞれ、回転軸40などの回転角度、即ち、関節角度に応じた信号を出力する。ジャイロセンサ88は、ロボット10の移動方向と距離に応じた信号を出力する。GPS受信器90は衛星から発信された電波を受信し、ロボット10の位置情報(緯度と経度)を取得してECU26に出力する。ICタグ信号受信器94は、ICタグ92に記憶されると共に、それから発信される識別情報(RFID(Radio Frequency ID)、具体的にはICタグ92の携行者である人を識別する識別情報)を無線系で受信してECU26に出力する。   Each of the rotary encoder groups 86 outputs a signal corresponding to the rotation angle of the rotary shaft 40 or the like, that is, the joint angle. The gyro sensor 88 outputs a signal corresponding to the moving direction and distance of the robot 10. The GPS receiver 90 receives a radio wave transmitted from a satellite, acquires position information (latitude and longitude) of the robot 10 and outputs it to the ECU 26. The IC tag signal receiver 94 is stored in the IC tag 92 and transmitted from the identification information (RFID (Radio Frequency ID), specifically, identification information for identifying the person who carries the IC tag 92). Is received by the wireless system and output to the ECU 26.

ECU26は、力センサ76、傾斜センサ80およびロータリエンコーダ群86の出力に基づいて歩容を生成して歩行制御を行う。具体的には、前記した脚部アクチュエータ(符号100で示す)の動作を制御して脚部12を駆動してロボット10を移動(歩行)させる。歩容生成および歩行制御については本出願人が提案した特許第3726081号に記載されているので、詳細な説明は省略する。   The ECU 26 performs gait control by generating a gait based on the outputs of the force sensor 76, the tilt sensor 80, and the rotary encoder group 86. Specifically, the operation of the above-described leg actuator (indicated by reference numeral 100) is controlled to drive the leg 12 to move (walk) the robot 10. Since gait generation and walking control are described in Japanese Patent No. 3726081 proposed by the present applicant, detailed description thereof is omitted.

また、ECU26は、歩行制御などに付随して腕部アクチュエータ(符号102で示す)とハンドアクチュエータ(符号104で示す)の動作を制御して腕部20とハンド22を駆動すると共に、頭部アクチュエータ(符号106で示す)の動作を制御して頭部16の向きを調整する。   The ECU 26 controls the operation of the arm actuator (indicated by reference numeral 102) and the hand actuator (indicated by reference numeral 104) in association with walking control and the like to drive the arm section 20 and the hand 22, and the head actuator. The direction of the head 16 is adjusted by controlling the operation (indicated by reference numeral 106).

さらに、ECU26は、カメラ82の露出制御装置として動作、即ち、カメラ82の露出制御を実行する。   Further, the ECU 26 operates as an exposure control device for the camera 82, that is, executes exposure control for the camera 82.

図5は、ECU26がカメラ82の露出制御装置として動作するときの構成を機能的に示すブロック図である。   FIG. 5 is a block diagram functionally showing a configuration when the ECU 26 operates as an exposure control device of the camera 82.

図示の如く、そのときのECU26の動作を機能別に見ると、ECU26は、ステレオ処理部26aと、ヒストグラム生成部26bと、露出パラメータ設定部26cと、高輝度撮像部位除去要否判定部26dと、高輝度撮像部位抽出部26eと、画像処理部26fと、行動生成部26gとからなる。   As shown in the figure, when the operation of the ECU 26 at that time is viewed by function, the ECU 26 includes a stereo processing unit 26a, a histogram generation unit 26b, an exposure parameter setting unit 26c, a high-brightness imaging region removal necessity determination unit 26d, It consists of a high-intensity imaging region extraction unit 26e, an image processing unit 26f, and an action generation unit 26g.

ステレオ処理部26aは、移動体(ロボット)10に搭載され、撮影対象、具体的には人を含む外界からの入射光によって画像を撮像する、少なくとも2個のカメラ(撮像素子)82の出力を入力し、ステレオ処理によって入力した画像の視差から画素ごとの距離情報を算出する。カメラ82の画素の数は320×240とする。ステレオ処理部26aは、濃淡画像データから3次元(3D)データを算出して出力する。   The stereo processing unit 26a is mounted on the moving body (robot) 10 and outputs outputs of at least two cameras (imaging devices) 82 that capture an image with incident light from an imaging target, specifically, an external environment including a person. Then, distance information for each pixel is calculated from the parallax of the image input by stereo processing. The number of pixels of the camera 82 is 320 × 240. The stereo processing unit 26a calculates and outputs three-dimensional (3D) data from the grayscale image data.

ヒストグラム生成部26bは撮影された画像の輝度値ヒストグラムを作成すると共に、距離ごとに、あるいは距離に応じて重み付けを行う。   The histogram generation unit 26b creates a luminance value histogram of the photographed image and performs weighting for each distance or according to the distance.

露出パラメータ設定部26cは、撮像したい距離の輝度値から露出パラメータ(より具体的にはシャッタ速度)を設定する。カメラ82はロボット10に搭載されて視覚センサとして機能する関係上、自ら撮影対象を捜索して撮影することはなく、撮影画像から撮影対象を抽出しなければならない。そのため、カメラ82の絞りは最小に固定され、近距離、具体的には0.5mから2.5m程度で焦点が合うように調整される。従って、露出パラメータとしてはシャッタ速度のみが調整自在とされる。   The exposure parameter setting unit 26c sets the exposure parameter (more specifically, the shutter speed) from the luminance value at the distance to be imaged. Since the camera 82 is mounted on the robot 10 and functions as a visual sensor, the camera 82 does not search and shoot the shooting target itself, but must extract the shooting target from the shot image. Therefore, the diaphragm of the camera 82 is fixed to the minimum, and is adjusted so as to be focused at a short distance, specifically, about 0.5 m to 2.5 m. Therefore, only the shutter speed can be adjusted as an exposure parameter.

高輝度撮像部位除去要否判定部26dは、撮影対象を撮影するのに適正な露出を得るため、画像内に光源などの高輝度の入射光によって撮像された高輝度撮像部位を画像内から除去する必要があるか否か判定する。   The high-brightness imaging part removal necessity determination unit 26d removes from the image a high-brightness imaging part imaged by high-luminance incident light such as a light source in the image in order to obtain an appropriate exposure for photographing the subject. Determine if you need to do that.

高輝度撮像部位抽出部26eは、高輝度撮像部位を画像内から除去する必要があると判定された場合、高輝度撮像部位を抽出し、カメラ82のカメラパラメータに基づいてステージ座標系、即ち、画面の1点を原点とし、床面をx,y平面とする直交座標系での高輝度撮像部位の位置と角度を算出する。高輝度撮像部位の抽出は、輝度値の平均値がしきい値より大きい領域を高輝度撮像部位の領域と判定するか、あるいは画像の所定ブロックごとの輝度値の平均値を算出し、その値の最も大きいブロックを高輝度撮像部位の中心と判定することで行う。   When it is determined that the high-brightness imaging part needs to be removed from the image, the high-brightness imaging part extraction unit 26e extracts the high-brightness imaging part and determines the stage coordinate system based on the camera parameters of the camera 82, that is, The position and angle of the high-luminance imaging region in the orthogonal coordinate system with one point on the screen as the origin and the floor surface as the x and y planes are calculated. Extraction of the high-intensity imaging region is performed by determining an area where the average luminance value is greater than the threshold as an area of the high-intensity imaging region, or calculating an average value of luminance values for each predetermined block of the image, The largest block is determined as the center of the high brightness imaging region.

画像処理部26fは、ロボット10が移動するとき、視覚センサとしての画像処理を行う。行動生成部26gは、高輝度撮像部位の大きさなどから高輝度撮像部位を画像から除去するようにロボット10に所定の行動を生成させる。   The image processing unit 26f performs image processing as a visual sensor when the robot 10 moves. The behavior generation unit 26g causes the robot 10 to generate a predetermined behavior so as to remove the high luminance imaging region from the image based on the size of the high luminance imaging region.

次いで、上記したECU26の動作をさらに詳細に説明する。   Next, the operation of the ECU 26 will be described in more detail.

図6は、図5と同様、ECU26がカメラ82の露出制御装置として動作するときの処理を示すフロー・チャートである。図示のプログラムは所定時刻、例えば1msecから300msecの間の任意の時刻ごとに実行される。   FIG. 6 is a flowchart showing processing when the ECU 26 operates as an exposure control device of the camera 82, as in FIG. The illustrated program is executed at a predetermined time, for example, every arbitrary time between 1 msec and 300 msec.

以下説明すると、S10において撮影対象、即ち、人がいるか否か判断する。これは撮影対象が携行するICタグ92から発信される識別情報を受信するICタグ信号受信器94の出力から判断する。   In the following, in S10, it is determined whether or not there is a subject to be imaged, that is, a person. This is determined from the output of the IC tag signal receiver 94 that receives the identification information transmitted from the IC tag 92 carried by the subject.

S10で肯定されるときはS12に進み、カメラ82で撮影対象を撮影して得た画像、即ち、画面の中の撮影対象の輝度値を算出し、S14に進み、撮影対象を含む画面全体の最大輝度値を算出する。尚、S10で否定されるときはS12の処理をスキップする。   When the result in S10 is affirmative, the process proceeds to S12, where the brightness value of the image to be photographed in the screen, that is, the image obtained by photographing the object to be photographed by the camera 82 is calculated. The maximum luminance value is calculated. If the result in S10 is negative, the process in S12 is skipped.

次いでS16に進み、算出された輝度値同士を比較し、最大輝度値の方が大きいときはS18に進んで最大輝度値を高輝度撮像部位と判定すると共に、撮影対象の輝度値の方が大きいときはS20に進んでそれを高輝度撮像部位と判定する。S10からS20までの処理は図5のステレオ処理部26aによって実行される。次いでS22に進んで露出パラメータ設定処理を実行する。   Next, the process proceeds to S16, and the calculated brightness values are compared with each other. If the maximum brightness value is larger, the process proceeds to S18, where the maximum brightness value is determined as a high brightness imaging region, and the brightness value of the imaging target is greater. When the process proceeds to S20, it is determined to be a high-luminance imaging region. The processing from S10 to S20 is executed by the stereo processing unit 26a of FIG. Next, in S22, exposure parameter setting processing is executed.

図7はその処理を示すサブ・ルーチン・フロー・チャートであり、前記したヒストグラム生成部26bと露出パラメータ設定部26cによって実行される。   FIG. 7 is a sub-routine flow chart showing the processing, which is executed by the histogram generation unit 26b and the exposure parameter setting unit 26c.

以下説明すると、S100において対象画素を抽出する。ここで「対象画素」は、露出を合わせたい距離情報を持つ画素を意味する。この対象画素の抽出は、撮影対象を撮影して得た画像の輝度値ヒストグラムを生成することに相当する。   In the following, the target pixel is extracted in S100. Here, “target pixel” means a pixel having distance information for which exposure is desired to be adjusted. This extraction of the target pixel corresponds to generating a luminance value histogram of an image obtained by shooting the shooting target.

次いでS102に進み、抽出した画素の数が適宜設定されるしきい値Aを超えるか否か判断する。尚、しきい値Aは、露出を合わせたい距離での撮影対象の画面全体に占めるべき面積を算出して予め設定される値である。   Next, in S102, it is determined whether or not the number of extracted pixels exceeds a threshold A that is set as appropriate. The threshold A is a value set in advance by calculating the area that should occupy the entire screen to be imaged at a distance where exposure is desired to be adjusted.

S102で肯定されるときはS104に進み、輝度値の平均値を以下の式1に従って算出する。
輝度値の平均値=前フレーム平均値×(1−抽出画素数×係数/領域画素数)
+現フレーム平均値(距離考慮)×抽出画素数/領域画素数
・・・式1
When the result is affirmative in S102, the process proceeds to S104, and the average value of the luminance values is calculated according to the following equation 1.
Average value of luminance value = average value of previous frame × (1−number of extracted pixels × coefficient / number of area pixels)
+ Current frame average (considering distance) x number of extracted pixels / number of area pixels
... Formula 1

次いでS106に進み、カウンタ(アップカウンタ)の値をリセットする。他方、S102で否定されるときはS108に進み、カウンタの値が適宜設定されるしきい値B未満か否か判断し、肯定されるときはS110に進み、輝度値の平均値を以下の式2に従って算出し、S112に進んでカウンタの値を更新(アップ)する。
輝度値の平均値=前フレーム平均値×(1−係数)+現フレーム平均値×係数
・・・式2
Next, in S106, the value of the counter (up counter) is reset. On the other hand, when the result in S102 is negative, the process proceeds to S108, where it is determined whether or not the counter value is less than a threshold value B that is set as appropriate. 2 is calculated, and the process proceeds to S112 to update (up) the counter value.
Average luminance value = previous frame average value × (1−coefficient) + current frame average value × coefficient
... Formula 2

またS108で否定されるときはS114に進み、輝度値の平均値を以下の式3に従って算出し、次いでS112に進む。
輝度値の平均値=現フレーム平均値 ・・・式3
When the result in S108 is negative, the process proceeds to S114, the average value of the luminance values is calculated according to the following expression 3, and then the process proceeds to S112.
Average value of luminance value = Average value of current frame (3)

上の式1などで、「前フレーム平均値」は200msecごとに撮影されている画像(フレーム)の過去の数フレームの全(即ち、画面全体の)画素の輝度値を平均して得た値、「抽出画素数」はS100で抽出された画素の数、「領域画素数」は抽出画素を含む、全(即ち、画面全体の)画素の数、「係数」は経験で求められる補正係数、「現フレーム平均値」は今回撮影された全(即ち、画面全体の)画素の輝度値を平均して得た値である。前記したように画素は全て距離情報を持つことから、画素の輝度値を平均するときも距離を勘案して行う。   In the above formula 1, etc., the “previous frame average value” is a value obtained by averaging the luminance values of all the pixels of the past several frames (that is, the entire screen) of the image (frame) taken every 200 msec. , “The number of extracted pixels” is the number of pixels extracted in S100, “the number of area pixels” is the number of all (that is, the entire screen) pixels including the extracted pixels, “coefficient” is a correction coefficient obtained through experience, The “current frame average value” is a value obtained by averaging the luminance values of all the pixels photographed this time (that is, the entire screen). As described above, since all the pixels have distance information, the luminance value of the pixels is averaged in consideration of the distance.

次いでS116に進み、S104などで算出された輝度値の平均値が適宜設定されるしきい値C未満か、あるいはしきい値Dを超えるか否か判断する。しきい値C,Dは画像処理が可能な値を経験的に選択して設定される。   Next, the process proceeds to S116, where it is determined whether or not the average value of the luminance values calculated in S104 or the like is less than a threshold C that is set as appropriate or exceeds a threshold D. The thresholds C and D are set by empirically selecting values that allow image processing.

S116で肯定されるときはS118に進み、露出パラメータの一つであるシャッタ速度のシフト量(変更量)を以下の式4に従って算出(換言すれば、露出パラメータを設定)する。
シフト量=(輝度値の平均値−しきい値C,D/2)×現シャッタ速度×係数1
・・・式4
When the result in S116 is affirmative, the process proceeds to S118, and the shift amount (change amount) of the shutter speed, which is one of the exposure parameters, is calculated according to the following expression 4 (in other words, the exposure parameter is set).
Shift amount = (average luminance value−threshold value C, D / 2) × current shutter speed × coefficient 1
... Formula 4

即ち、S118においては、輝度値の平均値がしきい値Cとしきい値Dの中央となるようにシャッタ速度のシフト量を算出する。尚、係数1は経験から設定される補正係数である。前記したようにカメラ82の絞りは最小に固定され、露出パラメータとしてはシャッタ速度のみが調整自在とされる。   That is, in S118, the shutter speed shift amount is calculated so that the average value of the luminance values is in the middle of the threshold value C and the threshold value D. The coefficient 1 is a correction coefficient set from experience. As described above, the aperture of the camera 82 is fixed to the minimum, and only the shutter speed can be adjusted as an exposure parameter.

他方、S116で否定されるときはS120に進み、基準値を以下の式5に従って算出し、S122に進み、算出された基準値などを用いてシャッタ速度のシフト量(変更量)を以下の式6に従って算出(換言すれば、露出パラメータを設定)する。式5,6において係数2,3も経験から設定される補正係数である。
基準値=輝度値の平均値−(有効輝度しきい値を超える画素数―有効輝度しきい値未満の画素数)/係数2 ・・・式5
シフト量=(輝度値の平均値−基準値)×現シャッタ速度×係数3
・・・式6
On the other hand, when the result in S116 is negative, the process proceeds to S120, the reference value is calculated according to the following expression 5, and the process proceeds to S122, where the shutter speed shift amount (change amount) is calculated using the calculated reference value and the like. 6 is calculated (in other words, an exposure parameter is set). In equations 5 and 6, coefficients 2 and 3 are also correction coefficients set from experience.
Reference value = average value of luminance value− (number of pixels exceeding the effective luminance threshold−number of pixels less than the effective luminance threshold) / coefficient 2.
Shift amount = (average luminance value−reference value) × current shutter speed × coefficient 3
... Formula 6

図7の処理を説明すると、この実施例においては、例えば図8に示すように太陽光などの外光が採光窓から入射して画面に写り込まれるような状況において撮影対象を適切な輝度値で撮影することを課題とする。   The processing of FIG. 7 will be described. In this embodiment, for example, as shown in FIG. 8, an appropriate luminance value is set for a subject to be photographed in a situation in which external light such as sunlight enters from the lighting window and is reflected on the screen. Shooting with

図8に示す撮影状況において、図9に示すような通常の輝度値ヒストグラムを算出すると、白潰れ(飽和)している画素が黒詰まり(感度不足)している画素を大きく上回っているため、それに基づいて露出調整すると、撮影対象が黒詰まりを起こしてしまう。また、図8では撮影対象が画面中央付近から若干左に位置しているため、画面中央付近の輝度情報に基づいて露出調整しても同様の結果となる。   In the shooting situation shown in FIG. 8, when a normal luminance value histogram as shown in FIG. 9 is calculated, the white squashed (saturated) pixels greatly exceed the black clogged (insufficient sensitivity) pixels. If the exposure is adjusted based on this, the subject to be photographed will be clogged with black. Further, in FIG. 8, since the object to be photographed is located slightly to the left from the vicinity of the center of the screen, the same result is obtained even if the exposure is adjusted based on the luminance information near the center of the screen.

そこで、図10に示すような視差画像を求め、図11に示すような距離によって重み付けを行った輝度値ヒストグラムを算出する。図11に示すヒストグラムでは、カメラ82に近い画素の値を重視した場合、白潰れと黒詰まりの頻度が同程度となり、露出調整が最適となる。図8は、そのような距離による重み付けを行った輝度値ヒストグラムに基づいて露出調整した場合を示す。   Therefore, a parallax image as shown in FIG. 10 is obtained, and a luminance value histogram weighted by the distance as shown in FIG. 11 is calculated. In the histogram shown in FIG. 11, when the value of a pixel close to the camera 82 is regarded as important, the frequency of white crushing and black clogging is approximately the same, and exposure adjustment is optimal. FIG. 8 shows a case where exposure is adjusted based on a luminance value histogram weighted by such distance.

さらに、図7の処理において、図8に示すように撮影対象が画面内に一旦存在した後、経時的に移動して画面から消える事態も生じる。そこで、S102で肯定されて撮影対象が画面内に存在するか、あるいはS102で否定されてもS108でカウンタの値がしきい値B(例えば数フレーム)未満と判断されるとき、輝度値の平均値は現フレームの輝度値の平均値と前フレームのそれとの加重平均を算出するようにした(S104あるいはS110)。尚、S108で否定されてしきい値を超えるときは過去の撮影データと切り離し、画面全体の画素の平均値を輝度値の平均値をする(S114)。   Further, in the processing of FIG. 7, as shown in FIG. 8, there is a situation in which the object to be imaged once exists in the screen and then moves with time to disappear from the screen. Therefore, if the object to be photographed exists in the screen in the affirmative in S102, or the counter value is determined to be less than the threshold value B (for example, several frames) in S108 even if the object is denied in S102, the average of the luminance values As a value, a weighted average of the average luminance value of the current frame and that of the previous frame is calculated (S104 or S110). When the result in S108 is negative and the threshold value is exceeded, the image data is separated from the past shooting data, and the average value of the pixels of the entire screen is set as the average value of the luminance values (S114).

さらに、図7の処理においては撮影対象の存在が否定され、画面の最大輝度値が高輝度撮像部位と判定される場合も含まれる。そのような場合もS108で否定されてカウンタの値がしきい値Bに達した時点でS114に進み、画面全体の画素の平均値が輝度値の平均値とされる(S114)。   Further, the processing of FIG. 7 includes a case where the existence of the imaging target is denied and the maximum luminance value of the screen is determined as the high luminance imaging region. Even in such a case, when the result in S108 is negative and the counter value reaches the threshold value B, the process proceeds to S114, and the average value of the pixels on the entire screen is set as the average value of the luminance values (S114).

シャッタ速度のシフト量について説明すると、輝度値の平均値がしきい値Cとしきい値Dの間にあるときは、平均値が2つのしきい値の中央に入るように式4に従ってシフト量が算出される(S118)。   The shift amount of the shutter speed will be described. When the average value of the luminance values is between the threshold value C and the threshold value D, the shift amount is determined according to Equation 4 so that the average value falls in the center of the two threshold values. Calculated (S118).

他方、然らざる場合、式5に従って最初に基準値を算出する。図11を参照して式5を説明すると、「有効輝度しきい値を超える画素数」は例えば輝度値25を超える画素数であり、「有効輝度しきい値未満の画素数」は例えば輝度値225未満の画素数である。即ち、例えば輝度値25を超えて225未満の画素の平均値を輝度平均値から減算して得た差を基準値とし、しきい値C,Dの1/2に代え、その基準値を輝度平均値から除算することでシャット速度の変更量を算出する。   On the other hand, if not, the reference value is first calculated according to Equation 5. When Expression 5 is described with reference to FIG. 11, “the number of pixels exceeding the effective luminance threshold” is, for example, the number of pixels exceeding the luminance value 25, and “the number of pixels less than the effective luminance threshold” is, for example, the luminance value. The number of pixels is less than 225. That is, for example, a difference obtained by subtracting the average value of pixels exceeding the luminance value 25 and less than 225 from the luminance average value is used as a reference value, and the reference value is used instead of the threshold values C and D. The amount of change in the shut speed is calculated by dividing from the average value.

図6フロー・チャートの説明に戻ると、次いでS24に進み、図7フロー・チャートのS118あるいはS122で算出されたシャッタ速度のシフト量(換言すれば設定された露出パラメータ)が所定範囲内にあるか否か判断し、肯定されるときは算出されたシフト量に従って図示しないルーチンでシャッタ速度を変更して撮影することで適正な輝度値で撮影できることから、以降の処理をスキップする。   Returning to the description of the flowchart of FIG. 6, the process then proceeds to S24, where the shutter speed shift amount (in other words, the set exposure parameter) calculated in S118 or S122 of the flowchart of FIG. 7 is within a predetermined range. If the result is affirmative and the result is affirmative, it is possible to shoot with an appropriate luminance value by changing the shutter speed according to a routine not shown in accordance with the calculated shift amount, so that the subsequent processing is skipped.

他方、S24で否定されるときはS26に進み、高輝度撮像部位除去要否判定処理を実行する。   On the other hand, when the result in S24 is negative, the program proceeds to S26, in which high luminance imaging part removal necessity determination processing is executed.

図12はその処理を示すサブ・ルーチン・フロー・チャートであり、前記した高輝度撮像部位除去要否判定部26dによって実行される。   FIG. 12 is a sub-routine flowchart showing the processing, which is executed by the high-brightness imaging region removal necessity determination unit 26d.

以下説明すると、S200において撮影対象の位置情報があるか否か判断する。これは図6フロー・チャートのS12あるいは図7フロー・チャートの処理で得られた情報から判断する。   To explain below, in S200, it is determined whether or not there is position information of an imaging target. This is judged from the information obtained in S12 of the flowchart of FIG. 6 or the processing of the flowchart of FIG.

S200で肯定されるときはS202に進み、撮影対象の位置の輝度値の平均値を算出する一方、否定されるときはS204に進み、画面の中の比較的近距離、例えば数m以内の画素の輝度値の平均値を算出する。S200からS204の処理は、図6フロー・チャートのS10からS14の処理に類似する。   When the result in S200 is affirmative, the process proceeds to S202, and the average value of the luminance values at the positions to be photographed is calculated. When the result is negative, the process proceeds to S204, and pixels within a relatively short distance, for example, several meters within the screen. The average value of the luminance values is calculated. The processing from S200 to S204 is similar to the processing from S10 to S14 in the flowchart of FIG.

次いでS206に進み、算出された輝度値の平均値がしきい値E未満か否か判断する。S206の判断は撮影状況が逆光であるか、あるいは順光であるかを判定するためであることから、しきい値Eはそれを判定するに足る値が適宜設定される。   Next, in S206, it is determined whether or not the calculated average value of luminance values is less than the threshold value E. Since the determination in S206 is for determining whether the photographing situation is backlight or direct light, a value sufficient to determine the threshold value E is appropriately set.

S206で肯定されるときは逆光であって撮影対象などが黒詰まりして輝度値が低く、従って撮影対象を撮影するのに適正な露出を得られないと判断されることからS208に進み、高輝度撮像部位を除去する必要があると判定する。他方、S206で否定されるときは、そのような不都合が見られないことからS210に進み、高輝度撮像部位を除去する必要がないと判定する。   When the result in S206 is affirmative, it is determined that the subject is backlit and the subject to be photographed is black and the luminance value is low, and therefore it is determined that an appropriate exposure for photographing the subject to be photographed cannot be obtained. It is determined that it is necessary to remove the luminance imaging region. On the other hand, when the result in S206 is negative, since such inconvenience is not seen, the process proceeds to S210, and it is determined that it is not necessary to remove the high-luminance imaging region.

図6フロー・チャートの説明に戻ると、次いでS28に進み、高輝度撮像部位を除去する必要がないと判定されたか否か判断し、肯定されるときは以降の処理をスキップすると共に、否定されるときはS30に進み、高輝度撮像部位抽出処理を実行する。   Returning to the description of the flow chart of FIG. 6, the process then proceeds to S28, where it is determined whether it is determined that it is not necessary to remove the high-intensity imaging region. If the determination is affirmative, the subsequent processing is skipped and denied. If YES in step S30, the flow advances to step S30 to execute high-intensity imaging part extraction processing.

図13はその処理を示すサブ・ルーチン・フロー・チャートであり、前記した高輝度撮像部位抽出部26eによって実行される。   FIG. 13 is a sub-routine flowchart showing the processing, which is executed by the high-intensity imaging region extraction unit 26e.

以下説明すると、S300において画面のブロックごとの輝度値の平均値を算出する。ここで「ブロック」とは例えば10×10の画素を意味する。カメラ82は320×240の画素数を備えることから、それらについて上記した単位面積ごとに輝度値の平均値を算出する。   In the following, in S300, an average value of luminance values for each block of the screen is calculated. Here, “block” means, for example, a 10 × 10 pixel. Since the camera 82 has 320 × 240 pixels, the average value of the luminance values is calculated for each unit area.

次いでS302に進み、輝度が高い、より具体的には適宜設定されるしきい値を超える高輝度のブロック群を抽出し、S304に進み、それらの分散値を算出、より具体的には輝度が高い部分の広がりを算出する。   Next, the process proceeds to S302, where a group of blocks with high luminance, more specifically, a high-luminance block that exceeds a threshold value that is set as appropriate, is extracted, and the process proceeds to S304, where the variance value is calculated. Calculate the spread of the high part.

次いでS306に進み、算出された分散値が適宜設定されるしきい値Fを超えるか否か判断する。S306で肯定されるときは図8の右側に示すように明るい領域が広く広がっていると判断されることからS308に進み、カメラ82から入力されるカメラパラメータに基づいて高輝度ブロック群の中央位置を算出する。   Next, in S306, it is determined whether or not the calculated variance value exceeds a threshold value F that is set as appropriate. When the result in S306 is affirmative, it is determined that the bright area is wide as shown on the right side of FIG. 8, and the process proceeds to S308, where the center position of the high-luminance block group is determined based on the camera parameters input from the camera 82. Is calculated.

次いでS310に進み、高輝度撮像部位の中心角度、即ち、算出された中央位置に対する角度を算出し、S312に進み、高輝度撮像部位のサイズが大と判定し、その判定結果とS310で算出された高輝度撮像部位の中心角度を出力する。このように、輝度値の平均値がしきい値Fより大きいとき、その領域を高輝度撮像部位の領域と判定し、ステージ座標系での高輝度撮像部位の位置と角度を算出する。   Next, in S310, the central angle of the high-luminance imaging part, that is, the angle with respect to the calculated center position is calculated. In S312, it is determined that the size of the high-luminance imaging part is large, and the determination result and S310 are calculated. The center angle of the high brightness imaging region is output. As described above, when the average value of the luminance values is larger than the threshold value F, the region is determined as the region of the high luminance imaging region, and the position and angle of the high luminance imaging region in the stage coordinate system are calculated.

他方、S306で否定されるときはS314に進み、高輝度ブロック群の中で平均値が最大となるブロックを抽出し、S316に進み、高輝度撮像部位の中心角度、即ち、抽出された平均値が最大となるブロックに対する角度をカメラパラメータに基づいて算出し、S318に進み、高輝度撮像部位のサイズが小さいと判定し、その判定結果とS316で算出された高輝度撮像部位の中心角度を出力する。   On the other hand, when the result in S306 is negative, the process proceeds to S314, where the block having the maximum average value is extracted from the high-luminance block group, and the process proceeds to S316, where the central angle of the high-luminance imaging region, that is, the extracted average value is extracted. Is calculated based on the camera parameters, and the process proceeds to S318, where it is determined that the size of the high-intensity imaging region is small, and the determination result and the center angle of the high-intensity imaging region calculated in S316 are output. To do.

即ち、輝度値の平均値がしきい値より大きくない場合、画像の所定ブロックごとの輝度値の平均値の最も大きいブロックを高輝度撮像部位の中心と判定し、ステージ座標系での高輝度撮像部位の位置と角度を算出する。   That is, when the average value of the luminance values is not larger than the threshold value, the block having the largest average value of the luminance values for each predetermined block of the image is determined as the center of the high-intensity imaging region, and high-intensity imaging in the stage coordinate system The position and angle of the part are calculated.

図6フロー・チャートの説明に戻ると、次いでS32に進み、行動生成処理を実行する。   Returning to the description of the flowchart of FIG. 6, the process then proceeds to S32 to execute an action generation process.

図14はその処理を示すサブ・ルーチン・フロー・チャートであり、前記した行動生成部26gによって実行される。   FIG. 14 is a sub-routine flow chart showing the processing, which is executed by the behavior generating unit 26g.

以下説明すると、S400において図13フロー・チャートのS312あるいはS318で出力された高輝度撮像部位のサイズが1/4Sを超えるか否か判断する。「S」は、画面の面積を示すことから、S400での判断は高輝度部位のサイズが画面の1/4を超えるかを判断することを意味する。   To explain below, in S400, it is determined whether or not the size of the high-luminance imaging region output in S312 or S318 of the flowchart of FIG. 13 exceeds 1 / 4S. Since “S” indicates the area of the screen, the determination in S400 means that it is determined whether the size of the high-luminance portion exceeds 1/4 of the screen.

S400で肯定されるときはS402に進み、高輝度撮像部位のサイズが比較的大きいことから、ロボット10の脚部12を駆動して基体14(および頭部16)の向きを変更して高輝度の入射光を回避する(入射光が入らない)ように動作(行動を生成)させる一方、否定されるときはS404に進み、高輝度撮像部位のサイズが比較的小さいことから、ロボット10の腕部20Rあるいは20Lを駆動して可能な限り伸張させ、ハンド22Rあるいは22Lで高輝度の入射光を遮るように動作(行動を生成)させ、よって高輝度撮像部位を画像から除去する。   When the result in S400 is affirmative, the process proceeds to S402, where the size of the high-intensity imaging region is relatively large, so the leg portion 12 of the robot 10 is driven to change the direction of the base 14 (and the head 16) to increase the luminance. While the operation (generation of action) is performed so as to avoid the incident light (no incident light enters), the process proceeds to S404 when the result is negative, and the size of the high-intensity imaging region is relatively small. The unit 20R or 20L is driven to extend as much as possible, and the hand 22R or 22L operates (generates an action) so as to block incident light with high luminance, thereby removing the high luminance imaging region from the image.

この実施例は上記の如く、移動体(ロボット10)に搭載され、撮影対象(人)を含む外界からの入射光によって画像を撮像、より具体的にはステレオの原理によって画像を撮像する少なくとも2個の撮像素子(CCDカメラ82)と、前記撮像素子によって撮像された画像の輝度値ヒストグラムを生成し、前記生成された輝度値ヒストグラムに基づいてシャッタ速度を含む露出パラメータを設定する露出パラメータ設定手段(ステレオ処理部26a、ヒストグラム生成部26b、露出パラメータ設定部26c,S10からS22,S100からS122)と、前記設定された露出パラメータが所定範囲内にあるか否か判断し、所定範囲内にないと判断されるとき、前記画像に高輝度の入射光によって撮像された高輝度撮像部位がある場合、前記高輝度撮像部位を除去する必要があるか否か判定する高輝度撮像部位除去要否判定手段(高輝度撮像部位除去要否判定部26d,S24,S26,S200からS210)と、前記高輝度撮像部位を除去する必要があると判定されるとき、前記高輝度撮像部位を抽出して前記画像から除去する高輝度撮像部位抽出・除去手段(高輝度撮像部位抽出部26e、行動生成部26f,S28,S30,S32,S300からS318,S400からS404)とを備える如く構成したので、太陽光などの高輝度の光源がカメラ82の画角内に写り込まれるときも、撮影対象を適切な輝度値で撮影することができる。   As described above, this embodiment is mounted on the moving body (robot 10) and takes an image with incident light from the outside including the subject to be photographed (person), more specifically, takes at least two images based on the stereo principle. An exposure parameter setting means for generating a brightness value histogram of an image picked up by the image pickup device (CCD camera 82) and the image pickup device and setting an exposure parameter including a shutter speed based on the generated brightness value histogram (Stereo processing unit 26a, histogram generation unit 26b, exposure parameter setting unit 26c, S10 to S22, S100 to S122) and determines whether the set exposure parameter is within a predetermined range, and is not within the predetermined range When it is determined that there is a high-brightness imaging portion imaged by high-luminance incident light in the image, The high-brightness imaging part removal necessity determination means (high-brightness imaging part removal necessity determination unit 26d, S24, S26, S200 to S210) for determining whether or not it is necessary to remove the high-brightness imaging part, and the high luminance When it is determined that the imaging region needs to be removed, a high-intensity imaging region extraction / removal unit (a high-intensity imaging region extraction unit 26e, an action generation unit 26f, S28, S30, S32, S300 to S318, and S400 to S404). Therefore, even when a high-intensity light source such as sunlight is reflected in the angle of view of the camera 82, the object to be imaged has an appropriate luminance. You can shoot with values.

また、前記露出パラメータ設定手段は、前記画像の中の前記撮影対象の輝度値と前記画像全体の最大輝度値を算出し、前記算出された輝度値について輝度値ヒストグラムを生成し、前記生成された輝度値ヒストグラムに基づいて、より具体的には前記生成された輝度値ヒストグラムの大小に基づいてシャッタ速度を含む露出パラメータを設定する(S10からS22,S100からS122)如く構成したので、上記した効果に加え、太陽光などの高輝度の光源がカメラ82の画角内に写り込まれるときも、露出パラメータを的確に設定することができ、よって撮影対象を適切な輝度値で撮影することができる。   Further, the exposure parameter setting means calculates a luminance value of the photographing target in the image and a maximum luminance value of the entire image, generates a luminance value histogram for the calculated luminance value, and generates the generated luminance value histogram. Since the exposure parameter including the shutter speed is set based on the brightness value histogram, more specifically based on the magnitude of the generated brightness value histogram (S10 to S22, S100 to S122), the above-described effect is obtained. In addition, when a high-luminance light source such as sunlight is reflected within the angle of view of the camera 82, the exposure parameter can be set accurately, so that the subject can be photographed with an appropriate luminance value. .

また、前記撮影対象が人であると共に、前記露出パラメータ設定手段は人の顔部の輝度値と前記画像全体の最大輝度値を算出する(S10からS22,S100からS122)如く構成したので、太陽光などの高輝度のみならず、人の顔部のような低輝度の撮像部位がカメラの画角内に画角内に写り込まれるときも、露出パラメータを的確に設定することができ、よって撮影対象を適切な輝度値で撮影することができる。   In addition, since the object to be photographed is a person and the exposure parameter setting means is configured to calculate the luminance value of the human face and the maximum luminance value of the entire image (S10 to S22, S100 to S122), When not only high brightness such as light but also a low brightness imaging part such as a human face is reflected in the angle of view of the camera, the exposure parameter can be set accurately, so A subject to be photographed can be photographed with an appropriate luminance value.

また、前記高輝度撮像部位抽出・除去手段は、前記画像の所定ブロックごとの輝度値の平均値を算出すると共に、輝度値の平均値が所定値以上のブロックを抽出し、前記抽出されたブロックの中央位置を算出することで前記高輝度撮像部位を抽出する(S300からS312)如く構成したので、上記した効果に加え、光源などの高輝度の入射光によって撮像された高輝度撮像部位を確実に抽出して画像から除去することができる。   The high-brightness imaging region extraction / removal means calculates an average value of luminance values for each predetermined block of the image, extracts a block having an average luminance value equal to or greater than a predetermined value, and extracts the extracted block Since the high-brightness imaging region is extracted by calculating the center position of the light source (S300 to S312), in addition to the above-described effects, the high-brightness imaging region reliably imaged by the high-brightness incident light such as the light source Can be extracted and removed from the image.

また、前記高輝度撮像部位抽出・除去手段は、前記画像の所定ブロックごとの輝度値の平均値を算出し、前記算出された平均値が最も大きいブロックを抽出し、前記抽出されたブロックに基づいて前記高輝度撮像部位を抽出する(S300からS306,S314からS318)如く構成したので、上記した効果に加え、同様に高輝度撮像部位を確実に抽出して画像から除去することができる。   Further, the high-brightness imaging part extraction / removal means calculates an average value of luminance values for each predetermined block of the image, extracts a block having the largest calculated average value, and based on the extracted block Therefore, in addition to the above-described effects, the high-intensity imaging part can be reliably extracted and removed from the image.

また、前記高輝度撮像部位抽出・除去手段は、前記高輝度撮像部位の位置と角度を特定すると共に、前記特定された高輝度撮像部位を前記画像から除去するように前記移動体に所定の行動を生成させる(S400からS404)如く構成したので、上記した効果に加え、高輝度撮像部位を画像から確実に除去することができる。   The high-brightness imaging part extraction / removal means specifies a position and an angle of the high-brightness imaging part and performs a predetermined action on the moving body so as to remove the specified high-brightness imaging part from the image. Is generated (S400 to S404), in addition to the effects described above, the high-luminance imaging region can be reliably removed from the image.

尚、上記において、撮影対象として人を予定したが、それ以外にロボット10の作業で予定される道具やワークなどの物体であっても良い。   In the above description, a person is scheduled as an object to be photographed, but other objects such as tools and works scheduled for the work of the robot 10 may be used.

また上記において、撮影対象の有無を撮影対象が携行するICタグ92から発信される識別情報を受信するICタグ信号受信器94の出力から判断するようにしたが、カメラ82の出力から判断しても良い。さらには外部からコマンドを入力して教示しても良い。   In the above description, the presence / absence of the photographing target is determined from the output of the IC tag signal receiver 94 that receives the identification information transmitted from the IC tag 92 carried by the photographing target. Also good. Further, it may be taught by inputting a command from the outside.

また上記において、移動体の例として脚式移動ロボット、具体的には2足歩行ロボットを例示したが、それに限られるものではなく、自律移動自在であればどのようなものであっても良い。   In the above description, a legged mobile robot, specifically a bipedal walking robot, is illustrated as an example of the moving body. However, the mobile body is not limited to this, and any mobile body may be used as long as it can move autonomously.

この発明の実施例に係るカメラの露出制御装置が搭載される移動体としての脚式移動ロボットの正面図である。1 is a front view of a legged mobile robot as a moving body on which a camera exposure control device according to an embodiment of the present invention is mounted. 図1に示すロボットの側面図である。It is a side view of the robot shown in FIG. 図1に示すロボットをスケルトンで示す説明図である。It is explanatory drawing which shows the robot shown in FIG. 1 with a skeleton. 図1に示すロボットの構成を電子制御ユニット(ECU)の入出力関係を中心に示すブロック図である。FIG. 2 is a block diagram showing the configuration of the robot shown in FIG. 1 focusing on the input / output relationship of an electronic control unit (ECU). 図4に示す電子制御ユニットがカメラの露出制御装置として動作するときの構成を機能的に示すブロック図である。It is a block diagram which shows a structure functionally when the electronic control unit shown in FIG. 4 operate | moves as an exposure control apparatus of a camera. 図5と同様、電子制御ユニットがカメラの露出制御装置として動作するときの処理を示すフロー・チャートである。FIG. 6 is a flowchart showing processing when the electronic control unit operates as an exposure control device for a camera, as in FIG. 5. 図6の露出パラメータ設定処理を示すサブ・ルーチン・フロー・チャートである。7 is a sub-routine flowchart showing the exposure parameter setting process of FIG. 6. 図7の処理を示す画面の一例である。It is an example of the screen which shows the process of FIG. 図8の画面の通常の(距離を考慮しない)輝度値ヒストグラムである。FIG. 9 is a normal luminance value histogram (not considering distance) of the screen of FIG. 8. FIG. 図8の画面の視差画像である。It is a parallax image of the screen of FIG. 図8の画面の距離を考慮した輝度値ヒストグラムである。FIG. 9 is a luminance value histogram in consideration of the screen distance of FIG. 8. FIG. 図6の高輝度撮像部位除去要否判定処理を示すサブ・ルーチン・フロー・チャートである。FIG. 7 is a sub-routine flow chart showing a process for determining whether or not to remove a high-intensity imaging region in FIG. 6. 図6の高輝度撮像部位抽出処理を示すサブ・ルーチン・フロー・チャートである。FIG. 7 is a sub-routine flowchart showing the high-intensity imaging region extraction process of FIG. 6. FIG. 図6の行動生成処理を示すサブ・ルーチン・フロー・チャートである。FIG. 7 is a sub-routine flow chart showing the action generation process of FIG. 6. FIG. この実施例に係るカメラの露出制御装置で撮影を予定する場面の一例である。It is an example of the scene which plans imaging | photography with the exposure control apparatus of the camera which concerns on this Example.

符号の説明Explanation of symbols

10:脚式移動ロボット(移動体、ロボット)、12:脚部、14:基体、20:腕部、26:ECU(電子制御ユニット)、26a:ステレオ処理部、26b:ヒストグラム生成部、26c:露出パラメータ設定部、26d:高輝度撮像部位除去要否判定部、26e:高輝度撮像部位抽出部、26f:画像処理部、26g:行動生成部、82:CCDカメラ(撮像素子。カメラ)、92:ICタグ、94:ICタグ信号受信器   10: Legged mobile robot (moving body, robot), 12: Leg, 14: Base, 20: Arm, 26: ECU (Electronic Control Unit), 26a: Stereo processor, 26b: Histogram generator, 26c: Exposure parameter setting unit, 26d: High-brightness imaging region removal necessity determination unit, 26e: High-brightness imaging region extraction unit, 26f: Image processing unit, 26g: Action generation unit, 82: CCD camera (imaging device, camera), 92 : IC tag, 94: IC tag signal receiver

Claims (6)

移動体に搭載され、撮影対象を含む外界からの入射光によって画像を撮像する少なくとも2個の撮像素子と、前記撮像素子によって撮像された画像の輝度値ヒストグラムを生成し、前記生成された輝度値ヒストグラムに基づいてシャッタ速度を含む露出パラメータを設定する露出パラメータ設定手段と、前記設定された露出パラメータが所定範囲内にあるか否か判断し、所定範囲内にないと判断されるとき、前記画像に高輝度の入射光によって撮像された高輝度撮像部位がある場合、前記高輝度撮像部位を除去する必要があるか否か判定する高輝度撮像部位除去要否判定手段と、前記高輝度撮像部位を除去する必要があると判定されるとき、前記高輝度撮像部位を抽出して前記画像から除去する高輝度撮像部位抽出・除去手段とを備えたことを特徴とするカメラの露出制御装置。   At least two image sensors that are mounted on a moving body and capture an image with incident light from the outside including the subject to be imaged, and a brightness value histogram of the image captured by the image sensor, and the generated brightness value An exposure parameter setting means for setting an exposure parameter including a shutter speed based on a histogram; and determining whether or not the set exposure parameter is within a predetermined range. A high-brightness imaging part removal necessity determination means for determining whether or not the high-brightness imaging part needs to be removed, and the high-brightness imaging part A high-brightness imaging part extraction / removal means for extracting the high-brightness imaging part and removing it from the image when it is determined that it is necessary to remove Exposure control device for a camera according to claim. 前記露出パラメータ設定手段は、前記画像の中の前記撮影対象の輝度値と前記画像全体の最大輝度値を算出し、前記算出された輝度値について輝度値ヒストグラムを生成し、前記生成された輝度値ヒストグラムに基づいてシャッタ速度を含む露出パラメータを設定することを特徴とする請求項1記載のカメラの露出制御装置。   The exposure parameter setting means calculates a luminance value of the photographing target in the image and a maximum luminance value of the entire image, generates a luminance value histogram for the calculated luminance value, and generates the generated luminance value 2. The exposure control apparatus for a camera according to claim 1, wherein an exposure parameter including a shutter speed is set based on the histogram. 前記撮影対象が人であると共に、前記露出パラメータ設定手段は人の顔部の輝度値と前記画像全体の最大輝度値を算出することを特徴とする請求項2記載のカメラの露出制御装置。   3. The camera exposure control apparatus according to claim 2, wherein the object to be photographed is a person, and the exposure parameter setting means calculates a brightness value of a human face and a maximum brightness value of the entire image. 前記高輝度撮像部位抽出・除去手段は、前記画像の所定ブロックごとの輝度値の平均値を算出すると共に、輝度値の平均値が所定値以上のブロック群を抽出し、前記抽出されたブロック群の中央位置を算出することで前記高輝度撮像部位を抽出することを特徴とする請求項1から3のいずれかに記載のカメラの露出制御装置。   The high-luminance imaging region extraction / removal means calculates an average value of luminance values for each predetermined block of the image, extracts a block group having an average luminance value equal to or greater than a predetermined value, and extracts the block group The camera exposure control apparatus according to claim 1, wherein the high-luminance imaging region is extracted by calculating a center position of the camera. 前記高輝度撮像部位抽出・除去手段は、前記画像の所定ブロックごとの輝度値の平均値を算出し、前記算出された平均値が最も大きいブロックを抽出し、前記抽出されたブロックに基づいて前記高輝度撮像部位を抽出することを特徴とする請求項1から4のいずれかに記載のカメラの露出制御装置。   The high-luminance imaging region extraction / removal means calculates an average value of luminance values for each predetermined block of the image, extracts a block having the largest calculated average value, and based on the extracted block, 5. The exposure control apparatus for a camera according to claim 1, wherein a high-luminance imaging part is extracted. 前記高輝度撮像部位抽出・除去手段は、前記高輝度撮像部位の位置と角度を特定すると共に、前記特定された高輝度撮像部位を前記画像から除去するように前記移動体に所定の行動を生成させることを特徴とする請求項1から5のいずれかに記載のカメラの露出制御装置。   The high-intensity imaging part extraction / removal means specifies a position and an angle of the high-intensity imaging part and generates a predetermined action on the moving body so as to remove the specified high-intensity imaging part from the image. An exposure control apparatus for a camera according to claim 1, wherein
JP2007224753A 2007-08-30 2007-08-30 Camera exposure control device Expired - Fee Related JP4933383B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007224753A JP4933383B2 (en) 2007-08-30 2007-08-30 Camera exposure control device
US12/230,129 US8026955B2 (en) 2007-08-30 2008-08-25 Camera exposure controller including imaging devices for capturing an image using stereo-imaging
EP08015061.8A EP2031441B1 (en) 2007-08-30 2008-08-26 Camera exposure controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007224753A JP4933383B2 (en) 2007-08-30 2007-08-30 Camera exposure control device

Publications (2)

Publication Number Publication Date
JP2009060289A true JP2009060289A (en) 2009-03-19
JP4933383B2 JP4933383B2 (en) 2012-05-16

Family

ID=40555640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007224753A Expired - Fee Related JP4933383B2 (en) 2007-08-30 2007-08-30 Camera exposure control device

Country Status (1)

Country Link
JP (1) JP4933383B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013136498A1 (en) * 2012-03-15 2013-09-19 パイオニア株式会社 Image recognition device, image recognition method, image recognition program, and storage medium
JP2019110402A (en) * 2017-12-15 2019-07-04 キヤノン株式会社 Imaging apparatus, control method therefor, and program
WO2022268170A1 (en) * 2021-06-24 2022-12-29 维沃移动通信(杭州)有限公司 Image processing method and apparatus, and electronic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001199492A (en) * 2000-01-17 2001-07-24 Advanet Inc Lens protective container
JP2002269545A (en) * 2001-03-12 2002-09-20 Matsushita Electric Ind Co Ltd Face image processing method and face image processing device
JP2002277922A (en) * 2001-03-16 2002-09-25 Ricoh Co Ltd Automatic exposure control method and unit, and digital camera
JP2007096684A (en) * 2005-09-28 2007-04-12 Fuji Heavy Ind Ltd Outside environment recognizing device of vehicle
JP2007212745A (en) * 2006-02-09 2007-08-23 Canon Inc Light control filter

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001199492A (en) * 2000-01-17 2001-07-24 Advanet Inc Lens protective container
JP2002269545A (en) * 2001-03-12 2002-09-20 Matsushita Electric Ind Co Ltd Face image processing method and face image processing device
JP2002277922A (en) * 2001-03-16 2002-09-25 Ricoh Co Ltd Automatic exposure control method and unit, and digital camera
JP2007096684A (en) * 2005-09-28 2007-04-12 Fuji Heavy Ind Ltd Outside environment recognizing device of vehicle
JP2007212745A (en) * 2006-02-09 2007-08-23 Canon Inc Light control filter

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013136498A1 (en) * 2012-03-15 2013-09-19 パイオニア株式会社 Image recognition device, image recognition method, image recognition program, and storage medium
JP2019110402A (en) * 2017-12-15 2019-07-04 キヤノン株式会社 Imaging apparatus, control method therefor, and program
WO2022268170A1 (en) * 2021-06-24 2022-12-29 维沃移动通信(杭州)有限公司 Image processing method and apparatus, and electronic device

Also Published As

Publication number Publication date
JP4933383B2 (en) 2012-05-16

Similar Documents

Publication Publication Date Title
EP2031441B1 (en) Camera exposure controller
JP6904843B2 (en) Imaging device and its control method
JP5935432B2 (en) Image processing apparatus, image processing method, and imaging apparatus
EP1462993A3 (en) Automatic work apparatus and automatic work control program
JP5771461B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
CN103813093A (en) Imaging apparatus and imaging method thereof
WO2020029596A1 (en) Lens control method and device and terminal
US8164685B2 (en) Image pickup apparatus which performs aperture value control for a multiple exposure image, and recording medium
JP2012247533A (en) Electronic camera
JP4933383B2 (en) Camera exposure control device
JP2007208425A (en) Display method for displaying denoting identification region together with image, computer-executable program, and imaging apparatus
JP2007067559A (en) Image processing method, image processing apparatus, and control method of imaging apparatus
JP4847420B2 (en) Legged mobile robot
JP2009171428A (en) Control method and program for digital camera apparatus and electronic zoom
JPH089424A (en) Stereoscopic image pickup controller
JP6172973B2 (en) Image processing device
JP2009056529A (en) Legged mobile robot
Suzuki et al. Operation direction to a mobile robot by projection lights
US7990417B2 (en) Targeted object pursuit system
JP2009056530A (en) Legged mobile robot
WO2019026615A1 (en) Control device, control method, and imaging device
EP2030740B1 (en) Legged mobile robot
JP2009267681A (en) Blur corrector and optical device
EP3734962A2 (en) Electronic test device, method and computer-readable medium
JP6885133B2 (en) Image processing equipment, imaging system, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120216

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4933383

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees