JP2000221007A - Image acquisition device and method therefor - Google Patents

Image acquisition device and method therefor

Info

Publication number
JP2000221007A
JP2000221007A JP11023425A JP2342599A JP2000221007A JP 2000221007 A JP2000221007 A JP 2000221007A JP 11023425 A JP11023425 A JP 11023425A JP 2342599 A JP2342599 A JP 2342599A JP 2000221007 A JP2000221007 A JP 2000221007A
Authority
JP
Japan
Prior art keywords
image
light
light image
visible light
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11023425A
Other languages
Japanese (ja)
Other versions
JP3625390B2 (en
Inventor
Shunichi Numazaki
俊一 沼崎
Miwako Doi
美和子 土井
Akira Morishita
明 森下
Naoko Umeki
直子 梅木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP02342599A priority Critical patent/JP3625390B2/en
Publication of JP2000221007A publication Critical patent/JP2000221007A/en
Application granted granted Critical
Publication of JP3625390B2 publication Critical patent/JP3625390B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To correct the reflection coefficient or the like so as to produce an invisible-light image correct in distance by acquiring a visible-light image as well as an invisible-light image and using the same. SOLUTION: This image acquisition device acquires an accurate distance value by correction of reflectance on the basis of a correction correspondence table 14 stored beforehand, by use of a switch means 10 for switching an acquisition of an invisible-light image or a visible-light image, an image acquisition means 12 for acquiring the invisible-light image or the visible-light image switched by the switch means 10, and the visible-light image acquired by the image acquisition means 12.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は可視光画像により不
可視光画像の補正を行う画像取得装置および方法に関す
る。
[0001] 1. Field of the Invention [0002] The present invention relates to an image acquisition apparatus and method for correcting an invisible light image using a visible light image.

【0002】[0002]

【従来の技術】<従来のコンピュータへの入力手段>コ
ンピュータへの入力デバイスとしては、マウスが圧倒的
に使われている。が、マウスでできることは、カーソル
の移動と、メニューの選択など、あくまでも2次元のポ
インティングデバイスとしての役目である。
2. Description of the Related Art <Conventional input means to computer> As an input device to a computer, a mouse is overwhelmingly used. However, what can be done with a mouse is to serve as a two-dimensional pointing device, such as moving a cursor and selecting a menu.

【0003】マウスで扱えるのは、2次元情報なので、
3次元空間のなかの物体など奥行きがあるものを選択す
ることは難しい。また、アニメーションを作成するとき
に、キャラクタに動きをつけるのに、マウスでは、自然
な動きをつけることが難しかった。
[0003] Since the mouse can handle two-dimensional information,
It is difficult to select an object having a depth such as an object in a three-dimensional space. In addition, when creating animation, it is difficult to make a natural movement with a mouse to make a character move.

【0004】<既存の3次元ポインティングデバイス>
3次元空間でのポインティングの難点を補うために、3
次元ポインティングデバイスが開発されている。
<Existing three-dimensional pointing device>
To compensate for the difficulty of pointing in 3D space, 3
Dimensional pointing devices have been developed.

【0005】しかし、実際に操作すると、思うようにカ
ーソルや視点の制御ができないという問題がある。例え
ば、左右に回そうとすると、前方あるいは後方を押して
しまい、思わぬ方向にカーソルが動いたり、視点が動い
たりしてしまう。
[0005] However, there is a problem that the cursor and the viewpoint cannot be controlled as desired when actually operated. For example, when trying to turn left or right, the user pushes forward or backward, and the cursor moves in an unexpected direction or the viewpoint moves.

【0006】<装着型の3次元入力デバイス>このよう
な3次元ポインティングデバイスに対して、手振りや身
ぶりを使って入力するデバイスも開発されている。デー
タグローブやデータスーツ、サイバーグローブと呼ばれ
るものである。これらは、例えば、データグローブは手
袋状のデバイスで、表面に光ファイバが走っている。
<Wearable Three-Dimensional Input Device> For such a three-dimensional pointing device, a device for inputting using a hand gesture or gesture has been developed. They are called data gloves, data suits, and cyber gloves. These are, for example, data gloves that are glove-like devices with optical fibers running over the surface.

【0007】光ファイバは、指の関節まで通っており、
指を曲げることにより、光の導通が変わる。この光の導
通を計測することで、各指の関節がどの程度曲がってい
るかがわかる。手自体の3次元空間内の位置は、手の甲
についている磁気センサによって計測するようになって
いる。人差し指を立てれば、前進するというように、身
ぶりとそれに対応する指示を決めておけば、データグロ
ーブを使って、3次元空間内を種々に視点を変えて、ち
ょうど歩き回るようにする(ウオークスルーという)こ
とができる。
[0007] The optical fiber passes through the finger joint,
Bending a finger changes the conduction of light. By measuring the light conduction, it is possible to determine how much the joint of each finger is bent. The position of the hand itself in the three-dimensional space is measured by a magnetic sensor on the back of the hand. If you decide the gesture and the corresponding instruction, such as moving up with the index finger, you can use the data glove to change the viewpoint in various ways in 3D space and just walk around (walkthrough )be able to.

【0008】<データグローブの問題点>しかし、問題
がいくつかある。まず、価格が高価であり、家庭用など
で手軽に使用することは難しい。指の関節の角度を計測
しているので、例えば、人差し指だけのばし、他の指
は、曲げた状態を前進指示と定義したとする。一口に指
を伸ばすといっても、人差し指の第2関節の角度が18
0度に完全になっていることは少ないので、遊びの部分
を作らないと、きっちりのばしたとき以外は、のばして
いると認識するのが難しい。
<Problems of data glove> However, there are some problems. First, the price is expensive, and it is difficult to use it easily for home use. Since the angle of the finger joint is measured, it is assumed that, for example, only the index finger is extended, and the bent state of the other fingers is defined as a forward instruction. Even if you extend your finger to a bite, the angle of the second joint of the index finger is 18
Since it is rarely complete at 0 degrees, it is difficult to recognize that it is extended unless it is completely extended unless you make a play part.

【0009】また、データーグローブを装着するので、
自然な操作が阻害される。また、装着するたびに、手の
開いた状態と閉じた状態で、光の導通状態を校正せねば
ならないので、手軽に使えない。また、光ファイバを使
っているため、継続的に使っていると、ファイバが断絶
するなど消耗品に近いという問題がある。
In addition, since the data glove is worn,
Natural operations are hindered. In addition, the light conduction state must be calibrated between the open state and the closed state of the hand each time it is mounted, so that it cannot be used easily. In addition, since the optical fiber is used, there is a problem that if the optical fiber is continuously used, the fiber is cut off and is close to a consumable.

【0010】また、このように、高価で、手間がかかる
デバイスである割には、手袋の大きさが、ぴったり合っ
ていないと、使っているうちにずれたりして校正した値
からずれるために、細かな手振りを認識することは難し
い。このように、いろいろな問題があるために、データ
グローブは、VR(バーチャルリアリティ、仮想現実
感)技術のトリガーとなったデバイスであったにもかか
わらず、当初の期待ほど、普及しておらず、また、低価
格化もなされていず、使い勝手の点で問題が多い。
[0010] In addition, even if the gloves are not exactly the same size as the expensive and time-consuming device, the gloves may shift during use and deviate from the calibrated values. It is difficult to recognize fine gestures. Due to various problems, data gloves are not as popular as expected at first despite the fact that they were devices that triggered VR (virtual reality, virtual reality) technology. Also, the price has not been reduced, and there are many problems in terms of usability.

【0011】<画像を用いた身振り手振りの認識技術の
問題点>これに対し、データグローブのような特殊な装
置を装着することなく、手振りや身ぶりを入力しようと
する試みが、いくつかなされている。例えば、ビデオ映
像などの動画像を解析して、手の形を認識するような研
究がなされている。が、これらでは、背景画像から目的
とする画像、手振りの認識の場合には、手のみを切り出
すことが難しいという問題がある。
<Problems of Recognition Technique of Gesture and Hand Gesture Using Image> On the other hand, several attempts have been made to input a hand gesture and a gesture without wearing a special device such as a data glove. I have. For example, research has been conducted to analyze a moving image such as a video image to recognize a hand shape. However, these methods have a problem that it is difficult to cut out only a hand in the case of recognizing a target image and a hand gesture from a background image.

【0012】例えば、色を使って切り出す場合を考えて
みる。手の色は肌色であるので、肌色の部分のみを切り
出すような方式が考えられる。が、背景にベージュ色の
洋服や、壁があったりすると、肌色を識別することが難
しい。また、調整を行って、ベージュと肌色を区別でき
るようにしても、照明が変われば、色調が変化してしま
うために、定常的に切り出すことは困難である。
For example, consider the case of cutting out using color. Since the color of the hand is flesh color, a method of cutting out only the flesh color part can be considered. However, if there are beige clothes or walls in the background, it is difficult to identify the skin color. Further, even if the adjustment is performed so that beige and flesh color can be distinguished, it is difficult to cut out regularly because the color tone changes if the illumination changes.

【0013】このような問題から逃れるために、背景に
ブルーマットをおくというように、背景画像に制限を置
き、切り出しを容易にする方策も採られている。また、
以上のような切り出しなどのビデオの画像認識処理は、
非常に演算量が多い。このため、現状のパーソナルコン
ピュータでは、秒30枚発生する画像を処理しきれない
のが実状である。従って、ビデオ映像の処理によってモ
ーションキャプチャなどを行うのは、リアルタイムは無
理である。
In order to avoid such a problem, a measure has been taken to limit the background image, such as placing a blue mat on the background, to facilitate clipping. Also,
Video image recognition processing such as clipping as described above,
The amount of calculation is very large. For this reason, the current state of the art is that the current personal computer cannot process images generated at 30 frames per second. Therefore, it is impossible to perform motion capture or the like by processing a video image in real time.

【0014】<マーカーによる身振りの認識>また、手
や身体の一部に色マーカーや発光部を取り付け、画像に
よりそれらを検出し、手・身体の形、動きなどを捉える
装置もあり、一部実用化されている。CGアニメーショ
ンやTVゲームなどの制作現場で用い、入力した人間の
動きにしたがってCGキャラクタを動かす。
<Gesture Recognition Using Markers> Also, there are devices that attach color markers and light emitting parts to hands and parts of the body, detect them by images, and capture the shapes and movements of hands and bodies. Has been put to practical use. Used in production sites such as CG animation and TV games, the CG character is moved according to the input human motion.

【0015】しかし個人レベルのユーザーがこのような
装置を使うことを考えると、操作の度に装置を装着しな
くてはならないというのは大きなデメリットであり、応
用範囲を非常に制約する。また、データグローブの例に
見られるように、装置を手などの可動部に装着して使用
する装置は耐久性が問題になりやすい。
However, considering that an individual-level user uses such a device, it is a great disadvantage that the user must wear the device every time the operation is performed, which greatly restricts the range of application. Further, as seen in the example of the data glove, the durability of a device which is used by attaching the device to a movable part such as a hand tends to be a problem.

【0016】<レンジファインダ>レンジファインダと
呼ばれる、距離画像を入力する装置がある。その代表的
な原理として、スポット光あるいはスリット光を対象物
体に照射し、その反射光の受光位置から三角測量の原理
で求めるものである。2次元的な距離情報を求めるため
に、スポット光あるいはスリット光を機械的に走査して
いる。
<Range Finder> There is a device called a range finder for inputting a distance image. As a typical principle, spot light or slit light is applied to a target object, and the target object is obtained from the light receiving position of the reflected light by the principle of triangulation. In order to obtain two-dimensional distance information, spot light or slit light is mechanically scanned.

【0017】この装置は非常に高精度な距離画像を生成
することができるが、その反面、装置の構成が大掛かり
になり、高コストになる。また入力に時間がかかり、実
時間で処理を行わせるのは困難である。
Although this apparatus can generate a distance image with extremely high accuracy, on the other hand, the configuration of the apparatus is large and the cost is high. Also, it takes time to input, and it is difficult to perform processing in real time.

【0018】またカメラを2台使い、2つの方向からの
画像を撮像し、両方の画像中の対応点から、三角法を用
いて3次元情報を生成するという手法もある。しかし、
2つの画像中から対応点を見つけることは難しく、とく
に複雑な背景下でこれを行うのは非常に困難である。ま
たその難しさから、実時間処理には非常に多く計算機パ
ワーを要する。
There is also a method in which two cameras are used to capture images from two directions, and three-dimensional information is generated from corresponding points in both images by using trigonometry. But,
Finding the corresponding points in the two images is difficult, especially in a complex background. Also, due to its difficulty, real-time processing requires a great deal of computer power.

【0019】<画像中からのキャラクタの切り出し>次
に、以上のような入力デバイスとは別に、カメラ技術に
ついて従来技術についての問題点を述べる。従来のカメ
ラ技術では、背景に対して、キャラクタの合成(クロマ
キー)を行うには、あらかじめ、ブルーバックでキャラ
クタを撮影して、キャラクタの切り出しを容易にする必
要があった。
<Cut out Character from Image> Next, apart from the input device as described above, problems of the camera technology with respect to the prior art will be described. In the conventional camera technology, in order to combine a character with a background (chroma key), it was necessary to photograph the character in advance with a blue background and to easily cut out the character.

【0020】このため、ブルーバックで撮影ができるス
タジオなど、撮影場所に制限があった。あるいは、ブル
ーバックでない状態で撮影した映像から、キャラクタを
切り出すには、コマごとに、キャラクタの切り出し範囲
を人手で編集せねばならないので、非常な手間がかかっ
ていた。
[0020] For this reason, there are restrictions on the shooting location such as in a studio capable of shooting with a blue background. Alternatively, in order to cut out a character from a video shot in a non-blue-back state, the character cutout range has to be manually edited for each frame, which is extremely time-consuming.

【0021】同様に、キャラクタを3次元空間の中に生
成するには、あらかじめ3次元のモデルをつくってお
き、そこにキャラクタの写真を貼り付ける(テクスチャ
マッピング)をおこなうような方式をとっている。が、
3次元モデルの生成、および、テクスチャマッピングに
は手間がかかり、映画制作など経費がかかってもよい用
途以外では、ほとんど使えなかった。
Similarly, to generate a character in a three-dimensional space, a method is used in which a three-dimensional model is created in advance, and a picture of the character is pasted (texture mapping) there. . But,
The generation of the three-dimensional model and the texture mapping were troublesome, and could hardly be used for purposes other than those that could be expensive, such as movie production.

【0022】<問題提起>以上述べたように従来は、特
殊な装置を装着することなく、簡易にジェスチャや動き
を入力できる直接指示型の入力デバイスが存在しなかっ
た。特に、3次元空間でのポインティングや視点の変更
を容易に行える簡易なデバイスは存在しなかった。ま
た、ユーザのジェスチャや動きをそのまま使って、アニ
メーションのキャラクタなどに自然な動きをつけたりす
ることができなかった。
<Proposal of Problems> As described above, there has not been a direct instruction type input device which can easily input a gesture or a movement without mounting a special device. In particular, there is no simple device that can easily perform pointing and change of viewpoint in a three-dimensional space. Also, natural movements cannot be given to animated characters or the like using the user's gestures and movements as they are.

【0023】さらに、従来のカメラでは、特定のキャラ
クタだけを切り出したり、キャラクタの奥行き情報を容
易に入力できなかった。 <その解決法としての発光手段を持つ撮像装置の発明>
上記の問題点を解決するために、物体の形状、動き、距
離情報などを非接触で入力することの可能な装置を発明
した。この入力装置は、光を発光し、その対象物体によ
る反射光を画像として捉える。
Further, in the conventional camera, it is not possible to cut out only a specific character or to easily input depth information of the character. <Invention of imaging apparatus having light emitting means as a solution thereto>
In order to solve the above problems, a device capable of inputting the shape, movement, distance information, and the like of an object without contact has been invented. The input device emits light, and captures light reflected by the target object as an image.

【0024】物体表面がほぼ均一な拡散反射面である場
合、反射光の強さは物体までの距離と密接な関係を持
つ。物体が存在している場所からの反射光はある程度の
値を持ち、遠い背景からの反射光はほとんど無いため、
反射光の画像をしきい値で分けることにより、物体の形
状を抽出することが出来る。
When the surface of the object is a substantially uniform diffuse reflection surface, the intensity of the reflected light is closely related to the distance to the object. Since the reflected light from the place where the object exists has a certain value and there is almost no reflected light from the distant background,
By dividing the image of the reflected light by the threshold value, the shape of the object can be extracted.

【0025】また、その形状を画像処理することによ
り、重心位置や大きさ、水平方向、垂直方向への形状の
広がり、また形状の時系列からその動きや変形などの様
々な特徴量を抽出することができる。また物体の凹凸を
反射光量の違いとして捉えられるため、対象物体の立体
構造を得ることも出来る。
Further, by performing image processing on the shape, various feature quantities such as the position and size of the center of gravity, the spread of the shape in the horizontal and vertical directions, and the movement and deformation of the shape are extracted from the time series of the shape. be able to. Further, since the unevenness of the object can be regarded as a difference in the amount of reflected light, a three-dimensional structure of the target object can be obtained.

【0026】<外光の影響の低減>光を発して、その反
射光を単に受光しても、その中には、照明や太陽光など
の外光が入り込んでしまい、正しい受光量が得られな
い。反射光の画像を入力するために、あるタイミングを
発生するタイミング発生部の制御信号によって、発光
部、および受光部を動作させる。発光部が発光している
ときの受光画像から発光部が発光していないときの受光
画像の差分を取ることによって、反射光画像を得ること
ができる。
<Reduction of the influence of external light> Even if light is emitted and the reflected light is simply received, external light such as illumination or sunlight enters into the light, and a correct amount of received light can be obtained. Absent. In order to input an image of reflected light, the light emitting unit and the light receiving unit are operated by a control signal of a timing generating unit that generates a certain timing. The reflected light image can be obtained by taking the difference between the received light image when the light emitting unit is not emitting light from the received light image when the light emitting unit is not emitting light.

【0027】具体的には例えば、一つの画素に相当する
セルに2つのキャパシタを持った撮像センサを発光部と
同期させて動作させることによって反射光画像を得るこ
とができる。セルの光電変換部で受光し発生した電荷は
2つのキャパシタのうちどちらかを選択して蓄積できる
ようにしておく。
Specifically, for example, a reflected light image can be obtained by operating an image sensor having two capacitors in a cell corresponding to one pixel in synchronization with a light emitting unit. The charge received and generated by the photoelectric conversion unit of the cell is selected so that either one of the two capacitors can be stored.

【0028】そして、発光部が発光しているときに受光
し発生した電荷を第1のキャパシタに蓄積し、次に発光
していないときに受光し発生した電荷を第2のキャパシ
タに蓄積する。セルから電荷を読み出す際に2つの電荷
量の差を出力するしくみを用意しておけば、2つのキャ
パシタの差、すなわち反射光のみの画像データが得られ
る。
Then, the charge received and generated when the light emitting section emits light is stored in the first capacitor, and the charge received and generated when the light emitting section is not emitting light is stored in the second capacitor. If a mechanism for outputting the difference between the two charge amounts when reading out the charge from the cell is prepared, the difference between the two capacitors, that is, image data of only the reflected light can be obtained.

【0029】[0029]

【発明が解決しようとする課題】ところで反射光により
得られた反射光画像は、反射光の強さが距離の2乗に反
比例することを用いれば、対象物の距離を測定すること
が可能である。I=k/D2(I:反射光の強さ,k:
物体の反射係数,D:物体との距離)が、上記の式から
わかるように、反射係数が同一の場合には、反射光の強
さをそのまま距離に置き換えることが可能である。が、
反射係数が異なる場合には、反射光の強さをそのまま距
離に置き換えることは難しい。
By the way, in the reflected light image obtained by the reflected light, the distance of the object can be measured by using that the intensity of the reflected light is inversely proportional to the square of the distance. is there. I = k / D2 (I: intensity of reflected light, k:
As can be seen from the above equation, when the reflection coefficient of the object (D: distance to the object) is the same, the intensity of the reflected light can be directly replaced by the distance. But,
If the reflection coefficients are different, it is difficult to directly replace the intensity of the reflected light with the distance.

【0030】手や顔のような反射係数が一定の物体が対
象のばあいには問題ない。が、例えば、眼鏡をかけた
り、手や顔だけでなく、身体も撮像するのであれば、衣
服も撮像対象となるので、反射係数の違いによる影響が
出てくる。
There is no problem when an object having a constant reflection coefficient such as a hand or a face is a target. However, for example, if the user wears glasses or images a body as well as a hand or face, clothing is also an object to be imaged.

【0031】本発明は、不可視光だけなく、可視光の画
像も取得し、これを用いて、反射係数などの補正をおこ
ない、距離的に正しい不可視光画像を生成することを目
的としている。
It is an object of the present invention to obtain not only invisible light but also visible light images, and to correct the reflection coefficient or the like using the images to generate a distance-incorrect invisible light image.

【0032】[0032]

【課題を解決するための手段】以上の課題を解決するた
めに、本願発明は、不可視光画像あるいは可視光画像の
画像取得を切り替えるための切り替え手段と、この切り
替え手段によって切り替えられた不可視光画像あるいは
可視光画像を取得する画像取得手段と、この画像取得手
段が取得した可視光画像を用いて予め記憶された補正対
応表をもとに、不可視光画像の補正を行うための補正手
段とを具備したことを特徴とする。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides a switching means for switching an invisible light image or an image acquisition of a visible light image, and an invisible light image switched by the switching means. Alternatively, an image acquisition unit for acquiring a visible light image, and a correction unit for correcting an invisible light image based on a correction correspondence table stored in advance using the visible light image acquired by the image acquisition unit. It is characterized by having.

【0033】また、不可視光による距離画像を取得する
ための距離画像取得手段と、可視光画像を取得する可視
光画像取得手段と、この可視光画像取得手段が取得した
可視光画像を用いて予め記憶された補正対応表をもと
に、前記距離画像取得手段が取得した距離画像の補正を
行うための補正手段とを具備したことを特徴とする。
Further, a distance image acquiring means for acquiring a distance image by invisible light, a visible light image acquiring means for acquiring a visible light image, and a visible light image acquired in advance by the visible light image acquiring means. A correction unit configured to correct the distance image acquired by the distance image acquisition unit based on the stored correction correspondence table.

【0034】[0034]

【発明の実施の形態】<第1の実施例> <基本原理の説明>まず始めに本発明を適用するところ
の撮像装置の基本原理および基本構成を説明する。この
撮像装置は不可視光を発光する手段を持ち、その物体に
よる反射光を撮像する。発光部と撮像部を同期的に動作
させることによって室内照明や太陽光などの外部光から
分離して、発光部による光の反射光だけを捉える。
DESCRIPTION OF THE PREFERRED EMBODIMENTS First Embodiment <Description of Basic Principle> First, the basic principle and basic configuration of an imaging apparatus to which the present invention is applied will be described. This imaging apparatus has means for emitting invisible light, and images reflected light from the object. By operating the light emitting unit and the imaging unit synchronously, the light emitting unit and the image pickup unit are separated from external light such as indoor lighting and sunlight, and only the light reflected by the light emitting unit is captured.

【0035】また、この反射光画像を入力情報としてコ
ンピュータなどの機器に取り込んだり、またこの画像を
様々な形に加工してあるいはこの画像から情報を抽出し
て、機器を操作するための情報として利用する。
The reflected light image is taken as input information into a device such as a computer, or the image is processed into various forms or information is extracted from the image to obtain information for operating the device. Use.

【0036】本撮像装置の基本構成を図1に示す。発光
部1より発光された光は、対象物体2に反射して、受光
光学系3により、反射光画像検出部4の受光面上に結像
する。反射光画像検出部4は、この反射光の強度分布、
すなわち反射光画像を検出する。反射光画像検出部にお
いて外光から分離して反射光のみを取り出すしくみにつ
いては後述する。
FIG. 1 shows the basic configuration of the imaging apparatus. The light emitted from the light emitting unit 1 is reflected on the target object 2 and is imaged on the light receiving surface of the reflected light image detecting unit 4 by the light receiving optical system 3. The reflected light image detection unit 4 calculates the intensity distribution of the reflected light,
That is, the reflected light image is detected. A mechanism for extracting only reflected light by separating it from external light in the reflected light image detection unit will be described later.

【0037】反射光画像検出部4は反射光画像の各画素
の反射光量を連続的に出力する。反射光画像検出部4か
らの出力はアンプ5によって増幅され、A/D変換器6
によってデジタルデータに変換された後、メモリ7に蓄
えられる。しかるべきタイミングでこのメモリ7より蓄
積されたデータが読み出される。読み出されたデータは
例えば、図示しない特徴情報生成部において処理され
る。これら全体の制御をしかるべきタイミングで制御部
9が行う。
The reflected light image detector 4 continuously outputs the amount of reflected light from each pixel of the reflected light image. The output from the reflected light image detection unit 4 is amplified by the amplifier 5 and the A / D converter 6
After being converted into digital data, the data is stored in the memory 7. The stored data is read from the memory 7 at an appropriate timing. The read data is processed in, for example, a characteristic information generation unit (not shown). The control section 9 performs these overall controls at appropriate timing.

【0038】反射光画像検出部は、画像の1画素分に相
当する単位受光部であるセルが2次元的に並べられてい
る。この点ではCCDイメージセンサなど他の撮像素子
と似ている。異なるのは、セル構造の中に外光から分離
して反射光のみを取り出すためのしくみがあることであ
る。
In the reflected light image detecting section, cells which are unit light receiving sections corresponding to one pixel of an image are two-dimensionally arranged. In this respect, it is similar to other imaging devices such as a CCD image sensor. The difference is that the cell structure has a mechanism for extracting only reflected light by separating it from external light.

【0039】セルは光電変換部と蓄積方向制御部と第1
および第2の電荷蓄積部と、選択出力部からなる。光電
変換部は入射した光を電荷に変換する。第1および第2
の電荷蓄積部は光電変換部において発生した電荷を蓄積
する手段である。蓄積方向制御部は光電変換部において
発生した電荷を第1の電荷蓄積部,第2の電荷蓄積部の
いずれに蓄積するかを制御する手段である。選択出力部
は第1の電荷蓄積部、第2の電荷蓄積部のいずれか選択
しその電荷をセル外部へ読み出すための手段である。
The cell includes a photoelectric conversion unit, a storage direction control unit, and a first cell.
And a second charge storage unit and a selection output unit. The photoelectric conversion unit converts incident light into electric charge. First and second
The charge storage section is means for storing the charges generated in the photoelectric conversion section. The storage direction control unit is means for controlling whether the charge generated in the photoelectric conversion unit is stored in the first charge storage unit or the second charge storage unit. The selection output section is means for selecting either the first charge storage section or the second charge storage section and reading out the charge outside the cell.

【0040】1枚の反射光画像を得るために以下のよう
な動作を行う。まず発光部1がパルス発光する。発光し
ている間、光電変換部で発生した電荷を第1の電荷蓄積
部に蓄積する。次に発光していない間に、光電変換部で
発生した電荷を第2の電荷蓄積部に蓄積する。
The following operation is performed to obtain one reflected light image. First, the light emitting section 1 emits pulse light. While emitting light, the charge generated in the photoelectric conversion unit is stored in the first charge storage unit. Next, while no light is emitted, the charge generated in the photoelectric conversion unit is stored in the second charge storage unit.

【0041】以上のように、第1の電荷蓄積部には反射
光と室内照明、太陽光などの外光を受光した電荷量が、
第2の電荷蓄積部には外光のみを受光した電荷量が蓄積
される。セルから電荷を読み出すときは、2つの電荷蓄
積量を順番に読み出し外部の差分回路でその差分を取り
出す。第1の電荷蓄積部の蓄積量から第2の電荷蓄積部
の蓄積量を引くと、反射光成分のみが取り出される。
As described above, in the first charge storage section, the amount of charge received by reflected light and external light such as room illumination and sunlight is:
The second charge accumulating portion accumulates the amount of electric charge that has received only external light. When reading charges from the cell, the two charge storage amounts are read in order and the difference is taken out by an external difference circuit. When the accumulation amount of the second charge accumulation unit is subtracted from the accumulation amount of the first charge accumulation unit, only the reflected light component is extracted.

【0042】上の説明では、第1の電荷蓄積部、第2の
電荷蓄積部への電荷蓄積は1回ずつであったが、回数は
これに限らない。例えば2つの電荷蓄積部への蓄積を1
0回繰り返してもよい。
In the above description, the charge is stored once in the first charge storage section and the second charge storage section, but the number is not limited to this. For example, accumulation in two charge accumulation units is 1
It may be repeated 0 times.

【0043】また、第1の電荷蓄積部、第2の電荷蓄積
部への電荷蓄積回数が異なってもよい。例えば、始めに
第1の電荷蓄積部へ1ms蓄積し、ついで第2の電荷蓄積
部へ2ms蓄積し、最後にもう一度第1の電荷蓄積部へ1
ms蓄積してもよい。このようにすると、外光の変動の影
響を受けにくい。
Further, the number of times of charge storage in the first charge storage section and the second charge storage section may be different. For example, first, 1 ms is stored in the first charge storage section, then 2 ms is stored in the second charge storage section, and 1 second is stored again in the first charge storage section.
ms may be stored. In this case, it is hard to be affected by the fluctuation of the external light.

【0044】発光部は人間の目に見えない、不可視光を
発光する。より具体的には近赤外光を発光するLEDは
そのコスト、装置への組み込みやすさから言っても好適
である。不可視光であるため、使用者は眩しさを感じず
に済む。また、より好適には受光光学系(レンズ)に
は、図示しない波長選択型光学フィルタが設けてある。
近赤外光を用いる場合は、このフィルタは発光波長であ
る近赤外光を通過し、可視光、遠赤外光を遮断する。従
って、ノイズとなる外光の多くをカットしている。
The light emitting section emits invisible light which is invisible to human eyes. More specifically, an LED that emits near-infrared light is preferable in terms of its cost and ease of incorporation into an apparatus. Since it is invisible light, the user does not need to feel glare. More preferably, the light receiving optical system (lens) is provided with a wavelength-selective optical filter (not shown).
When near-infrared light is used, this filter passes near-infrared light, which is an emission wavelength, and blocks visible light and far-infrared light. Therefore, much of the external light that becomes noise is cut off.

【0045】上記で述べた撮像装置の構成はほんの一例
である。実際にはさまざまな形で反射光画像を得る装置
を構成できる。本特許では発光部と受光光学系(レン
ズ)の位置関係を主にした発明を述べているので、撮像
素子自体の細かい構成は問わない。
The configuration of the imaging device described above is only an example. In practice, devices for obtaining reflected light images in various forms can be configured. In this patent, since the invention mainly focusing on the positional relationship between the light emitting unit and the light receiving optical system (lens) is described, the detailed configuration of the imaging element itself does not matter.

【0046】上の説明では、単位セル内に2つの電荷蓄
積部を持つ撮像素子を例に挙げたが、例えば、セル内に
は電荷蓄積部は1つしかなく、差分を得るしくみをセル
外に用意してもよい。同じ考え方で、既存のCCDイメ
ージセンサなどを用いてもこの撮像装置を構成すること
はできる。 <反射光画像の利用>物体からの反射光は、物体の距離
が大きくなるにつれ大幅に減少する。物体の表面が一様
に光を散乱する場合、反射光画像1 画素あたりの受光量
は物体までの距離の2乗に反比例して小さくなる。従っ
て、本入力装置の前に物体を置いたとき、背景からの反
射光はほぼ無視できるくらいに小さくなり、物体のみか
らの反射光画像を得ることが出来る。
In the above description, an image pickup device having two charge storage units in a unit cell has been described as an example. However, for example, only one charge storage unit is provided in a cell, and a mechanism for obtaining a difference is described below. May be prepared. With the same concept, this imaging device can be configured using an existing CCD image sensor or the like. <Use of reflected light image> Reflected light from an object greatly decreases as the distance to the object increases. When the surface of the object scatters light uniformly, the amount of light received per pixel of the reflected light image decreases in inverse proportion to the square of the distance to the object. Therefore, when an object is placed in front of the input device, the reflected light from the background becomes almost negligible, and a reflected light image from only the object can be obtained.

【0047】例えば、入力装置の前に手を持ってきた場
合、その手からの反射光画像が得られる。この時、反射
光画像の各画素値は、その画素に対応する単位受光セル
で受光した反射光の量を表す。
For example, when a hand is brought in front of the input device, a reflected light image from the hand is obtained. At this time, each pixel value of the reflected light image represents the amount of reflected light received by the unit light receiving cell corresponding to that pixel.

【0048】反射光量は、物体の性質(光を鏡面反射す
る、散乱する、吸収するなど)、物体面の向き、物体の
距離、などに影響されるが、物体全体が一様に光を散乱
する物体である場合、その反射光量は物体までの距離と
密接な関係を持つ。
The amount of reflected light is affected by the properties of the object (specular reflection, scattering, absorption, etc. of the light), the direction of the object surface, the distance of the object, and the like. In the case of an object, the amount of reflected light has a close relationship with the distance to the object.

【0049】手などはこのような性質を持つため、手を
差し出した場合の反射光画像は、手の距離、手の傾き
(部分的に距離が異なる)、などを反映する。従ってこ
れらの特徴情報を抽出することによって、様々な情報の
入力・生成が可能になる。
Since a hand or the like has such a property, the reflected light image when the hand is extended reflects the distance of the hand, the inclination of the hand (distance is partially different), and the like. Therefore, by extracting these pieces of characteristic information, it is possible to input and generate various information.

【0050】反射光画像の加工の仕方の代表例は、距離
情報の抽出と、領域抽出である。先にも述べたように、
物体が一様で均質な散乱面を持つ物体であれば、反射光
画像は距離画像と見なすことができる。従って、物体の
立体形状を抽出することができる。物体が手であれば、
手のひらの傾きなどが検出できる。手のひらの傾きは部
分的な距離の違いとして現れる。
Representative examples of how to process the reflected light image are extraction of distance information and extraction of an area. As mentioned earlier,
If the object has a uniform and uniform scattering surface, the reflected light image can be regarded as a distance image. Therefore, the three-dimensional shape of the object can be extracted. If the object is a hand,
The inclination of the palm can be detected. The tilt of the palm appears as a partial difference in distance.

【0051】また、手を移動させたときに画素値が変わ
れば、距離が移動したと見ることができる。また、背景
のように遠い物体からの反射光はほとんどないため、反
射光画像からあるしきい値以上の領域を切り出すという
処理で、物体の形状を簡単に切り出すことができる。例
えば、物体が手であれば、そのシルエット像を切り出す
のは極めて容易である。また画素値が距離と密接な関係
を持つため物体の凹凸の情報を得ることができる。これ
は3次元形状の獲得が可能であることを示す。
If the pixel value changes when the hand is moved, it can be regarded that the distance has moved. Also, since there is almost no reflected light from a distant object such as the background, the shape of the object can be easily cut out by processing to cut out an area above a certain threshold from the reflected light image. For example, if the object is a hand, it is extremely easy to cut out a silhouette image thereof. Further, since the pixel value is closely related to the distance, it is possible to obtain information on the unevenness of the object. This indicates that a three-dimensional shape can be obtained.

【0052】また、反射光画像よりさまざまな特徴情報
を抽出することができる。この特徴情報あるいは特徴情
報の抽出方法は様々考えられる。例えば形状の面積や重
心の位置、水平方向、垂直方向の広がり、およびそれら
の時間的変化などを抽出することができます。また手の
形から指先の位置などを検出することもできる。また距
離情報も併用した特徴量を求めることもできる。
Further, various characteristic information can be extracted from the reflected light image. There are various methods for extracting the characteristic information or the characteristic information. For example, you can extract the shape area and the position of the center of gravity, the horizontal and vertical directions, and their temporal changes. In addition, the position of the fingertip can be detected from the shape of the hand. It is also possible to obtain a feature amount that also uses distance information.

【0053】これらの特徴情報からジェスチャーやポイ
ンティングなどの情報を生成し、これによりコンピュー
タなどの操作を行うことができる。また対象物体の立体
情報を抽出し、利用することもできる。また、コンピュ
ータに限らず、AV機器や家電製品などの機器や非接触
で操作したい医療機器や汚れたてで操作したい工場など
の装置などさまざまな製品に応用できる。
Information such as gestures and pointing is generated from these pieces of characteristic information, so that a computer or the like can be operated. It is also possible to extract and use the three-dimensional information of the target object. Further, the present invention can be applied not only to computers but also to various products such as devices such as AV devices and home electric appliances, medical devices to be operated in a non-contact manner, and devices in factories and the like that are to be operated when they are dirty.

【0054】<明るさを距離に変換することを説明>こ
れまでにも述べたように、本装置では、発光部により光
を発し、その光の対象物体による反射光を画像として獲
得する。したがって、物体が近くに存在すれば反射光は
大きくなり、物体が遠くになれば反射光は小さくなる。
物体面が光軸と垂直であり、その表面が完全拡散面だと
仮定すると、物体面上からの反射光を受光する、受光セ
ル(反射光画像の1画素に相当する)が受ける光の量
は、物体面までの距離の2乗に反比例する。
<Explanation of Converting Brightness into Distance> As described above, in this apparatus, light is emitted by the light emitting unit, and the reflected light of the target object is acquired as an image. Therefore, the reflected light increases when the object is near, and decreases when the object is far away.
Assuming that the object surface is perpendicular to the optical axis and that the surface is a perfect diffusion surface, the amount of light received by the light receiving cell (corresponding to one pixel of the reflected light image) that receives the reflected light from the object surface Is inversely proportional to the square of the distance to the object plane.

【0055】実際には、物体面が完全拡散面でないこと
もあるし、物体面は光軸に垂直でなければ反射光量は減
衰する。また、発光部が均一に対象空間を照らしていな
ければ対象物体の位置によっても反射光量が変わる。し
たがって、精度良く求めようとすればさまざまな補正を
行う必要はある。しかし基本的には反射光量、つまり画
素値は距離と関係を持つ。
In practice, the object surface may not be a perfect diffusion surface, and the amount of reflected light attenuates unless the object surface is perpendicular to the optical axis. In addition, if the light emitting unit does not uniformly illuminate the target space, the amount of reflected light changes depending on the position of the target object. Therefore, it is necessary to perform various corrections in order to obtain the accuracy. However, basically, the amount of reflected light, that is, the pixel value has a relationship with the distance.

【0056】このように反射光を用いることで、物体を
背景から切り出すことができる。一方、反射光でなく、
通常の画像(可視光による受動的な)撮像も可能であ
る。本発明は、通常の撮像と反射光による距離画像の撮
像と双方を可能にするものである。
By using the reflected light as described above, the object can be cut out from the background. On the other hand, instead of reflected light,
Normal image (passive with visible light) imaging is also possible. The present invention enables both normal imaging and imaging of a distance image by reflected light.

【0057】図2は本発明の正面からみた概観と横から
みた概観を示すものである。筐体は周囲からの光がもれ
こまないように、密閉型になっている。電源など熱を発
生する部分には、熱を発散するための放射板などが設置
されたりする。レンズ3の周囲に発光部であるLED1
が複数並んでいる。レンズ3の後ろに反射光画像検出部
4が配置されている。
FIG. 2 shows a front view and a side view of the present invention. The housing is sealed so that light from the surroundings does not leak. A radiation plate or the like for dissipating heat is installed in a portion that generates heat, such as a power supply. LED 1 which is a light emitting unit around lens 3
Are lined up multiple times. A reflected light image detection unit 4 is disposed behind the lens 3.

【0058】LED1の下には、電源がはいっているか
どうかを示す電源ON/OFF表示器31が設置され、
例えば、ONの時には、緑色に点灯し、OFFの時に
は、点灯が消えることにより、ユーザが簡単に電源ON
/OFFを確認できるようになっている。電源ON/O
FFのスイッチは、この筐体の後部につけることも可能
である。あるいは、接続されているパソコンなどのコン
ピュータ側からソフトウェア的にON/OFFすること
も可能である。
Below the LED 1, a power ON / OFF indicator 31 for indicating whether the power is on or not is provided.
For example, when the power is on, the light turns green, and when the power is off, the light turns off.
/ OFF can be confirmed. Power ON / O
The switch of the FF can be attached to the rear of the housing. Alternatively, it is also possible to turn on / off by software from a computer such as a connected personal computer.

【0059】また、蛍光灯などの外光によるノイズを除
くために、外光の周波数の検知などを行う必要がある。
このための外光検出部32が、レンズと同じ側で、この
例では、電源ON/OFF表示器31とは反対側の上部
に設置されている。
Further, in order to remove noise due to external light such as a fluorescent lamp, it is necessary to detect the frequency of the external light.
The external light detection unit 32 for this purpose is installed on the same side as the lens, in this example, on the upper side opposite to the power ON / OFF indicator 31.

【0060】図3では、不可視光と可視光の撮像を切り
替えるための切り替え部10のうち、スイッチ部を示し
ている。この切り替え部10を手動あるいは自動で切り替
えることにより、不可視光撮像用フィルタと可視光撮像
用フィルタが切り替わり、撮像ができるようになってい
る。
FIG. 3 shows a switch section of the switching section 10 for switching between invisible light and visible light imaging. By switching the switching unit 10 manually or automatically, the invisible light imaging filter and the visible light imaging filter are switched, and imaging can be performed.

【0061】以上のように撮像して得られた画像を図4
に示す。図4(a)が、可視光撮像の画像、図4(b)
が不可視光撮像の画像である。可視光撮像では通常の画
像が得られ、これに対し、図4(b)は、手の部分のみ
が背景から切り出された画像が撮像できていることがわ
かる。
The image obtained as described above is shown in FIG.
Shown in FIG. 4A is an image obtained by capturing visible light, and FIG.
Is an image captured by invisible light. In the visible light imaging, a normal image is obtained, while in FIG. 4B, it can be seen that an image in which only the hand is cut out from the background can be captured.

【0062】図5は別の物体を撮像し、その値を0から
255までの256階調(8ビット)で表現したもので
ある。図5(a)は可視光画像である。この場合は、図
4(a)に示すようにモノクロ画像なので、得られた値
は、物体の輝度値に相当する。一方。図5(b)は不可
視光画像である。この値は、物体表面で反射された反射
光の強さに相当する。
FIG. 5 shows an image of another object, and its value is represented by 256 gradations (8 bits) from 0 to 255. FIG. 5A is a visible light image. In this case, since the image is a monochrome image as shown in FIG. 4A, the obtained value corresponds to the luminance value of the object. on the other hand. FIG. 5B is an invisible light image. This value corresponds to the intensity of the reflected light reflected on the object surface.

【0063】図5(a)の可視光の輝度値を用いて、図
5(b)の反射光の強さを補正する方法を次に示す。可
視光画像での物体で、白いものは、近赤外光に対する反
射率が高く、黒いものは近赤外光に対する反射率が低
い。
A method for correcting the intensity of the reflected light shown in FIG. 5B using the luminance value of the visible light shown in FIG. In a visible light image, a white object has a high reflectance for near-infrared light, and a black object has a low reflectance for near-infrared light.

【0064】つまり、可視光の輝度値が高い(色が白
い)と、反射率が高いので、得られた反射光の強さを弱
める(補正係数を小さくする)、逆に、輝度値が低い
(黒い)と、反射率が低いので、得られた反射光の強さ
を強める(補正係数を大きくする)ことにより、補正を
行うことができる。図6に可視光の輝度値と補正係数と
の対応表の一例を示す。
That is, when the luminance value of the visible light is high (white color), the reflectance is high, so that the intensity of the obtained reflected light is reduced (the correction coefficient is reduced), and conversely, the luminance value is low. (Black), since the reflectance is low, the correction can be performed by increasing the intensity of the obtained reflected light (increase the correction coefficient). FIG. 6 shows an example of a correspondence table between the luminance values of visible light and the correction coefficients.

【0065】図7は補正処理の流れ図の一例を示す図で
あり、図8はこの処理を実現するための第1の実施例の
概略構成図である。図4あるいは図5に示したような画
像を取得する距離画像取得部11と可視光画像取得部1
2と、これを切り替える切り替え部10,取得した画像
および補正された画像を記憶する画像記憶部14と、図
6のような補正係数を用いて距離画像の補正を行う距離
画像補正部15と、図4あるいは図5のように取得した
画像の呈示を行う呈示部16と、これらの管理をおこな
う情報管理部13とから構成されている。
FIG. 7 is a diagram showing an example of a flowchart of the correction processing, and FIG. 8 is a schematic configuration diagram of a first embodiment for realizing this processing. The distance image acquisition unit 11 and the visible light image acquisition unit 1 for acquiring an image as shown in FIG.
2, a switching unit 10 for switching between them, an image storage unit 14 for storing the acquired image and the corrected image, and a distance image correction unit 15 for correcting the distance image using a correction coefficient as shown in FIG. As shown in FIG. 4 or FIG. 5, it is composed of a presenting unit 16 for presenting the acquired images and an information managing unit 13 for managing these.

【0066】ステップS701で読み出す反射光画像の
行列Iij、可視光画像の行列Vij、補正係数Wijのクリ
アと、行列のサフィックス(suffix)ijの初期化を行
う。ここでは、行列の大きさはM×Nと仮定する。
In step S701, the matrix Iij of the reflected light image read out, the matrix Vij of the visible light image, the correction coefficient Wij are cleared, and the matrix suffix (suffix) ij is initialized. Here, it is assumed that the size of the matrix is M × N.

【0067】次にステップS702において、距離画像
取得部11で取得した反射光画像Iijと可視光画像取得
部12で取得した可視光画像Vijを読み出す。ここで、
IijやVij行列の各要素に0から255の値がセットさ
れるので、読み出された結果を表示すると、例えば、図
5(b)や図5(a)のようになる。
Next, in step S702, the reflected light image Iij obtained by the distance image obtaining unit 11 and the visible light image Vij obtained by the visible light image obtaining unit 12 are read. here,
Since a value from 0 to 255 is set in each element of the Iij or Vij matrix, when the read result is displayed, for example, as shown in FIG. 5B or FIG. 5A.

【0068】次に、距離画像補正部15においてVijの
輝度値をもとに、図6の対応表を参照して、補正係数W
ijの値をセットし(ステップS703)、この値を使っ
てIijの補正を行う(ステップS704)。この処理を
ijを順次、増減して、M×Nのすべての要素に対して補
正を行い、最終的に得られたIijを出力し(ステップS
709)、処理を終了する。
Next, based on the luminance value of Vij, the distance image correction unit 15 refers to the correspondence table of FIG.
The value of ij is set (step S703), and Iij is corrected using this value (step S704). This process
ij is sequentially increased or decreased to correct all M × N elements, and the finally obtained Iij is output (step S
709), and the process ends.

【0069】図6は実はパソコンなどの入力デバイスで
あるマウスを撮像したものである。図6(a)と図6
(b)において、それぞれ白丸を付した部分は、マウス
のボタンにあたる。図6(a)において、マウス全体が
白いので、輝度が高いのに対し、このボタンの部分はネ
ズミ色で、輝度が56と低くなっている。これに対応す
る部分は図6(b)では反射光の強さが116と低くな
っている。輝度値56に対応する補正係数は図6より、
1.56である。この補正係数を用いて補正を行うと、116*
1.56=181 となり、輝度値を補正した反射光の強さ、つ
まり距離値に相当する値を得ることができる。
FIG. 6 shows an image of a mouse which is an input device such as a personal computer. FIG. 6A and FIG.
In (b), each part with a white circle corresponds to a mouse button. In FIG. 6A, since the entire mouse is white, the brightness is high. On the other hand, the button portion is murine and the brightness is low at 56. In the corresponding portion, the intensity of the reflected light is as low as 116 in FIG. The correction coefficient corresponding to the luminance value 56 is shown in FIG.
1.56. When correction is performed using this correction coefficient, 116 *
1.56 = 181, and a value corresponding to the intensity of the reflected light whose luminance value has been corrected, that is, a distance value can be obtained.

【0070】<第2の実施例>第1の実施例では、モノ
クロ画像の輝度値のみを使っている。同じ色であって
も、照明があたっている場合とあたっていない場合で
は、輝度値が異なる。つまり、照明があたっている方
が、あたっていない方より、輝度値が高くなる。
<Second Embodiment> In the first embodiment, only the luminance value of a monochrome image is used. Even if the colors are the same, the brightness values are different depending on whether illumination is performed or not. In other words, the luminance value is higher in the illuminated area than in the non-illuminated area.

【0071】さらに照明に対する面の向きによっても輝
度値は異なる。面が照明光線に対して、垂直になってい
る場合が最も輝度が高く、これから角度がずれるに従
い、輝度値が低くなる。顔のように、曲面があるような
物体の場合には、同じ肌色であっても、輝度値が異なっ
てしまう。
Further, the luminance value differs depending on the direction of the surface with respect to the illumination. The brightness is highest when the surface is perpendicular to the illumination light beam, and the brightness value decreases as the angle shifts from this. In the case of an object having a curved surface, such as a face, the brightness value differs even for the same skin color.

【0072】以上のように、第1の実施例では、モノク
ロ画像の輝度値のみを用いているので、照明の影響が輝
度値に直接及んでしまう。このような問題を回避するた
めに、R,G,Bの色別に可視光画像を撮像し、色別の
輝度値を用いて、補正を行うものである。
As described above, in the first embodiment, since only the luminance value of the monochrome image is used, the influence of the illumination directly affects the luminance value. In order to avoid such a problem, a visible light image is captured for each of R, G, and B colors, and correction is performed using luminance values for each color.

【0073】図9は第2の実施例の概略構成図である。
第1の実施例では、一つの可視光画像取得部12のみを
備えていたのに対し、第2の実施例では、R,G,B毎
に撮像する可視光R画像取得部17、可視光G画像取得
部18、可視光B画像取得部19を具備する点が異なっ
ている。
FIG. 9 is a schematic configuration diagram of the second embodiment.
In the first embodiment, only one visible light image acquisition unit 12 is provided, whereas in the second embodiment, the visible light R image acquisition unit 17 that captures images for each of R, G, and B, and the visible light The difference is that a G image acquisition unit 18 and a visible light B image acquisition unit 19 are provided.

【0074】図10は取得された画像の一例である。説
明を容易にするために簡単化して示したものである。対
象は図10(e)に示したように、左上が白、左下が
青、右上が緑、右下が赤、右側に照明があたり、左側に
照明があたっていない。
FIG. 10 shows an example of the acquired image. It has been simplified for ease of explanation. As shown in FIG. 10E, the target is white on the upper left, blue on the lower left, green on the upper right, red on the lower right, illumination on the right side, and no illumination on the left side.

【0075】図10(a)は可視光R画像取得部17が
取得した画像、図10(b)は可視光G画像取得部18
が取得した画像、図10(c)は可視光B画像取得部1
9が取得した画像、図10(d)は距離画像取得部11
が取得した画像である。
FIG. 10A is an image acquired by the visible light R image acquiring unit 17, and FIG. 10B is a visible light G image acquiring unit 18.
10 (c) is a visible light B image acquisition unit 1.
9 is an image acquired, FIG.
Is an acquired image.

【0076】距離画像としては、上半分が凸で下半分が
凹である。図11は第2の実施例の処理の流れ図であ
る。初期化では、可視光R画像取得部17が取得した画
像Rij、可視光G画像取得部18が取得した画像Gij、
可視光B画像取得部19が取得した画像Bij、距離画像
取得部11が取得した画像Iijを読み出すために、それ
ぞれの行列と、および可視光画像Vijと、補正係数Wij
を格納するための行列の初期化を行う(ステップS80
1)。
As the distance image, the upper half is convex and the lower half is concave. FIG. 11 is a flowchart of the process of the second embodiment. In the initialization, the image Rij acquired by the visible light R image acquisition unit 17, the image Gij acquired by the visible light G image acquisition unit 18,
In order to read the image Bij acquired by the visible light B image acquiring unit 19 and the image Iij acquired by the distance image acquiring unit 11, the respective matrices, the visible light image Vij, and the correction coefficient Wij
Is initialized (step S80).
1).

【0077】次にIij,Rij,Gij,Bijの読み出し
(ステップS802)、読み出したRij,Gij,Bijの
最大値をVijにセットする(ステップS803)。以
降、Vijの値を用いて、補正を行う流れは、第1の実施
例と同様である。
Next, Iij, Rij, Gij, and Bij are read (step S802), and the maximum values of the read Rij, Gij, and Bij are set to Vij (step S803). Thereafter, the flow of performing the correction using the value of Vij is the same as in the first embodiment.

【0078】補正を行った結果を図12に示す。図12
(a)は可視光画像Vij。図12(b)はVijより算出
された補正係数Wij、図12(d)は補正係数Wijによ
り補正を行った補正結果である。図12(c)は比較の
ために、輝度値のみにより補正したものである。この場
合、照明の影響のため、右半分の距離値が実際より近い
補正になってしまっているが、図12(d)ではこのよ
うなことはない。
FIG. 12 shows the result of the correction. FIG.
(A) is a visible light image Vij. FIG. 12B shows a correction coefficient Wij calculated from Vij, and FIG. 12D shows a correction result obtained by performing correction using the correction coefficient Wij. FIG. 12 (c) shows the result of correction using only the luminance value for comparison. In this case, the distance value in the right half is corrected closer to the actual value due to the influence of illumination, but this is not the case in FIG.

【0079】また、物体の色は変わらないので、一度、
物体の3次元形状と色の分布がわかれば、以降、距離画
像のみを取得することで、補正を行うことも可能であ
る。また、本願発明の実施例における図7,図11の処
理をコンピュータで実行可能なプログラムで実現し、こ
のプログラムをコンピュータで読み取り可能な記憶媒体
として実現することも可能である。
Also, since the color of the object does not change,
If the distribution of the three-dimensional shape and the color of the object is known, it is possible to perform correction by acquiring only the distance image thereafter. 7 and 11 in the embodiment of the present invention can be implemented by a computer-executable program, and the program can be implemented as a computer-readable storage medium.

【0080】なお、本願発明における記憶媒体として
は、磁気ディスク、フロッピー(登録商標)ディスク、
ハードディスク、光ディスク(CD−ROM,CD−
R,DVD等)、光磁気ディスク(MO等)、半導体メ
モリ等、プログラムを記憶でき、かつコンピュータが読
み取り可能な記憶媒体であれば、その記憶形式は何れの
形態であってもよい。
The storage medium in the present invention includes a magnetic disk, a floppy (registered trademark) disk,
Hard disk, optical disk (CD-ROM, CD-
R, DVD, etc.), a magneto-optical disk (MO, etc.), a semiconductor memory, or any other storage medium that can store programs and that can be read by a computer.

【0081】また、記憶媒体からコンピュータにインス
トールされたプログラムの指示に基づきコンピュータ上
で稼動しているOS(オペレーションシステム)や、デ
ータベース管理ソフト、ネットワーク等のMW(ミドル
ウェア)等が本実施形態を実現するための各処理の一部
を実行してもよい。
An OS (operation system) running on the computer, database management software, MW (middleware) such as a network, etc., according to the instructions of the program installed in the computer from the storage medium realizes the present embodiment. May be executed.

【0082】さらに、本願発明における記憶媒体は、コ
ンピュータと独立した媒体に限らず、LANやインター
ネット等により伝送されたプログラムをダウンロードし
て記憶または一時記憶した記憶媒体も含まれる。
Further, the storage medium in the present invention is not limited to a medium independent of a computer, but also includes a storage medium in which a program transmitted via a LAN or the Internet is downloaded and stored or temporarily stored.

【0083】また、記憶媒体は1つに限らず、複数の媒
体から本実施形態における処理が実行される場合も、本
発明における記憶媒体に含まれ、媒体の構成は何れの構
成であってもよい。
Further, the number of storage media is not limited to one, and a case where the processing in the present embodiment is executed from a plurality of media is also included in the storage medium of the present invention, and the configuration of the medium may be any configuration. Good.

【0084】なお、本願発明におけるコンピュータは、
記憶媒体に記憶されたプログラムに基づき、本実施形態
における各処理を実行するものであって、パソコン等の
1つからなる装置、複数の装置がネットワーク接続され
たシステム等の何れの構成であってもよい。
The computer according to the present invention comprises:
The computer executes each process in the present embodiment based on a program stored in a storage medium, and may have any configuration such as an apparatus such as a personal computer or a system in which a plurality of apparatuses are connected to a network. Is also good.

【0085】また、本願発明におけるコンピュータと
は、パソコンに限らず、情報処理機器に含まれる演算処
理装置、マイコン等も含み、プログラムによって本願発
明の機能を実現することが可能な機器、装置を総称して
いる。
The computer in the present invention is not limited to a personal computer, but also includes an arithmetic processing unit, a microcomputer, and the like included in information processing equipment, and generically refers to equipment and devices capable of realizing the functions of the present invention by a program. are doing.

【0086】[0086]

【発明の効果】以上、本発明によれば、可視光画像によ
り容易に距離値の補正を行えるので、リアルタイムに3
次元情報を取得できるので、その効果は大きい。
As described above, according to the present invention, the distance value can be easily corrected by using the visible light image.
Since the dimensional information can be obtained, the effect is great.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明が適用する、発光部と撮像部を持った入
力装置の構成
FIG. 1 is a configuration of an input device having a light emitting unit and an imaging unit to which the present invention is applied.

【図2】本発明の概観を示す正面図と側面図FIG. 2 is a front view and a side view showing an overview of the present invention.

【図3】本発明の概観を示す真上からみた図FIG. 3 is a diagram showing an overview of the present invention as viewed from directly above.

【図4】第1の実施例の可視光と不可視光での撮像結果
を示す図
FIG. 4 is a diagram showing imaging results of the first embodiment with visible light and invisible light.

【図5】第1の実施例の可視光と不可視光での撮像結果
をデジタル値で示す図
FIG. 5 is a diagram showing, as digital values, imaging results of visible light and invisible light according to the first embodiment;

【図6】第1の実施例の距離画像の補正に用いる補正係
数の一例
FIG. 6 illustrates an example of a correction coefficient used for correcting a distance image according to the first embodiment.

【図7】第1の実施例の処理の流れ図FIG. 7 is a flowchart of a process according to the first embodiment;

【図8】第1の実施例の概略構成図FIG. 8 is a schematic configuration diagram of the first embodiment.

【図9】第2の実施例の概略構成図FIG. 9 is a schematic configuration diagram of a second embodiment.

【図10】第2の実施例の可視光と不可視光での撮像結
果をデジタル値で示す図
FIG. 10 is a diagram illustrating digital values of imaging results of visible light and invisible light according to the second embodiment.

【図11】第2の実施例の処理の流れ図FIG. 11 is a flowchart of a process according to a second embodiment;

【図12】第2の実施例の補正の例FIG. 12 shows an example of correction in the second embodiment.

【符号の説明】[Explanation of symbols]

1…発光部 2…対象物体 3…受光光学系(レンズ) 4…反射光画像検出部 5…アンプ 6…A/D変換器 7…メモリ 8…I/F回路 9…制御部 10…切り替え部 11…距離画像取得部 12…可視光画像取得部 13…情報管理部 14…画像記憶部 15…距離画像補正部 16…呈示部 17…可視光R画像取得部 18…可視光G画像取得部 19…可視光B画像取得部 DESCRIPTION OF SYMBOLS 1 ... Light emission part 2 ... Target object 3 ... Light receiving optical system (lens) 4 ... Reflected light image detection part 5 ... Amplifier 6 ... A / D converter 7 ... Memory 8 ... I / F circuit 9 ... Control part 10 ... Switching part REFERENCE SIGNS LIST 11 distance image acquisition section 12 visible light image acquisition section 13 information management section 14 image storage section 15 distance image correction section 16 presentation section 17 visible light R image acquisition section 18 visible light G image acquisition section 19 ... Visible light B image acquisition unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 森下 明 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 梅木 直子 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 2F065 AA04 AA11 AA53 BB05 DD02 DD04 DD06 FF01 FF04 GG07 GG17 JJ03 JJ26 LL04 LL22 PP22 QQ03 QQ21 QQ24 QQ32 5B057 BA02 BA15 BA17 BA19 BA24 BA29 CA08 CB13 DA07 DB03 DB09 DC03 DC07  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Akira Morishita 1st Toshiba R & D Center, Komukai, Kawasaki, Kanagawa Prefecture (72) Inventor Naoko Umeki Tokoba Komukai, Koyuki, Kawasaki, Kanagawa 1-cho, Toshiba R & D Center F-term (reference) 2F065 AA04 AA11 AA53 BB05 DD02 DD04 DD06 FF01 FF04 GG07 GG17 JJ03 JJ26 LL04 LL22 PP22 QQ03 QQ21 QQ24 QQ32 5B057 BA02 BA15 DC17 DC07

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】不可視光画像あるいは可視光画像の画像取
得を切り替えるための切り替え手段と、 この切り替え手段によって切り替えられた不可視光画像
あるいは可視光画像を取得する画像取得手段と、 この画像取得手段が取得した可視光画像を用いて予め記
憶された補正対応表をもとに、不可視光画像の補正を行
うための補正手段とを具備したことを特徴とする画像取
得装置。
1. A switching means for switching image acquisition of an invisible light image or a visible light image, an image acquisition means for acquiring an invisible light image or a visible light image switched by the switching means, and An image acquisition apparatus comprising: a correction unit configured to correct an invisible light image based on a correction correspondence table stored in advance using the obtained visible light image.
【請求項2】不可視光による距離画像を取得するための
距離画像取得手段と、 可視光画像を取得する可視光画像取得手段と、 この可視光画像取得手段が取得した可視光画像を用いて
予め記憶された補正対応表をもとに、前記距離画像取得
手段が取得した距離画像の補正を行うための補正手段と
を具備したことを特徴とする画像取得装置。
2. A distance image obtaining means for obtaining a distance image by invisible light, a visible light image obtaining means for obtaining a visible light image, and a method using a visible light image obtained by the visible light image obtaining means in advance. An image acquisition apparatus comprising: a correction unit for correcting a distance image acquired by the distance image acquisition unit based on a stored correction correspondence table.
【請求項3】前記補正手段は、可視光画像の輝度値を用
いて補正をおこなうことを特徴とする請求項1または請
求項2記載の画像取得装置。
3. An image acquisition apparatus according to claim 1, wherein said correction means performs correction using a luminance value of a visible light image.
【請求項4】不可視光画像あるいは可視光画像の画像取
得を切り替えるための切り替え手段によって切り替えら
れた不可視光画像あるいは可視光画像を取得し、 取得された可視光画像を用いて予め記憶された補正対応
表をもとに、不可視光画像の補正を行うことを特徴とす
る画像取得方法。
4. An invisible light image or a visible light image switched by a switching means for switching the acquisition of an invisible light image or an image of a visible light image, and a correction stored in advance using the obtained visible light image. An image acquisition method, comprising correcting an invisible light image based on a correspondence table.
【請求項5】不可視光による距離画像および可視光画像
を取得し、 取得された可視光画像を用いて予め記憶された補正対応
表をもとに、取得した距離画像の補正を行うことを特徴
とする画像取得方法。
5. A distance image and a visible light image by invisible light are acquired, and the acquired distance image is corrected based on a correction correspondence table stored in advance using the acquired visible light image. Image acquisition method.
JP02342599A 1999-02-01 1999-02-01 Image acquisition apparatus and method Expired - Fee Related JP3625390B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02342599A JP3625390B2 (en) 1999-02-01 1999-02-01 Image acquisition apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02342599A JP3625390B2 (en) 1999-02-01 1999-02-01 Image acquisition apparatus and method

Publications (2)

Publication Number Publication Date
JP2000221007A true JP2000221007A (en) 2000-08-11
JP3625390B2 JP3625390B2 (en) 2005-03-02

Family

ID=12110161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02342599A Expired - Fee Related JP3625390B2 (en) 1999-02-01 1999-02-01 Image acquisition apparatus and method

Country Status (1)

Country Link
JP (1) JP3625390B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7221399B2 (en) 2000-10-12 2007-05-22 Riverbell Inc. Imaging apparatus with a multifocal lens formed of two pieces with different focal lengths
JP2010286307A (en) * 2009-06-10 2010-12-24 Nec Engineering Ltd Image pickup device
WO2014108976A1 (en) * 2013-01-10 2014-07-17 三洋電機株式会社 Object detecting device
JP2016201629A (en) * 2015-04-08 2016-12-01 富士通株式会社 Electronic apparatus and program
WO2023058666A1 (en) * 2021-10-04 2023-04-13 株式会社ブルービジョン Distance measuring device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7221399B2 (en) 2000-10-12 2007-05-22 Riverbell Inc. Imaging apparatus with a multifocal lens formed of two pieces with different focal lengths
JP2010286307A (en) * 2009-06-10 2010-12-24 Nec Engineering Ltd Image pickup device
WO2014108976A1 (en) * 2013-01-10 2014-07-17 三洋電機株式会社 Object detecting device
JP2016201629A (en) * 2015-04-08 2016-12-01 富士通株式会社 Electronic apparatus and program
WO2023058666A1 (en) * 2021-10-04 2023-04-13 株式会社ブルービジョン Distance measuring device
JP7441380B2 (en) 2021-10-04 2024-02-29 株式会社ブルービジョン distance measuring device

Also Published As

Publication number Publication date
JP3625390B2 (en) 2005-03-02

Similar Documents

Publication Publication Date Title
US11308711B2 (en) Enhanced contrast for object detection and characterization by optical imaging based on differences between images
JP3321053B2 (en) Information input device, information input method, and correction data generation device
JP3868621B2 (en) Image acquisition apparatus, image acquisition method, and recording medium
JPH1185386A (en) Image pickup module and image pickup device
JP3410919B2 (en) Image extraction device
Berger et al. Markerless motion capture using multiple color-depth sensors.
JP3521187B2 (en) Solid-state imaging device
US9720511B2 (en) Hand and object tracking in three-dimensional space
JP2015526927A (en) Context-driven adjustment of camera parameters
CN107623817B (en) Video background processing method, device and mobile terminal
JP2013250882A5 (en)
KR19980033069A (en) Information input device, information input method and solid state imaging device
CN104364733A (en) Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program
US20160112616A1 (en) Hair Consultation Tool Arrangement and Method
EP3381015B1 (en) Systems and methods for forming three-dimensional models of objects
JP3625390B2 (en) Image acquisition apparatus and method
JP3590286B2 (en) Imaging module provided with switching means
JPH10222646A (en) Device for inputting picture and method therefor
JP3591808B2 (en) Image input device and method and recording medium
JP2004054890A (en) Method and device for image display, method and device for transmission, image display system, recording medium, and program
JP3785148B2 (en) Image extraction device
JP2006127539A (en) Device for extracting image
KR20160129168A (en) Method for enhancing night time image using digital compositing
JP2014011639A (en) Imaging device
WO2023151698A1 (en) Handprint acquisition system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041129

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071210

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081210

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees