JPS63311106A - Apparatus for recognition crew's position of vehicle - Google Patents

Apparatus for recognition crew's position of vehicle

Info

Publication number
JPS63311106A
JPS63311106A JP14740887A JP14740887A JPS63311106A JP S63311106 A JPS63311106 A JP S63311106A JP 14740887 A JP14740887 A JP 14740887A JP 14740887 A JP14740887 A JP 14740887A JP S63311106 A JPS63311106 A JP S63311106A
Authority
JP
Japan
Prior art keywords
region
detection
image
predetermined
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP14740887A
Other languages
Japanese (ja)
Inventor
Yasuaki Kato
康聡 加藤
Haruhiko Ogiso
治比古 小木曽
Kazuhiro Shimizu
和洋 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
NipponDenso Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NipponDenso Co Ltd filed Critical NipponDenso Co Ltd
Priority to JP14740887A priority Critical patent/JPS63311106A/en
Publication of JPS63311106A publication Critical patent/JPS63311106A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To enhance a recognition rate by detecting the movement of crew within a narrow range rapidly and accurately, by providing a pattern detection means for detecting the pattern of the state in a compartment, a detection means for detecting an abnormal region and a means for setting a predetermined region at the position corresponding to the abnormal region detection result. CONSTITUTION:The image of the crew M1 of a vehicle is caught by a light emitting part and an image detection part to obtain image data M2. Further, the predetermined region of the driver M1 of the vehicle, pref. the nose thereof present in a predetermined region M3 is detected from the data of the region M3 set in the image data M2. The position of the region M3 in the image data M2 is set by estimating the position of the predetermined region of the crew M1 of the vehicle in accordance with the detection result of an abnormal region detection means M6, that is, the region of abnormality such as the positional movement of the head from the predetermined pattern, pref., the boundary line of the ceiling and door part of the vehicle detected by a pattern detection means M5. By this method, the part where it is estimated that there is the head of the driver 1 is set, and the detection of the apex nasi and the confirmation of the position of an eye are performed from the predetermined region in the vicinity of said set part and, therefore, accurate detection becomes possible without lowering detection efficiency and a detection region can be made narrow.

Description

【発明の詳細な説明】 発明の目的 [産業上の利用分野コ 本発明は、自動車の運転者等の車内での位置を検出して
各種制御に利用するための車両乗員の乗車位置認識装置
に関する。
DETAILED DESCRIPTION OF THE INVENTION Object of the Invention [Industrial Field of Application] The present invention relates to a device for recognizing the riding position of a vehicle occupant for detecting the position of a driver or the like inside the vehicle and using the detected position for various controls. .

[従来の技術] 従来、自動車等の運転者の位置、特に目の位置を認識し
、バックミラー、ヘッドレスト、空調空気の吹き出し口
あるいはステアリング等の位置や角度を自動調整すると
か、運転者の居眠りを検知して運転者に警報を与えると
いった装置が提案されている(特開昭60−15290
4号等)。
[Conventional technology] Conventionally, the position of the driver of a car, etc., especially the position of the eyes, is recognized and the position and angle of rearview mirrors, headrests, air-conditioned air outlets, steering wheels, etc. are automatically adjusted, or when the driver falls asleep. A device has been proposed that detects the
No. 4, etc.).

これらの装置による位置の正確な認識の一つの手段とし
て、撮像手、段にて比較的広く捉えた画像の内の一部を
用いて、鼻の位置等を検出しようとする装置がある。画
像の一部を用いるのは撮像手段が固定式で任意の角度で
は撮像が出来ないため、画像を広く捉えておき、その内
の一部を任意の範囲で捉えることにより、撮像手段の撮
像角度を変更しているのと同様な効果を持たせるためで
あり、更に、特定部位の周辺に限って検出効率を向上さ
せ、誤認を防止するためである。この特定部位、例えは
目や鼻は、運転者のいずれかの部分の位置が決まれば、
ある特定の狭い範囲にあることが経験的に判っているの
で、予め検出領域を設定できる。
As one means of accurate position recognition using these devices, there is a device that attempts to detect the position of the nose, etc. by using a portion of a relatively wide image captured by an imaging device. The reason why a part of the image is used is because the imaging means is fixed and cannot be taken at an arbitrary angle, so by capturing a wide range of images and capturing a part of the image within an arbitrary range, the imaging angle of the imaging means can be adjusted. This is to achieve the same effect as changing the area, and furthermore, to improve detection efficiency only in the vicinity of a specific part and prevent misidentification. Once the position of this specific part, such as the eyes or nose, is determined,
Since it is empirically known that the detection area is within a certain narrow range, the detection area can be set in advance.

[発明が解決しようとする問題点コ ところが、個人差があったり、運転者が存在する座席が
移動した場合には、検出領域が予め設定した特定部位か
ら外れてしまい。特定部位が検出できなかったり、誤検
出する恐れが高くなり、いきおい検出すべき範囲も広く
なり、迅速に検出できなくなる。
[Problems to be Solved by the Invention] However, if there are individual differences or if the seat where the driver is present moves, the detection area may deviate from the preset specific area. There is a high possibility that a specific part cannot be detected or that it is erroneously detected, and the range that should be detected becomes wider, making it impossible to detect it quickly.

発明の構成 そこで、本発明は、上記問題点を解決することを目的と
し、次のような構成を採用した。
Structure of the Invention Therefore, the present invention employs the following structure for the purpose of solving the above problems.

[問題点を解決するための手段] 即ち、本発明の要旨とするところは、第1図に例示する
ごとく、車両乗員M1の乗車状態を撮像し、撮像された
画像データM2の内に所定領域M3を設定し、この所定
領域M3から上記車両乗員M1の所定部位を検出する車
両乗員の乗車位置認識装置において、 更に、 車室内に存在する所定パターンM4の画像データ上での
状態を検出するパターン検出手段M5と、上記所定パタ
ーンM4の画像データ上の異常部位検出手段M6と、 この異常部位検出手段M6の検出結果に応じた位置に、
上記所定領域M3を設定する所定領域設定手段M7と、 を備えたことを特徴とする車両乗員の乗車位置認識装置
にある。
[Means for Solving the Problems] That is, the gist of the present invention is, as illustrated in FIG. In the vehicle occupant riding position recognition device that sets M3 and detects a predetermined part of the vehicle occupant M1 from the predetermined area M3, the device further includes: a pattern that detects the state of the predetermined pattern M4 existing in the vehicle interior on the image data; a detection means M5, an abnormal region detection means M6 on the image data of the predetermined pattern M4, and a position corresponding to the detection result of the abnormal region detection means M6;
A device for recognizing the riding position of a vehicle occupant, comprising: a predetermined region setting means M7 for setting the predetermined region M3.

[作用コ 車両乗員の乗車位置認識装置は車両乗員M1の像を捉え
画像データM2を得ている。更に本認識装置は画像デー
タ量2内に設定されている所定領域M3のデータから、
過密その所定領域M3に存在する車両乗員M1の所定部
位を検出する。この所定領域M3の画像データ量2内で
の位置は、パターン検出手段M5により検出された所定
パターンの内、異常部位検出手段M6の検出結果、即ち
異常部位に応じて、車両乗員M1の所定部位の位置を推
定して、設定される。
[Operation] The vehicle occupant riding position recognition device captures an image of the vehicle occupant M1 and obtains image data M2. Furthermore, this recognition device uses the data of a predetermined area M3 set within the image data amount 2,
A predetermined part of the vehicle occupant M1 existing in the overcrowded predetermined region M3 is detected. The position of this predetermined region M3 within the image data amount 2 is determined based on the detection result of the abnormal region detection means M6, that is, the abnormal region, of the predetermined pattern detected by the pattern detection means M5, and the predetermined region of the vehicle occupant M1. is set by estimating the position of.

[実施例コ 次に、本発明の一実施例を図面と共に説明する。[Example code] Next, one embodiment of the present invention will be described with reference to the drawings.

本発明はこれらに限られるものではなく、その要旨を逸
脱しない範囲の種々の態様のものが含まれる。
The present invention is not limited to these, but includes various embodiments without departing from the gist thereof.

第2図は本実施例の乗車位置認識装置が搭載された車両
のインストルメントパネル部分及びその周辺を表す斜視
図であって、運転者1が運転席2に着庫し、インストル
メントパネル3に対面して自動車を運転しているところ
を表している。インストルメントパネル3の運転席2に
対する左斜め前方、即ち助手席前方には、運転者1の上
体を左4一 方向から照射する発光部5と、運転者1の上体を左方向
から2次元画像として捉える画像検出部6が設けられて
いる。
FIG. 2 is a perspective view showing the instrument panel part and its surroundings of a vehicle in which the passenger position recognition device of this embodiment is installed. It represents driving a car face to face. A light emitting unit 5 that illuminates the upper body of the driver 1 from one direction to the left is located diagonally forward to the left of the driver's seat 2 of the instrument panel 3, that is, in front of the passenger seat. An image detection unit 6 that captures a dimensional image is provided.

ここで発光部5は照射時に運転者1にまぶしさを感じさ
せることのないよう赤外光を発光する赤外ストロボが用
いられ、第3図に示すごとく、赤外発光体5aと、赤外
発光体5aにて発光された赤外光を広く運転者に照射す
るためのレンズ5bと、赤外光を透過し、可視光を通さ
ない赤外フィルタ5cと、これら赤外発光体5a、レン
ズ5b及び赤外フィルタ5cを格納し、インストルメン
トパネル3の所定の位置に取り付けるためのケース5d
とから構成されている。また画像検出部6は第4図に示
すごとく、赤外光を透過する赤外フィルタ6aと、運転
者1の上体画像を後述の固体撮像素子6eの撮像面に結
像するための焦点距離が例えは12.5mmのレンズ6
bと、光量を調整するための液晶絞り素子6Cと、液晶
絞り素子6cの絞りを自動調整するために用いられ、液
晶絞り素子6Cを透過する光量を検出するフォトトラン
ジスタロdと、上記赤外フィルタ6a、レンズ6b及び
液晶絞り素子6cを透過して結像された撮像面上の映像
をスイッチング走査で電気信号として取り出す、フォト
センサとスイッチング回路とからなるMOS型の固体撮
像素子6eと、上記各部を格納し、インストルメントパ
ネル3に取り付けるためのケース6fとから構成される
固体カメラが用いられている。
Here, the light emitting unit 5 uses an infrared strobe that emits infrared light so as not to cause the driver 1 to feel dazzled when irradiating the light, and as shown in FIG. A lens 5b for broadly irradiating the driver with the infrared light emitted by the light emitter 5a, an infrared filter 5c that transmits infrared light but not visible light, these infrared light emitters 5a, and the lens. 5b and an infrared filter 5c, and a case 5d for mounting them at a predetermined position on the instrument panel 3.
It is composed of. Further, as shown in FIG. 4, the image detection unit 6 includes an infrared filter 6a that transmits infrared light, and a focal length for forming an image of the body of the driver 1 on the imaging surface of a solid-state image sensor 6e, which will be described later. For example, 12.5mm lens 6
b, a liquid crystal aperture element 6C for adjusting the amount of light, a phototransistor rod d used to automatically adjust the aperture of the liquid crystal aperture element 6c and detecting the amount of light transmitted through the liquid crystal aperture element 6C, and the above-mentioned infrared diaphragm element 6C. A MOS type solid-state image sensor 6e consisting of a photosensor and a switching circuit, which extracts an image formed on an imaging surface through a filter 6a, a lens 6b, and a liquid crystal aperture element 6c as an electrical signal by switching scanning; A solid-state camera is used, which includes a case 6f for storing each part and attaching to the instrument panel 3.

次に本実施例の乗車位置認識装置の全体構成を第5図に
示すブロック図に基づき説明する。
Next, the overall configuration of the riding position recognition device of this embodiment will be explained based on the block diagram shown in FIG. 5.

図に示すごとく、本認識装置は上記発光部5及び画像検
出部6の他に、画像検出部6にて捉えられた運転者1の
画像を処理し、運転者1の乗車位置(本実施例において
は最終的には目の位置)を認識する画像処理部8を備え
ている。そしてこの画像処理部8は、上記画像検出部6
を制御すると共に、画像検出部6にて得られた画像信号
をデジタル信号に変換し、その変換されたデジタル信号
を画像データとして一旦記・憶することのできる画像人
力部10と、上記発光部5を発光させるための照射信号
を出力する照射信号出力部12と、画像人力部10にて
A/D変換され記憶された画像データの内の扉検出領域
から運転者1の顔面部における所定の特異点位置(本実
施例では鼻の位置)を検出し、この特異点位置から運転
者10目の位置を認識するといった一連の目の位置認識
処理を実行するセントラルプロセッシングユニット(C
PU)14と、CPU14にて目の位置認識処理を実行
するための制御プログラムやデータが予め記憶されたリ
ードオンリメモリ(ROM)16と、演算処理実行のた
めに用いられるデータ等が一時的に読み書きされるラン
ダムアクセスメモリ(RAM)1Bと、上記各部を結び
画像信号や制御信号の通路とされるパスライン20と、
上記各部に電源を供給する電源回路22とから構成され
ている。
As shown in the figure, in addition to the light emitting unit 5 and the image detecting unit 6, this recognition device processes the image of the driver 1 captured by the image detecting unit 6, and processes the riding position of the driver 1 (this embodiment The camera is equipped with an image processing unit 8 that ultimately recognizes the position of the eyes. This image processing unit 8 is configured to include the image detection unit 6
an image human power section 10 that can control the image signal obtained by the image detection section 6, convert the image signal obtained by the image detection section 6 into a digital signal, and temporarily store the converted digital signal as image data; An irradiation signal output unit 12 outputs an irradiation signal for causing the driver 1 to emit light. A central processing unit (C
PU) 14, a read-only memory (ROM) 16 in which control programs and data for executing eye position recognition processing by the CPU 14 are stored in advance, and data used for executing arithmetic processing are temporarily stored. A random access memory (RAM) 1B that is read and written, a path line 20 that connects each of the above parts and serves as a path for image signals and control signals,
It is composed of a power supply circuit 22 that supplies power to each of the above-mentioned parts.

また上記画像入力部10は、画像検出部6に垂直同期信
号及び水平同期信号を発生する同期信号発生回路10a
と、画像検出部6により得られた画像信号を、例えば1
フレーム当りに横384、縦240の画素の明度を表す
デジタル信号からなる画像データに変換するA/D変換
回路10bと、その変換された画像データを記憶するこ
とのできる画像データ記・憶回路10cとから構成され
ている。
The image input section 10 also includes a synchronization signal generation circuit 10a that generates a vertical synchronization signal and a horizontal synchronization signal to the image detection section 6.
For example, the image signal obtained by the image detection unit 6 is
An A/D conversion circuit 10b that converts image data into digital signals representing the brightness of 384 pixels horizontally and 240 pixels vertically per frame, and an image data storage circuit 10c that can store the converted image data. It is composed of.

次に上記画像処理部8にて実行される目の位置認識処理
の動作について、第6図(イ)、(ロ)に示すフローチ
ャートに沿って説明する。
Next, the operation of the eye position recognition process executed by the image processing section 8 will be explained along the flowcharts shown in FIGS. 6(a) and 6(b).

尚、この処理は一定周期の信号やスイッチからの信号等
によって運転者10目の位置認識の要求が人力された場
合に実行されるものであり、上述したごとく本実施例に
おいては運転者1の乗車位置として目の位置が認識され
ることとなる。
This process is executed when a request for driver 10's position recognition is made manually by a signal of a certain period or a signal from a switch, and as described above, in this embodiment, driver 1's position recognition is The position of the eyes will be recognized as the riding position.

処理が開始されると、まずステップ110が実行され、
画像検出部6において、発光部5を発光させた際に得ら
れる第7図に示すごとき照射画像71を画像入力部10
にてデジタル信号からなる照射画像データGとして記憶
する。
When the process starts, step 110 is first executed,
In the image detection section 6, an irradiation image 71 as shown in FIG. 7 obtained when the light emitting section 5 is made to emit light is sent to the image input section
The irradiation image data G is stored as irradiation image data G consisting of digital signals.

ごこで画像人力部10は、前述のごとく同期信号発生回
路10a、A/D変換回路10b及び画像データ記憶回
路10cを備えており、同期信号発生回路10aより出
力される垂直同期信号及び水平同期信号に従い画像検出
部6を制御し、画像検出部6から出力される画像信号を
順次取り込み、A/D変換回路10bを介してデジタル
信号に変換された画像信号を、画像データGとして記憶
回路10cに記憶することが出来るので、本圃像データ
読み込み処理としては、画像人力部10を動作させ、同
期信号発生回路10aから出力される垂直同期信号と同
期して発光部5を発光させるだけで容易に実行すること
が出来る。つまり第8図に示すごとく、まず垂直同期信
号の立ち上がり時期toより所定時間ΔT経過後発光部
5に照射信号Sを出力することによって垂直帰線時期Δ
t1と一致して発光部5を発光させ、その発光によって
得られる第7図に示すごとき照射画像を画像データGと
して読み込む。
As described above, the image processing unit 10 includes a synchronization signal generation circuit 10a, an A/D conversion circuit 10b, and an image data storage circuit 10c, and includes a vertical synchronization signal and a horizontal synchronization signal output from the synchronization signal generation circuit 10a. The image detection section 6 is controlled according to the signal, the image signals output from the image detection section 6 are sequentially captured, and the image signals converted into digital signals via the A/D conversion circuit 10b are stored as image data G in the storage circuit 10c. Therefore, the main field image data can be easily read by simply operating the image processing unit 10 and causing the light emitting unit 5 to emit light in synchronization with the vertical synchronization signal output from the synchronization signal generation circuit 10a. It can be executed. In other words, as shown in FIG. 8, first, after a predetermined time ΔT has elapsed from the rising time to of the vertical synchronization signal, the irradiation signal S is output to the light emitting unit 5, so that the vertical retrace time Δ
The light emitting unit 5 is caused to emit light in coincidence with t1, and an irradiation image as shown in FIG. 7 obtained by the light emission is read as image data G.

上記画像人力部10にてA/D変換され記憶される画像
データGは、前述したように画像検出部6にて得られた
画像を横384、縦240に分割する画素の明度を表す
ものであり、第9図に示すごとく各画素毎にその明度G
 (x、  y)が記憶されている。
The image data G that is A/D converted and stored in the image processing unit 10 represents the brightness of pixels that divide the image obtained by the image detection unit 6 into 384 horizontal by 240 vertical pixels, as described above. As shown in Figure 9, the brightness G of each pixel is
(x, y) is stored.

この様にステップ110にて発光部5、画像検出部6及
び画像人力部10が制御され、画像人力部10において
画像データGが読み込まれると続くステップ120が実
行され、運転者1の鼻の1立置を検出するための所定領
域を画像データG内で設定する処理が第6図(ロ)に示
すフローチャートのごとくになされる。
In this way, the light emitting section 5, the image detection section 6, and the image human power section 10 are controlled in step 110, and when the image data G is read in the image human power section 10, the subsequent step 120 is executed. The process of setting a predetermined area in the image data G for detecting upright positioning is performed as shown in the flowchart shown in FIG. 6(b).

まずステップ121にて、第10図に示すごとく水平方
向で明度が所定値Ltを越える境界部位を検出する処理
を行う。即ち、画面上の各明度G(x、y)の値をG 
(0,O)から右へ水平方向にG (383,0)まで
検索し、明度が所定1LfiL七以上か否かを判定し、
最初に所定fiLt以上になったX座標xOを記憶する
。以後、数本おきに、水平方向の明度の判定を行う。例
えは、次にG(0,5)〜G (383,5)について
判定し、更に次に、G(0,10)〜G (383,1
0)に11一 ついて判定するといったように実施する。このようにし
て、XO〜xnが求められる。このXO〜xnは画面座
標では第11図に示すごとくの配置となる。即ち、本実
施例では、単室の天井とドア部との境界73のパターン
に対応している。
First, in step 121, as shown in FIG. 10, a process is performed to detect a boundary region whose brightness exceeds a predetermined value Lt in the horizontal direction. That is, the value of each brightness G (x, y) on the screen is
Search horizontally from (0, O) to the right to G (383, 0), determine whether the brightness is equal to or greater than a predetermined 1LfiL7,
The first X coordinate xO that exceeds a predetermined value fiLt is stored. Thereafter, the brightness in the horizontal direction is determined every few lines. For example, next, G(0,5) to G (383,5) are determined, and then G(0,10) to G (383,1
0) is 11 and the judgment is made. In this way, XO to xn are obtained. These XO to xn are arranged as shown in FIG. 11 in screen coordinates. That is, this embodiment corresponds to the pattern of the boundary 73 between the ceiling and the door of a single room.

そのため、通常、XO〜xnの隣接する値の格差dxO
〜dxn−1は、ある一定の関係にある。
Therefore, the difference dxO between adjacent values of XO~xn is usually
~dxn-1 has a certain relationship.

ここで、dxi =xi+1−xiである。例えは車室
の天井とドア部との境界が直線であれは、dxO〜dx
n−1は一定となる。そのため、dxiが他の値に比較
して異常に小さいかあるいは大きくて不規則であれは、
画像検出部6と車室内の境界73との間に第7図に示す
ごとく乗員1が存在するはずである。
Here, dxi =xi+1-xi. For example, if the boundary between the ceiling of the passenger compartment and the door is a straight line, dxO~dx
n-1 is constant. Therefore, if dxi is abnormally small or large and irregular compared to other values,
The occupant 1 should exist between the image detection unit 6 and the boundary 73 inside the vehicle interior, as shown in FIG.

そこで次にステップ123にて、dxO〜dxn−1を
求め、その不規則部分を検出する。境界が所定の直線で
あることが予め判明していれは、dxiが所定値幅、例
えは、11≦dxi ≦17であれは、異常でないとす
る処理がdxOから順番に実施される。こうして判定し
ていって、第12−11′1− 図に示すごとく、最初に異常であると判定されたdxi
について、その一方の値であるx1→1の、画像データ
上の座標G (tx、 ty)を異常部位として検出す
る。
Therefore, in step 123, dxO to dxn-1 are determined and irregular portions thereof are detected. If it is known in advance that the boundary is a predetermined straight line, processing is performed in order from dxO to determine that there is no abnormality if dxi is within a predetermined value range, for example, 11≦dxi≦17. After making the determination in this way, as shown in Figure 12-11'1-, the dxi that was first determined to be abnormal
The coordinate G (tx, ty) on the image data of one value of x1→1 is detected as an abnormal site.

次にステップ127にてxi+1部分が運転者の頭部で
あるとして、上記座標G Ctx、 ty)に対応して
鼻存在域75を決定する。例えば、G (tx。
Next, in step 127, assuming that the xi+1 portion is the driver's head, the nose existing region 75 is determined in correspondence with the above coordinates G Ctx, ty). For example, G (tx.

ty)よりX軸方向に−25、Y軸方向に+6、離れた
位置を左上端として4!ia108、横80の長方形の
領域を鼻存在域75として決定する。
ty), -25 in the X-axis direction, +6 in the Y-axis direction, and 4 with the distant position as the upper left end! A rectangular area with ia 108 and width 80 is determined as the nose existing area 75.

こうして処理が第6図(イ)のステップ130に至り、
上記鼻存在領域75の輝点検索処理がなされる。即ち、
この領域のもっとも左側に存在する一定レベル以上の明
度を有する画素を検索し、その位置G (x、  y)
を記憶するといった輝点検索処理が行われる。この処理
は次のステップ140にて運転者1の鼻の位置を検出す
る際に、鼻を捜す範囲を限定するための処理であって、
求められた画素の位置が鼻を捜すための起点とされる。
In this way, the process reaches step 130 in FIG. 6(a),
Bright spot search processing for the nose existing region 75 is performed. That is,
Search for a pixel on the leftmost side of this area that has a brightness above a certain level, and find its position G (x, y)
A bright spot search process is performed in which the bright spot is stored. This process is a process for limiting the range to search for the nose when detecting the position of the driver's 1 nose in the next step 140,
The position of the determined pixel is used as the starting point for searching for the nose.

尚、零輝点検索処理としては、第7図の鼻存在領lj− 域75における左上端の画素を出発点として、上下方向
に順次検索して行き、最初の一定レベル以上の明度を有
する画素の位置を記・憶することによって実行できる。
In addition, as for the zero bright point search process, starting from the upper left pixel in the nose existing region lj- area 75 in FIG. This can be done by memorizing the location of

この様に輝点検索が実行され、鼻存在領域75の最も左
側に存在する一定レベル以上の明度を有する画素の位置
が求められると、上述したように続くステップ140に
て、この位置を起点として鼻を、捜し、鼻の位置を検出
する処理がなされるのであるが、この処理は、輝点検索
によって求められた画素の近傍で、予め設定されている
第13図に示すごとき鼻の標準パターンと画像データと
の相関の度合を調べ、相関の最大となる画像の位置を以
て鼻が存在する位置であるとみなし、鼻の位置を検出す
るものである。
When the bright spot search is executed in this way and the position of the pixel that exists on the leftmost side of the nose existing region 75 and has a brightness above a certain level is determined, in the subsequent step 140 as described above, this position is used as the starting point. The process of searching for the nose and detecting the position of the nose is performed, and this process uses a preset standard pattern of the nose as shown in Figure 13 in the vicinity of the pixel found by the bright spot search. The position of the nose is detected by examining the degree of correlation between the image data and the image data, and determining the position of the image where the correlation is maximum as the position where the nose exists.

つまり、上記ステップ130にて求められた画素の位置
G (x、  y)を中心に第14図に示すごとく上下
、左右に各々5画素分、計121個の画素を、各々第1
3図に示した鼻の標準パターンにおける中心位置m(0
,0)として画像データと標準パターンとの相関値を計
算し、その値が最も大きくなった画素位置を鼻炎(鼻の
頭)の位置G(+1X、 ny)として検出するのであ
る。ここで、第13図の鼻の標準パターンにおける中心
位置m(0,0)は鼻炎に相当する部分として予め設定
されており、また相関値としては次式 %式%() より求めることが出来る。そして上記l及びJの値とし
ては鼻の標準パターンが中心位置m(0゜0)に対して
上に16、下に7、左に1、右に6の広がりを持つデー
タとして構成されていることから、■に(−1)から(
+6)、jに(−16)から(+7)の間の整数値を用
いれはよい。
That is, as shown in FIG. 14, centering on the pixel position G (x, y) determined in step 130 above, 5 pixels each on the upper, lower, left and right sides, for a total of 121 pixels, are
The center position m (0
, 0), the correlation value between the image data and the standard pattern is calculated, and the pixel position where the value is the largest is detected as the position G (+1X, ny) of rhinitis (tip of the nose). Here, the center position m(0,0) in the standard pattern of the nose in Fig. 13 is preset as the part corresponding to rhinitis, and the correlation value can be obtained from the following formula % formula % () . As for the values of l and J above, the standard pattern of the nose is configured as data with a spread of 16 above, 7 below, 1 on the left, and 6 on the right with respect to the center position m (0°0). Therefore, from (-1) to (
+6), an integer value between (-16) and (+7) may be used for j.

また相関値が、鼻の標準パターンにおける中心位置m(
0,0)に対して、第14図に示すごとき画像データ上
の画素G (x、  y)を中心とする上下、左右に各
々5個、計121個の画素を当てはめ、計算されること
から、上式におけるX、 Yの値としては、各々、Xが
X±5、Yがy±5の間の整数値となり、結局X及びY
の組合せで最大121種類の相関値が算出され、その最
大値となる画像データ上の画素G (X、  Y)が鼻
の位置G(nx、 nいとして検出されるのである。
In addition, the correlation value is the center position m (
0, 0), a total of 121 pixels, 5 each on the top, bottom, left and right, centering on the pixel G (x, y) on the image data shown in Figure 14, are applied. , as the values of X and Y in the above formula, X is an integer value between X±5 and Y is an integer value between y±5.
A maximum of 121 types of correlation values are calculated by combining these, and the pixel G (X, Y) on the image data that has the maximum value is detected as the nose position G (nx, n).

このようにして鼻の位置G (nx、 ny)が求めら
れると、続くステップ150に移行して、今度はこの鼻
の位置G (nx、 ny)に基づき目の位置を求める
こととなる。ここで目の位置を求めるに当たっては、ま
ず鼻の位置G (nx、 ny)より右に12画素、上
に13画画素行した画素の位置G (nx+12、 n
y−13)を求め、この位置の近傍で予め設定されてい
る第15図に示すごとき目の標準パターンと画像データ
との相関の度合を調べ、目の位置G(mx、 my)を
決定する。尚、この決定方法としては、上記ステップ1
40の鼻の位置決定と同様に行えはよいので、説明は省
略する。
Once the nose position G (nx, ny) has been determined in this way, the process moves to the subsequent step 150, where the eye positions are determined based on this nose position G (nx, ny). To find the position of the eyes, first find the pixel position G (nx+12, n
y-13), and examine the degree of correlation between the image data and the standard eye pattern shown in FIG. 15, which has been set in advance near this position, and determine the eye position G(mx, my) . Note that this determination method is based on step 1 above.
Since it can be performed similarly to the position determination of the nose in No. 40, the explanation will be omitted.

続く、ステ・ンブ160においては、上記ステップ15
0にて求められた画素データG上の目の位置G (mx
、 my)を基に、運転者1の左右方向の移動はないも
のとして車室内における運転者1の目の3次元位置を算
出する処理が実行される。つま1−一 り第16図に示す運転者1の左右(Z)方向への移動は
ないものと仮定し、実験的に求めた車両運転者の左目の
標準位置Pを基準とする運転者10目(左目)の3次元
位置Mt2−座標(X、 Y、  0’)として求める
ことによって、目の位置が認識されるのであるが、この
処理としては、上記画像検出部5が固定されていること
から、画像データ上の標準点Pの位置G (IIX、 
py)を予め記憶しておき、この基準位置G (px、
 pいに対する目の位置G(mx、 my)のずれを算
出することによって、容易に実行することが出来る。
In the subsequent step 160, the above step 15 is performed.
Eye position G (mx
. 1-1 Assuming that there is no movement of the driver 1 in the left-right (Z) direction shown in FIG. The position of the eye is recognized by determining the three-dimensional position Mt2-coordinates (X, Y, 0') of the eye (left eye), but this process requires that the image detection unit 5 is fixed. Therefore, the position G of the standard point P on the image data (IIX,
py) is stored in advance, and this reference position G (px,
This can be easily carried out by calculating the deviation of the eye position G (mx, my) with respect to p.

以上説明したごとく、本実施例の車両運転者の乗車位置
認識装置は、車室内の所定パターンの検出異常部位から
、画像検出部6にて検出された画像データの中の、運転
者1の頭部があると予想される部分を設定して、この部
分近傍の所定領域から鼻尖検出を行い目の位置を認識し
ているので、検出効率を低下させることなく正確に検出
が可能なり、検出領域も狭いものとできる。そのため運
転者が移動しても迅速にかつ正確に目の位置を検出する
ことが出来る。
As explained above, the vehicle driver's boarding position recognition device of the present embodiment detects the head of the driver 1 in the image data detected by the image detection unit 6 from a predetermined pattern of detected abnormal parts in the vehicle interior. The nose tip is detected from a predetermined area near this part and the position of the eyes is recognized. Therefore, accurate detection is possible without reducing detection efficiency, and the detection area It can also be made narrower. Therefore, even if the driver moves, the position of the eyes can be detected quickly and accurately.

本実施例の構成において、画像処理部8によるステップ
120の処理がパターン検出手段M5、異常部位検出手
段M6及び所定領域設定手段M7としての処理に該当す
る。
In the configuration of this embodiment, the processing in step 120 by the image processing section 8 corresponds to processing as the pattern detection means M5, the abnormal region detection means M6, and the predetermined area setting means M7.

上記実施例においては、既存のパターンを利用したが、
予め車室内に赤外線吸収性または反射性の高くかつ肉眼
での視認不可能な塗料・テープ等を塗布・貼着しておい
てもよい。この場合は、運転車を検出し易い場所へのパ
ターン形成が容易であり、美観も損ねない。
In the above example, an existing pattern was used, but
Paint, tape, or the like that is highly infrared absorbing or reflective and invisible to the naked eye may be applied or pasted on the interior of the vehicle in advance. In this case, it is easy to form a pattern in a location where a driving vehicle can be easily detected, and the appearance is not impaired.

また既存の所定パターンを予め記憶しておき、該当パタ
ーンの周辺のみの画像データと記憶しておいたパターン
データとを対比させて、パターン異常を検出してもよい
。この場合は検出時間が極めて短縮され、検出精度も向
上する。
Alternatively, an existing predetermined pattern may be stored in advance, and pattern abnormalities may be detected by comparing image data only around the corresponding pattern with the stored pattern data. In this case, detection time is extremely shortened and detection accuracy is also improved.

また、上記実施例ではパターン検出方向は水平方向であ
るが、対象とするパターンに合わせて、垂直方向や斜め
方向であってもよい。更ζこ、鼻存在領域75をパター
ン異常部位G (tx、 tソ)から所定の位置でかつ
所定の大きさの範囲としたが、異常部位G (tx、 
ty)の位置が変化すれば、画像中の運転者の画像が拡
大または縮小されるため、異常部位G (tx、 ty
)の位置に応じて、鼻存在領域75の、異常部位G (
tx、 ty)からの位置及び/又は範囲を変更しても
よい。この場合も、より正確、迅速な検出が出来る。
Furthermore, although the pattern detection direction is horizontal in the above embodiment, it may be vertical or diagonal depending on the target pattern. In addition, the nose existing region 75 was set at a predetermined position and within a predetermined size range from the pattern abnormal region G (tx, t), but the abnormal region G (tx,
If the position of G (tx, ty) changes, the image of the driver in the image is enlarged or reduced.
), the abnormal region G (
tx, ty) may be changed. In this case as well, more accurate and rapid detection is possible.

発明の効果 本発明は上述のごとく構成されているため、車両乗員の
体形、移動位置に適合させて、車両乗員の所定部位を検
出すべき所定領域を、比較的正確に設定できる。従って
、いかに車両乗員が移動しようとも狭い範囲で迅速かつ
正確に所定部位を検出でき、認識率が向上する。その結
果、より正確な車両設備の自動制御が実現でき、車両運
転等の安全性が向上する。
Effects of the Invention Since the present invention is configured as described above, it is possible to relatively accurately set a predetermined area in which a predetermined part of a vehicle occupant is to be detected, in accordance with the body shape and moving position of the vehicle occupant. Therefore, no matter how the vehicle occupant moves, the predetermined region can be detected quickly and accurately within a narrow range, improving the recognition rate. As a result, more accurate automatic control of vehicle equipment can be realized, and the safety of vehicle operation etc. is improved.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の基本的構成を例示するブロック図、第
2図は本発明一実施例の目の位置認識装置の収納されて
いる車両のインストルメントパネル及びその周辺を表す
斜視図、第3図は発光部の説明図、第4図は画像検出部
の説明図、第5図は本実施例の目の位置認識装置の全体
構成図、第6図(イ)は画像処理ルーチンのフローチャ
ート、第6図(ロ)はその内の鼻存在域の設定ルーチン
のフローチャート、第7図は照射画像の説明図、第8図
は画像データ読み込み処理を説明するタイミングチャー
ト、第9図は画像人力部に記憶された照射画像データ構
成の説明図、第10図は境界部位検出の説明図、第11
図は異常部位検出の説明図、第12図は異常部位と鼻存
在領域との関係の説明図、第13図は鼻の標準パターン
の説明図、第14図は鼻の位置検出処理の説明図、第1
5図は目の標準パターンの説明図、第16図は目の三次
元位置の説明図であって、(イ)は運転者の平面図、(
ロ)はその側面図である。 Ml・・・車両乗員  M2・・・画像データM3・・
・所定領域  M4・・・所定パターンM5・・・パタ
ーン検出手段 −1じ− M6・・−異常部位検出手段 Ml・・・所定領域設定手段 1・・・運転者    5・・・発光部6・・・画像検
出部  8・・・画像処理部10・・・画像人力部 1
4・・・CPU73・・・車室の天井とドア部との境界
75−・・鼻存在領域
FIG. 1 is a block diagram illustrating the basic configuration of the present invention, FIG. 2 is a perspective view showing the instrument panel of a vehicle in which an eye position recognition device according to an embodiment of the present invention is housed, and its surroundings; 3 is an explanatory diagram of the light emitting section, FIG. 4 is an explanatory diagram of the image detecting section, FIG. 5 is an overall configuration diagram of the eye position recognition device of this embodiment, and FIG. 6 (a) is a flowchart of the image processing routine. , Fig. 6 (b) is a flowchart of the routine for setting the nose existing area, Fig. 7 is an explanatory diagram of the irradiation image, Fig. 8 is a timing chart illustrating the image data loading process, and Fig. 9 is a flowchart of the routine for setting the nose existing area. FIG. 10 is an explanatory diagram of the irradiation image data structure stored in the section, FIG. 10 is an explanatory diagram of boundary region detection, and FIG.
Fig. 12 is an explanatory diagram of abnormal region detection, Fig. 12 is an explanatory diagram of the relationship between the abnormal region and the nose existing region, Fig. 13 is an explanatory diagram of the standard pattern of the nose, and Fig. 14 is an explanatory diagram of the nose position detection process. , 1st
Fig. 5 is an explanatory diagram of the standard eye pattern, Fig. 16 is an explanatory diagram of the three-dimensional position of the eyes, (a) is a plan view of the driver, (a) is an explanatory diagram of the three-dimensional position of the eyes;
b) is its side view. Ml...Vehicle occupant M2...Image data M3...
・Predetermined area M4...Predetermined pattern M5...Pattern detection means-1-M6...-Abnormal part detection means Ml...Predetermined area setting means 1...Driver 5...Light-emitting part 6- ...Image detection section 8...Image processing section 10...Image human power section 1
4...CPU73...Boundary between the ceiling of the vehicle compartment and the door 75-...Nose existing area

Claims (1)

【特許請求の範囲】 1 車両乗員の乗車状態を撮像し、撮像された画像デー
タの内に所定領域を設定し、この所定領域から上記車両
乗員の所定部位を検出する車両乗員の乗車位置認識装置
において、 更に、 車室内に存在する所定パターンの画像データ上での状態
を検出するパターン検出手段と、 上記所定パターンの画像データ上の異常部位検出手段と
、 この異常部位検出手段の検出結果に応じた位置に、上記
所定領域を設定する所定領域設定手段と、を備えたこと
を特徴とする車両乗員の乗車位置認識装置。 2 上記所定パターンが、車両の天井とドア部との境界
線である特許請求の範囲第1項記載の車両乗員の乗車位
置認識装置。 3 車両乗員の所定部位が、鼻の位置である特許請求の
範囲第1項または2項記載の車両乗員の乗車位置認識装
置。
[Scope of Claims] 1. A device for recognizing the riding position of a vehicle occupant, which images the riding state of the vehicle occupant, sets a predetermined area in the captured image data, and detects a predetermined part of the vehicle occupant from the predetermined area. further comprising: pattern detection means for detecting a state on the image data of a predetermined pattern existing in the vehicle interior; abnormal part detection means on the image data of the predetermined pattern; and according to the detection result of the abnormal part detection means. A device for recognizing the riding position of a vehicle occupant, comprising: predetermined area setting means for setting the predetermined area at a position where the vehicle occupant is seated. 2. The device for recognizing the riding position of a vehicle occupant according to claim 1, wherein the predetermined pattern is a boundary line between a ceiling and a door portion of the vehicle. 3. The device for recognizing the riding position of a vehicle occupant according to claim 1 or 2, wherein the predetermined part of the vehicle occupant is the position of the nose.
JP14740887A 1987-06-12 1987-06-12 Apparatus for recognition crew's position of vehicle Pending JPS63311106A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14740887A JPS63311106A (en) 1987-06-12 1987-06-12 Apparatus for recognition crew's position of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14740887A JPS63311106A (en) 1987-06-12 1987-06-12 Apparatus for recognition crew's position of vehicle

Publications (1)

Publication Number Publication Date
JPS63311106A true JPS63311106A (en) 1988-12-19

Family

ID=15429622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14740887A Pending JPS63311106A (en) 1987-06-12 1987-06-12 Apparatus for recognition crew's position of vehicle

Country Status (1)

Country Link
JP (1) JPS63311106A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010008101A (en) * 2008-06-24 2010-01-14 Toyota Motor Corp Face cover and face parts identification method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010008101A (en) * 2008-06-24 2010-01-14 Toyota Motor Corp Face cover and face parts identification method

Similar Documents

Publication Publication Date Title
US7423540B2 (en) Method of detecting vehicle-operator state
JP5230748B2 (en) Gaze direction determination device and gaze direction determination method
JP4127545B2 (en) Image processing device
US8926105B2 (en) Vehicle mirror adjustment method and system
JP2002509321A (en) Method and apparatus for detecting driver drowsiness and avoiding the drowsiness
JP2008002838A (en) System for detecting vehicle occupant, actuator control system, and vehicle
US20160063334A1 (en) In-vehicle imaging device
JP2005247224A (en) Vehicular display device
CN107960989B (en) Pulse wave measurement device and pulse wave measurement method
CN110733423B (en) Apparatus and method for displaying image behind vehicle
CN105323539A (en) Automotive safety system and operating method thereof
JPS6166906A (en) Recognizing device for vehicle driver position
JPS63311106A (en) Apparatus for recognition crew's position of vehicle
JPS6166905A (en) Position of vehicle driver recognizing device
JP3019654B2 (en) Automatic adjustment device
JP6381585B2 (en) Own vehicle position estimation device
WO2020179656A1 (en) Driver monitoring device
JPS6177705A (en) Device for recognizing position of vehicle driver's eyes
JPS6184509A (en) Identifying device for vehicle driver
US20220066551A1 (en) Apparatus and method for obtaining facial information
JP3201037B2 (en) Driver photography device
JPS6199803A (en) Recognizing device for vehicle driver's position
JPS6177704A (en) Device for recognizing vehicle driver's position
JP2009096323A (en) Camera illumination control device
TW202046168A (en) Method, apparatus and system for display images of blind spot of vehicle