JPS6168503A - Vehicle operator position recognition equipment - Google Patents

Vehicle operator position recognition equipment

Info

Publication number
JPS6168503A
JPS6168503A JP19129684A JP19129684A JPS6168503A JP S6168503 A JPS6168503 A JP S6168503A JP 19129684 A JP19129684 A JP 19129684A JP 19129684 A JP19129684 A JP 19129684A JP S6168503 A JPS6168503 A JP S6168503A
Authority
JP
Japan
Prior art keywords
driver
image
image data
data
predetermined part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP19129684A
Other languages
Japanese (ja)
Inventor
Haruhiko Ogiso
治比古 小木曽
Yasuaki Katou
康聡 加藤
Akio Yasuda
彰男 安田
Hiroshi Ishikawa
浩 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
NipponDenso Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NipponDenso Co Ltd filed Critical NipponDenso Co Ltd
Priority to JP19129684A priority Critical patent/JPS6168503A/en
Publication of JPS6168503A publication Critical patent/JPS6168503A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To enable the recognition of a specified part of an operator accurately, by detecting a reflected light room the operator with the irradiation from a light emitting means as image data to recognize a specified part once a back ground data is attenuated by a background processing means. CONSTITUTION:In an apparatus for detecting a specified part, for example, the positions of the eyes and nose of a vehicle operator I, a light emitting means II for irradiating the operator I and an image detection means III which detects the operator I as image data receiving a reflected light therefrom I with the irradiation of the light emitting means are provided. Image data obtained from the image detection means III are inputted into a background processing means IV to attenuate background data of a specified part based on data previously memorized. Then, the image data background processed is inputted into a position recognition means V to recognize the position of the specified part of the operator I.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は車両運転者の乗車状態を画像として捉え、該車
両運転者の車室内における位置を認識する車両運転者の
位置認識装置に関し、特に車両運転者の所定部位の位置
を正確に認識するよう構成された車両運転の位置認識装
置に関するものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a vehicle driver position recognition device that captures the riding state of a vehicle driver as an image and recognizes the vehicle driver's position in the vehicle interior. The present invention relates to a vehicle driving position recognition device configured to accurately recognize the position of a predetermined part of a vehicle driver.

[従来の技術] 近年電子機器の急速な発達に伴い車両の操作性、居住性
、事故回避性等の向上を目的とした新しい装置のrtl
l究が進められており、その1つとして車両運転者の乗
車位置、例えば運転者の目の位置や頭の位置を認識し、
バックミラー、ヘッドレスト、空調空気の吹出口、ある
いはステアリング等の位回や角度を自動調整するとか、
運転者の目の位置や頭の位置の周期的変化から居眠り運
転を検知して運転者に警報を勺えるといったことが考え
られている。そしてこのような制御を実行するのに必要
な、車両運転者の乗車位置を認識するための乗車位置認
識装置としては、車両運転者の乗車状態をIti像し、
画像として検出するカメラ等からなる画像検出部と、そ
の検出された画像をいわゆる画像処理ににつで分析し、
画像上の運転者の目の位置や頭の位置等、予め定められ
た所定の位置を検出して、その部分の車室内におりる位
置を算出する、マイクロコンピュータ等からなる画像処
理部とにより構成し、運転者の位置を認識することが考
えられている。
[Conventional technology] With the rapid development of electronic equipment in recent years, new devices have been developed to improve vehicle operability, comfort, accident avoidance, etc.
Research is underway, one of which is to recognize the riding position of a vehicle driver, such as the position of the driver's eyes and head.
Automatically adjust the rotation and angle of rearview mirrors, headrests, air conditioning air outlets, steering wheels, etc.
It is being considered that drowsy driving can be detected based on periodic changes in the position of the driver's eyes or head, and a warning can be issued to the driver. A riding position recognition device for recognizing the riding position of the vehicle driver, which is necessary to execute such control, is a device that images the riding state of the vehicle driver,
An image detection unit consisting of a camera or the like that detects an image, and the detected image is analyzed using so-called image processing.
An image processing unit consisting of a microcomputer etc. detects a predetermined position such as the position of the driver's eyes or head on the image and calculates the position of that part in the vehicle interior. The idea is to recognize the driver's location.

[発明が解決しにうとする問題点] 上述のバックミラー、ヘッドレスト、空調空気の吹出口
、あるいはステアリング等の位置や角度を自動調整する
とか、運転者の目の位置や頭の位置の周期的変化から居
眠り運転を検知して運転者に警報を与えるといったこと
を実行するためには、精度よく運転者の所定部位、例え
ば目の位置や鼻の位置等を認識することが必要である。
[Problems to be solved by the invention] Automatic adjustment of the positions and angles of the above-mentioned rearview mirrors, headrests, air-conditioned air outlets, steering wheels, etc., and periodic changes in the position of the driver's eyes and head. In order to detect drowsy driving based on changes in driving and issue a warning to the driver, it is necessary to accurately recognize predetermined parts of the driver, such as the positions of the eyes and nose.

本発明の目的は、精痕よく運転者の所定部位を認識する
車両運転者の位置認識装置を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide a vehicle driver position recognition device that can accurately recognize a predetermined part of the driver.

L問題点を解決するための手段] 本発明の構成は、第1図に示す如く、 車両運転者■を照射する発光手段■と、該発光手段■の
照射によるー「記運転者■からの反射光を受け、1iI
ii像データとして運転者を検知する画像検出手段■と
、 該検知された画像データにおCプる上記運転名工の所定
部位近傍において、所定部位の背景データを減衰させる
背景処理手段■と、 該背景処理された画像データにおける上記運転者■の所
定部位の位置を認識する位置認識手段Vと、 を備えたことを特徴とする車両運転者の情誼認識装置を
要旨とする。
Means for Solving Problem L] As shown in FIG. Upon receiving the reflected light, 1iI
(ii) an image detection means (2) for detecting a driver as image data; and (2) a background processing means (2) for attenuating background data of a predetermined part in the vicinity of a predetermined part of the driver who is applied to the detected image data; The gist of the present invention is a vehicle driver sentiment recognition device comprising: a position recognition means V for recognizing the position of the predetermined part of the driver (2) in background-processed image data;

[作用] −5一 本発明では、画像検出手段において明瞭む画像を得るた
めに自然光以外の光源として発光手段を有し、発光手段
は車両運転者を照射して明るくする。その際、赤外光を
照射すると発光手段によって運転者が眩しさを感するこ
とがなく好ましい。
[Function] -5 - In the present invention, in order to obtain a clear image in the image detection means, a light emitting means is provided as a light source other than natural light, and the light emitting means illuminates the vehicle driver to brighten it. In this case, it is preferable to irradiate infrared light because the driver will not feel dazzled by the light emitting means.

画像検出手段は、発光手段の照射による運転者からの反
射光を受け、位置認識において必要な情報を運転者の画
像データとして検知する。この場合、画像検出手段を運
転者の側面画像を検出するよう助手席側に配設すると鼻
及び顎等の顔面部の特徴的部分が認識しやすく好ましい
。又、画像検出手段に2次元固体撮像素子を用いると、
スペースがいらず、耐衝撃性にすぐれ好ましい。
The image detection means receives reflected light from the driver due to irradiation from the light emitting means, and detects information necessary for position recognition as image data of the driver. In this case, it is preferable to arrange the image detection means on the passenger seat side so as to detect a side image of the driver so that characteristic parts of the face such as the nose and chin can be easily recognized. Furthermore, if a two-dimensional solid-state image sensor is used as the image detection means,
It is preferable because it does not require space and has excellent impact resistance.

背景処理手段は、所定部位の位置認識手段の前処理とし
て用いられるものであり、所定部位近傍において所定部
位の背景を減少させることにより、画像データ上の所定
部位の形状を明確にする。
The background processing means is used as pre-processing for the position recognition means for the predetermined region, and clarifies the shape of the predetermined region on the image data by reducing the background of the predetermined region in the vicinity of the predetermined region.

位置認識手段は、背景処理手段により明確化した所定部
位の形状に基づき所定部位の位置を認識する。又、この
認識の際に、所定部位近傍の画像データと所定部位の標
準パターンとを比較して位置を認識すると認識の誤りが
より少なくなり好ましい。
The position recognition means recognizes the position of the predetermined region based on the shape of the predetermined region clarified by the background processing means. Further, during this recognition, it is preferable to recognize the position by comparing image data near the predetermined region with a standard pattern of the predetermined region, since recognition errors will be further reduced.

[実施例] 以下本発明の第1の実施例を図面と共に説明する。[Example] A first embodiment of the present invention will be described below with reference to the drawings.

第2図は本実施例の乗車位置認識装置が搭載された車両
のインストルメントパネル部分及びその周辺を表わす斜
視図であって、1は運転者、2は運転席、3はインスト
ルメントパネルを表わしている。そしてインメトルメン
1〜パネル3の運転席2に対する左斜め前方、即ち、助
手席側前方には、運転者1の上体を左方向から照射する
発光部5と、運転者1の上体を左方向から2次元画像と
して促える画像検出部6が設けられている。
FIG. 2 is a perspective view showing the instrument panel part and its surroundings of a vehicle in which the occupant position recognition device of this embodiment is installed, in which 1 represents the driver, 2 represents the driver's seat, and 3 represents the instrument panel. ing. Then, diagonally forward to the left of the driver's seat 2 of the instrument panel 1 to panel 3, that is, in front of the passenger seat side, there is a light emitting unit 5 that illuminates the upper body of the driver 1 from the left, and a light emitting unit 5 that illuminates the upper body of the driver 1 from the left. An image detection unit 6 is provided that can generate a two-dimensional image from the image.

ここで発光部5は前述の発光手段■に相当し、照射時に
運転者1に眩しさを感じさせることのないよう赤外光を
発光する赤外ス1ヘロボが用いられ、第3図に示す如く
、赤外発光体5aと、赤外発光体5aにて発光された赤
外光を広く運転者に照射Jる為のレンズ51)と、赤外
光を透過し、可視光を通さない赤外フィルタ5Cと、こ
れら赤外発光体5a、レンズ5b及び赤外フィルタ5C
を格納し、インストルメントパネル3の所定の位置に取
り付けるためのケース5dとから構成されている。
Here, the light emitting unit 5 corresponds to the above-mentioned light emitting means (3), and is an infrared robot that emits infrared light so as not to dazzle the driver 1 during irradiation, as shown in FIG. As shown in FIG. Outer filter 5C, these infrared emitters 5a, lens 5b and infrared filter 5C
and a case 5d for storing and attaching it to a predetermined position on the instrument panel 3.

また画像検出部6は前述の画像検出手段■に相当し、第
4図に示す如く、赤外光を透過する赤外フィルタ6aと
、運転者1の上体画像を後述の固体撮像素子6eの踊像
面に結像するための焦点距離が例えば12.5mmのレ
ンズ6bと、先出を調整づるための液晶絞り素子6Cと
、液晶絞り素子6Cの絞りを自動調整するために用いら
れ、液晶絞り素子6Cを透過づる光量を検出するフォ1
〜トランジスタ6dと、上記赤外フィルタ6a、レンズ
6b及び液晶絞り素子6Cを透過して結像されたml像
面上の映像をスイッチング走査で電気信号として取り出
す、フォトダイオードアレイとスイッチング走査とから
なるMOS形の固体層像素子6eと、上記各部を格納し
、インストルメントパネル3に取りイ]けるためのケー
ス6fとから構成される固体カメラが用いられている。
Further, the image detection section 6 corresponds to the above-mentioned image detection means (2), and as shown in FIG. A lens 6b with a focal length of, for example, 12.5 mm for forming an image on the image plane, a liquid crystal aperture element 6C for adjusting the front projection, and a liquid crystal aperture element 6C used to automatically adjust the aperture of the liquid crystal aperture element 6C. Photo 1 detects the amount of light transmitted through the aperture element 6C.
~ Consists of a transistor 6d, a photodiode array, and a switching scan, which extracts the image on the ML image plane that is formed after passing through the infrared filter 6a, lens 6b, and liquid crystal aperture element 6C as an electrical signal by switching scan. A solid-state camera is used, which is composed of a MOS type solid-state image element 6e and a case 6f for storing the above-mentioned parts and taking it to the instrument panel 3.

次に本実施例の乗車位置認識装置の全体構成を第5図に
示すブロック図に基づぎ説明する。
Next, the overall configuration of the riding position recognition device of this embodiment will be explained based on the block diagram shown in FIG.

図に示す如(、本認識装置は上記発光部5及び画像検出
部6の他に、画像検出部6にて捉えられた運転者1の画
像を処理し、運転者の位置(本実施例においては鼻の位
置)を認識する画像処理部8を備えている。そしてこの
画像処理部8は、上記画像検出部6を制御すると共に、
画像検出部6にて得られた画像信号をデジタル信号に変
換し、その変換されたデジタル信号を画像データとして
一旦記憶するこのとのできる画像入力部10と、上記発
光部5を発光させるための照射信号を出力する照射信号
出力部12と、画像入力部10にてA/D変換され記憶
された画像データから運転者1の顔面部における所定部
位近傍の背景について背景処理を行ない、背[1!l理
を行なった画像データから運転者1の鼻の位置を認識す
るといった一連の位置認識処理を実行するセントラルプ
ロセッシングユニット(CPU)14と、CPU14に
て位置認識処理を実行するための制御プログラムやデー
タが予め記憶されたリードオンリメモリ(ROM)16
ど、演算処理実行のために用いられるデータ等が一時的
に読み書ぎされるランダムアクセスメモリ(RAM)1
8と、上記各部を結び画像信号や制御信号の通路とされ
るパスライン20と、上記各部に電源を供給Jる電源回
路22とから構成されている。また上記画像入力部10
は、画像検出部6に垂直同明信号及び水平同明信号を発
生する同期信号発生回路10aど、画像検出部6により
得られた画像信号を、例えば1フレーム当たりに横25
6、縦240の画素の明度表わすデジタル信号からなる
画像データに変換づるA/D変換回路10bと、その変
換された画像データを過去2フレ一ム分だけ記憶するこ
とのできる画像データ記憶回路100とから構成されて
いる。
As shown in the figure (in addition to the light emitting unit 5 and image detecting unit 6), this recognition device processes the image of the driver 1 captured by the image detecting unit 6, and processes the driver's position (in this embodiment). is equipped with an image processing unit 8 that recognizes the position of the nose).The image processing unit 8 controls the image detection unit 6, and
An image input section 10 that converts the image signal obtained by the image detection section 6 into a digital signal and temporarily stores the converted digital signal as image data, and an image input section 10 for causing the light emitting section 5 to emit light. The irradiation signal output unit 12 outputs an irradiation signal, and the image input unit 10 A/D-converts and stores the image data, and performs background processing on the background near a predetermined part of the face of the driver 1. ! A central processing unit (CPU) 14 executes a series of position recognition processes such as recognizing the position of the nose of the driver 1 from image data that has been processed, and a control program and a control program for executing the position recognition process in the CPU 14. Read-only memory (ROM) 16 in which data is stored in advance
A random access memory (RAM) 1 in which data used for executing arithmetic processing is temporarily read and written.
8, a path line 20 that connects the above-mentioned parts and serves as a path for image signals and control signals, and a power supply circuit 22 that supplies power to the above-mentioned parts. In addition, the image input section 10
The synchronizing signal generating circuit 10a which generates a vertical do-bright signal and a horizontal do-bright signal to the image detecting part 6 outputs the image signal obtained by the image detecting part 6, for example, by horizontally 25 times per frame.
6. An A/D conversion circuit 10b that converts image data consisting of digital signals representing the brightness of 240 vertical pixels, and an image data storage circuit 100 that can store the converted image data for the past two frames. It is composed of.

次に上記画像処理部8にて実行される位置認識処理の動
作について、第6図に示す70−ヂヤートに沿って詳し
く説明する。尚この処理は一定周期の信号やスイッチか
らの信号等によって運転者1の位置認識の要求が入力さ
れた場合に実行されるものであり、上述した如く本実施
例においては運転者1の位置として鼻の位置が認識され
ることどなる。
Next, the operation of the position recognition process executed by the image processing section 8 will be explained in detail along the line 70 shown in FIG. Note that this process is executed when a request for recognizing the position of the driver 1 is inputted by a signal of a certain period or a signal from a switch, etc., and as described above, in this embodiment, the position of the driver 1 is determined as the position of the driver 1. There is a roar as the position of the nose is recognized.

図に示す如く処J」が開始されるとまずステップ101
が実行され、画像検出部6において、発光部5を発光し
た際に画像が検出されるよう、発光部5に照射信号を出
力すると共に、その検出される画像を画(qξ入力部1
0においてデジタル信号からなる画像データGとして記
憶する、ii!ii像データ読み込み処理を実行する。
As shown in the figure, when the process starts, first step 101
is executed, and the image detection unit 6 outputs an irradiation signal to the light emitting unit 5 so that an image is detected when the light emitting unit 5 emits light, and also outputs the detected image to the image (qξ input unit 1
ii! is stored as image data G consisting of digital signals at 0! ii Image data reading processing is executed.

ここで画像入力部10は、同期信号発生回路10a 、
A/D変換回路10b及び画像データ記憶回路10Cを
備えており、同期信号発生回路10aより出力される垂
直同期信号及び水平同期信号に従い画像検出部6を制御
し、画像検出部6から出力される画像信号を順次取り込
みΔ/D変換回路10bを介してデジタル信号に変換さ
れた画像信号を、画像データGとして記憶回路10Cに
記憶することができるので、本画像データ読み込み処理
としては、画像入力部10を動作させ、同期信号発生回
路10aから出力される垂直同明信号と同期して発光部
5を発光するだけで容易に実行することができる。つま
り第7図に示す如く、まず垂直同期信号の立ち上がり時
期toより所定時間Δ丁経過後発光部5に照射信号Sを
出力することによって垂直帰線時期△t1と一致して発
光部5を発光させ、その発光によって19られる画像を
画像データGとして読み込むといった処理が実行される
のである。
Here, the image input section 10 includes a synchronization signal generation circuit 10a,
It is equipped with an A/D conversion circuit 10b and an image data storage circuit 10C, and controls the image detection section 6 according to the vertical synchronization signal and horizontal synchronization signal output from the synchronization signal generation circuit 10a, and outputs from the image detection section 6. Image signals are sequentially captured and converted into digital signals via the Δ/D conversion circuit 10b, and the image signals can be stored as image data G in the storage circuit 10C. 10 and causes the light emitting section 5 to emit light in synchronization with the vertical dosing signal output from the synchronizing signal generating circuit 10a. That is, as shown in FIG. 7, first, after a predetermined time Δt has elapsed from the rise time to of the vertical synchronization signal, the irradiation signal S is output to the light emitting unit 5, thereby causing the light emitting unit 5 to emit light in coincidence with the vertical retrace time Δt1. The image generated by the light emission is read as image data G.

尚、−F旧画像入力部10にてΔ/D変換され記憶され
る画像データGは、前述したように画像検出部6にて1
qられた画像を横256、w240に分割する画素の明
度を表わすものであり、第8図に示す如く各画素毎にそ
の明度G(X、V>が記憶されている。
Note that the image data G that is Δ/D converted and stored in the -F old image input section 10 is converted into 1 by the image detection section 6 as described above.
It represents the brightness of pixels that divide the q image into 256 horizontal and w 240 pixels, and the brightness G (X, V>) is stored for each pixel as shown in FIG.

このようにステップ101にて発光部5、画像検出部6
及び画像入力部10が制動され、画像入力部10におい
て画像データGが読み込まれると続くステップ102が
実行され、画像データGにおける予め設定された所定の
エリア、つまり第9図に示す30の領域を鼻の存在域ど
し、この領域内の最も左側に存在する一定しベル以−ヒ
の明度を有する画素を検索し、その位置を記憶するとい
った輝点検索処理が行なわれる。この処理は次ステツプ
103にて運転者1の鼻近傍の背母処理する際に、背景
処理をする処Jl!範囲31を限定するための処理であ
って、求められた画素の位置が背景処理の処理範囲31
を求めるための基点とされる。
In this way, in step 101, the light emitting section 5, the image detecting section 6
When the image input unit 10 is braked and the image data G is read in the image input unit 10, the subsequent step 102 is executed, and a predetermined area set in advance in the image data G, that is, 30 areas shown in FIG. A bright spot search process is performed in which a pixel having a constant brightness of less than or equal to Bell is searched for in the leftmost region of the nose, and its position is stored. This process is used to perform background processing when processing the back surface near the nose of the driver 1 in the next step 103. This is a process for limiting the range 31, and the determined pixel position is the processing range 31 of background processing.
It is used as the base point for determining.

尚、本輝点検索処理としては、第9図の鼻存在域30に
おける左上端の画素を出発点として、上下方向に順次検
索してゆき、最初の一定レベル以上の明度を有する画素
の位置を記憶することによって実行できる。
In this bright spot search process, starting from the upper left pixel in the nose existing area 30 in FIG. It can be executed by memorizing it.

このように輝点検索が実行され、鼻存在域の最も左側に
存在する一定レベル以上の明度を有する画素の位置G(
Xo、Vo)が求められると、上述したように続くステ
ップ103にて、この位置G(Xo、Vo)を基点とし
て、所定の位置、所−13一 定の大きさに第9図の背景処理の処理範囲31を求め背
景処理がなされるのであるが、この処理は、」二記処理
範囲31内の全画素に対応する複数の直線分上の画素に
ついて、各線分の始点から終点に向って1画素ずつ明る
さを調べるごとに、該調べた画素の明るさを始点からそ
の画素までの最も暗い画素と同じにするものである。
The bright spot search is executed in this way, and the position G(
Once G (Xo, Vo) is obtained, in step 103, which follows as described above, the background processing shown in FIG. The processing range 31 is determined and background processing is performed. Each time the brightness of each pixel is checked, the brightness of the checked pixel is made the same as the darkest pixel from the starting point to that pixel.

処理範囲31を拡大したものを第10図に示す。FIG. 10 shows an enlarged view of the processing range 31.

処理範囲31は点G(xl 、Vl>、G(Xt *V
 2)、G(X 2.Vl)及びG(Xl、V2)の4
点で囲まれる長方形である。尚、第10図では第9図で
省略されている背景が斜線の密度で以って表わされてい
る。
The processing range 31 is a point G(xl, Vl>, G(Xt *V
2), G (X 2. Vl) and G (Xl, V2) 4
It is a rectangle surrounded by points. In addition, in FIG. 10, the background omitted in FIG. 9 is represented by the density of diagonal lines.

背景処理は、先ず運転者側のG(Xl、V+)を始点と
し、G(Xl、Vl)を終点とする直線分について、始
点G(Xl、1/1)から終点G(Xl、V+)に向っ
て順次検索しながら、検索点の明るさを始点から検索点
までの最も暗い点とする。以下、G(Xl、V++1)
からG(Xl。
The background processing starts with the straight line segment with the driver's side G(Xl, V+) as the starting point and G(Xl, Vl) as the ending point, from the starting point G(Xl, 1/1) to the ending point G(Xl, V+). While searching sequentially toward , the brightness of the search point is set to the darkest point from the starting point to the search point. Below, G(Xl, V++1)
From G (Xl.

V1+1)の直線分からG(Xl、V2)からG(Xl
、Vz)の直線弁まで1画素分ずつずらしながら同様の
処理を行ない、第11図の31′をうる。第10図(ロ
)は第10図(イ)におけるaからbの直線弁の明るさ
の分布について表わした図であり、上記背景処理を行な
うことにより、211図(ロ)のごとく、a′からb′
に向って段階的に暗くなっていき、鼻の背より左側に鼻
J:り明るい部分はなくなる。尚、第11図は第10図
を背景処理して1qられだ図であり、第11図における
a ′、b−は第10図におけるa、bに、31′は3
1に、G′(X+、’V1)はG(Xt。
From G(Xl, V2) to G(Xl
, Vz), the same process is carried out while shifting by one pixel to obtain 31' in FIG. FIG. 10(b) is a diagram showing the brightness distribution of the linear valves from a to b in FIG. 10(a). By performing the background processing described above, as shown in FIG. 211(b), from b'
It gradually becomes darker towards the end of the nose, and there is no brighter area on the left side of the back of the nose. In addition, FIG. 11 is a 1q diagram obtained by processing FIG. 10 as a background, and a' and b- in FIG. 11 correspond to a and b in FIG.
1, G'(X+,'V1) is G(Xt.

V+)のごとく1対1対応している。V+), there is a one-to-one correspondence.

このように背理処理が実行されると、上述したように続
くステップ104にて、G(Xo、Vo)を基点として
鼻を捜し、鼻の位置を決定する処理がなされるのである
が、この処理は、輝点検索によって求められた画素の近
傍で、予め設定されている第12図に示す如き鼻の標準
パターンと画像データとの相関の度合いを調べ、相関の
最大値となる画像の位置を以て鼻が存在する位置である
とみなし、寿の位置を決定するものである。
When the contradiction process is executed in this way, in step 104, which follows as described above, the process of searching for the nose using G(Xo, Vo) as a base point and determining the position of the nose is performed. In this method, the degree of correlation between the preset nose standard pattern shown in Figure 12 and the image data is checked in the vicinity of the pixel found by the bright spot search, and the position of the image where the correlation is maximum is determined. This is assumed to be the position where the nose exists, and determines the position of Kotobuki.

つまり、上記ステップ102にて求められた画素の位置
G(Xo、Vo)を中心に、第13図に示す如く上下、
左右に夫々5画素分、計121個の画素を、夫々第12
図に示した轡の標準パターンにおける中心位1tril
(0,0>として画像データと標準パターンとの相関値
を計算し、その値が最も大ぎくなった画素位置を鼻の位
置G (hx、 hy)として認識するのである。ここ
で、第12図の寿の標準パターンにおける中心位置m 
 (0,0)は鼻に相当ターる部分として予め設定され
ており、また相関値としては次式 %式% より求めることができる。そして上記i及びjの(「1
としては、鼻の標準パターンが中心m  (0,O)に
対して上に16、下に7、左に1、右に6の拡がりを持
つデータとして構成されていることから、iに(−1)
から(+6)、jに(−16)から(+7)の間の整数
値を用いればよい。
That is, as shown in FIG. 13, centering on the pixel position G (Xo, Vo) determined in step 102 above,
5 pixels each on the left and right, a total of 121 pixels, each on the 12th
1 tril at the center of the standard pattern of the shoe shown in the figure
(0, 0>), the correlation value between the image data and the standard pattern is calculated, and the pixel position where the value is the largest is recognized as the nose position G (hx, hy).Here, the 12th Center position m in the standard pattern of Kotobuki in the figure
(0,0) is set in advance as a portion corresponding to the nose, and the correlation value can be obtained from the following formula. And the above i and j (“1
, since the standard pattern of the nose is configured as data with a spread of 16 above, 7 below, 1 on the left, and 6 on the right with respect to the center m (0, O), 1)
to (+6), and an integer value between (-16) and (+7) may be used for j.

また相関値が、鼻の標準パターンにおける中心位置m 
 (0,O)に対して、第13図に示す如き画像データ
上の画素G (X 、 V )を中心とする上下、左右
に夫々5個、計121iii1の画素を当てはめ、計算
されることから、上式におけるX、Yの値としては、夫
々、Xがx±5、Yがy±5の間の整数値となり、結局
X及びYの組み合わせで最大121種類の相関値が算出
され、その最大値となる画像データ上の画素G (X、
Y)が鼻の位置G (hx、 hy)として検出される
のである。
Also, the correlation value is the center position m in the standard pattern of the nose.
It is calculated by applying a total of 121iii1 pixels to (0, O), 5 pixels each on the top, bottom, left and right of the image data shown in Figure 13, centering on pixel G (X, V). , In the above equation, the values of X and Y are integer values between x±5 and Y, respectively.In the end, a maximum of 121 types of correlation values are calculated by the combination of X and Y, and the Pixel G (X,
Y) is detected as the nose position G (hx, hy).

以上説明した如く、本実施例の車両運転者の位置認識装
置においては、所定部位を認識する際に、該所定部位近
傍の背景を処理するために所定部位が明確になり、さら
に、その所定部位の標準パターンを用いて実行するよう
構成されているので、所定部位の位置を誤って認識する
ことなく、より正確に乗車位置を認識することができる
ようになる。
As explained above, in the vehicle driver position recognition device of this embodiment, when recognizing a predetermined region, the predetermined region is clarified in order to process the background in the vicinity of the predetermined region; Since the vehicle is configured to be executed using a standard pattern, the riding position can be recognized more accurately without erroneously recognizing the position of a predetermined part.

次に本発明の第2の実施例を図面と共に説明する。Next, a second embodiment of the present invention will be described with reference to the drawings.

本実施例では、第1の実施例により認識された車両運転
者1の鼻の4i1置を基にして、車両運転者1の鼻を除
く所定部位(本実施例では顎)の位置を認識し、さらに
、認識された2つの所定部位から目の位置を認識する。
In this embodiment, the position of a predetermined part of the vehicle driver 1 other than the nose (in this embodiment, the chin) is recognized based on the 4i1 position of the nose of the vehicle driver 1 recognized in the first embodiment. , Furthermore, the position of the eyes is recognized from the two recognized predetermined parts.

本実施例にて実1行される位置認識処理の動作について
、第14図に示すフローチャートに沿って詳1ノく説明
する。尚、本実施例のステップ201、ステップ202
、ステップ203及びステップ204は第1の実施例に
おけるステップ101、ステップ102、ステップ10
3及びステップ104と同様であるので説明を省略する
The operation of the position recognition process executed in this embodiment will be described in detail with reference to the flowchart shown in FIG. Note that step 201 and step 202 of this embodiment
, step 203 and step 204 are steps 101, 102 and 10 in the first embodiment.
3 and step 104, so the explanation will be omitted.

ステップ201、ステップ202、ステップ203及び
ステップ204を順次実行することによって鼻の位置G
 (hx、 by)が求められると、続くステップ20
5及びステップ206に移行して、今度はこの鼻の位置
Q (hx、 hy)に基づき顎の位置を求めることと
なる。ステップ205で顎近傍の背景処理をづるに当っ
ては、まず鼻の位MG(hx、 hy)より右に10画
素、下に35画画素行した画素の位IG (hx+10
.tvy−35>を求め、この点を基に所定の位置、所
定の大きさに第゛15図の顎の青用処理範囲32を求め
、ステップ203と同じく第1実施例におけるステップ
103と同様にして背景の処理を行なう。
By sequentially executing steps 201, 202, 203 and 204, the position of the nose G is determined.
Once (hx, by) is determined, the following step 20
5 and step 206, the position of the chin is determined based on this nose position Q (hx, hy). When processing the background near the chin in step 205, first, the pixel position IG (hx+10
.. tvy-35>, and based on this point, find the blue processing range 32 of the chin in Fig. Process the background.

ただし、顎の場合には、鼻と形状が違うので直線分の傾
きを変えて背景処理を行なう。
However, since the shape of the jaw is different from that of the nose, background processing is performed by changing the slope of the straight line.

すなわち、第15図の処理範囲32を右上から左下へ向
う所定の傾きを持つ各々平行な直線分の集合として各直
線分毎に処理するのである。このような各直線分につい
て、右上の端を始点、左下の端を終点として前述のステ
ップ203と同様にして背景処理を行なう。次いでステ
ップ206に移行してG (hx+10. hy+35
 )の近傍で予め設定されている第16図に示す如き顎
の標準パターンと画像データとの相関の度合を調べ、顎
の位置G (ax、 ay)を決定する。尚この決定方
法としては、ステップ204と同じく第1の実施例にお
けるステップ104の鼻の位置決定と同様に行なえばに
いので、説明は省略する。又、G(hx+1Q、hy+
35)の点は複数の車両運転者から実験的に求めた点で
ある。
That is, the processing range 32 in FIG. 15 is treated as a set of parallel straight line segments having a predetermined slope from the upper right to the lower left, and each straight line segment is processed. For each straight line segment, background processing is performed in the same manner as in step 203 above, with the upper right end as the starting point and the lower left end as the ending point. Next, the process moves to step 206 and G (hx+10. hy+35
), the degree of correlation between the image data and a standard jaw pattern as shown in FIG. Note that this determination method can be performed in the same manner as step 204 in determining the nose position in step 104 in the first embodiment, so a description thereof will be omitted. Also, G(hx+1Q, hy+
Point 35) was obtained experimentally from multiple vehicle drivers.

続くステップ207においては、上記ステップ204及
びステップ206にて求められた画素データ上の鼻の位
置G (hx、 hy)及び顎の位置G(ax、 ay
)を基に、次の実験から求められた式によりG (II
IcX 、 mcy )を求め、この位置Q(mcX 
、 may )位置の近傍で予め設定されている第17
図に示す如き目の標準パターンと画像データとの相関の
m合を調べ、目の位置G (mx、 my)を決定する
。尚この決定方法としては、ステップ204と同じく第
1の実施例におけるステップ104の鼻の位置決定と同
様に行なえばよいので、説明は省略する。
In the following step 207, the nose position G (hx, hy) and the chin position G (ax, ay) on the pixel data obtained in the above steps 204 and 206 are determined.
), G (II
IcX, mcy), and calculate this position Q(mcX
, may) The 17th position is preset in the vicinity of the position.
The correlation between the eye standard pattern shown in the figure and the image data is determined to determine the eye position G (mx, my). Note that this determination method may be performed in the same manner as the nose position determination in step 104 in the first embodiment, and thus the description thereof will be omitted.

続くステップ208においては、上記ステップ207に
て求められた画素データG上の目の位置G (mx、 
my)を基に、運転者1の左右方向の移動はないものと
して車室内における運転者1の目の3次元情誼を算出す
る処理が実行される。つまり=  20 − 第18図に示す運転者1の左右(Z)方向への移動はな
いものと仮定し、実験により求めた当該車両における運
転者の目(左目)の標準的な位置Pを基準とする座標系
を考えて運転者1の目(左目)の3次元位置Mを座標(
X、Y、O)として求めることにより目の位置がmtM
されるのであるがこの処理としては、上記画像検出部5
が固定されていることから、画像データ上の標準点Pの
位置G(pX、’ IIV)を予め記憶しておき、この
基準位置G(px、 ay)に対する目の位置G (m
x、 my)のずれを算出することによって、容易に実
行することができる。
In the following step 208, the eye position G (mx,
my), a process is executed to calculate the three-dimensional appearance of the driver's 1 eyes in the vehicle interior, assuming that the driver 1 does not move in the left-right direction. In other words, = 20 − Assuming that the driver 1 does not move in the left/right (Z) direction shown in FIG. Considering the coordinate system where
X, Y, O), the eye position is mtM
However, this process involves the image detection section 5
is fixed, the position G (pX,' IIV) of the standard point P on the image data is stored in advance, and the eye position G (m
This can be easily carried out by calculating the deviation of x, my).

以上説明した如く、本実施例の車両運転者の位置認識装
置においては、所定部位を認識する際に、該所定部位近
傍の背景処理をするために所定部位が明確になり、さら
にその所定部位の標準パターンを用いて実行するよう構
成されているので、所定部位の位置を誤って認識するこ
とがなく、より正確に乗車位置を認識することができる
ようになる。
As explained above, in the vehicle driver position recognition device of this embodiment, when recognizing a predetermined region, the predetermined region is clarified in order to perform background processing in the vicinity of the predetermined region, and furthermore, the predetermined region is Since it is configured to be executed using a standard pattern, the position of the predetermined part will not be erroneously recognized, and the riding position can be recognized more accurately.

さらに、本実施例においては、運転者の目の位置を画像
データから直接求めるのではなく、まず画像データ上で
検出しやすい部分である顔面部より突出した鼻の位置と
顎の位置を認識し、続いて寿と顎と目との間の相関関係
から、目の位置を認識するようにしているため、容易に
乗車位置(左目の位置)を認識することができる。
Furthermore, in this embodiment, instead of directly determining the position of the driver's eyes from the image data, we first recognize the position of the nose and the position of the chin, which are parts that are easy to detect on the image data, which protrude from the face. Then, the position of the eyes is recognized from the correlation between longevity, the chin, and the eyes, so the riding position (the position of the left eye) can be easily recognized.

また、本実施例のステップ207の目の位置認識装置は
下記のごとくしてもにい。
Further, the eye position recognition device in step 207 of this embodiment can be used as follows.

ステップ204及びステップ206にて求められた画素
データ上の鼻の位置G (hx、 hy)及び顎の位置
〇 (ax、 ay>を基に、次式(但l〕、9.1、
立2、立3は定数)を用いて目の位置G (n+x、 
my>を算出する。尚立1、立2及び立3の値としては
、予め複数の車両運転者の画像を撮り、その平均的デー
タを用いればよく、この求められる目の位置G (II
IX、 n+y)と鼻の位置G (hx、 by)及び
顎の位置Q (ax、 ay)との関係は第19図に示
す如くなる。
Based on the nose position G (hx, hy) and the chin position 〇 (ax, ay>) on the pixel data obtained in steps 204 and 206, the following formula (where l), 9.1,
2 and 3 are constants) to determine the eye position G (n+x,
my> is calculated. For the values of Standing 1, Standing 2, and Standing 3, it is sufficient to take images of multiple vehicle drivers in advance and use their average data, and this required eye position G (II
IX, n+y), the relationship between the nose position G (hx, by) and the chin position Q (ax, ay) is as shown in FIG.

このようにすることによって運転者1が眼鏡等をかりて
いる場合でも目の位置を正しく認識できるようになる。
By doing so, the position of the eyes can be correctly recognized even when the driver 1 is wearing glasses or the like.

また本実施例においては車両運転者の乗車位置として運
転者1の目の位置(正確には左目の位置)を認識するよ
うにしているが、例えば運転者1の鼻の位置を車両運転
者の位置としてその3次元位置を認識するようにしても
よく、車両運転者の位置を認識した後の処理、つまりバ
ックミラーを自動調整するとか、ステアリング角度を自
動調整するとかいった各処理に応じて最も適切な@重位
置を認識するように構成すればよい。因みに本実施例の
ように運転者1の目の位置を認識した際にはバックミラ
ーの角度を自動調整したり、居眠り運転を検知する場合
等に用いることができる。
Furthermore, in this embodiment, the position of the eyes of the driver 1 (more precisely, the position of the left eye) is recognized as the riding position of the vehicle driver, but for example, the position of the nose of the driver 1 is The three-dimensional position may be recognized as the position, and the process after recognizing the position of the vehicle driver, such as automatically adjusting the rearview mirror or automatically adjusting the steering angle, may be performed. It may be configured to recognize the most appropriate @weight position. Incidentally, when the position of the eyes of the driver 1 is recognized as in this embodiment, it can be used to automatically adjust the angle of the rearview mirror, detect drowsy driving, etc.

第1の実施例及び第2の実施例の背景処理手段において
、直線分は画像データ上の水平方向と平行であるが、必
要に応じて右上を原点として放射状にしてもよい。すな
わち、画像処理後に運転者の所定部位が明るく残るよう
に、必要な直線分の始点が運転者の所定部位側となるよ
うに始点と傾きを設定してやればよい。
In the background processing means of the first and second embodiments, the straight line segments are parallel to the horizontal direction on the image data, but if necessary, they may be radial with the upper right as the origin. That is, the starting point and the slope may be set so that the starting point of the necessary straight line segment is on the driver's predetermined region so that the predetermined region of the driver remains bright after image processing.

更に第1の実施例及び第2の実施例において、前述の発
光手段■には発光部5が、画像検出手段■には画像検出
部6が、背側処理手段■v及び位置認識手段Vには画像
処理部8が夫々相当するのであるが、画像検出手段■と
しては上記実施例のようにMOS形の固体搬像素子から
なる画像検出部6の他にも、例えばCOD等、いわゆる
固体カメラに用いられる撮像素子からなるものであれば
より、撮像管を用いることも可能である。
Furthermore, in the first and second embodiments, the light emitting means (2) described above includes a light emitting section 5, the image detecting means (2) includes an image detecting section 6, and the dorsal side processing means (2) v and the position recognition means V each include a light emitting section 5. The image processing section 8 corresponds to each of the above, but the image detection means (2) may include, in addition to the image detection section 6 consisting of a MOS type solid-state image carrier as in the above embodiment, a so-called solid-state camera such as a COD. It is also possible to use an image pickup tube as long as it consists of an image pickup element used in

また第1の実施例及び第2の実施例においては画像検出
部6を1個とし、一方向から運転者を捉えた画像データ
を用いて運転者の乗車位置を認識するようにしており、
運転者の左右方向への移動は考慮していないのであるが
、画像検出部を異なる位置に2個設け、いわゆる三角測
量の原理を用いて運転者の乗車位置を認識するよう構成
すれば、運転者の左右方向への移動も検知することがで
き、運転者の3次元位置をより正確に認識することがで
きるようになる。
In addition, in the first embodiment and the second embodiment, the number of image detection units 6 is one, and the riding position of the driver is recognized using image data that captures the driver from one direction.
Although the driver's movement in the left and right directions is not taken into consideration, if two image detection units are installed at different positions and configured to recognize the driver's riding position using the so-called triangulation principle, driving becomes easier. The driver's movement in the left and right directions can also be detected, making it possible to more accurately recognize the three-dimensional position of the driver.

尚、第1の実施例及び第2の実施例では、発光手段■と
して赤外線ストロボを用いているが白熱球のような連続
光を用いてもよい。
In the first and second embodiments, an infrared strobe is used as the light emitting means (2), but continuous light such as an incandescent bulb may also be used.

さらに、第1の実施例及び第2の実施例では輝点検索処
理において左上端を出発点として上下方向に順次検索し
てゆくが、鼻存在域中の全画素に検索順位をつけてその
順位に従って検索するようにしてもよい。
Furthermore, in the first and second embodiments, in the bright spot search processing, the search is sequentially performed in the vertical direction starting from the upper left corner, but it is also possible to assign a search ranking to all pixels in the nose region and to determine the ranking. You may search according to the following.

又、第1の実施例及び第2の実施例において、鼻存在域
を長方形としているが、例えば、円形又は三角形のよう
にしてもよい。この場合、前記の画素に検索順位をつけ
る方法を併用するとより効率的な検索ができる。
Further, in the first and second embodiments, the nose region is rectangular, but it may be circular or triangular, for example. In this case, a more efficient search can be achieved by combining the above-described method of ranking pixels in a search order.

又、画像検出手段■により得られた画像データを直接背
景処理して位置を認識するのではなく、エッチ検出処理
や横方向微分処理を施した画像データに背景処理をして
位置を認識すると、その画像データの特徴がはっきりす
るのでより精度の高い位置認識ができる。
In addition, instead of directly performing background processing on the image data obtained by the image detection means (■) to recognize the position, if the position is recognized by performing background processing on the image data that has been subjected to etch detection processing and horizontal differential processing, Since the characteristics of the image data become clearer, more accurate position recognition is possible.

[発明の効果] 以上詳述した如く、本発明の車両運転者の情誼認識装置
においては、画像検出手段によって得られる画像データ
の所定部位近傍のデータに背景処理を施こして、背厨の
影響を減少させてから車両運転者の位置を認識するよう
構成されている。従って、精度よく運転者の所定部位を
認識することができ、バックミラー、ヘッドレスト、空
調空気の吹出口、あるいはステアリング等の位置や角度
を自動調整するとか、運転者の目の位置や頭の位置の周
期的変化から居眠り運転を検知して運転者に警報を与え
るといったことに有用である。
[Effects of the Invention] As described above in detail, in the vehicle driver's sentiment recognition device of the present invention, background processing is performed on data near a predetermined portion of image data obtained by the image detection means, thereby eliminating the influence of rear drivers. The vehicle operator is configured to recognize the location of the vehicle operator after decreasing Therefore, it is possible to accurately recognize specific parts of the driver, and automatically adjust the positions and angles of rearview mirrors, headrests, air-conditioned air outlets, steering wheels, etc., as well as the position of the driver's eyes and head. This is useful for detecting drowsy driving based on periodic changes in the number of drivers and providing warnings to the driver.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の構成を表わすブロック図、第2図ない
し第19図は本発明の実施例を示し、第2図は本発明の
実施例が適用される車両のインストルメントパネル及び
その周辺を表わす斜視図、第3図は発光部5の説明図、
第4図は画像検出部6の説明図、第5図は乗車位置認識
装置の全体構成因、第6図は第1実施例の画像処珂1部
8の動作を表わすフローチャート、第7図は画像データ
Gの読み込み処理を説明するタイムチャート、第8図は
画像入力部10に記憶された照射画像データGを表わす
説明図、第9図は画像データGの画像図、第10図(イ
)、(ロ)及び第11図(イ)、(ロ)は青石処理の説
明図、第12図は鼻の標準パターンを表わすデータ図、
第13図は鼻の位置検出処理の説明図、第14図は第2
実施例の画像処理部8の動作を表わすフローチャート、
第15図は画像データGの画像図、第16図は顎の標Q
l;パターンを表わすデータ図、第17図は目の標準パ
ターンを表わすデータ図、第18図は目の3次元位置を
説明する説明図であって、(イ)は運転者1の平面図、
(ロ)は運転者1の側面図、第19図は目の位置算出の
処理説明図である。 ■・・・発光手段 ■・・・画像検出手段 ■・・・背景処理手段 ■・・・位置認識手段 5・・・発光部 6・・・画像検出部 8・・・画像処理部 10・・・画像入力部 14・・・CPU
Fig. 1 is a block diagram showing the configuration of the present invention, Figs. 2 to 19 show embodiments of the present invention, and Fig. 2 shows an instrument panel of a vehicle and its surroundings to which the embodiment of the present invention is applied. FIG. 3 is an explanatory diagram of the light emitting unit 5,
FIG. 4 is an explanatory diagram of the image detection section 6, FIG. 5 is the overall configuration of the vehicle position recognition device, FIG. 6 is a flowchart showing the operation of the image processing section 1 8 of the first embodiment, and FIG. FIG. 8 is an explanatory diagram showing the irradiation image data G stored in the image input unit 10; FIG. 9 is an image diagram of the image data G; FIG. 10 (A) , (B) and Figures 11 (A) and (B) are explanatory diagrams of blue stone processing, and Figure 12 is a data diagram representing the standard pattern of the nose.
Fig. 13 is an explanatory diagram of the nose position detection process, and Fig. 14 is an explanatory diagram of the nose position detection process.
A flowchart showing the operation of the image processing unit 8 of the embodiment,
Fig. 15 is an image diagram of image data G, Fig. 16 is a chin mark Q
17 is a data diagram representing a standard eye pattern; FIG. 18 is an explanatory diagram illustrating the three-dimensional position of the eyes; (a) is a plan view of the driver 1;
(B) is a side view of the driver 1, and FIG. 19 is an explanatory diagram of the process of calculating the position of the eyes. ■...Light emitting means■...Image detection means■...Background processing means■...Position recognition means 5...Light emitting section 6...Image detection section 8...Image processing section 10...・Image input unit 14...CPU

Claims (1)

【特許請求の範囲】 1 車両運転者を照射する発光手段と、 該発光手段の照射による上記運転者からの反射光を受け
、運転者を画像データとして検知する画像検出手段と、 該検知された画像データにおける上記運転者の所定部位
近傍において、所定部位の背景データを減衰させる背景
処理手段と、 該背景処理された画像データにおける上記運転者の所定
部位の位置を認識する位置認識手段と、を備えたことを
特徴とする車両運転者の位置認識装置。 2 背景処理手段が所定部位近傍の処理範囲内の全画素
に対応する複数の直線分上の画素について、各線分の運
転者側を始点とし、該始点から終点に向って1画素ずつ
明るさを調べ、該調べた画素の明るさを始点からその画
素までの最も暗い画素と同じにするデータ処理を行なう
よう構成された特許請求の範囲第1項記載の車両運転者
の位置認識装置。 3 位置認識手段が、背景処理された画像データにおけ
る運転者の所定部位近傍のデータと、あらかじめ記憶さ
れている上記所定部位の標準パターンのデータと、を該
標準パターンのデータの位置を上記画像データ上で変え
ながら比較して求めた相関が最大の位置をもって所定部
位の位置とするよう構成された特許請求の範囲第1項又
は第2項記載の車両運転者の位置認識装置。 4 所定部位が運転者の鼻である特許請求の範囲第1項
ないし第3項いずれか記載の車両運転者の位置認識装置
。 5 発光手段が赤外光を発光すると共に、画像検出手段
が赤外光を受光するよう構成された特許請求の範囲第1
項ないし第4項いずれか記載の車両運転者の位置認識装
置。 6 画像検出手段が、車両運転者の乗車状態を側面画像
として検出するよう当該車両の助手席側に配設された特
許請求の範囲第1項ないし第5項いずれか記載の車両運
転者の位置認識装置。 7 画像検出手段が2次元固体撮像素子からなる特許請
求の範囲第1項ないし第6項いずれか記載の車両運転者
の位置認識装置。
[Scope of Claims] 1. A light emitting means for illuminating a vehicle driver; an image detecting means for detecting the driver as image data by receiving reflected light from the driver caused by the illumination of the light emitting means; and an image detection means for detecting the driver as image data. Background processing means for attenuating background data of a predetermined part of the driver in the vicinity of the predetermined part of the driver in the image data; and position recognition means for recognizing the position of the predetermined part of the driver in the background-processed image data. A vehicle driver position recognition device comprising: 2. The background processing means increases the brightness of pixels on a plurality of straight line segments corresponding to all pixels within a processing range near a predetermined part, one pixel at a time from the starting point to the ending point, starting from the driver's side of each line segment. 2. The vehicle driver position recognition device according to claim 1, wherein the device is configured to perform data processing to make the brightness of the checked pixel the same as the darkest pixel from a starting point to that pixel. 3. The position recognition means extracts data in the vicinity of a predetermined part of the driver in the background-processed image data and data of a standard pattern of the predetermined part stored in advance, and determines the position of the data of the standard pattern in the image data. 3. A vehicle driver position recognition device according to claim 1 or 2, wherein the position of the predetermined part is determined as the position of the predetermined part where the correlation obtained by comparing and comparing the above changes is determined. 4. A vehicle driver position recognition device according to any one of claims 1 to 3, wherein the predetermined part is the driver's nose. 5 Claim 1 in which the light emitting means emits infrared light and the image detection means is configured to receive infrared light.
A device for recognizing the position of a vehicle driver according to any one of items 1 to 4. 6. The position of the vehicle driver according to any one of claims 1 to 5, wherein the image detection means is arranged on the passenger seat side of the vehicle so as to detect the riding state of the vehicle driver as a side image. recognition device. 7. A vehicle driver position recognition device according to any one of claims 1 to 6, wherein the image detection means comprises a two-dimensional solid-state image sensor.
JP19129684A 1984-09-12 1984-09-12 Vehicle operator position recognition equipment Pending JPS6168503A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19129684A JPS6168503A (en) 1984-09-12 1984-09-12 Vehicle operator position recognition equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19129684A JPS6168503A (en) 1984-09-12 1984-09-12 Vehicle operator position recognition equipment

Publications (1)

Publication Number Publication Date
JPS6168503A true JPS6168503A (en) 1986-04-08

Family

ID=16272201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19129684A Pending JPS6168503A (en) 1984-09-12 1984-09-12 Vehicle operator position recognition equipment

Country Status (1)

Country Link
JP (1) JPS6168503A (en)

Similar Documents

Publication Publication Date Title
JP5045212B2 (en) Face image capturing device
JP5592441B2 (en) Light distribution control device
US7078692B2 (en) On-vehicle night vision camera system, display device and display method
JPH07257228A (en) Display device for vehicle
JP2006054504A (en) Image generating method and apparatus
US10965878B2 (en) Vehicle illumination system and vehicle
US20160063334A1 (en) In-vehicle imaging device
JP2011042179A (en) Projector control device
JPS6166906A (en) Recognizing device for vehicle driver position
JPS6166905A (en) Position of vehicle driver recognizing device
JP2007089094A (en) Pedestrian detection device
JPS6168503A (en) Vehicle operator position recognition equipment
JP2020137053A (en) Control device and imaging system
JPS6199803A (en) Recognizing device for vehicle driver's position
KR20190010133A (en) Apparatus and method for irradiation angle in vehicle head-light
JP2023536676A (en) ADAS calibration system for calibrating at least one headlamp of a vehicle
JP2988235B2 (en) Gaze direction detection device for vehicles
JPS6184509A (en) Identifying device for vehicle driver
JPS6177705A (en) Device for recognizing position of vehicle driver's eyes
JP2009096323A (en) Camera illumination control device
JPS6177706A (en) Device for recognizing riding position of vehicle driver
JP6834928B2 (en) Image processing device and image processing method
JP3232873B2 (en) Gaze direction detection device for vehicles
JPS63311105A (en) Apparatus for recognizing crew's position of vehicle
JP4032053B2 (en) Vehicle periphery monitoring device