JPS6177706A - Device for recognizing riding position of vehicle driver - Google Patents

Device for recognizing riding position of vehicle driver

Info

Publication number
JPS6177706A
JPS6177706A JP20110384A JP20110384A JPS6177706A JP S6177706 A JPS6177706 A JP S6177706A JP 20110384 A JP20110384 A JP 20110384A JP 20110384 A JP20110384 A JP 20110384A JP S6177706 A JPS6177706 A JP S6177706A
Authority
JP
Japan
Prior art keywords
image
driver
vehicle driver
irradiation
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP20110384A
Other languages
Japanese (ja)
Inventor
Yasutoshi Katou
康聡 加藤
Haruhiko Ogiso
治比古 小木曽
Akio Yasuda
彰男 安田
Hiroshi Ishikawa
浩 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
NipponDenso Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NipponDenso Co Ltd filed Critical NipponDenso Co Ltd
Priority to JP20110384A priority Critical patent/JPS6177706A/en
Publication of JPS6177706A publication Critical patent/JPS6177706A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To make it possible to recognize the position of a driver accurately even during daytime, by computing the image data of only reflected light based on the lighted image and the unlighted image of the vehicle driver, which are obtained by controlling a light emitting means and an image detecting means, and recognizing the three-dimensional position. CONSTITUTION:An image detection control means IV controls a light emitting means II and an image detecting means III. The image detecting means III detects a lighted imaged and an unlighted image when the means II emits the light and does not emit the light. Based on the detected lighted image and unlighted image, an image data computing means V computes the image data comprising only the reflected light caused by the emission of the light from the means II. An image processing means IV carries out the processing of the computed image data and recognizes the three-dimensional position of the driver I in a vehicle.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は車両運転者の乗車状態を画像として捉え、該車
両運転者の車宮内における3次元位置を認識する車両運
転者の乗車位置認識装置に関し、特に運転者の3次元位
置を認識するに当って用いられる画像が、車外からの光
、例えば窓ガラスを介して入射される太陽光等によって
影響されることのないよう構成した車両運転者の乗車位
置認識装置に関するものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention is a vehicle driver riding position recognition device that captures the riding state of a vehicle driver as an image and recognizes the three-dimensional position of the vehicle driver in the cab. In particular, a vehicle driver configured so that the image used to recognize the driver's three-dimensional position is not affected by light from outside the vehicle, such as sunlight entering through the window glass. The present invention relates to a vehicle position recognition device.

[従来技術] 近年電子礪器の急速な発達に伴い車両の操作性、居住性
、事故回避性等の向上を目的とした新しい装置の研究が
進められており、その1つとして車両運転者の乗車位置
、例えば運転者の目の位置や頭の位置を認識し、バック
ミラー、ヘッドレスト。
[Prior art] With the rapid development of electronic controllers in recent years, research has been underway into new devices aimed at improving vehicle operability, comfort, accident avoidance, etc. Recognizes the riding position, such as the position of the driver's eyes and head, and adjusts the rearview mirror and headrest.

空調空気の吹出口、あるいはステアリング等の位置や角
度を自動調整するとか、運転者の目の位置や頭の位置の
周期的変化から居眠り運転を検知して運転者に警報を与
えるといったことが考えられている。そしてこのような
制御を実行するのに必要な、車両運転者の乗車位置を認
識するための乗車位置認識装置としては、車両運転者の
乗車状態を撮像し、画像として検出するカメラ等からな
る画像検出部と、その検出された画像をいわゆる画像処
理によって分析し、画像上の運転者の目の位置や頭の位
置等、予め定められた所定の位置を検出して、その部分
の車苗内における3次元位置を算出する、マイクロコン
ピュータ等からなる画像処理部とにより構成し、運転者
の乗車位置を認識することが考えられている。
Ideas include automatically adjusting the position and angle of the air outlet or steering wheel, or detecting drowsiness while driving based on periodic changes in the position of the driver's eyes or head and issuing a warning to the driver. It is being The riding position recognition device for recognizing the riding position of the vehicle driver, which is necessary to execute such control, uses an image sensor such as a camera that captures the riding position of the vehicle driver and detects it as an image. The detection unit analyzes the detected image using so-called image processing, detects a predetermined position such as the position of the driver's eyes or head on the image, and detects that part in the vehicle seedling. It has been proposed to recognize the riding position of the driver by incorporating an image processing unit such as a microcomputer that calculates the three-dimensional position of the vehicle.

また上記画像検出部にて検出される車両運転者の乗車状
態を表わす画像としては、運転者が鮮明に撮像された画
像が望ましいのであるが、車両運転者を単にカメラ等を
用いて撮像した場合には、夜間では暗くてm@できず、
また昼間でも車内より車外の方が明るく、良好な画像が
検出し難いといったことがあるので、車両運転者を搬像
する際運転者を同時に照射する発光部を設けることも考
えられている。そして運転者を照射する発光部としては
、可視光を照射した場合運転者に眩しさを感じさせてし
まうので、赤外光を照射するよう構成し、画像検出部と
してもその赤外光の照射による運転者からの反射光で以
て画像を検出するよう構成することが考えられている。
Furthermore, it is desirable that the image representing the riding condition of the vehicle driver detected by the image detection unit be an image in which the driver is clearly captured, but if the vehicle driver is simply captured using a camera or the like, At night, it's too dark to do m@,
Furthermore, even during the daytime, it is brighter outside the vehicle than inside the vehicle, making it difficult to detect a good image. Therefore, it has been considered to provide a light emitting section that illuminates the driver at the same time when the vehicle driver is imaged. The light emitting section that illuminates the driver is configured to emit infrared light, since irradiation with visible light would cause the driver to feel dazzled, and the image detection section also irradiates the driver with infrared light. It has been considered that an image can be detected using light reflected from a driver.

ところが上記のように車両運転者に赤外光を照射し、そ
の反射光によって運転者の乗車状態を画像として検出す
るようにした場合、車外からの光、例えば直射日光や建
物からの反射光が車内に入射しない夜間の画像は運転者
が鮮明に捉えられた画像となり得るのであるが、昼間太
陽°から照射される赤外光が車内に入射されると、その
光によって画像が乱れ、運転者を鮮明な画像として捉え
ることができないといった問題があり、このような場合
には運転者の乗車位置も良好に検出できないようになっ
てしまうのである。
However, when the vehicle driver is irradiated with infrared light as described above and the reflected light is used to detect the driver's riding status as an image, light from outside the vehicle, such as direct sunlight or reflected light from buildings, is A nighttime image that does not enter the interior of the car can provide a clear image for the driver, but when infrared light emitted from the sun enters the interior of the car during the day, the image is distorted and the driver is There is a problem that the vehicle cannot be captured as a clear image, and in such a case, the driver's riding position cannot be detected satisfactorily.

[発明の目的] そこで本発明は、上記画像処理部にて画像処理を実行し
、車両運転者の乗車位置を算出する際に用いられる画像
が、車外からの光に関係なく車両運転者が鮮明に捉えら
れたj!ii像となるよう制御することによって、車両
運転者の乗車位置を正確に認識し得るよう構成された車
両運転者の乗車位置認識装置を提供することを目的とし
ている。
[Purpose of the Invention] Therefore, the present invention executes image processing in the image processing unit, and the image used when calculating the riding position of the vehicle driver is clearly visible to the vehicle driver regardless of the light from outside the vehicle. It was captured by j! It is an object of the present invention to provide a device for recognizing the riding position of a vehicle driver, which is configured to accurately recognize the riding position of the vehicle driver by controlling the vehicle driver so that the vehicle driver's riding position is controlled to be the same as the vehicle driver's riding position.

[発明の構成] かかる目的を達するための本発明の構成は、第1図に示
す如く、 車両運転名工を照射する発光手段■と、上記車両運転名
工の乗車状態を撮像し、画像信号として検出する画像検
出手段■と、 該画像検出手段■にて、上記発光手段■の照射時及び否
照射時に夫々照射画像及び否照射画像が検出されるよう
、上記発光手段「及び画像検出手段■を制御する画像検
出制御手段l■と、該画像検出制御手段■の動作によっ
て上記画像  。
[Structure of the Invention] As shown in FIG. 1, the structure of the present invention to achieve the above object includes a light emitting means (2) for illuminating the vehicle driver, and a system for capturing an image of the riding state of the vehicle driver and detecting it as an image signal. and controlling the light emitting means "and the image detecting means (2) so that the image detecting means (2) detects an irradiated image and a non-irradiated image when the light emitting means (2) is irradiated and not irradiated, respectively. The above-mentioned image is detected by the operation of the image detection control means l■ and the image detection control means ■.

検出手段■にて1コられた照射画像と否照射画像とを基
に、上記発光手段■の照射による反射光のみからなる画
像データを算出する画像データ算出手段Vと、 該算出された画像データの画像処理を実行し、当該車両
における上記車両運転名工の3次元位置を認識する画像
処理手段■と、 を備えたことを特徴とする車両運転者の乗車位置認識装
置i置を要旨としている。
an image data calculation means V that calculates image data consisting only of reflected light from the irradiation of the light emitting means (2) based on the irradiation image and non-irradiation image obtained by the detection means (2); and the calculated image data. The gist of the present invention is to provide an apparatus for recognizing the riding position of a vehicle driver, comprising: an image processing means (2) for performing image processing and recognizing the three-dimensional position of the vehicle driver in the vehicle;

[実施例] 以下本発明の一実施例を図面と共に説明する。[Example] An embodiment of the present invention will be described below with reference to the drawings.

第2図は本実施例の乗車位置認識装置が搭載された車両
のインストルメントパネル部分及びその周辺を表わす斜
視図であって、1は運転者、2は運転席、3はインスト
ルメントパネルを表わしている。そしてインストルメン
トパネル3の運転席2に対する左斜め前方、即ち、助手
席側前方には、運転者1の上体を左方向から照射する発
光部5と、運転者1の上体を左方向から2次元画像とし
て促える画像検出部6が設けられている。
FIG. 2 is a perspective view showing the instrument panel part and its surroundings of a vehicle in which the occupant position recognition device of this embodiment is installed, in which 1 represents the driver, 2 represents the driver's seat, and 3 represents the instrument panel. ing. A light emitting unit 5 that illuminates the upper body of the driver 1 from the left side is located diagonally forward to the left of the driver's seat 2 of the instrument panel 3, that is, in front of the passenger seat side. An image detection unit 6 that can generate a two-dimensional image is provided.

ここで発光部5は前述の発光手段■に相当し、照射時に
運転者1に眩しさを感じさせることのないよう赤外光を
発光する赤外ストロボが用いられ、第3図に示す如く、
赤外発光体5aと、赤外発光体5aにて発光された赤外
光を広く運転者に照射する為のレンズ5bと、赤外光を
透過し、可視光を通さない赤外フィルタ5Cと、これら
赤外発光体5a、レンズ5b及び赤外フィルタ5Cを格
納し、インストルメントパネル3の所定の位置に取り付
けるためのケース5dとから構成されている。
Here, the light emitting unit 5 corresponds to the above-mentioned light emitting means (2), and an infrared strobe that emits infrared light is used so as not to dazzle the driver 1 during irradiation, as shown in FIG.
An infrared light emitter 5a, a lens 5b for broadly irradiating the driver with infrared light emitted by the infrared light emitter 5a, and an infrared filter 5C that transmits infrared light but blocks visible light. , a case 5d for storing the infrared light emitter 5a, lens 5b, and infrared filter 5C and for attaching it to a predetermined position on the instrument panel 3.

また画像検出部6は前述の画像検出手段mに相当し、第
4図に示す如く、赤外光を透過する赤外フィルタ6aと
、運転者1の上体画像を後述の固体撮像素子6eの撮像
面に結像するための焦点距離が例えば12.51QIl
lのレンズ6bと、光量を調整するための液晶絞り素子
6Cと、液晶絞り素子6Cの絞りを自動調整するために
用いられ、液晶絞り素子6Cを透過する究理を検出する
フォトトランジスタ6dと、上記赤外フィルタ6a、レ
ンズ6b及び液晶絞り素子6Cを透過して結像された撮
像面上の映像をスイッチング走査で電気信号として取り
出す、フォトセンサとスイッチング回路とからなるMO
S形の固体撮像素子6eと、上記各部を格納し、インス
トルメントパネル3に取り付けるためのケース6fとか
ら構成される固体カメラが用いられている。
Further, the image detection section 6 corresponds to the above-mentioned image detection means m, and as shown in FIG. For example, the focal length for forming an image on the imaging plane is 12.51QIl.
1 lens 6b, a liquid crystal aperture element 6C for adjusting the amount of light, a phototransistor 6d that is used to automatically adjust the aperture of the liquid crystal aperture element 6C and detects the principle of transmission through the liquid crystal aperture element 6C, An MO consisting of a photosensor and a switching circuit that extracts the image formed on the imaging surface through the infrared filter 6a, lens 6b and liquid crystal aperture element 6C as an electrical signal by switching scanning.
A solid-state camera is used that includes an S-shaped solid-state image sensor 6e and a case 6f for storing the above-mentioned parts and attaching them to the instrument panel 3.

次に本実施例の乗車位置認識装置の全体構成を第5図に
示すブロック図に基づき説明する。
Next, the overall configuration of the riding position recognition device of this embodiment will be explained based on the block diagram shown in FIG. 5.

図に示す如く、本認識装置は上記発光部5及び画像検出
部6の他に、画像検出部6にて捉えられた運転者1の画
(9を処理し、運転者1の乗車位置く本実施例において
は目の位置)を認識する画像処理部8を備えている。そ
してこの画像処理部8は、上記画像検出部6を制御する
と共に、画像検出部6にて得られた画像信号をデジタル
信号に変換し、その変換されたデジ、タル信号を画像デ
ータとして一旦記憶することのできる画像入力部10と
、上記発光部5を発光させるための照射信号を出力する
照射信号出力部12と、画像入力部10にてA/D変換
され記憶された画像データから運転者1の顔面部におけ
る所定の特異点位@(本実施例では外の位置)を検出し
、この特異点位置から運転者1の目の位置を認識すると
いった一連の目の位置認識処理を実行するセントラルブ
ロセツシングユニット(CPU)14と、CPU14に
て目の位置認識処理を実行するための制御プログラムや
データが予め記憶されたリードオンリメそり<ROM)
16と、演韓処理実行のために用いられるデータ等が一
時的に読み山きされるランダムアクセスメモリ(RAM
)18と、上記各部を結び画像信号や制御信号の通路と
されるパスライン20と、上記各部に電源を供給する電
源回路22とから構成されている。また上記画像入力部
10は、画像検出部6に垂直同期信号及び水平同明信号
を発生する同期信号発生回路10aと、画像検出部6に
より得られた画像信号を、例えば1フレーム当たりに横
256、縦240の画素の明度を表わすデジタル信号か
らなる画像データに変換するA/D変挽回路10bと、
その変換された画像データを過去2フレ一ム分だけ記憶
することのできる画像データ記憶回路10Cとから構成
されている。
As shown in the figure, in addition to the light emitting unit 5 and the image detecting unit 6, this recognition device processes the image (9) of the driver 1 captured by the image detecting unit 6, and calculates the riding position of the driver 1. In the embodiment, an image processing unit 8 is provided that recognizes the position of the eyes. The image processing section 8 controls the image detection section 6, converts the image signal obtained by the image detection section 6 into a digital signal, and temporarily stores the converted digital signal as image data. an irradiation signal output section 12 that outputs an irradiation signal for causing the light emitting section 5 to emit light; and an irradiation signal output section 12 that outputs an irradiation signal for causing the light emitting section 5 to emit light. A series of eye position recognition processes are executed, such as detecting a predetermined singular point position @ (in this embodiment, an outside position) on the face of driver 1 and recognizing the position of the eyes of driver 1 from this singular point position. A central processing unit (CPU) 14 and a read-only memory (ROM) in which control programs and data for executing eye position recognition processing by the CPU 14 are stored in advance.
16, and a random access memory (RAM) in which data used to execute the Enhan process is temporarily read.
) 18, a path line 20 that connects each of the above sections and serves as a path for image signals and control signals, and a power supply circuit 22 that supplies power to each of the above sections. The image input section 10 also includes a synchronization signal generation circuit 10a that generates a vertical synchronization signal and a horizontal synchronization signal to the image detection section 6, and an image signal obtained by the image detection section 6, for example, at 256 pixels horizontally per frame. , an A/D conversion circuit 10b that converts into image data consisting of digital signals representing the brightness of 240 vertical pixels;
It is comprised of an image data storage circuit 10C that can store the converted image data for the past two frames.

次に上記画像処理部8にて実行される目の位置認識処理
の動作について、第6図に示すフローチャートに沿って
詳しく説明する。尚この処理は一定周期の信号やスイッ
チからの信号等によって運転者1の目の位置認識の要求
が入力された場合に実行されるものであり、上述した如
く本実施例においては運転者1の乗車位置として目の位
置が認識されることとなる。
Next, the operation of the eye position recognition process executed by the image processing section 8 will be described in detail with reference to the flowchart shown in FIG. This process is executed when a request for recognizing the position of the driver's 1 eyes is inputted by a signal of a certain period or a signal from a switch. The position of the eyes will be recognized as the riding position.

図に示す如く処理が開始されるとまずステップ101が
実行され、画像検出部6において、発光部5を発光した
際に得られる第7図に示す如き照射画像と、発光部5を
発光せず、窓ガラスを介して入射される車外からの光の
みにより得られる第8図に示す如き否照射画像との2種
類の画像が検出されるよう、発光部5に照射信号を出力
すると共に、その検出される2種類の画像を画像入力部
10において夫々デジタル信号からなる照射画像データ
G1及び否照射画像データG2として記憶する、画像デ
ータ読み込み処理を実行する。
As shown in the figure, when the process is started, step 101 is first executed, and in the image detection unit 6, an irradiation image as shown in FIG. , an irradiation signal is output to the light emitting unit 5, and the irradiation signal is outputted to the light emitting unit 5 so that two types of images are detected: a non-irradiation image as shown in FIG. An image data reading process is executed in which the two types of detected images are stored in the image input unit 10 as irradiation image data G1 and non-irradiation image data G2, respectively, each consisting of a digital signal.

ここで画像入力部10は、同期信号発生回路10a 、
A/D変挽回路10b及び画像データ記憶回路10cを
備えており、同期信号発生回路10aより出力される垂
直同期信号及び水平同期信号に従い画像検出部6を制御
し、画像検出部6から出力される画像信号を順次取り込
みA/D変換回路10bを介してデジタル信号に変換さ
れた画像信号を、照射画像データG1、または否照射画
像データG2として記憶回路10Gに記憶することがで
きるので、本画像データ読み込み処理としては、画像入
力部10を動作させ、同期信号発生回路10aから出力
される垂直同期信号と同期して発光部5を発光するだけ
で容易に実行することができる。つまり第9図に示す如
く、まず!ll!百同明信号の立ち上がり時期toより
所定時間Δ丁経過後発光部5に照射信号Sを出力するこ
とによって垂直帰線時期△t1と一致して発光部5を発
光させ、その発光によって得られる第7図に示す如き照
射画像を照射画像データG1として読み込み、次のフレ
ームにおいては発光部5を発光せずに得られる第8図に
示す如き否照射画像を否照射画像データG2として読み
込むといった処理が実行されるのである。
Here, the image input section 10 includes a synchronization signal generation circuit 10a,
It is equipped with an A/D conversion circuit 10b and an image data storage circuit 10c, and controls the image detection section 6 according to the vertical synchronization signal and horizontal synchronization signal output from the synchronization signal generation circuit 10a, and outputs the image data from the image detection section 6. The image signals that are sequentially taken in and converted into digital signals via the A/D conversion circuit 10b can be stored in the storage circuit 10G as irradiation image data G1 or non-irradiation image data G2. The data reading process can be easily executed by simply operating the image input section 10 and causing the light emitting section 5 to emit light in synchronization with the vertical synchronization signal output from the synchronization signal generation circuit 10a. In other words, as shown in Figure 9, first! ll! After a predetermined period of time Δt has elapsed since the rising time to of the Hyakudoumei signal, the irradiation signal S is output to the light emitting unit 5 to cause the light emitting unit 5 to emit light in coincidence with the vertical retrace time Δt1. 7 is read as irradiation image data G1, and in the next frame, a non-irradiation image as shown in FIG. 8 obtained without emitting light from the light emitting unit 5 is read as non-irradiation image data G2. It will be executed.

尚第7図及び第8図は車外から入射される光が強く、運
転者1と同時に車外の景色も撮像された場合の画像を斜
線の密度で以て表わした画像図であって、第7図の照射
画像は発光部5を発光して運転者1に赤外光を照射した
場合であっても顔面部分からの反射光よりも車外からの
入射光の方が強く運転者1の顔面部分が少し暗くなって
いるのを表わしており、第8図の否照射画像は単に車外
からの入射光のみからなる画像であり、運転者1が完全
に影になっていることを表わしている。また上記画像入
力部1oにてA/D変換され記憶される画像データG1
 (またはG2)は、前述したように画像検出部6にて
得られた画像を横256、!111240に分割する画
素の明度を表わすものであり、第10図に示す如く各画
素毎にその明度G1<x、y)が記憶されている。
7 and 8 are image diagrams in which the light incident from outside the vehicle is strong and the scenery outside the vehicle is also imaged at the same time as the driver 1 is imaged, which is represented by the density of diagonal lines. In the irradiation image shown in the figure, even when the light emitting unit 5 emits light and infrared light is irradiated to the driver 1, the incident light from outside the vehicle is stronger than the reflected light from the face of the driver 1. The non-illuminated image shown in FIG. 8 is an image made only of incident light from outside the vehicle, and shows that the driver 1 is completely in the shadow. Further, image data G1 which is A/D converted and stored in the image input section 1o.
(or G2) is the image obtained by the image detection unit 6 as described above, horizontally 256,! It represents the brightness of pixels divided into 111240, and the brightness G1<x, y) is stored for each pixel as shown in FIG.

このようにステップ101にて発光部5、画像検出部6
及び画像入力部1Qが制御され、画像入力部10におい
て2種の画像データG1及びG2が読み込まれると続く
ステップ102が実行され、この2梗の画像データG1
及びG2を基に、発光部5の発光による反射光のみから
なる画像データG1つまり第11図に示す如く車外の景
色等に関係なく車室内の運転者1が鮮明に撮像された画
像を表わす画像データGを算出する処理がなされる。
In this way, in step 101, the light emitting section 5, the image detecting section 6
and the image input unit 1Q are controlled, and when the two types of image data G1 and G2 are read in the image input unit 10, the subsequent step 102 is executed, and the two types of image data G1
and G2, image data G1 consisting only of reflected light from the light emitted by the light emitting unit 5, that is, an image representing a clearly captured image of the driver 1 inside the vehicle regardless of the scenery outside the vehicle, as shown in FIG. Processing to calculate data G is performed.

尚本ステップ102の処理としては、上記ステップ10
1の処理にて画像入力部10に記憶された照射画像デー
タG1と否照射画像データG2との差を各画素毎に算出
する口とによって、容易に実行することができる。
Note that the process of step 102 is the same as that of step 10 above.
This can be easily carried out by calculating the difference between the irradiation image data G1 and the non-irradiation image data G2 stored in the image input unit 10 in the step 1 for each pixel.

そして上記ステップ102にて画像データGが算出され
ると次ステツプ103が実行され、画像データGにおけ
る予め設定された所定のエリア、つまり第11図に示す
30の領域を鼻の存在域とし、この領域内の最も左側に
存在する一定レベル以上の明度を有する画素を検索し、
その位置を記憶するといった輝点検索処理が行なわれる
。この処理は次ステツプ104にて運転者1の鼻の位置
を検出する際に、のを1児す範囲を限定するための処理
であって、求められた画素の位置が鼻を捜すための起点
とされる。尚、本輝点検索処理としては、第11図の鼻
存在戚3oにおける左上端の画素を出発点として、上下
方向に順次検索してゆき、最初の一定レベル以上の明度
を有する画素の位置を記憶することによって実行できる
When the image data G is calculated in step 102, the next step 103 is executed, and a predetermined area in the image data G, that is, 30 areas shown in FIG. Search for pixels that exist on the leftmost side of the area and have a brightness above a certain level,
A bright spot search process is performed in which the position is stored. This process is a process for limiting the range in which the nose of the driver 1 is detected when detecting the position of the nose of the driver 1 in the next step 104, and the position of the determined pixel is the starting point for searching for the nose. It is said that In this bright spot search process, starting from the upper left pixel of the nose-existing relative 3o in FIG. It can be executed by memorizing it.

このように輝点検索が実行され、鼻存在職の最も左側に
存在する一定レベル以上の明度を有する画素の位置が求
められると、上述したように続くステップ104にて、
この位置を基点として鼻を捜し、鼻の位置を決定する処
理がなされるのであるが、この処理は、輝点検索によっ
て求められた画素の近傍で、予め設定されている第12
図に示す如き鼻の標準パターンと画像データとの相関の
度合いを調べ、相関の最大値となる画像の位置を以ての
が存在する位置であるとみなし、鼻の位置を決定するも
のである。
When the bright spot search is executed in this way and the position of the pixel that exists on the leftmost side of the nose position and has a brightness above a certain level is determined, in the subsequent step 104 as described above,
Processing is performed to search for the nose using this position as a base point and determine the position of the nose.
The degree of correlation between the standard pattern of the nose as shown in the figure and the image data is examined, and the position of the image where the correlation is maximum is regarded as the position where the nose exists, and the position of the nose is determined.

つまり、上記ステップ103にて求められた画素の位置
G (x 、 y )を中心に、第13図に示す如(上
下、左右に夫々5画素分、計121個の画素を、夫々第
12図に示した碍の標準パターンにおける中心位@!I
l (O,O)として画像データと標準パターンとの相
関値を計算し、その値が最も大きくなった画素位置を得
失(いわゆる鼻の頭)の位置G < hx、 hy)と
して認識するのである。ここで、第12図の鼻の標準パ
ターンにおける中心位@m (0,0)は得失に相当す
る部分として予め設定されており、また相関値としては
次式%式%) より求めることができる。そして上記i及びJの値とし
ては、鼻の標準パターンが中心m  (0、O)に対し
て上に16、下に7、左に1、右に6の拡がりを持つデ
ータとして構成されていることから、iに(−1)から
(+6)、jに(−16>から(+7)の間の整数値を
用いればよい。
In other words, centering on the pixel position G (x, y) determined in step 103 above, as shown in FIG. The center position in the standard pattern of 碍 shown in @!I
The correlation value between the image data and the standard pattern is calculated as l (O, O), and the pixel position where the value is the largest is recognized as the position of gain or loss (so-called tip of the nose) G < hx, hy). . Here, the center position @m (0,0) in the standard nose pattern shown in Fig. 12 is preset as a portion corresponding to gains and losses, and the correlation value can be obtained from the following formula. . As for the values of i and J above, the standard nose pattern is configured as data with a spread of 16 above, 7 below, 1 on the left, and 6 on the right with respect to the center m (0, O). Therefore, it is sufficient to use an integer value between (-1) and (+6) for i and between (-16> and (+7)) for j.

また相関値が、鼻の標準パターンにおける中心位置In
  (0,0)に対して、第13図に示す如き画像デー
タ上の画素G (X 、 y )を中心とする上下、左
右に夫々5個、計121個の画素を当てはめ、計算され
ることから、上式におけるXSYの値としては、夫々、
Xが×±5、Yがy±5の間の整数値となり、結局X及
びYの組み合わせで最大121種類の相関値が弾出され
、その最大値となる画像データ上の画素G (X、Y)
が鼻の位置G (hx、 hy)として検出されるので
ある。
Also, the correlation value is the center position In in the standard pattern of the nose.
It is calculated by applying a total of 121 pixels to (0, 0), 5 pixels each on the top, bottom, left and right, centering on pixel G (X, y) on the image data as shown in Figure 13. Therefore, the values of XSY in the above formula are, respectively,
X is an integer value between ×±5 and Y is an integer value between y±5, and in the end, a maximum of 121 types of correlation values are produced by the combination of X and Y, and the maximum value is the pixel G (X, Y)
is detected as the nose position G (hx, hy).

このようにして鼻の位置G(hX、hy)が求められる
と、続くステップ105に移行して、今度はこののの位
置G (hx、 hy)に基づき目の位置を求めること
となる。ここで目の位置を求めるに当っては、まず鼻の
位置G (hx、 hy)より右に12画素、上に13
画画素行した画素の位置G(hx+12 、hy−13
>を求め、この位置の近傍で予め設定されている第14
図に示す如き目の標準パターンと画像データとの相関の
度合を調べ、目の位置Q (mx、 mV)を決定する
。尚この決定方法としては、上記ステップ104の鼻の
位置決定と同様に行なえばよいので、説明は省略する。
Once the nose position G (hX, hy) has been determined in this way, the process moves to the subsequent step 105, where the eye positions are determined based on the nose position G (hx, hy). To find the position of the eyes, first select 12 pixels to the right and 13 pixels above the nose position G (hx, hy).
Pixel position G (hx+12, hy-13
>, and find the 14th point set in advance near this position.
The degree of correlation between the eye standard pattern shown in the figure and the image data is examined to determine the eye position Q (mx, mV). Note that this determination method can be carried out in the same manner as the nose position determination in step 104 above, so the explanation will be omitted.

続くステップ106においては、上記ステップ105に
て求められた画素データG上の目の位置G (mx、 
my)を基に、運転者1の左右方向の移動はないものと
して車室内における運転者1の目の3次元位置を口出す
る処理が実行される。つまり第15図に示す運転者1の
左右<2>方向への移動はないものと仮定し、実験的に
求めた車両運転者の左目の標準位置Pを基準とする運転
者1の目(左目)の3次元位置Mを座標(X、Y、O)
として求めることによって目の位置が認識されるのであ
るがこの処理としては、上記画像検出部5が固定されて
いることから、画像データ上の標準点Pの位ff1G 
(px、 py)を予め記憶しておぎ、この基準位置G
 (px、 py)に対する目の位置G(mx、my)
のずれを算出することによって、容易に実行することが
できる。
In the following step 106, the eye position G (mx,
my), a process is executed to determine the three-dimensional position of the driver's 1 eyes in the vehicle interior, assuming that the driver 1 does not move in the left-right direction. In other words, assuming that the driver 1 does not move in the left and right <2> directions shown in FIG. )'s three-dimensional position M as the coordinates (X, Y, O)
The position of the eyes is recognized by determining the position of the standard point P on the image data, since the image detection unit 5 is fixed.
(px, py) is stored in advance, and this reference position G
Eye position G(mx, my) relative to (px, py)
This can be easily carried out by calculating the deviation of .

以上説明した如く、本実施例の車両運転者の乗車位2認
識装置においては、運転者1の斜め前方である助手席側
インストルメントパネルに発光部5と画像検出部6とを
設け、発光部5を照(ト)した際に画像検出部6にて得
られる画像を照射画像データG1、発光部5を照射せず
に画像検出部6にて1りられる画像を否照射画像データ
G2として一旦記憶し、その後この2種の画像データG
1とG2との差から運転者1の乗車位置(目の位置)を
認識するに当って用いられる画像データGを算出するよ
う構成されている。従って車外から入射された光が画像
検出部6にて検出され、車外の引色が撮像されるような
場合であっても、照射画像データG1と否照射画像デー
タGzとの差をとることによって車外からの光によって
撮像された部分を取り除くことができ、実際に運転者1
の乗車位置を認識する処理を実行する際には、車外から
の光に影響されず運転者1が明瞭に撮像された画像を表
わす画像データGで以て実行することができ、乗車位置
(目の位置)を正確に認識するようになる。また本実施
例においては、運転者の目の位置を画像データGから直
接求めるのではなく、まず画像データ上で最も検出し易
い部分である顔面部より突出された鼻の位置を特異点位
置として検出した後、目の位置を検出し、その3次元位
置を算出するようにしており、更にその^の位置や目の
位置を検出する際には各標準パターンを用いて実行する
よう構成されているので、目の3次元位置を誤って認識
−することなく、より正確に乗車位置を認識することが
できるようになる。
As explained above, in the vehicle driver's riding position 2 recognition device of this embodiment, the light emitting unit 5 and the image detecting unit 6 are provided on the passenger seat side instrument panel diagonally in front of the driver 1. The image obtained by the image detection unit 6 when the light emitting unit 5 is illuminated is set as irradiation image data G1, and the image obtained by the image detection unit 6 without irradiation of the light emitting unit 5 is set as non-irradiation image data G2. After that, these two types of image data G
The image data G used for recognizing the riding position (eye position) of the driver 1 is calculated from the difference between G1 and G2. Therefore, even in a case where the light incident from outside the vehicle is detected by the image detection unit 6 and a colored image of the outside of the vehicle is captured, by taking the difference between the irradiation image data G1 and the non-irradiation image data Gz, The part imaged by light from outside the vehicle can be removed, and the driver 1 can actually
When executing the process of recognizing the riding position of the driver 1, the process can be executed using image data G representing a clearly captured image of the driver 1 without being affected by light from outside the vehicle, and the process of recognizing the riding position (eyes) Become able to accurately recognize the location of In addition, in this embodiment, instead of directly determining the position of the driver's eyes from the image data G, the position of the nose that protrudes from the face, which is the part that is easiest to detect on the image data, is first determined as the singular point position. After the detection, the eye position is detected and its three-dimensional position is calculated, and furthermore, when detecting the ^ position and the eye position, it is configured to be executed using each standard pattern. This makes it possible to more accurately recognize the riding position without erroneously recognizing the three-dimensional position of the eyes.

ここで上記実施例においては照射画像及び否照射画像を
夫々照射画像データG1及び否照射画像データG2とし
て一旦記憶した後画像データGを算出するようにしてい
るが、例えば照射画像データG1を記憶した後、否照射
画像データを読み、込む時点で画像データGを暮出し、
画像データGを記憶してゆくようにしてもよく、この場
合には否照射画像データG2は記憶する必要がない。ま
た先に否照射画像データG2を読み込みその後照射画像
データG1を読み込むようにしてもよい。
Here, in the above embodiment, the irradiation image and the non-irradiation image are temporarily stored as the irradiation image data G1 and the non-irradiation image data G2, respectively, and then the image data G is calculated. After that, read the non-irradiation image data, export the image data G at the time of input,
The image data G may be stored, and in this case, it is not necessary to store the non-irradiation image data G2. Alternatively, the non-irradiation image data G2 may be read first, and then the irradiation image data G1 may be read.

また上記実施例においては車両運転者の乗車位置として
運転者1の目の位置(正確には左目の位置)を認識する
ようにしているが、例えば目の位置を認識するに当って
先に求められた運転者1の鼻の位置を乗車位置としてそ
の3次元位置を認識するようにしてもよく、乗車位置を
認識した後の処理、つまりバックミラーを自動調整する
とか、ステアリング角度を自動調整するとかいった各処
理に応じて最も適切な乗車位置を認識するように構成す
ればよい。因みに上記実施例のように運転者1の目の位
置を認識した際にはバックミラーの角度を自動調整した
り、居眠り運転を検知する場合等に用いることができる
Furthermore, in the above embodiment, the position of the eyes of the driver 1 (more precisely, the position of the left eye) is recognized as the riding position of the vehicle driver. The three-dimensional position of the driver 1's nose may be recognized as the riding position, and the processing after recognizing the riding position, such as automatically adjusting the rearview mirror or automatically adjusting the steering angle, may be performed. The configuration may be such that the most appropriate riding position is recognized according to each process such as. Incidentally, when the position of the eyes of the driver 1 is recognized as in the above embodiment, it can be used to automatically adjust the angle of the rearview mirror, detect drowsy driving, etc.

更に上記実施例において、前述の発光手段■には発光部
5が、画像検出手段■には画像検出部6が、画像検出制
御手段■、画像データ算出手段v1画像処理手段Vtに
は画像処理部8が夫々相当するのであるが、画像検出手
段■としては上記実施例のようにMOS形の固体搬像素
子からなる画像検出部6の他にも、例えばCOD等、い
わゆる固体カメラに用いられる搬像素子からなるもので
あればよく、撮像管を用いることも可能である。
Further, in the above embodiment, the light emitting means (2) includes a light emitting section 5, the image detecting means (2) includes an image detecting section 6, the image detection control means (2), and the image data calculating means v1 and the image processing means Vt include an image processing section. In addition to the image detecting section 6 consisting of a MOS type solid-state image carrier as in the above embodiment, the image detecting means (2) may also be a carrier used in a so-called solid-state camera such as a COD. Any device may be used as long as it consists of an image element, and it is also possible to use an image pickup tube.

また上記実施例においては画像検出部6を1個とし、一
方向から運転者を捉えた画像データを用いて運転者の乗
車位置を認識するようにしており、運転者の左右方向へ
の移動は考慮していないのであるが、画像検出部を異な
る位置に2個設け、いわゆる三角測色の原理を用いて運
転者の乗車位置を認識するよう構成すれば、運転者の左
右方向への移動も検知することができ、運転者の3次元
位置をより正確にImすることができるようになる。
Further, in the above embodiment, the number of image detection units 6 is one, and the driver's riding position is recognized using image data captured from one direction, and the driver's movement in the left and right direction is Although this has not been taken into account, if two image detection units are installed at different positions and configured to recognize the driver's boarding position using the so-called triangular colorimetry principle, it will be possible to prevent the driver from moving in the left or right direction. The three-dimensional position of the driver can be detected more accurately.

し発明の効果] 以上詳述した如く、本発明の車両運転者の乗車位置認識
装置においては、発光手段と画像検出手段とを制御する
ことによって得られる車両運転者の照射画、象と否照射
画像とを基に、発光手段の照射による反射光のみからな
る画像データを算出し、その算出された画像データから
車両運転者の3次元位置を認識するよう構成されている
。従って画像検出手段にて得られる車両運転者の画像が
車両の窓ガラスを介して入射される太陽光等によって影
響され、車両運転者が明瞭に表われていない画像となっ
た場合にでも、実際に車両運転者の3次元位置を認識す
るに当って用いられる画像データとしては、車外からの
光を取り除いた画像、つまり車両運転者が明瞭に捉えら
れた画(象を表わす画像データとすることができ、昼間
でも車両運転者の乗車位置を正確に認識することができ
るようになる。
[Effects of the Invention] As described in detail above, in the device for recognizing the riding position of a vehicle driver of the present invention, the irradiated image of the vehicle driver obtained by controlling the light emitting means and the image detecting means, the irradiated image and the non-irradiated image. Based on the image, image data consisting only of reflected light emitted by the light emitting means is calculated, and the three-dimensional position of the vehicle driver is recognized from the calculated image data. Therefore, even if the image of the vehicle driver obtained by the image detection means is affected by sunlight, etc. that enters through the vehicle window glass, and the vehicle driver is not clearly displayed, the actual The image data used to recognize the three-dimensional position of the vehicle driver is an image with light from outside the vehicle removed, that is, an image in which the vehicle driver is clearly captured (image data representing an elephant). This makes it possible to accurately recognize the vehicle driver's riding position even during the day.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の構成を表わすブロック図、第2図ない
し第15図は本発明の一実施例を示し、第2図は本実施
例の車両のインストルメントパネル及びその周辺を表わ
す斜視図、第3図は発光部5の説明図、第4図は画像検
出部6の説明図、第5図は本実施例の乗車位置認識装置
の全体構成図、第6図は画像処理部8の動作を表わすフ
ローチャート、第7図は照射画像を表わす画像図、第8
図は否照射画像を表わす画像図、第9図は画像データG
l 、G2読み込み処理を説明するタイムチャート、第
10図は画像入力部10に記憶された照射画像データG
1を表わす説明図、第11図は画像データGの画像図、
第12図は鼻の標準パターンを表わすデータ図、第13
図は鼻の位置検出処理の説明図、第14図は目の標準パ
ターンを表わすデータ図、第15図は目の3次元位置を
説明する説明図であって、(イ)は運転者1の平面図、
(ロ)は運転者1の側面図である。 ■・・・発光手段 ■・・・画像検出手段 ■・・・画像検出制御手段 V・・・画像データ算出手段 ■・・・画像処理手段 5・・・発光部 6・・・画像検出部 8・・・画像処理部 10・・・画像入力部 14・・・CPU
FIG. 1 is a block diagram showing the configuration of the present invention, FIGS. 2 to 15 show an embodiment of the present invention, and FIG. 2 is a perspective view showing the instrument panel of a vehicle and its surroundings according to the present embodiment. , FIG. 3 is an explanatory diagram of the light emitting section 5, FIG. 4 is an explanatory diagram of the image detecting section 6, FIG. 5 is an overall configuration diagram of the riding position recognition device of this embodiment, and FIG. 6 is an explanatory diagram of the image processing section 8 A flowchart showing the operation, Figure 7 is an image diagram showing the irradiation image, and Figure 8 is a flowchart showing the operation.
The figure is an image diagram showing a non-irradiation image, and Figure 9 is image data G.
1, a time chart explaining the G2 reading process, and FIG. 10 shows the irradiation image data G stored in the image input unit 10.
An explanatory diagram showing 1, FIG. 11 is an image diagram of image data G,
Figure 12 is a data diagram representing the standard pattern of the nose, Figure 13
FIG. 14 is an explanatory diagram of the nose position detection process, FIG. 14 is a data diagram showing the standard eye pattern, and FIG. Plan view,
(b) is a side view of the driver 1. ■... Light emitting means ■... Image detecting means ■... Image detection control means V... Image data calculating means ■... Image processing means 5... Light emitting section 6... Image detecting section 8 ...Image processing section 10...Image input section 14...CPU

Claims (1)

【特許請求の範囲】 1 車両運転者を照射する発光手段と、 上記車両運転者の乗車状態を撮像し、画像信号として検
出する画像検出手段と、 該画像検出手段にて、上記発光手段の照射時及び否照射
時に夫々照射画像及び否照射画像が検出されるよう、上
記発光手段及び画像検出手段を制御する画像検出制御手
段と、 該画像検出制御手段の動作によつて上記画像検出手段に
て得られた照射画像と否照射画像とを基に、上記発光手
段の照射による反射光のみからなる画像データを算出す
る画像データ算出手段と、該算出された画像データの画
像処理を実行し、当該車両における上記車両運転者の3
次元位置を認識する画像処理手段と、 を備えたことを特徴とする車両運転者の乗車位置認識装
置。 2 発光手段が赤外光を発光すると共に、画像検出手段
が赤外光を受光するよう構成された特許請求の範囲第1
項記載の車両運転者の乗車位置認識装置。 3 画像検出手段が、車両運転者の乗車状態を側面画像
として検出するよう当該車両の助手席側に配設された特
許請求の範囲第1項又は第2項記載の車両運転者の乗車
位置認識装置。 4 画像検出手段が2次元固体撮像素子からなる特許請
求の範囲第1項ないし第3項いずれか記載の車両運転者
の乗車位置認識装置。 5 画像処理手段にて認識される車両運転者の3次元位
置が、該車両運転者の目の位置である特許請求の範囲第
1項ないし第4項記載の車両運転者の乗車位置認識装置
[Scope of Claims] 1. A light emitting means for illuminating a vehicle driver; an image detecting means for capturing an image of the riding state of the vehicle driver and detecting it as an image signal; and the image detecting means illuminates the light emitting means. an image detection control means for controlling the light emitting means and the image detection means so that an irradiation image and a non-irradiation image are detected at the time of irradiation and at the time of non-irradiation, respectively; an image data calculation means for calculating image data consisting only of reflected light from the irradiation of the light emitting means based on the obtained irradiation image and non-irradiation image; and image processing of the calculated image data; 3 of the above vehicle driver in the vehicle
An apparatus for recognizing a riding position of a vehicle driver, comprising: an image processing means for recognizing a dimensional position; 2. Claim 1, wherein the light emitting means emits infrared light and the image detection means is configured to receive infrared light.
A device for recognizing the riding position of a vehicle driver as described in 2. 3. Recognition of the riding position of a vehicle driver according to claim 1 or 2, wherein the image detection means is arranged on the passenger seat side of the vehicle so as to detect the riding state of the vehicle driver as a side image. Device. 4. An apparatus for recognizing the riding position of a vehicle driver according to any one of claims 1 to 3, wherein the image detection means comprises a two-dimensional solid-state image sensor. 5. The device for recognizing the riding position of a vehicle driver according to claims 1 to 4, wherein the three-dimensional position of the vehicle driver recognized by the image processing means is the position of the vehicle driver's eyes.
JP20110384A 1984-09-25 1984-09-25 Device for recognizing riding position of vehicle driver Pending JPS6177706A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20110384A JPS6177706A (en) 1984-09-25 1984-09-25 Device for recognizing riding position of vehicle driver

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20110384A JPS6177706A (en) 1984-09-25 1984-09-25 Device for recognizing riding position of vehicle driver

Publications (1)

Publication Number Publication Date
JPS6177706A true JPS6177706A (en) 1986-04-21

Family

ID=16435447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20110384A Pending JPS6177706A (en) 1984-09-25 1984-09-25 Device for recognizing riding position of vehicle driver

Country Status (1)

Country Link
JP (1) JPS6177706A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5218387A (en) * 1990-05-21 1993-06-08 Nissan Motor Co., Ltd. Eye position detecting apparatus
US5293427A (en) * 1990-12-14 1994-03-08 Nissan Motor Company, Ltd. Eye position detecting system and method therefor

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54143166A (en) * 1978-03-15 1979-11-08 Hitachi Ltd Illumination light detector

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54143166A (en) * 1978-03-15 1979-11-08 Hitachi Ltd Illumination light detector

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5218387A (en) * 1990-05-21 1993-06-08 Nissan Motor Co., Ltd. Eye position detecting apparatus
US5293427A (en) * 1990-12-14 1994-03-08 Nissan Motor Company, Ltd. Eye position detecting system and method therefor

Similar Documents

Publication Publication Date Title
JP5045212B2 (en) Face image capturing device
CN100472322C (en) Front image taking device
CN100413324C (en) On-vehicle night vision camera system, display device and display method
US8953840B2 (en) Vehicle perimeter monitoring device
US20160063334A1 (en) In-vehicle imaging device
US10965878B2 (en) Vehicle illumination system and vehicle
CN101130353A (en) Photographing system, vehicle occupant detection system, operation device controlling system, and vehicle
US20110035099A1 (en) Display control device, display control method and computer program product for the same
JPH0976815A (en) Auxiliary device for driving operation
KR20220016056A (en) Image recognition apparatus and image recognition method
KR20130013711A (en) Auto mirror control device and method thereof
JPS6185238A (en) Video apparatus for vehicle
JPS60179357A (en) Car actuator controller
JPS6166906A (en) Recognizing device for vehicle driver position
JPS6177706A (en) Device for recognizing riding position of vehicle driver
JPS6166905A (en) Position of vehicle driver recognizing device
JP3019654B2 (en) Automatic adjustment device
JP3296119B2 (en) Gaze direction measuring device for vehicles
JP3201037B2 (en) Driver photography device
JPS6184509A (en) Identifying device for vehicle driver
JPS6159203A (en) Position recognizing apparatus of vehicle driver
JPS6199803A (en) Recognizing device for vehicle driver&#39;s position
CN110733408A (en) vision-based intelligent high beam algorithm
JPS6177705A (en) Device for recognizing position of vehicle driver&#39;s eyes
JPS6145911A (en) Position recognizing device for eye of vehicle driver