JPS60168066A - Seat position control device - Google Patents

Seat position control device

Info

Publication number
JPS60168066A
JPS60168066A JP59023992A JP2399284A JPS60168066A JP S60168066 A JPS60168066 A JP S60168066A JP 59023992 A JP59023992 A JP 59023992A JP 2399284 A JP2399284 A JP 2399284A JP S60168066 A JPS60168066 A JP S60168066A
Authority
JP
Japan
Prior art keywords
driver
seat
image
dimensional
light emitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP59023992A
Other languages
Japanese (ja)
Inventor
Hidehiko Akatsuka
赤塚 英彦
Genichi Yamada
山田 元一
Hiroshi Ishikawa
浩 石川
Takashi Kurahashi
崇 倉橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
NipponDenso Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NipponDenso Co Ltd filed Critical NipponDenso Co Ltd
Priority to JP59023992A priority Critical patent/JPS60168066A/en
Publication of JPS60168066A publication Critical patent/JPS60168066A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Seats For Vehicles (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PURPOSE:To adjust automatically to an ideal seat position, and to promote safe driving by recognizing the position of a vehicle driver as a three-dimensional position by a picture. CONSTITUTION:Light is irradiated to a vehicle driver by a light emitting means (a). The reflected light from the driver is detected as picture information by a picture detecting means (b) placed in a slanting front of a driver's seat. Also, the position of the driver moves only in the forward and backward, and upper and lower directions of the driver's seat; and based on a two-dimensional picture detected by the means (b), a recognizing means (c) recognizes a three-dimensional position of the driver in a car room. Based on this three-dimensional position, an adjusting means (d) controls the position of the seat.

Description

【発明の詳細な説明】 [技術分野1 本発明は、車両運転者の位置を認識する座席位置制御装
置装置に関し、特に1つの2次元画像から運’I’/l
との小室内にa3りる3次兄ii1賀を認識し座1/+
5位問を自動調整する座席位置制御装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field 1] The present invention relates to a seat position control device that recognizes the position of a vehicle driver.
Recognizes A3 Riru 3rd brother II 1 Ka in the small room with Z1/+
This invention relates to a seat position control device that automatically adjusts the 5th place question.

[従来技術J 従来、例えば車間v1離検出装置あるいは後方の障害物
を検出するバックソナー等、車外の物体を)iγ識りる
ことにJ:す、乗員の目の補助役割を果たし、安全運転
を確保する装置が開発されてきた。
[Prior art J: Conventionally, for example, a distance detection device or a back sonar that detects obstacles behind the vehicle is used to detect objects outside the vehicle. Devices have been developed to ensure this.

ところで、近年、安全運転確保の見地から自動中等の車
両における操作性の向上が強くめられるようになり、運
転者にとって良好な座席位置のIM lj f’L 、
快適性を実現する要素、例えば、バックミラーの角反調
整やエアコン吹出口の方向の調整。
Incidentally, in recent years, from the viewpoint of ensuring safe driving, there has been a strong emphasis on improving the operability of vehicles such as automatic vehicles.
Elements that provide comfort, such as adjusting the angle of the rearview mirror and adjusting the direction of the air conditioner outlet.

チルトハンドルのハンドルの高さの調整あるいはヘッド
レストの高さの調整など各種装備装置の調整を個々の運
転者に合わせて自動的に行うものが望まれるに至ってい
る。
It has become desirable to be able to automatically adjust various equipment such as adjusting the height of a tilt steering wheel or adjusting the height of a headrest to suit each driver.

ER明の目的J イこで、本発明は、特に座席位置に関し−(為されたも
ので、車両運転者の位置を画像により3次元位置として
IIるという従来にない発想に阜づき、好適な座席位置
に自動調整し、安全運転を促進りる座席位置制御装置を
提供リ−ることを目的としくいる。
OBJECT OF ER MARK J Here, the present invention has been made, particularly with respect to the seat position, and is based on the unprecedented idea of determining the position of a vehicle driver as a three-dimensional position using an image, and provides a suitable method. The purpose is to provide a seat position control device that automatically adjusts the seat position and promotes safe driving.

[発明の構成] かかる目的を達成りるための本発明の構成tit、第1
図の基本的構成図に示す如く、 車両運転者に光を照射づる発光手段aと、運転席の斜め
nFr方に配置され、前記元)七手段aの照射による前
記車両運転者からの反射光を画像情報どして検知する画
像検出手段すと、前記車両運転者の位置が、前記運転席
の前後・上下方向のみに移動づると見なりことにより、
前記画像検出手段すにて検知された2次元画像に1;【
づいて、車室内における運転者の3次元位置を認識する
認識1段Cと、 詠認識丁段Cにて認識された車両運転者の3次元位置に
基づいて座席の位置を制御する座席位置調整手段dと、 を備えたことを特徴とする座席位置制御装置を要旨とし
ている。
[Configuration of the Invention] Configuration of the present invention to achieve the above object, first
As shown in the basic configuration diagram in the figure, there is a light emitting means a that irradiates light to the vehicle driver, and a light emitting means a that is disposed diagonally toward the driver's seat and reflects light from the vehicle driver due to the irradiation of the means a. When the image detection means detects the vehicle driver using image information, it is assumed that the position of the vehicle driver moves only in the longitudinal and vertical directions of the driver's seat.
1 to the two-dimensional image detected by the image detection means; [
Then, there is a recognition stage C that recognizes the driver's three-dimensional position in the vehicle interior, and a seat position adjustment that controls the seat position based on the three-dimensional position of the vehicle driver recognized by the recognition stage C. The gist of the present invention is a seat position control device characterized by comprising means d.

[実施例J 以下に本発明を、実施例を挙げて図面と共に説明りる。[Example J The present invention will be explained below by giving examples and referring to the drawings.

本実施例は、本発明が自動中用に適用されIQ実施例で
ある。第2図、第3図は本実施例の光学系1の車室内へ
の取付図である。本実施例の光学系1は、発光手段と画
像検出手段に相当する。
This embodiment is an IQ embodiment in which the present invention is applied to an automatic medium. FIGS. 2 and 3 are views of how the optical system 1 of this embodiment is installed in the vehicle interior. The optical system 1 of this embodiment corresponds to a light emitting means and an image detecting means.

図において光学系1から照射する光が、運転者2の頭部
の存在づる蓋然性の高い範囲を照射し得る位置に光学系
1は設けられる。
In the figure, the optical system 1 is installed at a position where the light emitted from the optical system 1 can irradiate an area where the head of the driver 2 is highly likely to be present.

本実施例では図示せぬ助手席の乗員に、照射7る光が遮
られない様に、助手席左上の取付けが曲中41位置、例
えば中室内の角に、光学系1は、ポル1−・ナラ1〜等
で固定されている。3はステアリング、4は運転JM’
;、5は中休、6はステアリング3の中心ど、運転席4
の中心を通る中心線(゛ある。
In this embodiment, the optical system 1 is installed at the position 41 in the upper left of the passenger seat, for example, in a corner of the middle compartment, so that the light irradiated to the front passenger seat (not shown) is not blocked.・It is fixed at oak 1~ etc. 3 is steering, 4 is driving JM'
;, 5 is the middle rest, 6 is the center of the steering wheel 3, driver's seat 4
The center line passing through the center of

ここで、iliの前後方向、即ち、中心線6h向を×方
向、左右り向をy方向、上下方向をZh向とする。
Here, the front-rear direction of ili, that is, the direction of the center line 6h, is the x direction, the left-right direction is the y-direction, and the up-down direction is the Zh direction.

次に第4図、第5図は前述した光学系1の構成図である
。第4図は光学系1の平面図、第5図は光学系のX−X
断面図を表す。図において円筒形のホルダ10の中心軸
に合致させて、レンズ11がホルダ10に接着剤等で固
定され、レンズ11ど同様、レンズ111・部に画像検
出手段どしての2次元固体撥像素子12が接着剤等で固
定されている。2次元固体撮像素子は本実施例にては、
2次元電荷FY’j合索′:r−(二次元CCD )が
採用されている。ホルダ10は、ケース13に接着剤又
はねじ庄め等で固定されている。発光手段としての補助
照明用の発光素子14a〜14hは、略円筒形に形成さ
れ、ホルダ10の中心軸と平行に、ホルダ10,2次元
固体撮像素子12から所定間隔をおいて、ケース13に
対し接着剤又はねし止め等で・固定されかつ、8ヶ周設
されている。これは均雪−に光を運転者2に照射するた
めである。
Next, FIGS. 4 and 5 are configuration diagrams of the optical system 1 described above. Figure 4 is a plan view of optical system 1, Figure 5 is the X-X of the optical system.
Represents a cross-sectional view. In the figure, a lens 11 is fixed to the holder 10 with an adhesive or the like so as to match the central axis of the cylindrical holder 10, and like the lens 11, a two-dimensional solid image repellent element as an image detection means is attached to the lens 111. The child 12 is fixed with adhesive or the like. In this example, the two-dimensional solid-state image sensor is
A two-dimensional charge FY'j combination': r- (two-dimensional CCD) is employed. The holder 10 is fixed to the case 13 with adhesive or screws. The light emitting elements 14a to 14h for auxiliary illumination as light emitting means are formed in a substantially cylindrical shape, and are attached to the case 13 at a predetermined distance from the holder 10 and the two-dimensional solid-state image sensor 12, parallel to the central axis of the holder 10. On the other hand, it is fixed with adhesive or screws, etc., and is provided around 8 times. This is to irradiate the driver 2 with light on even snow.

そして、この発光素子14a〜14hは、高輝111型
赤外発光ダイA−ドが使用されている。発光^了14゛
a〜1411は、複数本のリード線15を介して光学系
制fi11回路16に接続され、2次元固体囮像累了1
2は、リード線17を介して光゛学系制御回路16に接
続されている。この光学系制御回路−16は、412述
りる演算制御手段から画像読み出し開明信号を入ツノし
、2次元固体眼像素子120画像データを部枠制911
回路へ出力する。また、ツを光素子14a−・14hを
駆動づるための駆動電流の人ささを制御する駆動制御信
号を、リード線15を介して発光素子14a〜14.h
へ出力する。
As the light emitting elements 14a to 14h, high brightness 111 type infrared light emitting diodes are used. The light emitting lights 14'a to 1411 are connected to the optical system control fi 11 circuit 16 via a plurality of lead wires 15, and are connected to the optical system control fi 11 circuit 16 to produce a two-dimensional solid-state decoy image.
2 is connected to the optical system control circuit 16 via a lead wire 17. This optical system control circuit 16 receives an image readout signal from the arithmetic control means described in 412, and outputs the image data of the two-dimensional solid-state eye image element 120 in a frame system 911.
Output to the circuit. Further, a drive control signal for controlling the intensity of the drive current for driving the light emitting elements 14a to 14h is transmitted via the lead wire 15 to the light emitting elements 14a to 14h. h
Output to.

次に第6図は、認識手段としての演算制御手段100の
ブロック図である。演算制御手段は乗員(i’/ F/
認識を行なう。101はA/D、変換器、マルヂブレク
υ等が備えられた入)〕ポート、102は中火処理部枠
装置く以下、CPUど呼ぶ。)、103はCPU102
より書き込まれたデータに従つて所定間隔ぐCPU10
2に対し、タイマ割り込みを発生させるタイマ、104
は運転者2の画像認識処理やアクチュエータを作動りる
処理プログラムを格納するリードAシリメtす、105
は画像認識処理のデータを一時的に格納り一61=めの
ランダムアクヒスメモリ(以下、!itにRAMど呼ぶ
。)、106は光学系1及び駆動回路107にfli1
7ジU信号を、IJI力する出力ポートである。
Next, FIG. 6 is a block diagram of the calculation control means 100 as the recognition means. The arithmetic control means calculates the number of passengers (i'/F/
Recognize. 101 is an input port equipped with an A/D, a converter, a multiplex brake υ, etc., and 102 is a medium heat processing section frame device, hereinafter referred to as CPU. ), 103 is the CPU 102
The CPU 10 waits for a predetermined interval according to the data written by the CPU 10.
2, a timer that generates a timer interrupt, 104
Lead A series 105 stores the image recognition processing of the driver 2 and the processing program for operating the actuator.
106 is a random access memory (hereinafter referred to as !it) that temporarily stores data for image recognition processing;
This is an output port that outputs the IJI signal.

また、107は座席調整手段としくのアクチュエータを
駆動づるアクヂュエータ駆動回路、108.109.1
10はアクヂコJ二−タ駆動回路107からの信号に基
づいて、座席の位置を調整するアクヂュ■−夕である。
Further, 107 is an actuator drive circuit that drives an actuator serving as a seat adjustment means, 108.109.1
Reference numeral 10 denotes an actuator that adjusts the seat position based on a signal from the actuator drive circuit 107.

このアクデーt 、1−一夕の作動については後に詳し
く説明する。109は入力ボート101、CPU102
、タイマ103、ROM104、RAM105、出力ポ
ート106を相豆に接続するパスライン、111はバッ
テリ112/Jllらの電源を、キースイッチ113を
介して演停制罪回路100に供給する電源回路を各々表
している。また、これらはインタフェイス回路を右して
いる。
The operation of this acquisition t, 1-overnight will be explained in detail later. 109 is an input boat 101, a CPU 102
, timer 103, ROM 104, RAM 105, and a pass line connecting the output port 106 to the output port 106. 111 is a power supply circuit that supplies power from a battery 112/Jll, etc. to the performance stop control circuit 100 via a key switch 113. represents. Also, these are the right interface circuits.

以上述べた’ex n RIJ御回路100により実行
される画像認識処理について説明する。第7図にこの処
理の制御プログラムのフローブヤートを示′1J’ 。
The image recognition process executed by the 'ex n RIJ control circuit 100 described above will be explained. FIG. 7 shows the flowchart of the control program for this process.

エンジンのキーがアクセサリ−状!(ACC)又tiL
イグニツシ]ン状態(IQ>にされるど、キースイッチ
112が閉じられ、電源回路111から必北イに電源が
イハ給され処理が1Jtl始される。詳細な処理の説明
に入る前に、まず処理の概略を説明する。1画像認識処
Jleは一般に観測、吊子化、前処理、1!を徴抽出、
識別、後処理の各処理に分は−うれる。
The engine key is like an accessory! (ACC) MatatiL
When the ignition state (IQ) is set, the key switch 112 is closed, power is supplied to the power source from the power supply circuit 111, and the process starts for 1Jtl.Before going into the detailed explanation of the process, first of all, An overview of the processing will be explained. 1. Image recognition processing Jle generally performs observation, hanging, preprocessing, 1! feature extraction,
Each process of identification and post-processing takes a lot of time.

スノップ201ないしステップ203は観測、ステップ
204.205は吊子化、ステップ206ないしステッ
プ208は画像の変換、加工等の前処理、ステップ20
9とステップ210は境界線抽出等の特徴抽出、ステッ
プ211ないしステップ214は後処理を表す。これら
の処理を行うことにより、画像認識処理が行われる。
Snopping 201 to step 203 are observation, steps 204 and 205 are hanging, steps 206 to 208 are pre-processing such as image conversion and processing, and step 20
9 and step 210 represent feature extraction such as boundary line extraction, and steps 211 to 214 represent post-processing. By performing these processes, image recognition processing is performed.

次にこの処理の詳細な説明に入る。ステップ201にd
3いては、別途設けられた処理要求信号があるか否かを
判定覆る。この処理要求信号入力手段は、図示せぬ要求
スイッチ、例えばハンドルに付設された専用スイッチで
あり、ハンドルが1う手を離さずに操作し得る。
Next, a detailed explanation of this process will be given. d in step 201
3, it is determined whether or not there is a separately provided processing request signal. This processing request signal input means is a request switch (not shown), for example, a dedicated switch attached to the handle, which can be operated without removing one's hand from the handle.

ぞしくこの処理要求がない場合はイのよま4!I機する
。一方、処理要求が入ツノボートに入力されるどCP 
U 102 Iに ili+j像認識処理を開始りる。
If you don't have this processing request, it's time 4! I will fly. On the other hand, when a processing request is input to the input boat, the CP
At U 102 I, ili+j image recognition processing is started.

まず最初にステップ203においては、CPU102内
部のレジスタ等のクリアや、パラメータのヒツトの処理
を行う。例えばRAM105の両像メ[りにストアされ
る運転者の目の位置の座標P(×。
First, in step 203, registers and the like inside the CPU 102 are cleared and parameter hits are processed. For example, the coordinates P(x) of the driver's eye positions are stored in both image memory of the RAM 105.

V、Z)のρJ期化により座標を1’)(0,0,0>
に設定覆る。
By ρJ periodization of V, Z), the coordinates are set to 1') (0, 0, 0>
Set to cover.

次のステップ203にJ3いては、出力ポート10Gを
介して発光素子1/Iを発光さUる制御信号を光学系制
御回路16に出力し、光学系1を駆動りる。発光素子1
4a〜1411は制御15号を受(〕て直ちに発光され
、運転者2に赤外光が照射される。照@された赤外光は
、運転者2に当り反射し、当該反射光は、レンズ11を
介しく2次元IN体雇(!J1素了12に取り込まれる
In the next step 203, a control signal for causing the light emitting element 1/I to emit light is output to the optical system control circuit 16 via the output port 10G, thereby driving the optical system 1. Light emitting element 1
4a to 1411 immediately emit light upon receiving control number 15, and the driver 2 is irradiated with infrared light.The emitted infrared light hits the driver 2 and is reflected, and the reflected light is A two-dimensional IN body is captured through the lens 11 (!J1 Soryo 12).

従って、レンズ11により2次元固体撮像素子12に運
転者の画像が結ばれる。2次元固体踊像素子12は当該
画像を512X400の画素に分;1.ル)る電伺結合
素r、即ら光電変換−電6u蓄槓索子より成っており、
2次元固体踊像素子12上の画像番、東、連続的な光量
を画素毎に設定された不連続イに値にするいわゆる吊子
化が行われ、素子に入射した反射光の光mに応じて光電
変換が行われた世、電荷として蓄積されてゆく。
Therefore, an image of the driver is focused on the two-dimensional solid-state image sensor 12 by the lens 11. The two-dimensional solid-state image element 12 divides the image into 512×400 pixels; 1. The electric coupling element r, which consists of a photoelectric conversion-electronic storage element,
The image number, east, on the two-dimensional solid-state dancing image element 12, so-called hanging is performed to convert the continuous light amount into a discontinuous value set for each pixel, and the light m of the reflected light incident on the element is In a world where photoelectric conversion was carried out accordingly, it was accumulated as electric charge.

続くステップ204にて前記蓄積された電荷は、画(l
(!読み出し同明信号により、左上隅より逐次走^され
、読み出されてゆくが、電荷量は読み出しから次の読み
出しまでに、2次元固体囲像素子12が受りどっlこ光
量に応じて蓄積されるので、読み出し間隔の間に素子が
受け取った光量の大きさにλ・j応しており、読み出し
順に1.1系列化されたアノ[」グ信号とし光学系制御
回路16を介して演算制ta11回路′100の入力ポ
ート101に出力される。
In the following step 204, the accumulated charges are converted to the image (l
(!The readout signal is sequentially scanned and read out from the upper left corner, but the amount of charge varies depending on the amount of light received by the two-dimensional solid-state image element 12 from one readout to the next readout.) Since the signal is stored as an anomaly signal, it corresponds to the amount of light received by the element during the readout interval, and is sent via the optical system control circuit 16 as an analog signal that is arranged in 1.1 series in the order of readout. and is output to the input port 101 of the arithmetic control ta11 circuit '100.

ぞして、入ツノボート101にて、△/D変換器により
高速でΔ/1)変換がtjわれ、ディジタル4,1号に
変換されて、6ビツトあるいは8ピツ1〜の画像情報と
し−U I’<△M105の所定上リア、(即も画像メ
モリ)にストアされる。当該画像メ玉りには、赤外光に
よつ(2j’ L/どられた1、1点での運転者2の4
−半′身を含む画像の情報が残されたことになる。この
操作を画像を固定したという意味で7リース゛ど呼ぶが
、ノリーズ後の1<ΔM 10 Eiの画像メモリ上に
は第8図(イ)に示す如き画像情報が格納されたことに
なる。
Then, in the input horn boat 101, the Δ/1) conversion is performed at high speed by the Δ/D converter, and the image is converted into digital 4.1 and converted into 6-bit or 8-bit image information. It is stored in the predetermined upper rear (immediately in the image memory) where I'<ΔM105. The image is captured by infrared light (2j'
- This means that information about the image including half the body is left behind. This operation is called 7 leases in the sense that the image is fixed, and image information as shown in FIG. 8(a) is stored in the image memory of 1<ΔM 10 Ei after the fixation.

続くスーアツブ205においては、停止I (i”’:
 8が入カポ’ ト101ht +ら光学系1へ出ツノ
され、光学系1は停止され、不必要な電力を消費しない
にうにしステップ206に移行する。
In the subsequent suture block 205, the stop I (i"':
8 is output from the input point 101ht+ to the optical system 1, and the optical system 1 is stopped to avoid consuming unnecessary power and proceeds to step 206.

ステップ206においては、ステップ204にて得られ
た画像情報の、いわゆる前処理のうらまず画像の修正・
強調を行う。画像の修正とは外乱光によるノイズを取り
除く処理である。また画像の強調処理はエッチ強調とも
呼ばれる処理であり、その処理の一例を第9図に示す。
In step 206, the image information obtained in step 204 is subjected to so-called pre-processing to correct the image.
Make emphasis. Image correction is a process of removing noise caused by ambient light. The image enhancement process is also called etch enhancement, and an example of this process is shown in FIG.

縦3×横3の画素に関し°C1中心の画素の値Pi、J
と、となり合う1つの画素の値Pi −+、 j 、 
Pi 、 j−+、Pll、1擾1、]’ i +I+
 jを加え中心の画素の値Pi。
The value of the pixel at the center of °C1 for 3 vertical x 3 horizontal pixels Pi, J
and the value of one pixel next to each other Pi −+, j ,
Pi, j-+, Pll, 1 1, ]' i +I+
j is added to the value Pi of the center pixel.

、1の4倍の値を引き、当該値を4で割り、当該値を#
i /Cな中心の画糸値1)i、jとづる。この演等を
周縁の画j+;を除く全ての画素に対して行う。これに
より明暗部が強調され第8図(ロ)に承り画FQが11
1られスyツブ207へ移行する。
, subtract 4 times 1, divide the value by 4, and divide the value by #
i/C center drawing thread value 1) Spell i, j. This operation is performed for all pixels except the peripheral picture j+;. As a result, the bright and dark areas are emphasized and the image FQ is 11 as shown in Figure 8 (b).
1 and moves to the sub 207.

ステップ207′においては、前述ステップ206にて
4!7られた画像を設定された値で2値化する処理が1
jわれる。ここC12値化の処理とは、画像が持つ濃淡
、即ち6ビツトあるいは8ビツトの階調の情報に対して
、所定のレベル(スレッショルドレベル〉を設定して比
較を行い、上記レベルJ、りも濃い部分を黒、即ちrO
Jレベルに、上記レベルよりも淡い部分を白、即ち「1
」レベルに、敢然と分離する処理である。澗い部分は2
次元固体囮像素子12において電荷があまり蓄積されな
かった部分であり、淡い部分は電荷が充分になされ1.
:部分である。こうして、画像は1.0レベルに分かれ
、第8図(ハ)に承り如き画像が10られる。
In step 207', the process of binarizing the image obtained by 4!7 in step 206 with the set value is carried out in 1
I will be attacked. Here, C1 binarization processing involves setting a predetermined level (threshold level) for the gradation information of the image, that is, 6-bit or 8-bit gradation information, and comparing it. The dark part is black, i.e. rO
At the J level, the part that is lighter than the above level is white, i.e. "1".
This is a process that boldly separates the two. The dark part is 2
1. These are the parts of the dimensional solid-state decoy image element 12 where little charge has been accumulated, and the pale parts are where the charge has been sufficiently accumulated.1.
:It is a part. In this way, the images are divided into 1.0 levels, and 10 images as shown in FIG. 8(c) are obtained.

尚、2 fffj化された後の画像は、211rl化の
前記判定レベルをどこに取るかぐ変化J゛るが例えば液
晶絞り索子を2次元固体踊像索子12十により、入射す
る光重を調節して、運転者の顔を自レベルどし、費用を
黒レベルとJるような判定レベルを設定してJ3<こと
は容易である。
Note that the image after being converted to 2ffj may be changed depending on the determination level of the 211rl conversion, but for example, the weight of incident light may be adjusted by changing the liquid crystal aperture element to a two-dimensional solid-state dancing element 120. It is easy to set a judgment level such that the driver's face is at the self level and the cost is at the black level.

続くステップ208においては、前述ステップ207に
で2値化された画像の境界線を細線化する。この処理は
、第8図(ハ)にお【プる黒い部分の中心をめてゆくこ
とにより、容易に実現され、第8図(ニ)に承り如き画
像が得られ、ステップ209へ移行Jる。
In the following step 208, the boundary line of the image binarized in step 207 is thinned. This process can be easily realized by focusing on the center of the black part shown in FIG. 8(c), and an image as shown in FIG. Ru.

ステップ209にJ3いては、前述ステップ208にて
得られIζ画像に対し、画像の左ト隅から横方向にスキ
ャニングを行い、画像の上部にて図示する如きXが最小
かつ接線の傾きが垂直である点の検出を行う。この場合
、縦方向からスキャニングしても良い。また、赤外光を
斜め一トから照(ト)する為弗の位置が位置特定のため
には一番良好であり、検出精度が^い。また本実施例で
はパータン認識のいわゆる形が何であるかの識別処理を
する11.1間はなく、複雑なアルゴリズムは処理時間
との、litね合いも−あり採用されず、簡単な特徴抽
出が行われているが、所定の条件により、例えばめがね
があるとか髪の毛が長いとかの条件では、複雑な特徴抽
出処理につづいて、識別処理を行っても良い1.こうし
て、運転者の画像から周囲とその性質を異にする部位(
この場合は轟)を特異点として検出Jる。
In step 209, J3 scans the Iζ image obtained in step 208 in the horizontal direction from the left corner of the image, and at the top of the image, as shown in the figure, X is minimum and the slope of the tangent is vertical. Detect a certain point. In this case, scanning may be performed from the vertical direction. In addition, since the infrared light is illuminated diagonally from the top, the position of the cross is the best for pinpointing the position, and the detection accuracy is high. In addition, in this embodiment, there is no time for identifying the so-called form of pattern recognition, and a complicated algorithm is not adopted due to the trade-off with processing time. However, depending on predetermined conditions, such as wearing glasses or having long hair, identification processing may be performed following complex feature extraction processing.1. In this way, from the driver's image, parts (
In this case, Todoroki) is detected as a singular point.

続くステップ210においては、前記特異点の画像メモ
リ上の2次元座標x、Zの値がめられる。、このf+標
から、車室内の目の3次元位置の座標をめる。即ち、光
学系1の位置が固定されていることから、予めROM1
04に格納された口木人の鼻と目の距離の平均値に基づ
いて演算し、[1の位置の座標がめられる。
In the following step 210, the values of the two-dimensional coordinates x and Z of the singular point on the image memory are determined. , from this f+ mark, calculate the coordinates of the three-dimensional position of the eye inside the vehicle. That is, since the position of the optical system 1 is fixed, the ROM 1
The coordinates of the position of [1] are calculated based on the average value of the distance between the nose and the eyes of the mouthpiece person stored in 04.

第10図は、車室内の運転者の目の3次元位置を示しく
いる。2528は原点を表し、252bは移yJJ後の
目の3次元位向を表している1、第11図は演Q処理後
の画像メモリのイメージ250を表している。2520
は画像十での原点であり、252dは画像メモリ上で、
移動した後の目の位置を示している。したがつ−C’ 
252 aど2520 +252bと2520とはそれ
ぞれ1対1に対応している。
FIG. 10 shows the three-dimensional position of the driver's eyes inside the vehicle. 2528 represents the origin, 252b represents the three-dimensional position of the eye after the movement yJJ, and FIG. 11 represents the image 250 in the image memory after the operation Q processing. 2520
is the origin in image 10, 252d is on the image memory,
It shows the position of the eyes after moving. Gatatsu-C'
252a, 2520, +252b and 2520 have a one-to-one correspondence, respectively.

ここで、運転者2はステアリングご〕ど運転JllS 
’1とににす、横方向、即ちy軸の動きが制限される、
つまりy軸り向の動きが小さいものど考えられるため、
中心線6上を含み、座席を中心として空間を左右に分(
)る面(X−Z平面)にある、つまり運転席の前後・上
下方向のみに移動Jると見なすことができる。したがっ
て、部枠処理後の画像メモリのイメージ250による運
転者2の目の位置302dはメモリの原点302Cから
の座標(×1.2+)でめられるため、結局運転者の目
の3次兄的位置P (X 、 0.、 z )をめるこ
とができる。
Here, driver 2 is driving the steering wheel.
'1, the movement in the lateral direction, i.e. the y-axis, is restricted;
In other words, since the movement in the y-axis direction is considered to be small,
Divide the space to the left and right with the seat at the center, including on the center line 6 (
), that is, the driver's seat can be considered to move only in the longitudinal and vertical directions. Therefore, since the position 302d of the eyes of the driver 2 according to the image 250 of the image memory after frame processing is determined by the coordinates (×1.2+) from the origin 302C of the memory, the position of the eyes of the driver 2 is determined by The position P (X, 0., z) can be set.

続くステップ211においては、前述ステップ210に
て40られた運転者の目の3次元位ff1P−(X、’
O,Z)と前回の処理にてめられた運転との11の座標
1〕′(X −、O,z ′)との距#111〕−川〕
′1、即ち X−X ”)’−)−(Z −Z ′)’
を演伜りる。つまり、運転者2の×l平面上での動きを
演t1する。
In the following step 211, the three-dimensional position ff1P-(X,'
Distance #111]-river between coordinates 1]' (X -, O, z') and the operation determined in the previous process
'1, i.e. X-X '')'-)-(Z -Z')'
I'm going to perform it. In other words, the movement of the driver 2 on the xl plane is calculated t1.

ステップ212においては、IP−PMの値が、設定値
以上か否かを判定し、I P−P” lが設定f+I’
を以−[と判定されたならば、ステップ213へ移(j
し、lI〕−P−1が設定値より小さいと判定されたな
らば、ステップ214へ移行づ゛る。このステップは、
目の位置が小刻°みに動くのにつれ(、)7クヂーlエ
ータと車両装備が小刻みに動くことにより、走行フィー
リングが悪くなるのを防止りるため設けられている。
In step 212, it is determined whether the value of IP-PM is greater than or equal to the set value, and I
If it is determined that
However, if it is determined that lI]-P-1 is smaller than the set value, the process proceeds to step 214. This step is
This is provided to prevent the driving feeling from worsening due to the gradual movement of the engine and vehicle equipment as the position of the eyes moves gradually.

そして、IP−PMが設定値以上と判定され/、:11
合に処理されるステップ213においては、Pの値に基
づいて・、アクチュエータ108の駆動Ii(を演いし
、アクチュエータ駆動間始路107を介して、出力ボー
ト106からアクチュエータ1O8へ駆動信号が出)J
され、アクチュエータ108が駆動され、ステップ21
/lへ移行する。
Then, IP-PM is determined to be equal to or higher than the set value/:11
In step 213, the actuator 108 is driven based on the value of P, and a drive signal is output from the output boat 106 to the actuator 1O8 via the actuator drive start path 107. J
The actuator 108 is driven, and step 21
/l.

ステップ212にて、I P−P′lが設定値より小さ
くアクヂコ上−夕108を駆動づる必要がない旨判定さ
れた場合、あるいは、ステップ213のアクテコ1−タ
駆動処理の後、処理が行われるステップ214において
は、スー)−ツ/201にて行われたと同様に、最終的
に、処理要求があるか否かを再び判定し、処理要求がd
する旨判定された場合には、ステップ203に戻り、再
度画像認識のループ処1!l!を行う。1回のループ処
J11!にて、運転者の3次元位首データが1つ演のさ
れ、当該演tl f+f+に基づい′C運転者2の目の
位置の動きを検出し、目の位置の変化に従って、目の位
置が運転に好適な位置となるようアクチュエータが駆動
されこのアクチュエータによりパワーシー1−が駆動さ
れる。こうして処理要求がある限り、繰り返しループ処
理が行われる。また、処理要求がない旨判定された場合
は、木ルーチンの処理を終了する。
If it is determined in step 212 that I P-P'l is smaller than the set value and there is no need to drive the actuator 108, or after the actuator drive process in step 213, the process is performed. Finally, in step 214, it is determined again whether or not there is a processing request, in the same way as was done in the suite 201, and if the processing request is d.
If it is determined to do so, the process returns to step 203 and the image recognition loop process 1! l! I do. One loop J11! , the driver's three-dimensional position data is performed, and the movement of the eye position of the 'C driver 2 is detected based on the performance tl f+f+, and the eye position is determined according to the change in the eye position. The actuator is driven to a position suitable for operation, and the power seat 1- is driven by this actuator. In this way, as long as there is a processing request, loop processing is performed repeatedly. Further, if it is determined that there is no processing request, the processing of the tree routine is ended.

次に上記パワーシート調整に関して第12図ないし第1
5図に具体例を挙げて説明りる。第12図番よ1−下、
前後に調整可能にパワーシート300aの模式図を示づ
−。パワーシート300 aはアクf−ユ1−タ108
,109及び110を内蔵している。108,109は
専用スイッチにより作動量’l(1i−る。また110
は他の専用スイッチにより1tiFIl聞始づる。そこ
(゛・、まヂアクブコ■−タ108.109について説
明し、アクチュエータ110につい(は後に述べること
にづる。
Next, regarding the above power seat adjustment, see Figure 12 or 1.
This will be explained using a specific example in FIG. Figure 12, number 1-bottom.
A schematic diagram of a power seat 300a that can be adjusted forward and backward is shown. Power seat 300a is actuator 108
, 109 and 110 are built in. 108 and 109 are operated by a dedicated switch. Also, 110
is started by another dedicated switch. There, the magic actuator 108 and 109 will be explained, and the actuator 110 will be described later.

まずステアリングの内側に装備された専用スイツブーを
運転者がオンすることによりパワーシート300 a調
整は開始される。運転者が乗車した時、運転者はステア
リングを持ったままの状態で専用スイッf−をオンでき
る。そして、例えばパワーシー1〜300tlを前に移
動させたい時は、頭を前に移動させる。そうすると乗員
位置認識システムは、これを検知してアクチュエータ1
08を駆動させパワーシート300aを図中F方向に移
動させる。
First, the adjustment of the power seat 300a is started when the driver turns on a special switch boot installed inside the steering wheel. When the driver gets in the car, he can turn on the dedicated switch f- while holding the steering wheel. For example, when you want to move the power sea 1 to 300 tl forward, you move your head forward. Then, the occupant position recognition system detects this and activates actuator 1.
08 to move the power seat 300a in the direction F in the figure.

パワーシート300aを後方に移動さ「たい時は、頭を
後方に移動させれば、パワーシート300aは図中13
方向に移動される。
If you want to move the power seat 300a backwards, just move your head backwards and the power seat 300a
direction.

またパワーシート300 aを上昇させたい時は、伸び
をし0頭を」二に移動さける。そう覆ると乗員位置認識
システムはこれを検知してアクヂュ■−タ109を駆動
させ、パワーシー1−3008は図中U方向に移動され
る。パワーシート300aを下降さIい11.′14よ
、頭を上げc頭を士に移動さUる。
Also, when you want to raise the power seat 300a, extend it and move it to the 2nd position. When it is covered, the occupant position recognition system detects this and drives the actuator 109, and the power seat 1-3008 is moved in the U direction in the figure. Lower the power seat 300a11. '14, raise your heads and move your heads.

そうすると、乗員位置認識システム(よごれを検知し−
CアクヂュI−タ109を駆動させパワーシー1−30
08は図中り方向に移動される。シート位置の調整が終
了した時は運転者が専用スイッチをA7覆れば処理は終
了し、個々の運転者に好3aなシート位置が設定できる
Then, the occupant position recognition system (detects dirt and
Drive the C actuator I-109 and power seat 1-30
08 is moved in the direction shown in the figure. When the adjustment of the seat position is completed, the driver presses the dedicated switch A7 to complete the process, allowing each driver to set a preferred seat position.

こうして運転者はステアリングを持ったままの状態でシ
ート調整が可能1j /こめ、運φl3者番よシート調
整の煩しさから開放される。尚、運転者以外の乗員がそ
の乗0のシートを移動させたいときは、専用スイッチを
設け、このスイッチを操作づれば最適座席位置に調整し
45するようにしても良い。
In this way, the driver can adjust the seat while holding the steering wheel, which relieves the driver from the trouble of adjusting the seat. Incidentally, when a passenger other than the driver wishes to move his or her seat, a dedicated switch may be provided and the seat position may be adjusted to the optimum position by operating this switch.

次に第13図に前端部上下、前後調整可能なパワーシー
ト300bの構造図を示づ一0第12図に示1Jパワー
シート300aは上下、前後調整可能であるが、本パワ
ーシート300bは第14図(イ)、(ロ)に示す如く
前後、前端部上F調整可能としている。まず第13図の
アクチュエータ108.1’09に相当づる駆動部30
0b 1の構)1〜図に−)い(説明りる。アクブーユ
J−タ駆動回路107からの駆動信号により駆動部30
0b+のし一タ301が回転りると、モータ301の回
転がつA−ムギt7302及び1〜ルクケーブル303
にJ、つてつA−ムギAア304に伝達される。そして
1〜ルクケ一ブル303両側のつA−ムギャ302.3
0,1はロワーレール305に固定されているため、ス
ライドスクリ1306,307が前後に移動し、これに
噛合されているアッパーレール308はロワーレール3
05に対して前後に動く。
Next, FIG. 13 shows a structural diagram of a power seat 300b whose front end can be adjusted vertically and longitudinally.The 1J power seat 300a shown in FIG. As shown in Figures 14(a) and 14(b), front and rear and front end upper F can be adjusted. First, the drive section 30 corresponds to the actuator 108.1'09 in FIG.
Structure of 0b 1) 1 to -) (Explanation) The drive section 30 is
When the 0b+ shifter 301 rotates, the motor 301 rotates.
304. And 1~Luke 1 Bul 303 both sides A-Mugya 302.3
0 and 1 are fixed to the lower rail 305, the slide screws 1306 and 307 move back and forth, and the upper rail 308 that is meshed with them moves to the lower rail 3.
Moves back and forth relative to 05.

しICがって第14図(イ〉に示づ如くパワーシー1〜
300bは前後に駆動される。
Then, as shown in Figure 14 (a), power seams 1 to 1
300b is driven back and forth.

次にアクチー1. I−夕駆動回路107からの駆動’
h”: ¥3により駆動部300t)+のモータ310
が回転すると、モータ310の回転がつs−bギア31
1に伝えられる。スライドスクリュ307はアッパレー
ル308に固定されているため、つA −ムギャ311
仝休がアッパレール308に対して前後に移動りる。ま
たウオームギA7311はバーチカルロッド312に固
定されIこリンク313に゛回転自由に連結されている
ため、ウオームギ曳7311の前後の動きは、リンク3
13を介して、バーデカルロッド312を回転させる。
Next, Akchi 1. I-Drive from evening drive circuit 107'
h”: Drive unit 300t) + motor 310 by ¥3
When the motor 310 rotates, the s-b gear 31 rotates.
1 can be conveyed. Since the slide screw 307 is fixed to the upper rail 308, the A-mgya 311
The rest moves back and forth with respect to the upper rail 308. Also, since the worm gear A7311 is fixed to the vertical rod 312 and rotatably connected to the I-coupled link 313, the back and forth movement of the worm gear puller 7311 is controlled by the link 313.
13, the bar decal rod 312 is rotated.

そしてリンク314はバーブ−カルロッド312に固定
されているため同様に回転1゛る。これにより、シート
クッションに固定されIこリンク314は上下に動く、
J、って、固定されCいるシートクツシコン後端のヒン
ジ支点315を中心として上下に移動づる。
Since the link 314 is fixed to the barb-cal rod 312, it similarly rotates 1°. As a result, the I-link 314 is fixed to the seat cushion and moves up and down.
J and C move up and down centering on the hinge fulcrum 315 at the rear end of the fixed seat cushion C.

しlcがつC第14図(ロ)に示覆如くパワーシート3
001)の前端部は上下に駆動される。
Power seat 3 as shown in Figure 14 (b)
001) is driven up and down.

次に第15図(イ)にリクライニング装置300dの模
式図、第15図(ロ)にリクライニング装置300dの
(幾構部300eの構造図を示す。
Next, FIG. 15(a) shows a schematic diagram of the reclining device 300d, and FIG. 15(b) shows a structural diagram of the geometrical portion 300e of the reclining device 300d.

この(幾構部300eはIクチコエータ110に当る1
)のである。リクライニング装置Ff 300 dは乗
(1位置認識システムにより制御されるよう構成され(
d3す、ステアリングに専用スイッチを設けることによ
り制御される。専用スイッチをオンづるど、運転者の目
の位置に従ってリクライニング装置N300 (lは動
いてゆく。例えば頭をうしろへ移動すると図中「方向へ
移動し、頭を前へ移動づると回申トh向へ移動づる。そ
して移動しおわったイ1らC[、専用スイッチをオフで
ればにい。
This geometrical part 300e corresponds to the I cuticoator 110.
). The recliner Ff 300 d is configured to be controlled by a position recognition system (
d3 is controlled by providing a dedicated switch on the steering wheel. When you turn on the special switch, the reclining device N300 (l) moves according to the position of the driver's eyes.For example, when you move your head backwards, it moves in the direction shown in the figure, and when you move your head forward, it moves in the direction shown in the figure. Move in direction H. After moving, turn off the dedicated switch.

次に第15図(ロ)のリクライニング装dの機構部30
0 cの構造図について説明する。まず、j+7用スイ
ッチがオンされると、モータ320のギ\1321が回
転し、これに噛合されているアウタ側コネクテイングギ
ャ322も回転づる。このコネクjイングギ\7322
と77ウタ側ヒンジビン323はセレーションにより連
結されており、ヒンジピン323が回転し、二]ネクテ
イングパイプ324にJ:リインナ側リクライニングに
も回転が伝達される。
Next, the mechanism part 30 of the reclining device d in FIG. 15(b)
The structural diagram of 0c will be explained. First, when the j+7 switch is turned on, the gear 1321 of the motor 320 rotates, and the outer connecting gear 322 meshed with it also rotates. This connection j Ingi \7322
and 77 outer side hinge pin 323 are connected by serrations, the hinge pin 323 rotates, and the rotation is also transmitted to the connecting pipe 324 and the inner side reclining.

そしC、ヒンジピン323はシートバック325、シー
トクッション326とは滑りながら回転づる。また外歯
ギヤ327はシートクッション326に固定されくいる
ため、シー1〜バツク325側の内歯ギA7328は偏
心を軸に回転する。
C. The hinge pin 323 rotates while sliding on the seat back 325 and seat cushion 326. Further, since the external gear 327 is fixed to the seat cushion 326, the internal gear A7328 on the sea 1 to back 325 side rotates eccentrically.

このJ、94にパワーシー1−300a 、300b 
This J, 94 has power sea 1-300a, 300b
.

リクライニング装置300 dを使用し、運転者2の目
の位置に応じで、そのアクチュエータを制御づれば、い
ちいち座席を手で調整Jる煩しさがイ1く、良好な視界
が得られる。
If the reclining device 300d is used and the actuator is controlled according to the position of the driver's eyes, the hassle of having to manually adjust the seat each time is eliminated and a good field of vision can be obtained.

以上詳述した如く、本実施例が4歯成されていることに
J:す、運転中は、運転者2は、ステアリング3ど運転
席4によりy軸方向の動きが少なく、×−7平面上に運
転者2の位置がある、つまり運転席の前後・上下方向に
のみに移動すると見なづ首を3次元的に認識し暫する。
As detailed above, the present embodiment has four teeth.During driving, the driver 2 has little movement in the y-axis direction due to the steering wheel 3 and driver's seat 4, and The position of the driver 2 is above the driver's seat, that is, the driver's neck is recognized three-dimensionally and the driver's neck is recognized three-dimensionally, without assuming that the driver is moving only in the front-rear, up-down direction of the driver's seat.

の反射光を1つの2次元固体踊像素子(2次元CCI)
>12によって画像として検知し、該画像情報により運
転者の目の2次元位置を認識し、これより運転者の11
の3次元位置を認識している。このように、運転者2の
目の位置をめることがでさる/、:め、運転者の実際の
33次元位1rjをiiJ瓜良く、知ることができる。
One two-dimensional solid-state dancing image element (two-dimensional CCI)
>12 is detected as an image, the two-dimensional position of the driver's eyes is recognized from the image information, and from this the driver's 11
The three-dimensional position of the object is recognized. In this way, by determining the position of the driver's 2 eyes, the driver's actual 33-dimensional position 1rj can be known very precisely.

このため、ひとりひとり異なる運転者2の身長15運転
育2のX−Z平面下での動きに左右されることなく、運
転者2の実際の3次元位置を正確に把11ゾし、111
室内の運転者2の3次元位置に従って、ノ?クヂュエー
夕を駆動できる。
Therefore, the actual three-dimensional position of the driver 2 can be accurately grasped 11 and 111 without being affected by the height 15 of the driver 2, which varies from person to person, and the movement under the X-Z plane.
According to the three-dimensional position of driver 2 in the room, No? Can drive the quay.

よって運転者の個人差に合せて座席位置の調整を自OJ
的に行い最適位置に設定できる。このように個々の運転
者に応じて良好な座席位置の操作性を実現することが可
能となる。したがって、運転者をこれらアクチコエータ
操作の煩しさから解放りるといった効果を奏する。
Therefore, OJ can adjust the seat position according to individual differences between drivers.
It can be set to the optimum position. In this way, it is possible to realize good operability of the seat position depending on the individual driver. Therefore, the driver is freed from the trouble of operating these acticoators.

また、運転者前方の視界を良好にし、安全運転を促進す
ることが可能となる。例えば、第16図に示す如く、シ
ートの前後位置により安全運転に必要な前りの視界を確
保IJるための[Iの高さは、シー十が後方になるほど
より高さが必要である。
Furthermore, it is possible to improve the visibility ahead of the driver and promote safe driving. For example, as shown in FIG. 16, the height of I in order to ensure the forward visibility necessary for safe driving depending on the front and back position of the seat needs to be higher as the seat is farther back.

そこC第17図に示J如く、アクヂコエータを作lj)
させることにより、シート高さを調整すると、運転者の
1」の位;r1゛は35 E3から3359へ移動し、
これに従って近視点も360から361へ移動するため
、前方の安全を確保することができる。
Then, make an actuator as shown in Figure 17)
When the seat height is adjusted by
Since the near point also moves from 360 to 361 in accordance with this, safety in front can be ensured.

そして、2次元固体囮像素子12を用いているため、従
来のl1ii像管と較べて検出部を小型化することがで
き、可動部がないIごめ、耐振動f1に優れてa3す、
車両j!載用として高い信頼性を実現することができる
Since the two-dimensional solid-state decoy image element 12 is used, the detection unit can be made smaller compared to the conventional III image tube, and it has no moving parts and has excellent vibration resistance f1.
Vehicle j! It is possible to achieve high reliability for practical use.

尚、本実施例にかかわら+r、第7図のノロ−チャート
においては、画像認識処理の要求信号は、ソフトウニツ
ノタイマ又はハードウェアタイマに(設定時間ごとに発
生しても良い。つまりタイマ割込処理をしても良く、こ
れにより設定時間旬にアクチュエータの駆動ができ、目
の位置の動きに従った、アクチュ■−夕の補正が可能ど
づる。
In addition, in the continuous chart of FIG. 7, the request signal for image recognition processing is sent to a software timer or a hardware timer (it may be generated at each set time; in other words, the request signal for image recognition processing may be generated at a set time interval. This allows the actuator to be driven at the set time, and the actuator can be corrected according to the movement of the eye position.

(2/ヤI4−ル また、赤外発光素子1 /I 、L:万;M外光を照射
して運転者2の十21′身を含む画像をフリーズした時
、何らかの理由、例えば、運転者が車両の一時停止+1
.’lに横を見るとか、運φh1−の必廿から背後を振
り向いた時など、目の位置が検出できイ【かったとすれ
ば内閣認識処理を保留Jるスフ−ツブを設り−(心良い
(2/Ya I4-R) Also, when the infrared light emitting element 1/I, L: 10,000; person temporarily stops the vehicle +1
.. If the position of the eyes cannot be detected, such as when one looks to the side or turns behind oneself due to unavoidable circumstances, the cabinet recognition process will be suspended. good.

イして、ステップ201の処理要求は、車速パルスが所
定1+n以」二になるとか、ニュートラルスイッヂがA
]規ると開始づるようにしても良い。停止1仁工)等で
一時停止中に顔を動かしIこりすることがあるからであ
る。
Then, the processing request in step 201 is such that the vehicle speed pulse is greater than or equal to a predetermined value of 1+n, or the neutral switch is set to A.
] You may start by specifying. This is because during a pause, such as during a pause, you may move your face and get stiff.

it /、: 、赤外le光ダイA−ドの発光時間を連
続としCし良く、発光・受光のタイミングをとる必要が
<「い。又運転者がまぶしさを感じない範囲で可視光を
用いても良い。
It is necessary to make the emission time of the infrared light diode continuous and adjust the timing of emission and reception.Also, it is necessary to set the visible light within a range where the driver does not feel dazzled. May be used.

次に光学系の他の例について説明する。本例は前)di
の実施例の光学系とほぼ同様の構成であるが、発光素子
の光量を制御可能な構成としている。実施例においては
、1べての発光素子を同等に駆動Jる様に構成したが、
明るい環境下においては、光量が充分あるIこめての必
要が4ぷい32.1、/C%光量が多いため、いわゆる
ブルーミング現象が発生する。イこ(・、入用する光1
1に応じ(yt光素了の駆!IJ電流を制御するように
している。したがって、本例においては第4図、第5図
に′ζ発光素子14aど14eのみを駆動りる、又は1
4a、i4c。
Next, another example of the optical system will be explained. This example is before) di
This optical system has almost the same configuration as the optical system of the embodiment, but has a configuration in which the amount of light from the light emitting element can be controlled. In the example, all the light emitting elements were configured to be driven equally, but
In a bright environment, the so-called blooming phenomenon occurs because there is a large amount of light, which requires a sufficient amount of light. Iko(・, the light you need 1
1. Accordingly, in this example, only the 'ζ light emitting elements 14a and 14e are driven in FIGS.
4a, i4c.

14e及び14(Iの4つを駆動する方式あるいは全体
の発光素子14a〜14hの駆動電流を制御づる方式を
採用し、発光素子の明るさを制御している。
The brightness of the light emitting elements is controlled by a method of driving four light emitting elements 14e and 14(I) or a method of controlling the drive current of all the light emitting elements 14a to 14h.

以上のように本例によれば鮮明な画像が得られ、運転者
位置検出のアルゴリズムが簡素化され、部枠の^連化が
図られ、検出精度を高めうるといった効果がある。
As described above, according to this example, a clear image can be obtained, the algorithm for detecting the driver's position can be simplified, the parts and frames can be connected, and the detection accuracy can be improved.

次に第18図(イ)、(ロ)に示づ如さ光学系の異なる
他の例について説明する。第18図(イ)は本例の平面
図、第18図(ロ)はY−Y断面図を表す。本例は第1
実施例とほぼ同様の構成であるがホルダ10に、やや長
い筒状の長ホルダ510を用い、レンズ511の上側に
、機械的な光量り1Xtl Jiη又は液晶による電気
的絞り+:M 4:i 520、又(よ発光手段として
赤外発光素子514a〜5141)を用い(いる。また
、光が利口11覆る機構としく可視光カッ1へフィルタ
を用いても良い。2次元固体Jlii Iτ2索子12
に入射りる光量を最適に制御するためCある。
Next, other examples with different optical systems as shown in FIGS. 18(a) and 18(b) will be described. FIG. 18(A) is a plan view of this example, and FIG. 18(B) is a YY cross-sectional view. In this example, the first
The structure is almost the same as that of the embodiment, but a slightly longer cylindrical long holder 510 is used as the holder 10, and a mechanical light meter 1Xtl Jiη or an electric aperture using a liquid crystal is installed above the lens 511. 520, (infrared light emitting elements 514a to 5141 as light emitting means) may also be used (infrared light emitting elements 514a to 5141).Furthermore, a filter may be used for the visible light filter 1 as a mechanism for light to cover the light source 11. 12
There is C in order to optimally control the amount of light incident on.

本例によれば鮮明な2次元画像が得られる前の例の効果
と同様な効果がある。そして、前記液晶絞り素子520
により2次元固体撮像素子に集められる光量が一定範囲
に調量されてJ5す、一般に固体踊1gl素子に見られ
るブルーミング現象の発生を防ぐ効果を奏する。
According to this example, a clear two-dimensional image can be obtained, which is similar to the effect of the previous example. Then, the liquid crystal aperture element 520
As a result, the amount of light collected on the two-dimensional solid-state image pickup device is controlled within a certain range, which has the effect of preventing the blooming phenomenon generally seen in solid-state 1Gl devices.

更に光量の絞り1ffi 4flとして、液晶絞り素子
又は、通常の機械的な光量の絞りの代わりに、セラミッ
クの複屈折電界依存性を利用した透明セラミック絞りを
用いても良い。透明セラミックは、優れた耐久性をイj
し、経年変化が少ないので、装置の信頼性を高めること
ができる。
Further, as the light quantity aperture 1ffi to 4fl, a transparent ceramic aperture utilizing the electric field dependence of ceramic birefringence may be used instead of a liquid crystal aperture element or a normal mechanical light quantity aperture. Transparent ceramic offers excellent durability
However, since there is little change over time, the reliability of the device can be improved.

次に発光手段として赤外ストロボを使用リ−る発光手段
の他の例について説明する。
Next, another example of the light emitting means using an infrared strobe will be described.

第19図(イ〉は赤外ストロボ605の側面図であるが
、650Gよ赤外光光体、6ミ51は赤外光を広く運転
者1に照射する為のレンズ、653は赤外光を透過し可
視光を通さない赤外フィルタ、655はクープ、657
はレンズ651と赤外フィルタ653をクープに固定づ
るインナを各々表している。赤外ストロボ605はイン
メトルメン1−パネル604aのほぼ中心にボルト65
8a。
Figure 19 (a) is a side view of the infrared strobe 605, where 650G is an infrared light body, 6mi 51 is a lens for broadly irradiating the driver 1 with infrared light, and 653 is an infrared light beam. Infrared filter that transmits visible light but does not pass visible light, 655 is a coupe, 657
1 and 2 respectively represent inner parts for fixing the lens 651 and the infrared filter 653 to the coupe. The infrared strobe 605 is attached with a bolt 65 approximately in the center of the instrument panel 1-panel 604a.
8a.

ナツト65ε3bににり固定され−Cいる。It is fixed by a nut 65ε3b.

また赤外発光体650の発光スペクトルを第19図(口
〉に示したが、一般に赤外光発光体といえどもFiJ視
光領域にもかなりの発光スペクトルをイ1するのC1赤
外フィルタ653によって波長8QQnlll以Fの光
はカッ1−シ、赤外光のみを運転者2の−に半身に照Q
1りるように構成しCある。本例によれば運転者は赤外
ストロボ605が発光してもまぶしさを感じることもな
く、また画像が外乱の影響を受番]ることもないといっ
た効果がある。
Furthermore, the emission spectrum of the infrared light emitter 650 is shown in FIG. Therefore, light with a wavelength of 8QQnllll to F is cut off, and only infrared light is illuminated on half of the driver's body.
It is configured so that there are 1 and C. According to this example, the driver does not feel dazzled even when the infrared strobe 605 emits light, and the image is not affected by external disturbances.

尚、本発明の要旨を変更しない範囲で次のように、他の
構成を用いることもできる。
Note that other configurations may be used as described below without changing the gist of the present invention.

即ち、発光手段、画像検出手段は運転者の左上以外に設
置しても良く、運転者の上半身を身近にとらえる位置、
例えば車両の右上に設(プても良い。
That is, the light emitting means and the image detecting means may be installed at a position other than the upper left of the driver, and at a position that captures the driver's upper body closely;
For example, it may be placed in the upper right corner of the vehicle.

また発光手段は、発光素子がレンズ付きで照射範囲の設
定された光ビーム(例えば照!)J範囲は60°)を持
つ素子、あるいは通常の広角な光ビーlオを持つ発光素
子上に、小型レンズを装置し、やや重付1.【ビーム(
照射範囲は10°)とし画像のiI!!I Illを/
:!Iめるようにしてし良い。尚、照射範囲のrrj麻
は適宜補正され得る。
The light emitting means may be a light emitting element equipped with a lens and having a light beam with a set irradiation range (for example, 60°), or a light emitting element having a normal wide-angle light beam. A small lens is installed and it is slightly heavy.1. 【beam(
The irradiation range is 10°) and the iI of the image! ! I Ill /
:! It's good to be able to do it. Note that the rrj hemp of the irradiation range can be corrected as appropriate.

イして、画像検出手段の一部に用いた固体躍像素了とし
て用いられた、電荷結合素子(COD)のかわりにフォ
トダイA−ドアレイの出力を、MO81ランジスタを切
換え−C読み出づMOS型の固1本lId像素子を用い
ても良い。MOS型の固体面像素子は画像の読み出し回
路が簡単なので、画像信号制御回路を簡単・小型化する
ことかできる。
Then, the MO81 transistor was switched to the output of the photodiode A-dore array instead of the charge-coupled device (COD), which was used as a solid-state image sensor used as a part of the image detection means. A solid one-Ild image element of the type may also be used. Since the MOS type solid-state image element has a simple image readout circuit, the image signal control circuit can be simplified and miniaturized.

また、認識手段にて行われるパターン認識の処理どして
は、211i′N化の処理のかわりに微分処理をfTい
、顔面の輪郭線をめ、この輪郭線から目の位;6をめU
 b良い。また、顔面の2次元画像を白と黒の間部分、
間部分に分け、そこから目の位置をめても良い。つまり
、画像を水平に走査してゆき最初白ですぐ黒の存在づる
所を2ケ所検出し、検出されに位置を目の位置として特
定しても良い。
In addition, in the pattern recognition process performed by the recognition means, a differential process is performed instead of the 211i'N process, the contour line of the face is determined, and the eye position from this contour line is aimed at 6. U
b Good. In addition, the two-dimensional image of the face is divided between white and black.
You can also divide it into the middle part and adjust the position of the eyes from there. In other words, the image may be scanned horizontally, two places where first there is white and then there is black are detected, and the first detected position may be specified as the position of the eye.

そして、目の位置を認識する場合に、1」の位16の座
標により表現Jるのではなく、運転との11、あるいは
肩の部分を検出して、このP4W標ひ表現しても良い。
When recognizing the position of the eyes, instead of expressing it using the 16 coordinates of the 1'' digit, it may be possible to detect the 11 of the driving position or the shoulder area and express it using the P4W sign.

更に、座標表現の型式として、光学系1から見た座標位
置で(よなく、例えば、バックミラーの位置を原点とす
る極座標の形式により表現し、位置を認識し−Cも良い
。バックミラーの角度を調整するような場合には、演算
が簡素化され、特にイラ効だからである。
Furthermore, as a form of coordinate expression, it is also possible to express the coordinate position as seen from the optical system 1 (for example, in the form of polar coordinates with the position of the rearview mirror as the origin, and to recognize the position. This is because calculations are simplified and are particularly irritating when adjusting the angle.

[発明の効果1 本発明に係る座席位置制御装置は、車両運転者に光を照
射する発光手段と、 運転席の斜め前方に配置され、前記発光手段の照射によ
る前記車両運転者からの反射光を画像情報と(〕(検知
りる画像検出手段と、 前記車両運転者の位置が、前記運転席の前後・J、 ’
l・ji向のみに移動づ−ると見な1ことにより、前記
画像検出手段にて検知された2次元両像に阜づい(、中
室内における車両運転者の3次元位首を認識りる認識手
段と、 該認識手段にて認識された車両運転者の3次元1+’/
 b’lに1,4づい−C,座席の位置を制υ11シる
座席位置調整手段どを1lIi+えCいる。
[Effects of the Invention 1] The seat position control device according to the present invention includes: a light emitting means for emitting light to a vehicle driver; an image detecting means that detects the position of the vehicle driver with image information ();
Based on the two-dimensional images detected by the image detection means, the vehicle driver's three-dimensional head position in the interior is recognized by assuming that the vehicle driver is moving only in the l and j directions. a recognition means, and a three-dimensional 1+'/ of the vehicle driver recognized by the recognition means;
There are 1,4 -C in b'l and 1lIi+C, such as seat position adjustment means for controlling the seat position.

このため運転者の個人差、あるいは前記面上の運転者の
動きに応じて運転者の実際の3次元位置を精度良く認識
しくりる。このことから、座席の位置を好適な位置に移
動操作できる。つまり良好な座席位置操作性が、実現し
得る。したがって、運転者は、1狛/jの視界を良好に
確保でき、より一層安令運転を確保づることが可能とな
る。また装置が簡単であり故障が少ないといった副次的
効果もある。
Therefore, the actual three-dimensional position of the driver can be recognized with high accuracy depending on individual differences between drivers or the movement of the driver on the surface. From this, the seat position can be moved to a suitable position. In other words, good seat position operability can be achieved. Therefore, the driver can secure a good field of view of 1/j, making it possible to ensure even safer driving. Another side effect is that the device is simple and has fewer failures.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図GEL本発明の塁本的構成図、第2図は実施例の
自動中への取(q位置を示づ取付位置正面図、第3図は
同じく取付位置正面図、第4図は実施例の光学系の正面
図、第55図はそのX−X断面図、第6図は実施例の概
略系統図、第7図は制御ブ1」グラムのソ1」−ヂト−
l〜、第8図(イ)、(ロ)−1(ハ)及び(ニ)は画
像処理の一例を示り゛説明図。 第9図は画素の階調をめる処理を承り説明図、第10図
、第11図は画像のメモリ内の運転者の目の41′1.
 f19?の動きの一例を承り説明図、第12図は上下
、前後調整角(IFなバラ−シートの模式図、第13図
は前端部に下、前後調整iiJ能なパワーシートの構造
図、第14図(イ〉、(ロ)は第13図に示Jパワーシ
ートの模式図、第15図(イ)はリクライニング装置の
模式図、第15図(ロ)はリクライニング装置の構造図
、第16図はシート前後位置と安全運転に必要な目の高
さとの関係を示すグラフ、第17図は目の^さと近視点
との関係を示づ説明図、第18図(イ)は光学系の他の
例の平面図、第18図(ロ)は同じ<Y−Y断面図、第
19図(イ)は赤外ストロボの部分所面図、第19図(
ロ)は赤外発光体の発光スペクトルを示リグラフを人々
表す。 1・・・光学系 2・・・運転者 こl・・・スデアリング 4・・・運転席 り・・・中心線 12・・・2次凡固体踊像素子 ′14a〜141)・・・発光素子 100・・・演算制御回路 ’+ 0 4 ・・・ ROM 2O3・・・[で八M 300a 、300b ・・・パワーシート300d・
・・リクライニング装置 代理人 弁理士 定立 勉 ばか1名 第1図 第2図 第8図 (イ) (ロ) 第8図 (ハ) 第9図 第10図 第11図 第12図 1ど−゛・ 第13図 第14図 (イ) (ロ) 第15図 (ロ) 第16図 、1 甲J”7m−−□−→後 ンーIYノ祷任市 第17図 第+8171 (イ) 14a シ従 艮 (nm)
Figure 1 is a basic configuration diagram of the GEL invention, Figure 2 is a front view of the mounting position of the embodiment (showing the q position), Figure 3 is a front view of the mounting position, and Figure 4 is a front view of the mounting position. FIG. 55 is a front view of the optical system of the embodiment, FIG. 55 is a sectional view taken along the line X-X, FIG.
8(a), (b)-1(c) and (d) are explanatory diagrams showing an example of image processing. FIG. 9 is an explanatory diagram of the process of increasing the gradation of pixels, and FIGS. 10 and 11 show the driver's eye 41'1 in the image memory.
f19? Fig. 12 is a schematic diagram of a loose seat with vertical and longitudinal adjustment angles (IF); Fig. 13 is a structural diagram of a power seat with vertical and longitudinal adjustment at the front end; Fig. 14 Figures (A) and (B) are schematic diagrams of the J power seat shown in Figure 13, Figure 15 (A) is a schematic diagram of the reclining device, Figure 15 (B) is a structural diagram of the reclining device, and Figure 16. Figure 17 is a graph showing the relationship between the front and back positions of the seat and the eye height required for safe driving. Figure 18 (B) is a plan view of an example of
B) represents a graph showing the emission spectrum of an infrared emitter. 1...Optical system 2...Driver's seat...Dear ring 4...Driver's seat...Center line 12...Second-order solid-state dancing image elements '14a to 141)...Light emission Element 100...Arithmetic control circuit'+04...ROM 2O3...[De8M 300a, 300b...Power seat 300d.
...reclining device agent Patent attorney established 1 student idiot Figure 1 Figure 2 Figure 8 (A) (B) Figure 8 (C) Figure 9 Figure 10 Figure 11 Figure 12 Figure 1・ Fig. 13 Fig. 14 (a) (b) Fig. 15 (b) Fig. 16, 1 A Contribution (nm)

Claims (1)

【特許請求の範囲】 1、車両運転者に光を照射する発光手段と、運転席の斜
め前□方に配置され、前記発光手段の照射による前記車
両運転者からの反射光を画像情報として検知Jる画像検
出手段と、 前記車両運転者の位置が、前記運転席の前後・上下方向
のみに移動づるど見なすことにより、前記画像検出手段
にて検知された2次元画像に基づいて、車室内における
車両運転者の3次元位冒を認識りる認識手段と、 該認識手段にて認識された車両運転者の3次元位置に基
づいて、座席の位置を制tillりる座席位1N調整手
段と、 を備えたことを特徴とづる座席位置制御+装置。 2、前記画像検出手段は、1個の2次元内体撮像索了を
有する特許請求の範囲第1項記載の座席位置制御装置。 ;3.前記発光手段は、前記2次元内体UIl子と近接
配置されlζ赤外発光素子である特許請求の範囲第2項
に記載の座席位置制御装置。
[Scope of Claims] 1. A light emitting means for irradiating light to a vehicle driver, and a light emitting means disposed diagonally in front of the driver's seat, and detecting the reflected light from the vehicle driver due to irradiation by the light emitting means as image information. and a vehicle interior image detecting means based on the two-dimensional image detected by the image detecting means, by considering that the vehicle driver's position moves only in the longitudinal and vertical directions of the driver's seat. a recognition means for recognizing the three-dimensional position of the vehicle driver in the vehicle; and a seat position adjustment means for controlling the seat position based on the three-dimensional position of the vehicle driver recognized by the recognition means. A seat position control + device characterized by being equipped with the following. 2. The seat position control device according to claim 1, wherein the image detection means has one two-dimensional internal body imaging sensor. ;3. 3. The seat position control device according to claim 2, wherein the light emitting means is an infrared light emitting element disposed in close proximity to the two-dimensional inner body UI element.
JP59023992A 1984-02-10 1984-02-10 Seat position control device Pending JPS60168066A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59023992A JPS60168066A (en) 1984-02-10 1984-02-10 Seat position control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59023992A JPS60168066A (en) 1984-02-10 1984-02-10 Seat position control device

Publications (1)

Publication Number Publication Date
JPS60168066A true JPS60168066A (en) 1985-08-31

Family

ID=12126072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59023992A Pending JPS60168066A (en) 1984-02-10 1984-02-10 Seat position control device

Country Status (1)

Country Link
JP (1) JPS60168066A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0769107A (en) * 1993-09-06 1995-03-14 Mitsubishi Motors Corp Driving position controller

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0769107A (en) * 1993-09-06 1995-03-14 Mitsubishi Motors Corp Driving position controller

Similar Documents

Publication Publication Date Title
CN107878327B (en) Periphery monitoring device
JP4593070B2 (en) Image processing apparatus for vehicle
JP4252938B2 (en) Vehicle cabin lighting system
JP4364471B2 (en) Image processing apparatus for vehicle
JP2009276849A (en) Driver image pickup device and driver image pickup method
JP5761046B2 (en) Anti-glare control device
JP6605615B2 (en) Image processing apparatus, imaging apparatus, camera monitor system, and image processing method
US11936979B2 (en) Imaging device
WO2021075321A1 (en) Image capture apparatus, electronic device and image capture method
JP2021093583A (en) Solid state image sensor, imaging device and method for controlling solid state image sensor
WO2019038999A1 (en) Solid-state imaging device and production method therefor
JP2004350303A (en) Image processing system for vehicle
CN108859967B (en) Intelligent interior rearview mirror device for vehicle and using method thereof
JP6289439B2 (en) Image processing device
KR20060088988A (en) Distance recognition method using rear camera and beam means
JP2007302238A (en) Vehicular image processing device
JPS60168066A (en) Seat position control device
CN116252711A (en) Method for adjusting a vehicle mirror and mirror adjustment system
JPS60168006A (en) Vehicle driver&#39;s position recognizing device
JP4867761B2 (en) Night vision support device
WO2021075116A1 (en) Solid-state imaging device and electronic apparatus
JPS60168004A (en) Vehicle driver&#39;s position recognizing device
JP2021034743A (en) Imaging apparatus
JPS60166807A (en) Operator position recognizing apparatus for vehicle
JPS60168007A (en) Vehicle driver&#39;s position recognizing device