JP2002133401A - Operator-discriminating method and operator- discriminating device - Google Patents

Operator-discriminating method and operator- discriminating device

Info

Publication number
JP2002133401A
JP2002133401A JP2000317783A JP2000317783A JP2002133401A JP 2002133401 A JP2002133401 A JP 2002133401A JP 2000317783 A JP2000317783 A JP 2000317783A JP 2000317783 A JP2000317783 A JP 2000317783A JP 2002133401 A JP2002133401 A JP 2002133401A
Authority
JP
Japan
Prior art keywords
pixels
arm
occupant
pixel
emphasized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000317783A
Other languages
Japanese (ja)
Inventor
Kiyokazu Otaki
清和 大滝
Hidekazu Tsuchimoto
秀和 土本
Michimasa Ito
道昌 井東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2000317783A priority Critical patent/JP2002133401A/en
Publication of JP2002133401A publication Critical patent/JP2002133401A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an operator discriminating method and an operator- discriminating device capable of discriminating the occupant sitting on which seat of a vehicle has operated a controller, etc., of an on-vehicle device. SOLUTION: An inner mirror for the vehicle is provided with a CMOS camera 46 via which the arm of the occupant operating the controller 38 is imaged. Image data obtained by the image is subjected to enhancing, erasing and extracting processing by an image processing control part 42, as well as discriminating processing. With these processes pixels estimated as the arm of the occupant on a front passenger seat among the constituting the image data are left, and when the remaining pixels are discriminated as the arm of the occupant on the front passenger seat, the occupant operating the controller 38 is discriminated as the occupant on the front passenger seat.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば、車両に搭
載されるカーナビゲーション装置等の各種装置におい
て、運転手及び助手席の何れの側から操作が行なわれた
かを判定するための操作者判定方法及び操作者判定装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to, for example, an operator judgment for judging from which side of a driver or a passenger seat an operation is performed in various devices such as a car navigation device mounted on a vehicle. The present invention relates to a method and an operator determination device.

【0002】[0002]

【従来の技術】車両に搭載されるオーディオ装置やカー
ナビゲーション装置等は、その多機能化に伴い、コント
ロールパネル等に上記装置の各機能を選択するためのス
イッチを独立して設けることが困難となっている。この
ため、近年では、画像出力用のモニタテレビの画面に仮
想の機能選択ボタンを表示し、同様にモニタテレビの画
面に表示されたカーソル等をコントローラで移動させつ
つ所望の機能選択ボタンを選択することでその機能を実
行できる構成となっている。さらには、このようにして
選択した機能に属する詳細な機能を選択する所謂階層的
な操作を行なう場合には、モニタテレビの画面に表示さ
れた機能選択ボタンの画像を切り替えて、所望の機能に
属する各種の詳細な機能に対応した機能選択ボタンを表
示し、同様にカーソル等をコントローラで移動させつつ
所望の詳細な機能選択ボタンを選択することで実行する
装置もある。
2. Description of the Related Art With the increase in the number of functions of audio devices and car navigation devices mounted on vehicles, it is difficult to provide independent switches for selecting the functions of the above devices on a control panel or the like. Has become. For this reason, in recent years, a virtual function selection button is displayed on the screen of the monitor TV for image output, and similarly, a desired function selection button is selected while moving a cursor or the like displayed on the screen of the monitor TV with the controller. This allows the function to be executed. Furthermore, when performing a so-called hierarchical operation of selecting a detailed function belonging to the function selected in this manner, the image of the function selection button displayed on the monitor TV screen is switched to the desired function. There is also an apparatus that displays a function selection button corresponding to various detailed functions to which the function belongs and executes the same by selecting a desired detailed function selection button while moving a cursor or the like with a controller.

【0003】ところで、このような階層的な操作でモニ
タテレビの画面に表示される機能選択ボタンを変える構
成の場合には、モニタテレビの画面を注視していないと
確実な操作を行なうことができない。このような点を考
慮した場合には、車両走行中における運転手による操作
は制限されることが好ましく、車両走行中における操作
制限機能を付加したオーディオ装置やカーナビゲーショ
ン装置等の開発が進められている。
[0003] By the way, in a configuration in which the function selection buttons displayed on the monitor television screen are changed by such a hierarchical operation, a reliable operation cannot be performed unless the monitor television screen is watched. . In consideration of such points, it is preferable that the operation by the driver while the vehicle is running is restricted, and the development of an audio device, a car navigation device, and the like to which an operation restriction function is added while the vehicle is running has been promoted. I have.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、車両走
行中における操作制限は基本的に運転手にのみ適用され
ればよい。したがって、上記のような操作制限機能を付
加してしまうと、例えば、助手席乗員による操作も不可
能となってしまう。
However, the operation restriction during the running of the vehicle should basically be applied only to the driver. Therefore, if the operation restriction function as described above is added, for example, the operation by the passenger in the passenger seat becomes impossible.

【0005】本発明は、上記事実を考慮して、オーディ
オ装置やカーナビゲーション装置等の車載装置のコント
ローラ等が、車両のどの位置の乗員により操作されたか
の判定が可能な操作者判定方法及び操作者判定装置を得
ることが目的である。
The present invention has been made in consideration of the above facts and provides an operator determining method and an operator capable of determining which position of a vehicle is operated by an occupant of a vehicle-mounted device such as an audio device or a car navigation device. The purpose is to obtain a determination device.

【0006】[0006]

【課題を解決するための手段】請求項1記載の本発明
は、車両に設けられた被操作体の延長上を境として当該
境の双方何れの側の乗員が前記被操作体を操作したかを
判定する操作者判定方法であって、前記被操作体の前記
延長上を撮像可能な所定位置から撮像手段により前記被
操作体を操作する前記乗員の腕を撮像する撮像処理と、
前記撮像処理により撮像した前記腕の輪郭線の形状に基
づいて前記腕が前記被操作体からの前記延長上を境とす
る何れの側から延びたかを判定する判定処理と、を備え
ることを特徴としている。
According to a first aspect of the present invention, an occupant on either side of an operating body provided on a vehicle operates the operating body on an extension of the operating body. An imaging method for imaging the arm of the occupant operating the operated object by an imaging unit from a predetermined position at which the extended object of the operated object can be imaged,
A determination process of determining from which side of the arm the boundary extends from the operated body based on the shape of the outline of the arm captured by the imaging process. And

【0007】上記構成の操作者判定方法では、被操作体
からの延長上を撮像できる撮像手段が設けられており、
この撮像手段によって被操作体を操作する車両乗員の腕
が撮像される(撮像処理)。
[0007] In the operator determination method having the above structure, an image pickup means capable of picking up an image extending from the operated body is provided.
The image of the arm of the vehicle occupant operating the operated body is captured by the imaging means (imaging processing).

【0008】ここで、仮に、上述した延長上を境とする
一方に運転席が設けられ、他方に助手席が設けられてい
る場合には、運転席側から乗員が被操作体を操作しよう
とした場合、操作しようとする運転席側の乗員の腕は、
その輪郭線の形状が腕全体若しくは腕のうち肩から肘ま
での間が助手席方向に対して被操作体方向へ傾斜した方
向へ向く。
Here, if the driver's seat is provided on one side and the passenger's seat is provided on the other side of the above-mentioned extension, the occupant tries to operate the operated body from the driver's seat side. If you do, the driver's arm of the driver's seat
The shape of the contour line is such that the entire arm or the portion of the arm from the shoulder to the elbow is inclined in the direction toward the operated body with respect to the passenger seat direction.

【0009】これに対して、助手席側から乗員が被操作
体を操作しようとした場合、操作しようとする助手席側
の乗員の腕は、その輪郭線の形状が腕全体若しくは腕の
うち肩から肘までの間が運転席方向に対して被操作体方
向へ傾斜した方向へ向く。
On the other hand, when the occupant tries to operate the operated body from the passenger seat side, the shape of the contour of the occupant on the passenger seat side to be operated is the entire arm or the shoulder of the arm. From the elbow to the elbow in a direction inclined toward the operated body with respect to the driver's seat direction.

【0010】判定処理では、このような腕の輪郭線の形
状(角度)を判定することで被操作の操作が運転席側の
乗員により行なわれたか助手席側の乗員により行なわれ
たかが確実に判定される。さらに、例えば、車両に搭載
されたカーナビゲーション装置やオーディオ装置等の各
種装置に本判定方法を採用することで、運転席側から操
作された場合と助手席側から操作された場合とで異なる
操作制限を行なうことが可能となる。
In the determination process, the shape (angle) of the contour line of the arm is determined to reliably determine whether the operated operation is performed by the driver's seat-side occupant or the passenger's seat-side occupant. Is done. Further, for example, by adopting this determination method for various devices such as a car navigation device and an audio device mounted on a vehicle, different operations are performed when operated from the driver seat side and when operated from the passenger seat side. Restrictions can be made.

【0011】請求項2記載の本発明は、請求項1記載の
操作者判定方法において、前記撮像手段により撮像され
た画像データを形成する各画素の輝度を示す数値を強調
演算式に代入して輝度が高い画素を強調画素とし、輝度
が低い他の画素との差異を強調する強調処理と、前記強
調画素の集合により形成される擬似輪郭線のうち、前記
延長上を境する一方の側から他方の側への方向に対して
前記延長上から前記被操作体側へ傾斜した方向に対応す
る消去候補方向へ向いた前記擬似輪郭線を構成する強調
画素を消去し、消去された当該強調画素以外の強調画素
を残存画素として残す消去処理と、前記残存画素で構成
される擬似輪郭線のうち、前記乗員の腕に対応した特徴
を有する擬似輪郭線を構成する残存画素を抽出画素とし
て全ての残存画素のなかから抽出する抽出処理と、を備
えると共に、前記判定処理は、前記抽出画素により構成
される擬似輪郭線の位置、長さ、及び方向の少なくとも
何れか1つに基づいて当該擬似輪郭線が前記延長上を境
する他方の側の乗員の腕の輪郭線か否かを判定する、こ
とを特徴としている。
According to a second aspect of the present invention, in the operator judging method according to the first aspect, a numerical value indicating the luminance of each pixel forming the image data picked up by the image pickup means is substituted into an emphasis calculation expression. A high-luminance pixel is used as an emphasis pixel, and emphasis processing for emphasizing a difference from other low-luminance pixels, and a pseudo contour formed by a set of the emphasis pixels, from one side bordering the extension. Erases the emphasized pixels constituting the pseudo contour line directed in the erase candidate direction corresponding to the direction inclined from the extension to the operated body side with respect to the direction toward the other side, and other than the erased emphasized pixels Erasing processing that leaves the emphasized pixel as a residual pixel, and, among the pseudo contours composed of the remaining pixels, all remaining pixels that constitute a pseudo contour having characteristics corresponding to the arm of the occupant are extracted pixels. Pixel An extraction process for extracting the pseudo contour from among the extracted contours based on at least one of the position, the length, and the direction of the pseudo contour formed by the extracted pixels. It is characterized in that it is determined whether or not it is the contour of the arm of the occupant on the other side that borders on the extension.

【0012】上記構成の操作者判定方法では、撮像処理
により得られた画像データを構成する各画素に強調処理
が施される。この強調処理では、撮像された画像データ
を構成する各画素の輝度を示す数値が強調演算式に代入
され、これにより、輝度が高い画素は数値が更に大きく
なり、反対に輝度が低い画素の数値は同程度か更に小さ
くなる。したがって、この状態での画像を形成する画素
は、元来輝度が高かった画素は強調画素となり、この強
調画素が形成する画像は他の画素(元来輝度が低かった
画素)が形成する画像に比べてより鮮明になる。この強
調画素の集合が基本的に乗員の腕や運転席、及び助手席
等の座席の輪郭線に対応した擬似輪郭線になると推定さ
れる。
In the operator determination method having the above configuration, each pixel constituting the image data obtained by the imaging process is subjected to the enhancement process. In this emphasis processing, a numerical value indicating the luminance of each pixel constituting the captured image data is substituted into the emphasis calculation equation, whereby the numerical value of a pixel having a high luminance is further increased and the numerical value of a pixel having a low luminance is conversely calculated. Are comparable or even smaller. Therefore, pixels forming an image in this state are pixels whose luminance was originally high become emphasis pixels, and an image formed by this emphasis pixel is replaced with an image formed by another pixel (a pixel whose luminance was originally low). It will be clearer than that. It is presumed that this set of emphasized pixels basically becomes a pseudo contour corresponding to the contour of the seat such as the occupant's arm, the driver's seat, and the passenger's seat.

【0013】さらに、これらの強調画素に対して消去処
理が施される。消去処理では各強調画素のうち、被操作
体からの延長上を境とする一方から他方への方向に対し
て上記の延長上から被操作体への方向に傾斜した方向に
対応する消去候補方向へ向いた擬似輪郭線を構成する強
調画素が消去され、それ以外の強調画素が残存画素とし
て残される。
Further, an erasing process is performed on these emphasized pixels. In the erasing process, a candidate erasing direction corresponding to a direction inclined from the above-mentioned extension to the object to be operated with respect to the direction from one side to the other with respect to the extension from the object to be operated in each emphasized pixel. The emphasized pixels forming the false contour line directed toward are erased, and the other emphasized pixels are left as remaining pixels.

【0014】ここで、仮に、上述した延長上を境とする
一方に運転席が設けられ、他方に助手席が設けられてい
る場合には、運転席側から乗員が被操作体を操作しよう
とした場合、操作しようとする運転席側の乗員の腕は、
腕全体若しくは腕のうち肩から肘までの間が助手席方向
に対して被操作体方向へ傾斜した方向へ向くことにな
り、当然、この場合の腕の輪郭線はこの方向に対応する
消去候補方向へ向くことになる。したがって、この消去
処理にて消去された強調画素で構成される擬似輪郭線は
運転席側乗員の腕の輪郭線である可能性が極めて高い
(換言すれば、残存画素により構成される擬似輪郭線
は、基本的に助手席乗員の腕、運転席、及び助手席の何
れかの輪郭線に対応していると推定される)。
If the driver's seat is provided on one side and the passenger's seat is provided on the other side of the above-mentioned extension, the occupant tries to operate the operated body from the driver's seat side. If you do, the driver's arm of the driver's seat
The entire arm or the part of the arm from the shoulder to the elbow will be directed in a direction inclined toward the operated body with respect to the passenger seat direction. Naturally, the contour of the arm in this case is a deletion candidate corresponding to this direction. You will be facing the direction. Therefore, it is very likely that the pseudo contour line formed by the emphasized pixels deleted by the deletion process is the contour line of the arm of the driver's seat occupant (in other words, the pseudo contour line formed by the remaining pixels). Is basically assumed to correspond to any one of the contour lines of the arm of the passenger seat, the driver's seat, and the passenger seat).

【0015】さらに、この状態で残存画素に対して抽出
処理が施される。この抽出処理では、各残存画素の輝度
を示す数値が抽出演算式に代入され、或いは各残存画素
の輝度を示す数値が予め設定された対比テーブルの数値
データと対比される。ここで、運転席及び助手席等の座
席やその他の車両室内に設置された構造物の輪郭線は基
本的に変化しないか、或いは変化したとしてもその差異
が小さいか、又は一定のパターンで変化するだけであ
り、このため、どのような残存画素で構成される擬似輪
郭線が上記の構造物を示すものであるかは予め想定でき
る。したがって、上記の演算若しくは対比の結果、予め
設定された構造物の輪郭線に対応する擬似輪郭線を構成
する残存画素とみなせない残存画素が抽出画素として抽
出される。これにより、抽出画素によって構成される擬
似輪郭線が乗員の腕に対応した擬似輪郭線と推定され
る。
Further, in this state, extraction processing is performed on the remaining pixels. In this extraction processing, a numerical value indicating the luminance of each remaining pixel is substituted into the extraction operation expression, or a numerical value indicating the luminance of each remaining pixel is compared with numerical data of a preset comparison table. Here, the contours of the seats such as the driver's seat and the passenger's seat and other structures installed in the vehicle cabin basically do not change, or even if they do change, the difference is small or changes in a certain pattern. Therefore, it is possible to assume in advance what kind of residual pixel the pseudo contour line indicates the above-mentioned structure. Therefore, as a result of the above calculation or comparison, the remaining pixels that cannot be regarded as the remaining pixels constituting the pseudo contour corresponding to the preset contour of the structure are extracted as the extracted pixels. As a result, the pseudo contour formed by the extracted pixels is estimated as a pseudo contour corresponding to the occupant's arm.

【0016】さらに、これらの抽出画素により構成され
る擬似輪郭線の位置、長さ、及び方向の少なくとも何れ
か1つが判定処理にて上述した被操作体からの延長上を
境とする他方の側の乗員の腕の位置、長さ、及び方向の
うち、前記何れか1つに対応したものであるか否かが判
定される。
Further, at least one of the position, length, and direction of the pseudo contour line constituted by these extracted pixels is the other side of the extension from the operated body described above in the determination processing. It is determined whether the position, length, and direction of the arm of the occupant correspond to any one of the above.

【0017】以上の処理を経ることで、例えば、被操作
体を運転席と助手席との間に設けた場合には、被操作の
操作が運転席側の乗員により行なわれたか助手席側の乗
員により行なわれたかが確実に判定される。
By performing the above processing, for example, when the operated body is provided between the driver's seat and the passenger seat, the operated operation is performed by the driver's seat occupant or the passenger seat side. It is reliably determined whether the operation has been performed by the occupant.

【0018】請求項3記載の本発明は、請求項2記載の
操作者判定方法において、前記強調画素の何れか1つに
対して前記延長上に沿った方向で隣接する画素、及び前
記被操作体方向に対して前記消去候補方向及びその反対
方向で前記何れか1つに隣接する画素が前記強調画素で
あった場合に前記何れか1つを残存画素とすることを前
記消去処理とした、ことを特徴としている。
According to a third aspect of the present invention, in the operator determining method according to the second aspect, a pixel adjacent to any one of the emphasized pixels in a direction along the extension and the operated pixel When the pixel adjacent to any one of the erasure candidate direction and the opposite direction with respect to the body direction was the emphasized pixel, the erasure processing was performed by setting any one of the pixels as a remaining pixel. It is characterized by:

【0019】上記構成の操作者判定方法によれば、消去
処理では、強調画素の何れか1つに対して被操作体から
の延長上に沿った方向に対応した方向で隣接する画素が
強調画素で、更に、上述した消去方向及びその反対方向
で前記何れか1つに隣接する画素が強調画素であった場
合に、この何れか1つの画素が残存画素とされる。
According to the operator determination method having the above-described configuration, in the erasing process, a pixel adjacent to any one of the emphasized pixels in a direction corresponding to a direction along an extension from the operated body is the emphasized pixel. Further, when a pixel adjacent to any one of the pixels in the erasing direction and the opposite direction is an enhancement pixel, any one of the pixels is determined as a remaining pixel.

【0020】すなわち、上述したように、被操作体から
の延長上を境とする一方の側の乗員が被操作体を操作し
ようとした場合、その乗員の腕の輪郭線は、その全体若
しくは腕のうち肩から肘までの間に対応した部分が消去
候補方向に向く。
That is, as described above, when the occupant on one side of the extension from the operated object attempts to operate the operated object, the outline of the arm of the occupant is displayed on the entire arm or the arm. The part corresponding to the region from the shoulder to the elbow faces the erasure candidate direction.

【0021】したがって、被操作体からの延長上を境と
する一方の側に位置する乗員の腕の輪郭線に擬似輪郭線
が対応している場合、この擬似輪郭線を構成する強調画
素が上述した本発明における残存画素を決定するための
条件を満足する可能性は極めて低い。これにより、被操
作体からの延長上を境とする一方の側に位置する乗員の
腕に対応した擬似輪郭線を構成する強調画素を複数の擬
似輪郭線を構成する強調画素のなかから確実に消去で
き、その結果、最終的な判定処理において被操作体から
の延長上を境とする一方の側に位置する乗員の腕に対応
した擬似輪郭線を被操作体からの延長上を境とする他方
の側に位置する乗員の腕に対応した擬似輪郭線であると
誤判定する可能性をなくすか、或いは極めて小さくでき
る。
Therefore, when the pseudo contour line corresponds to the contour line of the arm of the occupant located on one side of the extension from the operated body as a boundary, the emphasis pixels constituting this pseudo contour line are as described above. The possibility of satisfying the condition for determining the remaining pixels in the present invention is extremely low. This ensures that the emphasized pixels forming the pseudo contour corresponding to the arm of the occupant located on one side of the extension from the operated body are selected from the emphasized pixels constituting the plurality of pseudo contours. As a result, in the final determination process, the pseudo contour corresponding to the occupant's arm located on one side of the extension from the operated body is set as a boundary on the extension from the operated body. The possibility of erroneously determining a false contour line corresponding to the arm of the occupant located on the other side can be eliminated or extremely reduced.

【0022】請求項4記載の操作者判定装置は、車両に
設けられた被操作体の延長上を撮像可能な所定位置に設
けられ、前記延長上を境とする何れの側から前記被操作
体を操作する乗員の腕を撮像する撮像手段と、前記撮像
手段により撮像された腕の輪郭線の形状に基づいて前記
腕が前記被操作体の延長上を境とした何れの側から延び
たものかを判定する判定手段と、を備えている。
According to a fourth aspect of the present invention, the operator determining device is provided at a predetermined position where an image of an extension of the object to be operated provided on the vehicle can be taken, and the object to be operated is viewed from any side of the extension. Imaging means for imaging the arm of the occupant operating the arm, and the arm extending from any side with respect to the extension of the operated body based on the shape of the outline of the arm imaged by the imaging means. Determination means for determining whether

【0023】上記構成の操作者判定装置によれば、車両
に設けられた被操作体からの延長上を撮像できる位置に
撮像手段が設けられており、この撮像手段によって被操
作体を操作する車両乗員の腕が撮像される。
According to the operator judging device having the above structure, the image pickup means is provided at a position where the image can be taken on an extension of the object to be operated provided on the vehicle. The occupant's arm is imaged.

【0024】ここで、仮に、上述した延長上を境とする
一方に運転席が設けられ、他方に助手席が設けられてい
る場合には、運転席側から乗員が被操作体を操作しよう
とした場合、操作しようとする運転席側の乗員の腕は、
その輪郭線の形状が腕全体若しくは腕のうち肩から肘ま
での間が助手席方向に対して被操作体方向へ傾斜した方
向へ向く。
Here, if the driver's seat is provided on one side and the passenger's seat is provided on the other side of the above-mentioned extension, the occupant attempts to operate the operated body from the driver's seat side. If you do, the driver's arm of the driver's seat
The shape of the contour line is such that the entire arm or the portion of the arm from the shoulder to the elbow is inclined in the direction toward the operated body with respect to the passenger seat direction.

【0025】これに対して、助手席側から乗員が被操作
体を操作しようとした場合、操作しようとする助手席側
の乗員の腕は、その輪郭線の形状が腕全体若しくは腕の
うち肩から肘までの間が運転席方向に対して被操作体方
向へ傾斜した方向へ向く。
On the other hand, when the occupant attempts to operate the operated body from the passenger seat side, the shape of the contour of the occupant on the passenger seat side to be operated is the entire arm or the shoulder of the arm. From the elbow to the elbow in a direction inclined toward the operated body with respect to the driver's seat direction.

【0026】したがって、判定手段では撮像手段により
得られた画像データの輪郭線の形状の傾き等から、この
腕が例えば運転席側の乗員の腕か助手席側の乗員の腕か
が確実に判定される。これにより、例えば、車両に搭載
されたカーナビゲーション装置やオーディオ装置等の各
種装置に本判定方法を採用することで、運転席側から操
作された場合と助手席側から操作された場合とで異なる
操作制限を行なうことが可能となる。
Therefore, the determining means reliably determines whether this arm is, for example, the driver's arm or the passenger's arm, based on the inclination of the shape of the contour line of the image data obtained by the imaging means. Is done. Thus, for example, by adopting the present determination method for various devices such as a car navigation device and an audio device mounted on a vehicle, there is a difference between when operated from the driver's seat side and when operated from the passenger seat side. Operation restriction can be performed.

【0027】なお、上述したように本発明は、撮像手段
及び判定手段を含めて構成されているが、例えば、コン
ピュータのCPU等にこれら各構成のうち、1つの部材
や電気素子に任意の複数の構成の機能を持たせてもよい
(換言すれば、これらの各構成は、独立した部材や素子
でなくてもよい)。
As described above, the present invention is configured to include the image pickup means and the determination means. For example, a CPU or the like of a computer may include any one of these components in one member or an electric element. (In other words, these components need not be independent members or elements).

【0028】また、本操作者判定装置は、1個の独立し
た装置である必要はなく、例えば、車両用のカーナビゲ
ーション装置やオーディオ装置に本発明の機能を付加し
た場合には、これらの車両用のカーナビゲーション装置
やオーディオ装置もまた本操作者判定装置とするもので
ある。
The operator determination device does not need to be a single independent device. For example, when the functions of the present invention are added to a car navigation device or an audio device for a vehicle, these devices may be used. A car navigation device and an audio device are also used as the operator determination device.

【0029】請求項5記載の本発明は、請求項4記載の
操作者判定装置において、前記撮像手段により撮像され
た画像データを形成する各画素の輝度を示す数値を強調
演算式に代入して輝度が高い画素を強調画素とし、輝度
が低い他の画素との差異を強調する強調手段と、前記強
調画素の集合により形成される擬似輪郭線のうち、前記
延長上を境する一方の側から他方の側への方向に対して
前記延長上から前記被操作体側へ傾斜した方向に対応す
る消去候補方向へ向いた前記擬似輪郭線を構成する強調
画素を消去し、消去された当該強調画素以外の強調画素
を残存画素として残す消去手段と、前記残存画素で構成
される擬似輪郭線のうち、前記乗員の腕に対応した特徴
を有する擬似輪郭線を構成する残存画素を抽出画素とし
て全ての残存画素のなかから抽出する抽出手段と、を備
えると共に、前記判定手段は、前記抽出画素により構成
される擬似輪郭線の位置、長さ、及び方向の少なくとも
何れか1つに基づいて当該擬似輪郭線が前記延長上を境
する他方の側の乗員の腕の輪郭線か否かを判定する、こ
とを特徴としている。
According to a fifth aspect of the present invention, in the operator judging apparatus according to the fourth aspect, a numerical value indicating the luminance of each pixel forming the image data picked up by the image pickup means is substituted into an emphasis calculation expression. Emphasizing means for emphasizing a pixel having a high luminance as an emphasized pixel, and emphasizing a difference from other pixels having a low luminance, and a pseudo contour formed by a set of the emphasized pixels, from one side bordering the extension. Erases the emphasized pixels constituting the pseudo contour line directed in the erase candidate direction corresponding to the direction inclined from the extension to the operated body side with respect to the direction toward the other side, and other than the erased emphasized pixels Erasing means for leaving the emphasized pixel as a residual pixel, and, among the false contour lines composed of the remaining pixels, all remaining pixels constituting the false contour line having characteristics corresponding to the arm of the occupant as extracted pixels. Pixel Extracting means for extracting the pseudo contour from the extracted contour based on at least one of the position, length, and direction of the pseudo contour formed by the extracted pixels. It is characterized in that it is determined whether or not it is the contour of the arm of the occupant on the other side that borders on the extension.

【0030】上記構成の操作者判定装置によれば、撮像
手段が得た画像データを構成する各画素は強調手段によ
って強調処理される。強調手段では各画素の輝度を示す
数値が予め設置された強調演算式に代入される。これに
より、輝度が高い画素は数値が更に大きくなり、反対に
輝度が低い画素の数値は同程度か更に小さくなる。した
がって、この状態での画像を形成する画素は、元来輝度
が高かった画素は強調画素となり、この強調画素が形成
する画像は他の画素(元来輝度が低かった画素)が形成
する画像に比べてより鮮明になる。この強調画素の集合
が基本的に乗員の腕、運転席や助手席等の座席を含む車
両に設置された構造物の少なくとも何れか1つの輪郭線
に対応した擬似輪郭線になると推定される。
According to the operator judging device having the above structure, each pixel constituting the image data obtained by the imaging means is emphasized by the emphasizing means. In the emphasizing means, a numerical value indicating the luminance of each pixel is substituted into a previously set emphasis calculation expression. As a result, the numerical value of a pixel having a high luminance is further increased, and the numerical value of a pixel having a low luminance is substantially the same or smaller. Therefore, pixels forming an image in this state are pixels whose luminance was originally high become emphasis pixels, and an image formed by this emphasis pixel is replaced with an image formed by another pixel (a pixel whose luminance was originally low). It will be clearer than that. It is presumed that this set of emphasized pixels basically becomes a pseudo contour line corresponding to at least one contour line of a structure installed in a vehicle including a passenger's arm, a driver's seat, a passenger seat, and the like.

【0031】さらに、これらの強調画素なかで、被操作
体からの延長上を境とする一方から他方への方向に対し
て上記の延長上から被操作体への方向に傾斜した方向に
対応する消去候補方向へ向いた擬似輪郭線を構成する強
調画素が消去手段によって消去され、それ以外の強調画
素が残存画素として残される。
Further, among these emphasized pixels, the direction corresponds to a direction inclined from the above extension to the object to be operated with respect to the direction from one side to the other with respect to the extension from the object to be operated. The emphasizing pixels forming the pseudo contour line facing the erasure candidate direction are erased by the erasing means, and the other emphasis pixels are left as remaining pixels.

【0032】ここで、仮に、上述した延長上を境とする
一方に運転席が設けられ、他方に助手席が設けられてい
る場合には、運転席側から乗員が被操作体を操作しよう
とした場合、操作しようとする運転席側の乗員の腕は、
腕全体若しくは腕のうち肩から肘までの間が助手席方向
に対して被操作体方向へ傾斜した方向へ向くことにな
り、当然、この場合の腕の輪郭線はこの方向に対応する
消去候補方向へ向くことになる。したがって、この消去
処理にて消去された強調画素で構成される擬似輪郭線は
運転席側乗員の腕の輪郭線である可能性が極めて高い
(換言すれば、残存画素により構成される擬似輪郭線
は、基本的に助手席乗員の腕、運転席、及び助手席の何
れかの輪郭線に対応していると推定される)。
Here, if the driver's seat is provided on one side and the passenger's seat is provided on the other side on the above-mentioned extension, the occupant tries to operate the operated body from the driver's seat side. If you do, the driver's arm of the driver's seat
The entire arm or the part of the arm from the shoulder to the elbow will be directed in a direction inclined toward the operated body with respect to the passenger seat direction. Naturally, the contour of the arm in this case is a deletion candidate corresponding to this direction. You will be facing the direction. Therefore, it is very likely that the pseudo contour line formed by the emphasized pixels deleted by the deletion process is the contour line of the arm of the driver's seat occupant (in other words, the pseudo contour line formed by the remaining pixels). Is basically assumed to correspond to any one of the contour lines of the arm of the passenger seat, the driver's seat, and the passenger seat).

【0033】次いで、これらの残存画素は抽出手段に予
め設定された抽出演算式に各残存画素の輝度を示す数値
が代入され、或いは予め設定された対比テーブルの数値
データと各残存画素の輝度を示す数値とが対比される。
ここで、上述した座席等の構造物の輪郭線は基本的に変
化しないか、或いは変化したとしてもその差異が小さい
か、又は一定のパターンで変化するだけであり、このた
め、どのような残存画素で構成される擬似輪郭線が構造
物を示すものであるかは予め想定できる。したがって、
上記の演算若しくは対比の結果、予め設定された構造物
の輪郭線に対応する擬似輪郭線を構成する残存画素とみ
なせない残存画素が抽出画素として抽出される。これに
より、抽出画素によって構成される擬似輪郭線が乗員の
腕に対応した擬似輪郭線と推定される。
Next, for these remaining pixels, a numerical value indicating the luminance of each remaining pixel is substituted into an extraction operation formula set in advance in the extracting means, or the numerical data of the preset comparison table and the luminance of each remaining pixel are substituted. The numerical values shown are compared.
Here, the outline of the structure such as the seat described above does not basically change, or even if it changes, the difference is small or changes only in a fixed pattern. It can be assumed in advance whether a pseudo contour line composed of pixels indicates a structure. Therefore,
As a result of the above calculation or comparison, the remaining pixels which cannot be regarded as the remaining pixels constituting the pseudo contour corresponding to the preset contour of the structure are extracted as the extracted pixels. As a result, the pseudo contour formed by the extracted pixels is estimated as a pseudo contour corresponding to the occupant's arm.

【0034】さらに、これらの抽出画素により構成され
る擬似輪郭線の位置、長さ、及び方向の少なくとも何れ
か1つが上述した被操作体からの延長上を境とする他方
の側の乗員の腕の位置、長さ、及び方向のうち、前記何
れか1つに対応したものであるか否かが判定手段によっ
て判定される。
Further, at least one of the position, the length and the direction of the pseudo contour line constituted by these extracted pixels is the arm of the occupant on the other side bordering on the above-mentioned extension from the operated body. It is determined by the determination means whether or not the position, the length, and the direction correspond to any one of the above.

【0035】このようにして、本操作者判定装置では、
被操作体からの延長上を境とした何れの側の乗員によっ
て被操作体が操作されたが確実に判定される。
As described above, in the operator determination device,
It can be reliably determined that the operated body has been operated by the occupant on either side of the extension from the operated body.

【0036】なお、上述したように本発明は、強調手
段、消去手段、及び抽出手段を含めて構成されている
が、例えば、コンピュータのCPU等にこれら各構成の
うち、1つの部材や電気素子に任意の複数の構成の機能
を持たせてもよい(換言すれば、これらの各構成は、独
立した部材や素子でなくてもよい)。
As described above, the present invention includes the emphasizing means, the erasing means, and the extracting means. For example, one of the components such as a CPU of a computer or an electric element May have the function of an arbitrary plurality of components (in other words, these components need not be independent members or elements).

【0037】請求項6記載の本発明は、請求項5記載の
操作者判定装置において、前記被操作体からの操作信号
に基づいて動作する所定の装置の制御部と前記被操作体
との間に介在すると共に前記判定手段へ接続され、前記
判定手段での判定結果に基づいて前記所定の装置の前記
動作に制限をする制限手段を備えることを特徴としてい
る。
According to a sixth aspect of the present invention, in the operator judging device according to the fifth aspect, a control section of a predetermined device that operates based on an operation signal from the operated body and the operated body. And a restricting means connected to the determining means for restricting the operation of the predetermined device based on a result of the determination by the determining means.

【0038】上記構成の操作者判定装置では、被操作体
を操作した際に被操作体からの操作信号に基づいて動作
する所定の装置(例えば、カーナビゲーション装置)の
制御部と被操作体との間に制限手段が少なくとも論理的
に介在しており、被操作体からの操作信号は一旦制限手
段へ送られてから制御部へと送られる。ここで、制限手
段は判定手段に接続されており、判定手段での判定結果
が制限手段へ送られ、受信した判定結果に基づいて被操
作体からの操作信号の内容に関わらず所定の装置の動作
が制限手段により制限される。
In the operator determining apparatus having the above-described structure, the control unit of a predetermined device (for example, a car navigation device) that operates based on an operation signal from the operated body when the operated body is operated, and the operated body The limiting means intervenes at least logically, and an operation signal from the operated body is sent to the limiting means once and then sent to the control unit. Here, the limiting unit is connected to the determining unit, and the determination result of the determining unit is sent to the limiting unit, and based on the received determination result, regardless of the content of the operation signal from the operated body, The operation is restricted by the restriction means.

【0039】これにより、上記の所定の装置に同じ動作
をさせる場合であっても、被操作体からの延長上を境と
する一方の側、若しくは他方の側の乗員による操作で当
該動作を行なわせないようにすることができる。
Accordingly, even when the same operation is performed by the above-described predetermined device, the operation is performed by the operation of the occupant on one side or the other side with respect to the extension from the operated body. Can be prevented.

【0040】なお、上述した判定手段による判定結果と
制限手段による動作制限との関係の一例としては、制限
手段にて判定手段からの判定結及び被操作体からの操作
信号を、如何なる状態で如何なる動作制限を実行するか
が予め設定された制限パターンに照会し、該当する制限
パターン内容の制限を制限手段に実行させることがあげ
られる。
As an example of the relationship between the result of the judgment by the judging means and the limitation of the operation by the restricting means, the judging result from the judging means by the restricting means and the operation signal from the operated body are obtained in any state. Inquiring of a preset restriction pattern as to whether or not to execute the operation restriction is performed, and the restriction means is made to execute the restriction of the content of the corresponding restriction pattern.

【0041】[0041]

【発明の実施の形態】図1には本発明の一実施の形態に
係る操作者判定方法を採用したカーナビゲーション装置
10(本発明の一実施の形態に係る操作者判定装置の機
能を自らの機能の一部として有するカーナビゲーション
装置10)を搭載した車両12の室内を略車両左後方側
から見た斜視図が示されており、図2には本カーナビゲ
ーション装置10の概略がシステムブロック図によって
示されている。
FIG. 1 shows a car navigation apparatus 10 employing an operator determination method according to an embodiment of the present invention. FIG. 2 is a perspective view of the interior of a vehicle 12 equipped with a car navigation device 10) having a part of the function, as viewed from substantially the rear left side of the vehicle. FIG. Indicated by

【0042】これらの図に示されるように、本カーナビ
ゲーション装置10は装置本体14を備えている。図1
に示されるように、装置本体14は車両12のインスツ
ルメントパネル16に形成された収容部18へ収容され
ている。図2に示されるように、装置本体14はナビゲ
ーション部20と画像処理部22とを含めて構成されて
いる。ナビゲーション部20はナビ制御部24を備えて
いる。ナビ制御部24は、CPU等により構成されてお
り、ナビ用記憶媒体26へ接続されている。ナビ用記憶
媒体26には、地図情報や検索プログラム、出力画像処
理プログラム等の各種のデータや機能プログラムが予め
記憶されており、ナビ制御部24はナビ用記憶媒体26
に記憶されたデータや機能プログラムを読み込んで実行
処理する。
As shown in these figures, the car navigation device 10 includes a device main body 14. FIG.
As shown in FIG. 1, the apparatus main body 14 is housed in a housing portion 18 formed on an instrument panel 16 of the vehicle 12. As shown in FIG. 2, the apparatus main body 14 includes a navigation unit 20 and an image processing unit 22. The navigation unit 20 includes a navigation control unit 24. The navigation control unit 24 includes a CPU and the like, and is connected to the navigation storage medium 26. Various data and functional programs such as map information, a search program, and an output image processing program are stored in the navigation storage medium 26 in advance.
The data and the function program stored in the CPU are read and executed.

【0043】また、ナビ制御部24はモニタ部28へ接
続されている。図1に示されるように、モニタ部28は
装置本体14と一体であり、画面が略車両後方側へ向い
た状態で画面表面が露出している。上述したナビ制御部
24はナビ用記憶媒体26から読み込んで実行処理した
プログラムやデータに基づいてモニタ部28の画面に画
像を表示し、ナビ制御部24がモニタ部28の画面に画
像を表示することで車両12の乗員(例えば、図3及び
図4に示される運転席30側の乗員32や助手席34側
の乗員36)が実行したプログラムやデータを確認でき
るようになっている。
The navigation control unit 24 is connected to a monitor unit 28. As shown in FIG. 1, the monitor unit 28 is integrated with the apparatus main body 14, and the screen surface is exposed in a state where the screen faces substantially toward the rear of the vehicle. The above-described navigation control unit 24 displays an image on the screen of the monitor unit 28 based on the program or data read from the navigation storage medium 26 and executed, and the navigation control unit 24 displays the image on the screen of the monitor unit 28. Thus, programs and data executed by the occupants of the vehicle 12 (for example, the occupant 32 on the driver's seat 30 side and the occupant 36 on the passenger seat 34 side shown in FIGS. 3 and 4) can be confirmed.

【0044】また、ナビ制御部24は被操作体としての
コントローラ38へ接続されている。図1、図3、図4
に示されるように、コントローラ38は車両12の運転
席30と助手席34との間に設けられたコンソールボッ
クス40の略前方側に設けられており、運転席30側の
乗員32(以下、運転席30側の乗員32を単に「乗員
32」と称する)或いは助手席34側の乗員36(以
下、助手席34側の乗員36を単に「乗員36」と称す
る)がコントローラ38を操作すると、コントローラ3
8からの操作信号がナビ制御部24へ送られ、基本的に
はナビ制御部24が操作信号に応じた処理を実行する。
The navigation control section 24 is connected to a controller 38 as an operated body. 1, 3, and 4
As shown in FIG. 3, the controller 38 is provided substantially in front of a console box 40 provided between the driver's seat 30 and the passenger seat 34 of the vehicle 12, and the occupant 32 (hereinafter referred to as “driving”) on the driver's seat 30 side. When the occupant 32 on the seat 30 side is simply referred to as “occupant 32” or the occupant 36 on the passenger seat 34 side (hereinafter, the occupant 36 on the passenger seat 34 side is simply referred to as “occupant 36”), the controller 38 is operated. 3
8 is sent to the navigation control unit 24, and the navigation control unit 24 basically executes a process according to the operation signal.

【0045】一方、図2に示されるように、画像処理部
22は、強調手段、消去手段、抽出手段、判定手段、及
び制限手段としての画像処理制御部42を備えている。
画像処理部22もまたナビ制御部24と同様にCPU等
により構成されており、画像処理用記憶媒体44へ接続
されている。画像処理用記憶媒体44には、後述する画
像処理プログラムや判定プログラム、制限プログラム等
の各プログラムが予め記憶されており、画像処理制御部
42は画像処理用記憶媒体44に記憶された各プログラ
ムを読み込んで実行処理する。
On the other hand, as shown in FIG. 2, the image processing unit 22 includes an image processing control unit 42 as an emphasizing unit, an erasing unit, an extracting unit, a determining unit, and a limiting unit.
The image processing unit 22 is also configured by a CPU or the like, like the navigation control unit 24, and is connected to the image processing storage medium 44. The image processing storage medium 44 stores in advance various programs such as an image processing program, a determination program, and a restriction program, which will be described later. The image processing control unit 42 executes each program stored in the image processing storage medium 44. Read and execute.

【0046】また、画像処理制御部42は上述したナビ
制御部24へ接続されていると共に撮像手段としてのC
MOS(CMOS:相補正金属酸化膜半導体)カメラ4
6とランプ48とに接続されている。図1に示されるよ
うに、CMOSカメラ46は車両12の室内に取り付け
られたインナミラー52に一体的に設けられており、図
3及び図4に示されるように、上述したコントローラ3
8の近傍、すなわち、コンソールボックス40の前方側
で且つ運転席30と助手席34との間の中央よりも助手
席34寄りを撮像(撮影)できるようにレンズの向き等
が設定され、画像処理制御部42からの撮像信号に基づ
いて撮像する。なお、本実施の形態では撮像手段として
CMOSカメラ46を用いた構成であったが、撮像手段
はこれに限定されるものではない。撮像手段としては所
謂CCDカメラ等を用いることもできる。また、人体が
発する赤外線を感知可能な赤外線カメラを使用してもよ
い。
The image processing control unit 42 is connected to the navigation control unit 24 and serves as an image pickup means.
MOS (CMOS: phase correction metal oxide semiconductor) camera 4
6 and a lamp 48. As shown in FIG. 1, the CMOS camera 46 is provided integrally with an inner mirror 52 attached to the interior of the vehicle 12, and as shown in FIG. 3 and FIG.
8, the lens direction and the like are set so that the front passenger seat 34 can be imaged (photographed) closer to the front passenger seat 34 than the center between the driver seat 30 and the front passenger seat 34 in front of the console box 40. An image is taken based on an image signal from the control unit 42. In the present embodiment, the CMOS camera 46 is used as the imaging means, but the imaging means is not limited to this. A so-called CCD camera or the like can be used as the imaging means. Further, an infrared camera capable of detecting infrared rays emitted from a human body may be used.

【0047】一方、ランプ48は、図1において図示は
しないが、CMOSカメラ46の近傍やコントローラ3
8の近傍等、CMOSカメラ46が撮像する部分を適度
に照明できる位置に設けられ、画像処理制御部42から
の投光信号に基づいCMOSカメラ46の撮像範囲を照
明する。
On the other hand, although not shown in FIG. 1, the lamp 48 is located near the CMOS camera 46 and the controller 3.
For example, it is provided at a position where the portion to be imaged by the CMOS camera 46 can be appropriately illuminated, such as in the vicinity of 8, and illuminates the imaging range of the CMOS camera 46 based on a projection signal from the image processing control unit 42.

【0048】また、図2に示されるように、画像処理制
御部42は車両12の適宜位置に設けられた車速センサ
52へ接続されている。車速センサ52は車両12の速
度を検出しており、検出した車両12の速度に対応した
電気信号である速度信号を画像処理制御部42へ送信す
る。
As shown in FIG. 2, the image processing control section 42 is connected to a vehicle speed sensor 52 provided at an appropriate position of the vehicle 12. The vehicle speed sensor 52 detects the speed of the vehicle 12 and transmits a speed signal that is an electric signal corresponding to the detected speed of the vehicle 12 to the image processing control unit 42.

【0049】なお、本実施の形態では、ナビゲーション
部20と画像処理部22との各々に制御部(すなわち、
ナビ制御部24と画像処理制御部42)及び記憶媒体
(すなわち、ナビ用記憶媒体26と画像処理用記憶媒体
44)を設けた構成であったが、ナビゲーション部20
用と画像処理部22用と独立させず、例えば、ナビ制御
部24に画像処理制御部42の機能を付加して制御部を
ナビ制御部24だけとしたり、画像処理用記憶媒体44
にナビ用記憶媒体26のデータやプログラムも記憶させ
ておき、ナビ制御部24が画像処理用記憶媒体44から
データやプログラムを読み込む構成としてもよい。
In this embodiment, each of the navigation unit 20 and the image processing unit 22 has a control unit (ie,
The configuration includes the navigation control unit 24 and the image processing control unit 42) and the storage medium (that is, the navigation storage medium 26 and the image processing storage medium 44).
For example, the functions of the image processing control unit 42 are added to the navigation control unit 24 so that the navigation control unit 24 is used only as the navigation control unit 24, or the image processing storage medium 44 is used.
The data and the program in the storage medium 26 for navigation may be stored in advance, and the navigation control unit 24 may read the data and the program from the storage medium 44 for image processing.

【0050】次に、本実施の形態の作用並びに効果につ
いて説明する。
Next, the operation and effect of this embodiment will be described.

【0051】本カーナビゲーション装置10では、乗員
32又は乗員36がカーナビゲーション装置10を操作
するべく、コントローラ38へ向けて腕54若しくは腕
56を伸ばしてコントローラ38に触れて操作すると、
コントローラ38から操作信号がナビ制御部24へ送ら
れる。ナビ制御部24ではコントローラ38からの操作
信号に基づいてナビ用記憶媒体26から所定のプログラ
ムやデータを読み込み又はモニタ部28の画面に表示さ
れている画像等を変更する。
In the car navigation device 10, when the occupant 32 or the occupant 36 extends the arm 54 or the arm 56 toward the controller 38 and operates the car navigation device 10 by touching the controller 38,
An operation signal is sent from the controller 38 to the navigation control unit 24. The navigation control unit 24 reads a predetermined program or data from the navigation storage medium 26 or changes an image or the like displayed on the screen of the monitor unit 28 based on an operation signal from the controller 38.

【0052】また、コントローラ38からの操作信号を
受けたナビ制御部24は、この操作信号に対応した電気
信号である確認信号を画像処理制御部42へ送信する。
ナビ制御部24からの確認信号を受けた画像処理制御部
42は画像処理用記憶媒体44から画像処理プログラム
を読み込む。以下、図5に示される画像処理プログラム
の概略的なフローチャートを併用して説明する。
The navigation control unit 24 that has received the operation signal from the controller 38 transmits a confirmation signal, which is an electric signal corresponding to the operation signal, to the image processing control unit 42.
The image processing control unit 42 that has received the confirmation signal from the navigation control unit 24 reads the image processing program from the image processing storage medium 44. Hereinafter, description will be made with reference to the schematic flowchart of the image processing program shown in FIG.

【0053】画像処理プログラムを読み込みステップ1
00で当該プログラムを起動した画像処理制御部42
は、ステップ102で車速センサ52からの信号Vを読
み取り、ステップ104で予め画像処理用記憶媒体44
に記憶させておき画像処理プログラムと共に読み込んだ
対比用の速度データVsと比較する。ここでの比較によ
り、車両12が所定の速度以上(走行中であるか否かの
判定の場合にはVs=0<V)でないならばステップ1
06へ進み、ナビ制御部24からの確認信号を待機す
る。
Step 1 for reading the image processing program
The image processing control unit 42 that started the program at 00
Reads the signal V from the vehicle speed sensor 52 in step 102, and pre-stores the image processing storage medium 44 in step 104.
Is compared with the speed data Vs for comparison read together with the image processing program. According to the comparison, if the vehicle 12 is not at or above the predetermined speed (Vs = 0 <V in the case of determining whether or not the vehicle is running), step 1 is performed.
Proceeding to 06, the system waits for a confirmation signal from the navigation control unit 24.

【0054】これに対して車両12が所定の速度以上で
走行している場合には、画像処理制御部42はランプ4
8に対して投光信号を送信すると共に、この投光信号に
同期した撮像信号をCMOSカメラ46に対して送信す
る。
On the other hand, when the vehicle 12 is traveling at a predetermined speed or higher, the image processing control unit 42
8 and transmits an image signal synchronized with the light emission signal to the CMOS camera 46.

【0055】投光信号を受信したランプ48は単発的若
しくは断続的或いは連続的に運転席30と助手席34と
の間の上述した撮像範囲を照明し、ランプ48の照明に
対応して撮像信号を受信したCMOSカメラ46が上述
した撮像範囲を撮像する。ここで、撮像信号はコントロ
ーラ38からの操作信号をナビ制御部24が受信し、こ
れに伴う確認信号をナビ制御部24から画像処理制御部
42へ送信したことにより画像処理制御部42から送信
されるものである。したがって、CMOSカメラ46が
撮像信号を受信した際にコントローラ38は乗員32が
伸ばした腕54により操作されているか、或いは、乗員
36が伸ばした腕56により操作されている。このた
め、CMOSカメラ46が撮像した画像にはコントロー
ラ38を操作した乗員32の腕54若しくは乗員36の
腕56が撮像される。
The lamp 48 that has received the light projection signal illuminates the above-described imaging range between the driver's seat 30 and the passenger's seat 34 singly, intermittently, or continuously. The CMOS camera 46 having received the image captures the above-described imaging range. Here, the imaging signal is transmitted from the image processing control unit 42 by receiving the operation signal from the controller 38 by the navigation control unit 24 and transmitting a confirmation signal accompanying the operation signal from the navigation control unit 24 to the image processing control unit 42. Things. Therefore, when the CMOS camera 46 receives the imaging signal, the controller 38 is operated by the arm 54 extended by the occupant 32, or is operated by the arm 56 extended by the occupant 36. Therefore, the arm 54 of the occupant 32 or the arm 56 of the occupant 36 operating the controller 38 is captured in the image captured by the CMOS camera 46.

【0056】このようにして得られたCMOSカメラ4
6が撮像した画像データは画像処理制御部42へ送られ
る。ステップ110では画像処理制御部42がこの画像
データを受信し、次いで ステップ112では受信した
画像データのうち、図3に示される撮像範囲の略中央
で、一点鎖線で示される処理範囲S内の画像データを構
成する画素に対して強調処理を施す。
The CMOS camera 4 thus obtained
The image data captured by 6 is sent to the image processing control unit 42. In step 110, the image processing control unit 42 receives the image data. Next, in step 112, the image data in the processing range S indicated by a dashed line is substantially located at the center of the imaging range illustrated in FIG. Enhancement processing is performed on the pixels constituting the data.

【0057】すなわち、図6に示されるように、画像デ
ータを構成する各画素はマトリックス状に並べられる。
ここで、各画素の輝度を示す数値をXとした場合、各画
素との輝度の数値Xが強調演算式を構成する式(1)に
代入される。 Yi,j=A(Xi-1,j+Xi,j-1+Xi+1,j+Xi,j+1)−B・Xi,j ・・・(1) 但し、A<Bで一般的にはA=1、B=4が多用され
る。この式(1)は画像のエッジ検出において一般的に
用いられる所謂ラプラシアン・フィルタであるため、詳
細な説明は省略する。さらに、次の強調演算式を構成す
る式(2)で各画素の輝度を示す数値Xi,jから数値X
i,jに該当する上記の式(1)で得られた数値Yi,jが差
し引かれて強調輝度の数値Zi,jが算出される。 Zi,j=Xi,j−Yi,j・・・(2) 以上の処理の結果、元々輝度が高い画素では強調輝度の
数値Zi,jが更に大きくなり、反対に元々輝度が低い画
素では強調輝度の数値Zi,jは更に小さくなる。これに
より、元来輝度が高かった画素は強調画素となり、この
強調画素が形成する画像は他の画素(元来輝度が低かっ
た画素)との差異が大きくなる。
That is, as shown in FIG. 6, the pixels constituting the image data are arranged in a matrix.
Here, assuming that a numerical value indicating the luminance of each pixel is X, the numerical value X of the luminance of each pixel is substituted into Expression (1) that forms the emphasis calculation expression. Yi, j = A (Xi−1, j + Xi, j−1 + Xi + 1, j + Xi, j + 1) −B · Xi, j (1) where A <B and A = 1 in general B = 4 is frequently used. Since equation (1) is a so-called Laplacian filter generally used in edge detection of an image, a detailed description is omitted. Further, a numerical value Xi, j indicating the luminance of each pixel is converted from a numerical value X
The value Yi, j obtained by the above equation (1) corresponding to i, j is subtracted to calculate the value Zi, j of the emphasized luminance. Zi, j = Xi, j-Yi, j (2) As a result of the above processing, the value of the emphasis luminance Zi, j is further increased in a pixel having originally high luminance, and is enhanced in a pixel having low luminance originally. The brightness value Zi, j becomes smaller. As a result, a pixel having originally high luminance becomes an emphasized pixel, and an image formed by this emphasized pixel has a large difference from other pixels (pixels having originally low luminance).

【0058】ここで、一般的に画像のエッジ部分(輪郭
部分)では輝度変化が比較的大きいため、上記の処理を
施すことで、エッジ部分の画素が強調画素となりエッジ
部分が鮮明になる(図10(A)、(B)参照)。これ
によって、CMOSカメラ46で撮像した画像のエッジ
部分、すなわち、乗員32の腕54や乗員36の腕56
等の輪郭がこの強調画素により構成される擬似輪郭線に
よって示されることになる。
Here, in general, since the luminance change is relatively large in the edge portion (contour portion) of the image, by performing the above processing, the pixel of the edge portion becomes an emphasized pixel and the edge portion becomes clear (FIG. 10 (A), (B)). Thus, the edge portion of the image captured by the CMOS camera 46, that is, the arm 54 of the occupant 32 and the arm 56 of the occupant 36
Will be indicated by a pseudo outline formed by the emphasized pixels.

【0059】次いで、以上の強調処理で得られた強調画
像に対してステップ114では消去処理が施される。こ
の消去処理では、上述した強調処理により更に輝度が高
くなった強調画素Ki,jに対し、車両12の右方向に対
応する側で隣接する画素Ki,j-1、車両12の左方向に
対応する側で隣接する画素Ki,j+1、画素Ki,j-1に対
して車両12の前方向に対応する側で隣接する画素Ki-
1,j-1、及び画素Ki,j+1に対して車両12の後方に
対応する側で隣接する画素Ki+1,j+1の全てが強調画
素であるか否かが判定され、これらの何れか1つでも強
調画素でない場合には、当該画素Ki,jが消去される。
Next, at step 114, an erasing process is performed on the emphasized image obtained by the above-described emphasizing process. In this erasing process, the pixel Ki, j-1 adjacent to the right side of the vehicle 12 on the side corresponding to the rightward direction of the vehicle 12 corresponds to the leftward direction of the vehicle 12 with respect to the emphasized pixel Ki, j whose luminance has been further increased by the above-described enhancing process. The pixel Ki, j + 1 adjacent on the side to perform, and the pixel Ki-j adjacent to the pixel Ki, j-1 on the side corresponding to the forward direction of the vehicle 12.
It is determined whether all of the pixels Ki + 1, j + 1 adjacent to the rear side of the vehicle 12 with respect to the pixel j, j−1 and the pixel Ki, j + 1 are emphasized pixels. Is not an emphasized pixel, the pixel Ki, j is deleted.

【0060】以下、上述した乗員32の腕54及び乗員
36の腕56のそれぞれに対応した擬似輪郭線を構成す
る強調画素に関して、消去される可能性が高いか、消去
されずに残存画素として残る可能性が高いかについて説
明する。
Hereinafter, with respect to the emphasized pixels forming the pseudo contours corresponding to the arms 54 of the occupant 32 and the arms 56 of the occupant 36, there is a high possibility that the pixels will be erased, or they will remain as remaining pixels without being erased. Explain whether the possibility is high.

【0061】乗員32がコントローラ38を操作した場
合には、その腕54の全部若しくは肩から肘にかけて部
分の向きが車両12の前方側に対して左方へ傾斜した方
向へ向く。したがって、図10(A)に示されるよう
に、乗員32の腕54に対応した擬似輪郭線L1の少な
くとも一部(すなわち、肩から肘にかけて部分)が車両
12の前方側に対して左方へ傾斜した方向に沿って連続
する線となる。
When the occupant 32 operates the controller 38, the direction of the entire arm 54 or the portion extending from the shoulder to the elbow is inclined leftward with respect to the front side of the vehicle 12. Therefore, as shown in FIG. 10A, at least a part of the false contour line L <b> 1 corresponding to the arm 54 of the occupant 32 (that is, a part from the shoulder to the elbow) is leftward with respect to the front side of the vehicle 12. It becomes a continuous line along the inclined direction.

【0062】このように擬似輪郭線L1が車両12の前
方側に対して左方へ傾斜した方向に沿って連続する線の
場合には、強調画素Ki,jに対して車両12の右方向に
対応する側で隣接する画素Ki,j-1及び車両12の左方
向に対応する側で隣接する画素Ki,j+1は強調画素にな
るものの、画素Ki,j-1に対して車両12の前方向に対
応する側で隣接する画素Ki-1,j-1及び画素Ki,j+1
に対して車両12の後方に対応する側で隣接する画素K
i+1,j+1は強調画素になりづらく、むしろ、画素Ki,j
-1に対して車両12の後方向に対応する側で隣接する
画素Ki+1,j-1及び画素Ki,j+1に対して車両12の
前方に対応する側で隣接する画素Ki-1,j+1が強調画
素になりやすい。
As described above, in the case where the pseudo contour line L1 is a line continuing along the direction inclined leftward with respect to the front side of the vehicle 12, the pseudo contour line L1 moves rightward of the vehicle 12 with respect to the emphasized pixel Ki, j. The pixel Ki, j-1 adjacent on the corresponding side and the pixel Ki, j + 1 adjacent on the side corresponding to the left direction of the vehicle 12 are emphasized pixels, but the pixel Ki, j-1 of the vehicle 12 is Pixels Ki-1, j-1 and Ki, j + 1 adjacent on the side corresponding to the forward direction
Pixel K adjacent to the rear side of the vehicle 12
It is difficult for i + 1 and j + 1 to become emphasized pixels.
-1 and a pixel Ki + 1, j-1 adjacent on the side corresponding to the backward direction of the vehicle 12 with respect to the pixel Ki-1, j-1 and a pixel Ki-1 adjacent on the side corresponding to the front of the vehicle 12 with the pixel Ki, j + 1. , j + 1 tend to be emphasized pixels.

【0063】したがって、乗員32の腕54に対応した
擬似輪郭線L1を構成する強調画素は上述した条件を満
足せず、この消去処理にて消去される可能性が極めて高
い。
Therefore, the emphasized pixels forming the pseudo contour line L1 corresponding to the arm 54 of the occupant 32 do not satisfy the above-described conditions, and are very likely to be erased by this erasing process.

【0064】一方、図8及び図9に示されるように、乗
員36がコントローラ38を操作した場合には、その腕
56の全部若しくは肩から肘にかけて部分の向きが車両
12の前方側に対して右方へ傾斜した方向へ向く。した
がって、図10(B)に示されるように、乗員36の腕
56に対応した擬似輪郭線L2は少なくともその一部
(すなわち、肩から肘にかけて部分)が車両12の前方
側に対して右方へ傾斜した方向に沿って連続する線とな
る。
On the other hand, as shown in FIGS. 8 and 9, when the occupant 36 operates the controller 38, the direction of the entire arm 56 or the portion from the shoulder to the elbow is directed to the front side of the vehicle 12. Turn right in the direction of inclination. Therefore, as shown in FIG. 10 (B), at least a part of the pseudo contour line L2 corresponding to the arm 56 of the occupant 36 (that is, a portion from the shoulder to the elbow) is rightward with respect to the front side of the vehicle 12. It becomes a continuous line along the inclined direction.

【0065】このように擬似輪郭線L2が車両12の前
方側に対して右方へ傾斜した方向に沿って連続する線の
場合には、強調画素Ki,jに対して車両12の右方向に
対応する側で隣接する画素Ki,j-1及び車両12の左方
向に対応する側で隣接する画素Ki,j+1は強調画素にな
り、しかも、画素Ki,j-1に対して車両12の前方向に
対応する側で隣接する画素Ki-1,j-1及び画素Ki,j+
1に対して車両12の後方に対応する側で隣接する画素
Ki+1,j+1も強調画素になりやすい。
As described above, in the case where the pseudo contour line L2 is a continuous line along the direction inclined rightward with respect to the front side of the vehicle 12, the pseudo contour line L2 moves rightward of the vehicle 12 with respect to the emphasized pixel Ki, j. The pixel Ki, j-1 adjacent on the corresponding side and the pixel Ki, j + 1 adjacent on the side corresponding to the left direction of the vehicle 12 are emphasized pixels. Of pixels Ki-1, j-1 and Ki, j + adjacent on the side corresponding to
Pixels Ki + 1 and j + 1 adjacent to the rear side of the vehicle 12 on the side corresponding to the rear of the vehicle 12 are also likely to be emphasized pixels.

【0066】したがって、乗員36の腕56に対応した
擬似輪郭線を構成する強調画素は消去処理においても消
去されずに、残存画素として残る可能性が極めて高い。
Therefore, there is a very high possibility that the emphasized pixels constituting the pseudo contour line corresponding to the arm 56 of the occupant 36 are not erased even in the erasing process and remain as remaining pixels.

【0067】以上のようにして、コントローラ38を操
作している乗員32の腕54に対応した擬似輪郭線L1
は消去されるが、コントローラ38を操作している乗員
36の腕56に対応した擬似輪郭線L2は消去されな
い。
As described above, the pseudo contour L1 corresponding to the arm 54 of the occupant 32 operating the controller 38
Is deleted, but the pseudo contour L2 corresponding to the arm 56 of the occupant 36 operating the controller 38 is not deleted.

【0068】この状態で、仮に、強調処理後における強
調画素により構成される擬似輪郭線が乗員32の腕54
若しくは乗員36の腕56だけであれば上記の消去処理
にて乗員32の腕54に対応した擬似輪郭線を構成する
強調画素は消去されるので強調処理後に残った残存画素
により構成される擬似輪郭線が乗員36の腕56である
と断定することも可能である。しかしながら、車両12
の室内には、運転席30や助手席34、コンソールボッ
クス40等があり、これらの擬似輪郭線の一部を構成す
る強調画素が消去処理後においても残存画素として残る
可能性がある。したがって、上記の消去処理後に残存画
素で構成される擬似輪郭線が乗員36の腕56に対応し
たものを含む可能性は極めて高いものの、消去処理直後
の時点においては断定できない。
In this state, if the pseudo contour formed by the emphasized pixels after the emphasizing process is
Alternatively, if only the arm 56 of the occupant 36 is used, the emphasizing pixels forming the pseudo outline corresponding to the arm 54 of the occupant 32 are erased by the above-described erasing process. It is also possible to determine that the line is the arm 56 of the occupant 36. However, vehicle 12
The driver's seat 30, the passenger's seat 34, the console box 40, and the like are inside the room, and the emphasized pixels forming a part of these pseudo contour lines may remain as residual pixels even after the erasing process. Therefore, although there is a very high possibility that the pseudo contour line composed of the remaining pixels after the above-described erasing process includes the one corresponding to the arm 56 of the occupant 36, it cannot be determined immediately after the erasing process.

【0069】このため、ステップ116からステップ1
20において残存画素で構成される擬似輪郭線に対し抽
出処理及び判定処理が施される。
For this reason, from step 116 to step 1
At 20, an extraction process and a determination process are performed on the pseudo contour constituted by the remaining pixels.

【0070】ステップ116では、先ず、図11
(A)、(B)で示されるような各擬似輪郭線を構成す
る残存画素に対して8近傍ラベリング処理が施され、8
近傍の意味で連結している残存画素がグループ化され
る。次いで、ステップ118でグループ化された残存画
素の集合体(すなわち、擬似輪郭線)の各々に対し、そ
の長さや位置、傾き等のうちの少なくとも何れか1つが
検出される。さらに、ステップ120では、ステップ1
18での検出結果に基づいて残存画素の集合体の各々に
つき乗員36の腕56の擬似輪郭線と推定できるか否か
が判定され、推定できる集合体の残存画素が抽出画素と
して図12(B)に示されるように抽出されてステップ
122以降の判定処理に移る。なお、図12(B)では
わかりやすいように抽出画素のみを示した(図12
(A)では抽出画素がすでにない)が、上記のラベリン
グ処理により抽出画素と抽出画素以外の残存画素との区
別がつくため、抽出画素以外の画素は残しておいても構
わない。
In step 116, first, FIG.
(A) and (B) are subjected to the eight-neighbor labeling process on the remaining pixels constituting each pseudo contour line.
Residual pixels connected in the vicinity sense are grouped. Next, at least one of the length, the position, the inclination, and the like is detected for each of the group of remaining pixels (that is, the pseudo contour) grouped in step 118. Further, in step 120, step 1
Based on the detection result at 18, it is determined whether or not each of the aggregates of the remaining pixels can be estimated as the pseudo contour of the arm 56 of the occupant 36, and the remaining pixels of the aggregate that can be estimated are extracted pixels as shown in FIG. The extraction is performed as shown in ()), and the flow proceeds to the determination processing after step 122. In FIG. 12B, only extracted pixels are shown for simplicity.
(In (A), there are no extracted pixels.) However, since the above-described labeling process makes it possible to distinguish between the extracted pixels and the remaining pixels other than the extracted pixels, the pixels other than the extracted pixels may be left.

【0071】ステップ122では処理範囲Sが概ね車両
12の前後方向に対応した方向に沿って概ね1:2:1
の割合で3分割される。次いで、ステップ124では分
割された各範囲毎に存在する抽出画素の集合体が、予め
画像処理用記憶媒体44に記憶されて画像処理プログラ
ムと共に読み込まれたパターンデータと比較される。こ
のパターンデータは、助手席34の乗員36の腕56が
コントローラ38を操作した際に処理範囲Sの各分割部
分のそれぞれで腕56がどの位置でどの方向を向いてい
るか等をパターンとして設定したもので、処理範囲Sの
分割部分毎にこれらのパターンデータのパターンと抽出
画素の集合体の向きとが比較され、パターンデータのパ
ターンに一致するとみなされる抽出画素の集合体が助手
席34からコントローラ38を操作した乗員36の腕5
6に対応する擬似輪郭線であると判定される。
In step 122, the processing range S is substantially 1: 2: 1 along a direction generally corresponding to the front-back direction of the vehicle 12.
Is divided into three. Next, in step 124, a set of extracted pixels existing in each of the divided ranges is compared with pattern data previously stored in the image processing storage medium 44 and read together with the image processing program. In this pattern data, when the arm 56 of the occupant 36 of the passenger seat 34 operates the controller 38, the position and direction of the arm 56 in each of the divided portions of the processing range S are set as a pattern. The pattern of the pattern data and the direction of the set of extracted pixels are compared for each divided portion of the processing range S, and the set of extracted pixels that is considered to match the pattern of the pattern data is sent from the passenger seat 34 to the controller 34. Arm 5 of crew 36 who operated 38
6 is determined to be a pseudo contour line.

【0072】なお、上述したように本実施の形態では、
処理範囲Sの分割比率を概ね車両12の前後方向に沿っ
て1:2:1としたが、処理範囲Sの分割条件はこれに
限定されるものではなく、他の条件の比率でおこなって
もよいし、分割しなくても構わない。すなわち、本実施
の形態では、図13(A)、(B)に示されるように、
処理範囲Sのなかでコントローラ38を操作する乗員3
6の腕56のうち、肘の部分を確実に1つの分割部分に
収めることを考慮してなされたものである。したがっ
て、処理範囲Sの広さや縦横比等の諸条件しだいでは上
記の条件よりも更に好ましい分割条件を見出せる可能性
もある。
As described above, in the present embodiment,
Although the division ratio of the processing range S is set to 1: 2: 1 generally along the front-rear direction of the vehicle 12, the division condition of the processing range S is not limited to this, and the division ratio of another condition may be set. It does not matter if it is not divided. That is, in the present embodiment, as shown in FIGS.
The occupant 3 operating the controller 38 in the processing range S
This is done in consideration of ensuring that the elbow portion of the sixth arm 56 is housed in one divided portion. Therefore, depending on various conditions such as the width of the processing range S and the aspect ratio, a more preferable division condition than the above condition may be found.

【0073】ステップ124で抽出画素の集合体(すな
わち、擬似輪郭線)が乗員36の腕56であると判定さ
れればステップ108を介して再び確認信号を待機す
る。一方、ステップ124で抽出画素の集合体(すなわ
ち、擬似輪郭線)が乗員36の腕56ではない。すなわ
ち、コントローラ38を操作したのは乗員36以外(言
わば、運転席30側の乗員)であると判定されると、ス
テップ126でキャンセル信号がナビ制御部24を送信
してステップ108へ進み再び確認信号を待機する。画
像処理制御部42からのキャンセル信号を受けたナビ制
御部24は操作信号をキャンセルし、モニタ部28の操
作を始めとする操作信号に基づく操作を行なわない。こ
れにより、乗員32によるコントローラ38の操作を制
限でき、乗員36のコントローラ38の操作を許可でき
る。
If it is determined in step 124 that the set of extracted pixels (that is, the pseudo contour) is the arm 56 of the occupant 36, the process waits again for a confirmation signal via step 108. On the other hand, at step 124, the aggregate of the extracted pixels (that is, the pseudo outline) is not the arm 56 of the occupant 36. That is, if it is determined that the controller 38 has been operated by a person other than the occupant 36 (in other words, the occupant on the driver's seat 30 side), a cancel signal is transmitted to the navigation control unit 24 in step 126 and the process proceeds to step 108 to confirm again. Wait for signal. Upon receiving the cancel signal from the image processing control unit 42, the navigation control unit 24 cancels the operation signal and does not perform an operation based on the operation signal including the operation of the monitor unit 28. Thereby, the operation of the controller 38 by the occupant 32 can be restricted, and the operation of the controller 38 by the occupant 36 can be permitted.

【0074】また、本実施の形態では、コントローラ3
8の操作が乗員32及び乗員36の何れかをする際に乗
員32、36に対する接触や荷重の負荷等を行なわない
非接触によるものであるため、コントローラ38に対す
る乗員32、36の円滑な操作を妨げることはない。
In this embodiment, the controller 3
Since the operation 8 is performed by non-contact without performing contact with the occupants 32 and 36 or applying a load when performing one of the occupants 32 and 36, the smooth operation of the occupants 32 and 36 on the controller 38 is performed. It does not hinder.

【0075】[0075]

【発明の効果】以上説明したように、本発明は、被操作
体の延長上を境とした何れの側に乗員により被操作体が
操作されたのかを判定できる。
As described above, according to the present invention, it is possible to determine on which side of the extension of the operated body the boundary has been operated by the occupant.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態に係る操作者判定装置を
その機能の一部として有するカーナビゲーション装置を
搭載した車両の斜視図である。
FIG. 1 is a perspective view of a vehicle equipped with a car navigation device having an operator determination device according to an embodiment of the present invention as a part of its functions.

【図2】本発明の一実施の形態に係る操作者判定装置を
その機能の一部として有するカーナビゲーション装置の
構成の概略を示すブロック図である。
FIG. 2 is a block diagram schematically showing a configuration of a car navigation device having an operator determination device according to an embodiment of the present invention as a part of its function.

【図3】運転席側乗員が被操作体を操作した状態での撮
像手段の撮像範囲を示す鳥瞰図である。
FIG. 3 is a bird's-eye view showing an imaging range of an imaging unit in a state where a driver on a driver's seat side operates an operated body.

【図4】助手席側乗員が被操作体を操作した状態での撮
像手段の撮像範囲を示す鳥瞰図である。
FIG. 4 is a bird's-eye view showing an imaging range of an imaging unit in a state where a passenger on the passenger's seat side operates an operated body.

【図5】画像処理プログラムの概略の概略的なフローチ
ャートである。
FIG. 5 is a schematic flowchart of an image processing program.

【図6】被操作体を助手席側乗員が操作した際の腕の向
きや屈曲状態の一態様を示す鳥瞰図である。
FIG. 6 is a bird's-eye view showing one mode of the arm direction and the bent state when the passenger's seat side occupant operates the operated body.

【図7】被操作体を助手席側乗員が操作した際の腕の向
きや屈曲状態の別の態様を示す鳥瞰図である。る。
FIG. 7 is a bird's-eye view showing another aspect of the arm direction and the bent state when the operated body is operated by the passenger on the passenger seat side. You.

【図8】強調処理の対称となる画素とその周囲の画素と
の関係を示す図である。
FIG. 8 is a diagram illustrating a relationship between a pixel to be symmetrical in enhancement processing and pixels around the pixel;

【図9】消去処理の対称となる画素とその周囲の画素と
の関係を示す図である。
FIG. 9 is a diagram illustrating a relationship between a pixel to be subjected to erasing processing and pixels around the pixel.

【図10】強調処理後での撮像手段の画像の状態を示す
図で、(A)は運転席側乗員が被操作体を操作した状態
を示し、(B)は助手席側乗員が被操作体を操作した状
態を示す。
10A and 10B are diagrams illustrating a state of an image of an imaging unit after an enhancement process, wherein FIG. 10A illustrates a state in which a driver on the driver's seat side operates an operated body, and FIG. Shows the state of operating the body.

【図11】消去処理後での撮像手段の画像の状態を示す
図で、(A)は運転席側乗員が被操作体を操作した状態
を示し、(B)は助手席側乗員が被操作体を操作した状
態を示す。
11A and 11B are diagrams illustrating a state of an image of an imaging unit after an erasing process, in which FIG. 11A illustrates a state in which a driver on the driver seat side operates an operated body, and FIG. Shows the state of operating the body.

【図12】抽出処理後での撮像手段の画像の状態を示す
図で、(A)は運転席側乗員が被操作体を操作した状態
を示し、(B)は助手席側乗員が被操作体を操作した状
態を示す。
12A and 12B are diagrams illustrating a state of an image of the imaging unit after the extraction processing, in which FIG. 12A illustrates a state in which a driver on the driver seat side operates an object to be operated, and FIG. Shows the state of operating the body.

【図13】判定処理に際して画像を所定の比率で分割し
た状態を示す図で、(A)は運転席側乗員が被操作体を
操作した状態を示し、(B)は助手席側乗員が被操作体
を操作した状態を示す。
13A and 13B are diagrams illustrating a state in which an image is divided at a predetermined ratio in a determination process, wherein FIG. 13A illustrates a state in which an occupant on the driver's seat side operates an operated body, and FIG. This shows a state in which the operation tool is operated.

【符号の説明】[Explanation of symbols]

10 カーナビゲーション装置 12 車両 30 運転席 32 乗員 34 助手席 36 乗員 38 コントローラ(被操作体) 42 画像処理制御部(強調手段、消去手段、抽出手
段、判定手段、制限手段) 46 CMOSカメラ(撮像手段) 54 腕 56 腕
Reference Signs List 10 car navigation device 12 vehicle 30 driver's seat 32 occupant 34 passenger's seat 36 occupant 38 controller (operated body) 42 image processing control unit (enhancing means, erasing means, extracting means, determining means, limiting means) 46 CMOS camera (imaging means) ) 54 arms 56 arms

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/18 H04N 7/18 K 5L096 (72)発明者 井東 道昌 愛知県丹羽郡大口町豊田三丁目260番地 株式会社東海理化電機製作所内 Fターム(参考) 2F029 AA02 AC14 AC16 5B057 AA16 AA19 BA02 CA12 CA16 CE15 DA07 DB02 DC03 DC08 DC16 5C022 AA01 AB19 AB68 AC01 AC42 AC69 5C054 AA01 CE16 FC14 FE21 FF03 HA28 5H180 CC04 FF22 FF27 FF33 5L096 BA02 BA04 CA02 FA06 FA64 FA67 FA69 GA19 JA11 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (Reference) H04N 7/18 H04N 7/18 K 5L096 (72) Inventor Michimasa Ito 3-260 Toyota, Oguchi-machi, Oguchi-machi, Niwa-gun, Aichi Prefecture Stock F-term (reference) in the Tokai Rika Electric Works, Ltd. FA06 FA64 FA67 FA69 GA19 JA11

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 車両に設けられた被操作体の延長上を境
として当該境の双方何れの側の乗員が前記被操作体を操
作したかを判定する操作者判定方法であって、 前記被操作体の前記延長上を撮像可能な所定位置から撮
像手段により前記被操作体を操作する前記乗員の腕を撮
像する撮像処理と、 前記撮像処理により撮像した前記腕の輪郭線の形状に基
づいて前記腕が前記被操作体からの前記延長上を境とす
る何れの側から延びたかを判定する判定処理と、 を備えることを特徴とする操作者判定方法。
1. An operator determining method for determining which side of the boundary of an operated object provided on a vehicle has been operated by an occupant on both sides of the boundary, the method comprising: An imaging process of imaging the occupant's arm operating the operated object by an imaging unit from a predetermined position where the extension of the operation body can be imaged, based on a shape of a contour line of the arm imaged by the imaging process A determination process for determining from which side of the extension of the arm the boundary extends from the operated body.
【請求項2】 前記撮像手段により撮像された画像デー
タを形成する各画素の輝度を示す数値を強調演算式に代
入して輝度が高い画素を強調画素とし、輝度が低い他の
画素との差異を強調する強調処理と、 前記強調画素の集合により形成される擬似輪郭線のう
ち、前記延長上を境する一方の側から他方の側への方向
に対して前記延長上から前記被操作体側へ傾斜した方向
に対応する消去候補方向へ向いた前記擬似輪郭線を構成
する強調画素を消去し、消去された当該強調画素以外の
強調画素を残存画素として残す消去処理と、 前記残存画素で構成される擬似輪郭線のうち、前記乗員
の腕に対応した特徴を有する擬似輪郭線を構成する残存
画素を抽出画素として全ての残存画素のなかから抽出す
る抽出処理と、 を備えると共に、前記判定処理は、前記抽出画素により
構成される擬似輪郭線の位置、長さ、及び方向の少なく
とも何れか1つに基づいて当該擬似輪郭線が前記延長上
を境する他方の側の乗員の腕の輪郭線か否かを判定す
る、 ことを特徴とする請求項1記載の操作者判定方法。
2. The method according to claim 1, wherein a numerical value indicating the luminance of each pixel forming the image data picked up by the image pickup means is substituted into an emphasis calculation expression, so that a pixel having high luminance is set as an emphasized pixel, and a difference from other pixels having low luminance is set. Emphasizing processing, and of the pseudo contours formed by the set of emphasized pixels, from the extension side to the operated body side in the direction from one side bounding the extension to the other side. An erasing process for erasing the emphasized pixels constituting the pseudo contour line directed to the erasure candidate direction corresponding to the inclined direction, and leaving the emphasized pixels other than the erased emphasized pixels as remaining pixels; and Extraction processing of extracting, from among all remaining pixels, remaining pixels forming a pseudo contour having a feature corresponding to the occupant's arm, among the remaining pixels, among the pseudo contours. , Based on at least one of the position, length, and direction of the pseudo contour formed by the extracted pixels, whether the pseudo contour is the contour of the arm of the occupant on the other side bordering the extension. The method according to claim 1, wherein it is determined whether or not the operator is present.
【請求項3】 前記強調画素の何れか1つに対して前記
延長上に沿った方向で隣接する画素、及び前記被操作体
方向に対して前記消去候補方向及びその反対方向で前記
何れか1つに隣接する画素が前記強調画素であった場合
に前記何れか1つを残存画素とすることを前記消去処理
とした、 ことを特徴とする請求項2記載の操作者判定方法。
3. A pixel adjacent to any one of the emphasized pixels in a direction along the extension, and any one of the pixels in the direction of the erasure candidate with respect to the direction of the operated body and in a direction opposite thereto. The method according to claim 2, wherein, when a pixel adjacent to one of the pixels is the emphasized pixel, setting the one of the pixels as a remaining pixel is the erasing process.
【請求項4】 車両に設けられた被操作体の延長上を撮
像可能な所定位置に設けられ、前記延長上を境とする何
れの側から前記被操作体を操作する乗員の腕を撮像する
撮像手段と、 前記撮像手段により撮像された腕の輪郭線の形状に基づ
いて前記腕が前記被操作体の延長上を境とした何れの側
から延びたものかを判定する判定手段と、 を備える操作者判定装置。
4. An image of an arm of an occupant operating the object to be operated, which is provided at a predetermined position capable of imaging an extension of the object to be operated provided on the vehicle from any side of the extension. Imaging means; and determination means for determining from which side the arm extends from the extension of the operated body based on the shape of the outline of the arm imaged by the imaging means, An operator determination device provided.
【請求項5】 前記撮像手段により撮像された画像デー
タを形成する各画素の輝度を示す数値を強調演算式に代
入して輝度が高い画素を強調画素とし、輝度が低い他の
画素との差異を強調する強調手段と、 前記強調画素の集合により形成される擬似輪郭線のう
ち、前記延長上を境する一方の側から他方の側への方向
に対して前記延長上から前記被操作体側へ傾斜した方向
に対応する消去候補方向へ向いた前記擬似輪郭線を構成
する強調画素を消去し、消去された当該強調画素以外の
強調画素を残存画素として残す消去手段と、 前記残存画素で構成される擬似輪郭線のうち、前記乗員
の腕に対応した特徴を有する擬似輪郭線を構成する残存
画素を抽出画素として全ての残存画素のなかから抽出す
る抽出手段と、 を備えると共に、前記判定手段は、前記抽出画素により
構成される擬似輪郭線の位置、長さ、及び方向の少なく
とも何れか1つに基づいて当該擬似輪郭線が前記延長上
を境する他方の側の乗員の腕の輪郭線か否かを判定す
る、 ことを特徴とする請求項4記載の操作者判定装置。
5. A method according to claim 1, wherein a value indicating the luminance of each pixel forming the image data picked up by the image pickup means is substituted into an emphasis calculation expression, so that a pixel having a high luminance is set as an emphasized pixel, and a difference from other pixels having a low luminance is set. Emphasizing means for emphasizing, from among the pseudo contours formed by the set of emphasizing pixels, from the extension side to the operated body side with respect to the direction from one side bounding the extension to the other side. Erasing means for erasing the emphasized pixels constituting the pseudo contour line directed to the erasure candidate direction corresponding to the inclined direction, and leaving the emphasized pixels other than the erased emphasized pixels as remaining pixels, and the remaining pixels. Extracting means for extracting, from among all remaining pixels, remaining pixels constituting a pseudo contour having characteristics corresponding to the occupant's arm, among the remaining pixels. , Based on at least one of the position, length, and direction of the pseudo contour formed by the extracted pixels, whether the pseudo contour is the contour of the arm of the occupant on the other side bordering the extension. The operator determination device according to claim 4, wherein the determination is performed.
【請求項6】 前記被操作体からの操作信号に基づいて
動作する所定の装置の制御部と前記被操作体との間に介
在すると共に前記判定手段へ接続され、前記判定手段で
の判定結果に基づいて前記所定の装置の前記動作に制限
をする制限手段を備えることを特徴とする請求項5記載
の操作者判定装置。
6. A determination unit that is interposed between a control unit of a predetermined device that operates based on an operation signal from the operated body and the operated body and is connected to the determining unit, and a determination result of the determining unit. 6. The apparatus according to claim 5, further comprising a restriction unit configured to restrict the operation of the predetermined device based on the condition.
JP2000317783A 2000-10-18 2000-10-18 Operator-discriminating method and operator- discriminating device Pending JP2002133401A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000317783A JP2002133401A (en) 2000-10-18 2000-10-18 Operator-discriminating method and operator- discriminating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000317783A JP2002133401A (en) 2000-10-18 2000-10-18 Operator-discriminating method and operator- discriminating device

Publications (1)

Publication Number Publication Date
JP2002133401A true JP2002133401A (en) 2002-05-10

Family

ID=18796515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000317783A Pending JP2002133401A (en) 2000-10-18 2000-10-18 Operator-discriminating method and operator- discriminating device

Country Status (1)

Country Link
JP (1) JP2002133401A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7098812B2 (en) 2002-08-08 2006-08-29 Nissan Motor Co., Ltd. Operator identifying device
JP2007212342A (en) * 2006-02-10 2007-08-23 Denso Corp Display device for vehicle
JP2007526840A (en) * 2003-08-18 2007-09-20 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Vehicle system
EP1854678A1 (en) * 2006-05-12 2007-11-14 Alps Electric Co., Ltd. On-vehicle input apparatus
JP2008221960A (en) * 2007-03-12 2008-09-25 Equos Research Co Ltd On-vehicle device
JP2008221959A (en) * 2007-03-12 2008-09-25 Equos Research Co Ltd On-vehicle device
US7756611B2 (en) 2006-08-30 2010-07-13 Denso Corporation On-board device having apparatus for specifying operator
US7990367B2 (en) 2006-05-29 2011-08-02 Denso Corporation On-vehicle manipulating system
US8077970B2 (en) 2006-12-04 2011-12-13 Denso Corporation Operation estimating apparatus and related article of manufacture
CN102985894A (en) * 2010-07-15 2013-03-20 惠普发展公司,有限责任合伙企业 First response and second response

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7098812B2 (en) 2002-08-08 2006-08-29 Nissan Motor Co., Ltd. Operator identifying device
JP2007526840A (en) * 2003-08-18 2007-09-20 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Vehicle system
JP2007212342A (en) * 2006-02-10 2007-08-23 Denso Corp Display device for vehicle
EP1854678A1 (en) * 2006-05-12 2007-11-14 Alps Electric Co., Ltd. On-vehicle input apparatus
US7990367B2 (en) 2006-05-29 2011-08-02 Denso Corporation On-vehicle manipulating system
US7756611B2 (en) 2006-08-30 2010-07-13 Denso Corporation On-board device having apparatus for specifying operator
DE102007028063B4 (en) * 2006-08-30 2010-10-07 DENSO CORPORATION, Kariya-shi On-board device with device for determining a user
US8077970B2 (en) 2006-12-04 2011-12-13 Denso Corporation Operation estimating apparatus and related article of manufacture
JP2008221960A (en) * 2007-03-12 2008-09-25 Equos Research Co Ltd On-vehicle device
JP2008221959A (en) * 2007-03-12 2008-09-25 Equos Research Co Ltd On-vehicle device
CN102985894A (en) * 2010-07-15 2013-03-20 惠普发展公司,有限责任合伙企业 First response and second response

Similar Documents

Publication Publication Date Title
US9902323B2 (en) Periphery surveillance apparatus and program
JP6531832B2 (en) Parking space detection method and apparatus
US9898652B2 (en) Vehicle, method for controlling the same and gesture recognition apparatus therein
US8115811B2 (en) Vehicle surrounding area display device
US7098812B2 (en) Operator identifying device
JP3711864B2 (en) Vehicle display device
JP6197814B2 (en) Vehicle display device
JP5029470B2 (en) Prompter type operation device
JP5286035B2 (en) Vehicle speed control device
WO2017145364A1 (en) Parking assistance device and parking assistance method
JP4577387B2 (en) Vehicle operation input device
JP2002133401A (en) Operator-discriminating method and operator- discriminating device
US20140078044A1 (en) Input device
JP5201480B2 (en) Vehicle control device
JP2010179828A (en) Operation input device for vehicle
JP2010036731A (en) Vehicular operating device
JP4441877B2 (en) Vehicle headlamp device
JP6720729B2 (en) Display controller
US11904691B2 (en) Display apparatus for switching between different displays of different images identifying a same element
JP4918872B2 (en) In-vehicle device
JP2020053083A (en) Imaging apparatus, control method, program and storage medium
JP7470540B2 (en) Internal device abnormality determination device, abnormality determination method, and program
JP3835405B2 (en) Vehicle display device
JP2020041826A (en) On-vehicle navigation device
JPH10129375A (en) On-vehicle foregoing vehicle recognizing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100316