JP2009208716A - Operator-discriminating device - Google Patents

Operator-discriminating device Download PDF

Info

Publication number
JP2009208716A
JP2009208716A JP2008056172A JP2008056172A JP2009208716A JP 2009208716 A JP2009208716 A JP 2009208716A JP 2008056172 A JP2008056172 A JP 2008056172A JP 2008056172 A JP2008056172 A JP 2008056172A JP 2009208716 A JP2009208716 A JP 2009208716A
Authority
JP
Japan
Prior art keywords
operator
edge
edges
passenger
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008056172A
Other languages
Japanese (ja)
Inventor
Satoru Hasegawa
哲 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2008056172A priority Critical patent/JP2009208716A/en
Publication of JP2009208716A publication Critical patent/JP2009208716A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an operator-discriminating device can discriminate an operator for operating an on-vehicle device is a driver or a passenger. <P>SOLUTION: An extraction unit 32a of an image processing unit 32 sets first and second detection frames 320, 321 on first and second edges 131, 132 of an armrest 13, and extracts an edge in the longitudinal direction of the armrest 13 in the detection frames. When an arm of either a driver 2A or a passenger 2B is on the armrest 13, a discrimination unit 32b detects the end of the edge to discriminate an operator for operating a switch unit 41. Further, when both arms are on the arm rest 13, the extraction unit 32a of the image processing unit 32 sets third and fourth detection frames 322, 323 in a vicinity of the switch unit 41 to extract the edge, and the discrimination unit 32b discriminates the operator for operating the switch unit 41 based on the number of pixels constituting the edges. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車載装置を操作する操作者が、運転者か、同乗者かを判別することができる操作者判別装置に関する。   The present invention relates to an operator discriminating device that can discriminate whether an operator who operates an in-vehicle device is a driver or a passenger.

従来の技術として、車両の運転者座席と助手席の前方に設けられ、車載装置の操作項目を表示する表示操作部と、表示操作部と表示操作部へ伸ばされた運転者の左手、及び助手席着座者の右手を共に視野にいれて撮像可能に車両中心線上である運転者座席と助手席の中心に設けられた遠赤外線カメラと、遠赤外線カメラで撮像した画像データを処理して操作者を判別する画像処理部と、を備えた操作者判別装置が知られている(例えば、特許文献1参照)。   As a conventional technique, a display operation unit that is provided in front of a driver seat and a passenger seat of a vehicle and displays operation items of the in-vehicle device, a driver's left hand extended to the display operation unit and the display operation unit, and an assistant An operator who processes the image data captured by the far-infrared camera and the far-infrared camera provided in the center of the driver's seat and the passenger seat on the vehicle center line so that the right hand of the seated occupant can both be viewed and captured. There is known an operator discriminating device including an image processing unit for discriminating (see, for example, Patent Document 1).

この操作者判別装置によれば、画像データから抽出された操作者の手の重心が、画像内に設定された基準線の左側領域にあるか右側領域にあるかによって操作者を判別し、その判別結果と車両の走行状態に基づいて表示操作部に表示された操作項目の許可範囲を制限することができる。
特開2004−067031号公報
According to this operator discriminating device, the operator is discriminated based on whether the center of gravity of the operator's hand extracted from the image data is in the left region or the right region of the reference line set in the image. Based on the determination result and the running state of the vehicle, the permitted range of the operation items displayed on the display operation unit can be limited.
JP 2004-067031 A

従来の操作者判別装置では、遠赤外線カメラは、運転者座席と助手席の間に設置されるため、後部座席からの視界を遮る可能性があった。また、従来の操作者判別装置に用いる遠赤外線カメラは高価で入手しにくいという問題があった。   In the conventional operator discriminating device, the far-infrared camera is installed between the driver's seat and the passenger seat, and thus there is a possibility that the view from the rear seat may be blocked. In addition, the far-infrared camera used in the conventional operator discrimination device is expensive and difficult to obtain.

また、従来の操作者判別装置は、遠赤外線カメラを用いた場合、熱い飲料の入った容器、高温の電子機器、直射日光によって熱せられた物体などの、高温の物体が表示操作部の近傍に存在するとき、操作者の手の判別制度が悪化する可能性があった。   Further, when the conventional operator discriminating device uses a far infrared camera, a hot object such as a container containing a hot beverage, a high-temperature electronic device, an object heated by direct sunlight, etc. is in the vicinity of the display operation unit. When present, the operator's hand discrimination system could deteriorate.

従って本発明の目的は、車載装置を操作する操作者を精度良く判別する操作者判別装置を提供する。   Accordingly, an object of the present invention is to provide an operator discriminating device that discriminates an operator who operates an in-vehicle device with high accuracy.

(1)本発明は上記目的を達成するため、運転者及び同乗者から操作可能な位置に設けられた車載装置の操作部を操作する操作者の腕が上部を通過する位置に設けられ、前記運転者側に第1の縁辺、及び前記同乗者側に第2の縁辺を有する構造物と、前記構造物の前記第1及び第2の縁辺を含むように撮像可能な位置に設けられた撮像部と、前記撮像部が撮像した画像データに基づいて前記第1及び第2の縁辺を含むように第1及び第2の検出枠をそれぞれ設定し、前記第1及び第2の検出枠内における前記第1及び第2の縁辺に基づいたエッジを抽出するフィルタ処理を行って第1及び第2のエッジを抽出する抽出部と、抽出された前記第1及び第2のエッジに対してラベリング処理を行い、前記操作者の前記腕によって前記第1のエッジが複数のエッジとして認識されたとき、前記運転者が前記操作者であると判別し、前記操作者の前記腕によって前記第2のエッジが複数の前記エッジとして認識されたとき、前記同乗者が前記操作者であると判別する判別部とを有する画像処理部と、を備えたことを特徴とする操作者判別装置を提供する。 (1) In order to achieve the above object, the present invention is provided at a position where an operator's arm for operating an operation unit of an in-vehicle device provided at a position operable by a driver and a passenger passes through the upper part, A structure having a first edge on the driver side and a second edge on the passenger side, and imaging provided at a position where imaging can be performed so as to include the first and second edges of the structure. And first and second detection frames are set to include the first and second edges based on the image data captured by the image capturing unit and the image capturing unit, and the first and second detection frames are set in the first and second detection frames, respectively. An extraction unit that extracts the first and second edges by performing a filtering process that extracts edges based on the first and second edges, and a labeling process on the extracted first and second edges The first edge by the arm of the operator When recognized as a plurality of edges, the driver determines that the driver is the operator, and when the second edge is recognized as the plurality of edges by the operator's arm, the passenger is An operator discriminating apparatus comprising: an image processing unit including a discriminating unit that discriminates that the user is an operator.

上記した構成によれば、車載装置を操作する操作者を精度良く判別することができる。   According to the configuration described above, it is possible to accurately determine the operator who operates the in-vehicle device.

(2)本発明は上記目的を達成するため、運転者及び同乗者から操作可能な位置に設けられた車載装置の操作部を操作する操作者の腕が上部を通過する位置に設けられ、前記運転者側に第1の縁辺、及び前記同乗者側に第2の縁辺を有する構造物と、前記構造物の前記第1及び第2の縁辺を含むように撮像可能な位置に設けられた撮像部と、前記撮像部が撮像した画像データに基づいて前記第1及び第2の縁辺を含むように第1及び第2の検出枠をそれぞれ設定し、前記第1及び第2の検出枠内における前記第1及び第2の縁辺に基づいたエッジを抽出するフィルタ処理を行って第1及び第2のエッジを抽出する抽出部と、抽出された前記第1及び第2のエッジに対してラベリング処理を行い、前記操作者の前記腕によって前記第1及び第2のエッジがそれぞれ複数のエッジとして認識されたとき、前記抽出部によって前記第1及び第2の検出枠の間の前記運転者側に第3の検出枠、及び前記同乗者側に第4の検出枠、を前記操作部に近い位置に設けて前記第3及び第4の検出枠内においてエッジを抽出する前記フィルタ処理を行って第3及び第4のエッジを抽出したのち、前記第3のエッジを構成する第1の画素数、及び前記第4のエッジを構成する第2の画素数に基づいて前記第1の画素数が前記第2の画素数以上であるとき、前記運転者が前記操作者であると判別し、前記第1の画素数が前記第2の画素数よりも少ないとき、前記同乗者が前記操作者であると判別する判別部とを有する画像処理部と、を備えたことを特徴とする操作者判別装置を提供する。 (2) In order to achieve the above object, the present invention is provided at a position where an operator's arm for operating an operation unit of an in-vehicle device provided at a position operable by a driver and a passenger passes through the upper part, A structure having a first edge on the driver side and a second edge on the passenger side, and imaging provided at a position where imaging can be performed so as to include the first and second edges of the structure. And first and second detection frames are set to include the first and second edges based on the image data captured by the image capturing unit and the image capturing unit, and the first and second detection frames are set in the first and second detection frames, respectively. An extraction unit that extracts the first and second edges by performing a filtering process that extracts edges based on the first and second edges, and a labeling process on the extracted first and second edges And the first and second by the arm of the operator When each edge is recognized as a plurality of edges, the extraction unit provides a third detection frame on the driver side and a fourth detection frame on the passenger side between the first and second detection frames. , At a position close to the operation unit, and performing the filtering process for extracting edges within the third and fourth detection frames to extract the third and fourth edges, and then extracting the third edge. When the first pixel number is equal to or larger than the second pixel number based on the first pixel number constituting the second pixel number and the second pixel number constituting the fourth edge, the driver is the operator And an image processing unit including a determination unit that determines that the fellow passenger is the operator when the first number of pixels is smaller than the second number of pixels. An operator discrimination device characterized by the above is provided.

上記した構成によれば、車載装置を操作する操作者を、さらに精度良く判別することができる。   According to the configuration described above, the operator who operates the in-vehicle device can be determined with higher accuracy.

このような構成によれば、車載装置を操作する操作者を精度良く判別する操作者判別装置を提供することができる。   According to such a configuration, it is possible to provide an operator discrimination device that accurately discriminates an operator who operates the in-vehicle device.

以下に、本発明の操作者判別装置の実施の形態を図面を参考にして詳細に説明する。   Embodiments of an operator discrimination device according to the present invention will be described below in detail with reference to the drawings.

[実施の形態]
(車両1の構成)
図1は、本発明の実施の形態に係る操作者判別装置を搭載した車両の概略図である。本実施の形態における操作者判別装置は、車両1に搭載され、一例として、後述する車載装置としてのカーナビゲーション部のスイッチ部41を操作する操作者の判別を行うものとする。なお、本実施の形態としてカーナビゲーション部を例にとって説明するが、これに限定されず、カーオーディオ等の電子機器に適用されても良い。また、表示部40を運転者2A側及び同乗者側の2画面に分け、それぞれに異なる操作メニューを表示し、スイッチ部41を操作する操作者を判別することによって、判別された操作者側の画面に表示された操作メニューのみを操作可能にするようにしても良く、これに限定されない。ここで同乗者とは、運転者2Aの隣に着座する者を指すものとする。
[Embodiment]
(Configuration of vehicle 1)
FIG. 1 is a schematic diagram of a vehicle equipped with an operator discrimination device according to an embodiment of the present invention. The operator discriminating device in the present embodiment is mounted on the vehicle 1 and, as an example, shall discriminate an operator who operates a switch unit 41 of a car navigation unit as an in-vehicle device to be described later. Note that although a car navigation unit will be described as an example of the present embodiment, the present invention is not limited to this and may be applied to an electronic device such as a car audio. In addition, the display unit 40 is divided into two screens on the driver 2A side and the passenger side, different operation menus are displayed on each screen, and the operator who operates the switch unit 41 is determined, so that the determined operator side Only the operation menu displayed on the screen may be operable, but the present invention is not limited to this. Here, the passenger refers to a person sitting next to the driver 2A.

車両1は、エンジン及び各種電子機器(図示せず)を搭載する車両本体10と、運転者2Aが着座する運転者座席11と、運転者座席11と後述する同乗者座席との間に設けられた構造物としてのアームレスト13と、アームレスト13に対向する車両本体10の天井に設けられた撮像部としてのCCD(Charge−Coupled Device)カメラ31と、画像や操作メニュー等を表示する後述するカーナビゲーション部の表示部40と、アームレスト13の前方に設けられたカーナビゲーション部の操作部としてのスイッチ部41と、を備えて概略構成されている。なお、スイッチ部41の位置は、これに限定されず、表示部40の近傍に設置、又はタッチパネル式の表示部としても良く、これに限定されない。   The vehicle 1 is provided between a vehicle body 10 on which an engine and various electronic devices (not shown) are mounted, a driver seat 11 on which a driver 2A is seated, a driver seat 11 and a passenger seat described later. An armrest 13 as a structure, a CCD (Charge-Coupled Device) camera 31 as an imaging unit provided on the ceiling of the vehicle main body 10 facing the armrest 13, and a car navigation described later that displays images, operation menus, and the like. The display part 40 of a part and the switch part 41 as an operation part of the car navigation part provided in front of the armrest 13 are comprised roughly. The position of the switch unit 41 is not limited to this, and the switch unit 41 may be installed in the vicinity of the display unit 40 or may be a touch panel type display unit, and is not limited thereto.

(操作者判別装置3の構成)
図2は、本発明の実施の形態に係る操作者判別装置のブロック図である。操作者判別装置3は、アームレスト13と、CCDカメラ31と、CCDカメラ31によって撮像された画像(画像データ)を解析し、操作者を判別する画像処理部32と、を備えて構成されている。画像処理部32は、さらに、画像に基づいて水平方向のエッジを抽出する抽出部32aと、抽出されたエッジに基づいてラベリング処理を行い、操作者を判別する判別部32bとを備え、カーナビゲーション部4と接続されている。画像処理部32は、操作者を判定する基準となる後述する操作者判定テーブル33を内部に記憶している。カーナビゲーション部4は、表示部40と、スイッチ部41と、を備えて概略構成されている。
(Configuration of operator discrimination device 3)
FIG. 2 is a block diagram of the operator discrimination device according to the embodiment of the present invention. The operator discrimination device 3 includes an armrest 13, a CCD camera 31, and an image processing unit 32 that analyzes an image (image data) captured by the CCD camera 31 and discriminates an operator. . The image processing unit 32 further includes an extraction unit 32a that extracts horizontal edges based on the image, and a determination unit 32b that performs labeling processing based on the extracted edges and discriminates the operator. Connected to the unit 4. The image processing unit 32 stores therein an operator determination table 33 (to be described later) serving as a reference for determining an operator. The car navigation unit 4 is schematically configured to include a display unit 40 and a switch unit 41.

なお、CCDカメラ31は、安価で低解像度の固定撮像素子を有するCMOS(Complementary Metal Oxide Semiconductor)カメラであっても良い。CCDカメラ31は、所定の時間間隔に基づいて車両内部を撮像するものとする。   The CCD camera 31 may be a CMOS (Complementary Metal Oxide Semiconductor) camera having a low-cost, low-resolution fixed image sensor. Assume that the CCD camera 31 images the inside of the vehicle based on a predetermined time interval.

(アームレスト13について)
図3は、本発明の実施の形態に係る車両内部の上方図である。車両1は、運転者2Aが着座する運転者座席11と、同乗者2Bが着座する同乗者座席12と、を備え、その間にはアームレスト13を備えている。このアームレスト13の運転者2A側の長手方向の辺を第1の縁辺131とし、同乗者2B側の長手方向の辺を第2の縁辺132とする。なお、後述する検出枠が設定され、操作者を判別する基準となる構造物は、アームレスト13に限定されず、容易にエッジが抽出できる特徴を有し、操作者の腕によって当該エッジが分断される、言い換えるならひとつのエッジとして認識されていたエッジが、複数のエッジとして認識されるものであれば良い。
(About armrest 13)
FIG. 3 is an upper view inside the vehicle according to the embodiment of the present invention. The vehicle 1 includes a driver seat 11 on which a driver 2A is seated and a passenger seat 12 on which a passenger 2B is seated, and an armrest 13 is provided therebetween. The longitudinal side of the armrest 13 on the driver 2 </ b> A side is defined as a first edge 131, and the longitudinal side on the passenger 2 </ b> B side is defined as a second edge 132. It should be noted that a detection frame, which will be described later, is set and a reference structure for discriminating the operator is not limited to the armrest 13 and has a feature that an edge can be easily extracted, and the edge is divided by the operator's arm. In other words, an edge recognized as one edge may be recognized as a plurality of edges.

(操作者判定テーブル33について)
図4は、本発明の実施の形態に係る操作者判定テーブルである。操作者判定テーブル33は、一例として、画像処理部32の内部に記憶されているものであり、エッジ切れ330aとは、操作者の腕によって分断されたエッジを示すものであり、画素数330bとは、後述する第3及び第4のエッジを構成する画素数のことであり、判定330cとは、エッジ切れ330a及び画素数330bとに基づいて運転者2Aであるか同乗者2Bであるかの判定結果を示すものである。画像処理部32は、得られた結果に基づいて操作者判定テーブル33を参照し、スイッチ部41を操作する操作者が運転者2Aであるか同乗者2Bであるかを判別する。
(About the operator determination table 33)
FIG. 4 is an operator determination table according to the embodiment of the present invention. The operator determination table 33 is stored in the image processing unit 32 as an example, and the edge cut 330a indicates an edge divided by the operator's arm, and the number of pixels 330b. Is the number of pixels constituting the third and fourth edges, which will be described later, and the judgment 330c is whether the driver 2A or the passenger 2B is based on the edge break 330a and the number of pixels 330b The determination result is shown. The image processing unit 32 refers to the operator determination table 33 based on the obtained result, and determines whether the operator who operates the switch unit 41 is the driver 2A or the passenger 2B.

(動作)
以下に本発明の実施の形態における操作者判別装置の動作を図1〜4、及び後述する図5〜7を参照し、図8のフローチャートに従って詳細に説明する。
(Operation)
The operation of the operator discriminating apparatus according to the embodiment of the present invention will be described in detail with reference to FIGS. 1 to 4 and FIGS.

図5(a)は、本発明の実施の形態に係る撮像されたアームレスト近傍の画像の概略図であり、図5(b)は、本発明の実施の形態に係る第1の検出枠内における2値画像であり、図5(c)は、本発明の実施の形態に係る第2の検出枠内における2値画像である。まず、第1及び第2の検出枠320、321における2値画像320a、321aについて説明する。   FIG. 5A is a schematic diagram of an image of the vicinity of the imaged armrest according to the embodiment of the present invention, and FIG. 5B is a diagram within the first detection frame according to the embodiment of the present invention. FIG. 5C shows a binary image, which is a binary image in the second detection frame according to the embodiment of the present invention. First, the binary images 320a and 321a in the first and second detection frames 320 and 321 will be described.

画像処理部32の抽出部32aは、図5(a)に示すように、CCDカメラ31から出力された画像データに基づいて第1及び第2の検出枠320、321をアームレスト13の第1及び第2の縁辺131、132が含まれるように設定する。   As illustrated in FIG. 5A, the extraction unit 32 a of the image processing unit 32 places the first and second detection frames 320 and 321 on the first and second armrests 13 on the basis of the image data output from the CCD camera 31. It is set so that the second edges 131 and 132 are included.

抽出部32aは、第1及び第2の検出枠320、321を設定すると、第1及び第2の検出枠320、321内の画像データに対してアームレスト13の短手方向の輝度微分値を算出するフィルタ処理、続いて2値化処理を行い、アームレスト13の長手方向のエッジを抽出し、判別部32bは、抽出されたエッジに対してラベリング処理を行う。   When the first and second detection frames 320 and 321 are set, the extraction unit 32a calculates a luminance differential value in the short direction of the armrest 13 with respect to the image data in the first and second detection frames 320 and 321. Filter processing, and then binarization processing are performed to extract the edge in the longitudinal direction of the armrest 13, and the determination unit 32b performs labeling processing on the extracted edge.

このとき、第1の検出枠320において抽出部32aは、構成する画素数が最大であるエッジを第1の縁辺131に基づいたエッジとし、例えば、図5(b)に示す第1のエッジ131aを抽出する。また、第2の検出枠321において抽出部32aは、構成する画素数が最大であるエッジを第2の縁辺132に基づいたエッジとして、例えば、図5(c)に示す第2のエッジ132aを抽出する。   At this time, in the first detection frame 320, the extraction unit 32a sets the edge having the maximum number of pixels as the edge based on the first edge 131, and for example, the first edge 131a illustrated in FIG. To extract. Further, in the second detection frame 321, the extraction unit 32a sets the edge having the maximum number of pixels as an edge based on the second edge 132, for example, the second edge 132a illustrated in FIG. Extract.

画像処理部32は、上記の抽出結果を記憶し、例えば記憶された第1及び第2のエッジ131a、132aと、あらためて抽出されたエッジとを比較し、CCDカメラ31によって撮像された画像(画像データ)の補正を行う。   The image processing unit 32 stores the above extraction result, for example, compares the stored first and second edges 131a and 132a with the newly extracted edge, and the image captured by the CCD camera 31 (image). Data).

(運転者2Aの腕2aのみがアームレスト13上にある場合)
図6(a)は、本発明の実施の形態に係る撮像されたアームレスト近傍の画像の概略図であり、図6(b)は、本発明の実施の形態に係る第1の検出枠内における2値画像であり、図6(c)は、本発明の実施の形態に係る第2の検出枠内における2値画像である。続いて、運転者2Aがスイッチ部41の操作を行ったときの腕2aの検出について説明する。
(When only the driver's 2A arm 2a is on the armrest 13)
FIG. 6A is a schematic diagram of an image of the vicinity of the armrest imaged according to the embodiment of the present invention, and FIG. 6B is a diagram in the first detection frame according to the embodiment of the present invention. FIG. 6C is a binary image, and is a binary image in the second detection frame according to the embodiment of the present invention. Next, detection of the arm 2a when the driver 2A operates the switch unit 41 will be described.

運転者2Aが、スイッチ部41の操作を行うとき、運転者2Aの腕2aがアームレスト13上を通過するため、CCDカメラ31によって撮像される画像は、図6(a)に示すように、第1の縁辺131の一部が隠された状態で撮像される。なお、このとき、図6(c)に示すように、同乗者2Bの腕2bは、アームレスト13の上にないものとする。運転者2Aの腕2aと同乗者2Bの腕2bが、同時にアームレスト13上にある場合については後述する。   When the driver 2A operates the switch unit 41, the arm 2a of the driver 2A passes over the armrest 13, so that an image captured by the CCD camera 31 is as shown in FIG. An image is captured in a state where a part of one edge 131 is hidden. At this time, it is assumed that the arm 2b of the passenger 2B is not on the armrest 13, as shown in FIG. The case where the arm 2a of the driver 2A and the arm 2b of the passenger 2B are simultaneously on the armrest 13 will be described later.

抽出部32aは、第1の検出枠320内の画像に対してアームレスト13の短手方向の輝度微分値を算出するフィルタ処理、続いて2値化処理を行う。判別部32bは、抽出されたエッジに対してラベリング処理を行い、第1の縁辺131は、腕2aによってその一部が隠されているので、図6(b)に示すように、第1のエッジ131aを第3及び第4のエッジ131b、131cの複数のエッジとして認識する。   The extraction unit 32a performs a filtering process for calculating a luminance differential value in the short direction of the armrest 13 on the image in the first detection frame 320, and then performs a binarization process. The determination unit 32b performs a labeling process on the extracted edge, and the first edge 131 is partially hidden by the arm 2a. Therefore, as shown in FIG. The edge 131a is recognized as a plurality of edges of the third and fourth edges 131b and 131c.

判別部32bは、第1のエッジ131aを構成する画素数に比べて第3及び第4のエッジ131b、131cを構成する画素数が所定の数未満であるとき、第1のエッジ131aが分断されていると判定し、操作者判定テーブル33を参照し、運転者2Aがスイッチ部41を操作する操作者であると判別する。なお、所定の数は、操作者判別装置3の設計者が自由に設定できるものであるとする。   The determination unit 32b divides the first edge 131a when the number of pixels constituting the third and fourth edges 131b and 131c is less than a predetermined number compared to the number of pixels constituting the first edge 131a. And the operator determination table 33 is referred to, and it is determined that the driver 2A is an operator who operates the switch unit 41. It is assumed that the predetermined number can be freely set by the designer of the operator discrimination device 3.

なお、上記では、運転者2Aの腕2aがアームレスト13上にある場合について述べたが、同乗者2Bの腕2bのみがアームレスト13上にある場合についても同様の方法によって判別される。   In the above description, the case where the driver's 2A arm 2a is on the armrest 13 has been described, but the case where only the passenger 2B's arm 2b is on the armrest 13 is also determined by the same method.

(運転者2Aの腕2aと同乗者2Bの腕2bがアームレスト13上にある場合)
図7A(a)は、本発明の実施の形態に係る撮像されたアームレスト近傍の画像の概略図であり、図7A(b)は、本発明の実施の形態に係る第1の検出枠内における2値画像であり、図7A(c)は、本発明の実施の形態に係る第3の検出枠内における2値画像であり、図7B(d)は、本発明の実施の形態に係る第2の検出枠内における2値画像であり、図7B(e)は、本発明の実施の形態に係る第4の検出枠内における2値画像である。2値画像322a及び323aは、一例として画像を5×8画素で表しているが、これに限定されない。
(When the driver's 2A arm 2a and the passenger 2B's arm 2b are on the armrest 13)
FIG. 7A (a) is a schematic diagram of an image of the vicinity of the imaged armrest according to the embodiment of the present invention, and FIG. 7A (b) is within the first detection frame according to the embodiment of the present invention. 7A (c) is a binary image in the third detection frame according to the embodiment of the present invention, and FIG. 7B (d) is a second image according to the embodiment of the present invention. FIG. 7B (e) is a binary image in the fourth detection frame according to the embodiment of the present invention. As an example, the binary images 322a and 323a represent 5 × 8 pixels, but the present invention is not limited to this.

上記した例では、運転者2Aの腕2aと同乗者2Bの腕2bが、同時にアームレスト13上にない場合については、精度良くスイッチ部41を操作する操作者の腕を検出することができた。しかし、運転者2Aの腕2aと同乗者2Bの腕2bが、同時にアームレスト13上ある場合は、第1及び第2の検出枠320、321内の画像処理だけでは、操作者を判別することができない恐れがある。そこで以下では、抽出部32aが画像上のアームレスト13内に第3及び第4の検出枠322、323を設定し、操作者を判別する方法について説明する。なお、第3及び第4の検出枠322、323の大きさは、これに限定されない。   In the above-described example, when the arm 2a of the driver 2A and the arm 2b of the passenger 2B are not on the armrest 13 at the same time, the arm of the operator who operates the switch unit 41 can be detected with high accuracy. However, when the driver's 2A arm 2a and the passenger 2B's arm 2b are on the armrest 13 at the same time, the operator can be identified only by image processing within the first and second detection frames 320 and 321. There is a fear that it cannot be done. Therefore, hereinafter, a method will be described in which the extraction unit 32a sets the third and fourth detection frames 322 and 323 in the armrest 13 on the image and discriminates the operator. Note that the sizes of the third and fourth detection frames 322 and 323 are not limited to this.

運転者2A及び同乗者2Bは、運転者座席11及び同乗者座席12にそれぞれ着座しているものとする。運転者2Aが車両1の電源を投入したのち、操作者判別装置3のCCDカメラ31は撮像を開始する。   It is assumed that the driver 2A and the passenger 2B are seated in the driver seat 11 and the passenger seat 12, respectively. After the driver 2A turns on the vehicle 1, the CCD camera 31 of the operator discrimination device 3 starts imaging.

まず抽出部32aは、第1及び第2の検出枠320、321を設定し、第1及び第2の検出枠320、321内の画像に対してアームレスト13の短手方向の輝度微分値を算出するフィルタ処理、続いて2値化処理を行う。抽出部32aは、第1及び第2の検出枠320、321内のエッジを抽出し、判別部32bは、エッジが切れているか否かを検出する(S1)。   First, the extraction unit 32 a sets the first and second detection frames 320 and 321, and calculates the luminance differential value in the short direction of the armrest 13 with respect to the images in the first and second detection frames 320 and 321. Filter processing, and then binarization processing. The extraction unit 32a extracts the edges in the first and second detection frames 320 and 321, and the determination unit 32b detects whether or not the edges are cut (S1).

運転者2Aの腕2aと同乗者2Bの腕2bは、図7A(a)に示すように、同時にアームレスト13上にあるので、判別部32bは、図7A(b)及び図7B(d)に示すように、第1の縁辺131のエッジが第3及び第4のエッジ131b、131cに分断され、第2の縁辺132のエッジが第6及び第7のエッジ132b、132cに分断されていると判定し(S2;Yes)、この状態では操作者を判別できないので、抽出部32aは、アームレスト13上のスイッチ部41に近い領域に、図7A(a)に示す第3及び第4の検出枠322、323を設定する(S3)。   Since the arm 2a of the driver 2A and the arm 2b of the passenger 2B are simultaneously on the armrest 13 as shown in FIG. 7A (a), the determination unit 32b is shown in FIGS. 7A (b) and 7B (d). As shown, the edge of the first edge 131 is divided into third and fourth edges 131b and 131c, and the edge of the second edge 132 is divided into sixth and seventh edges 132b and 132c. Since the operator cannot be discriminated in this state (S2; Yes), the extraction unit 32a is placed in the region near the switch unit 41 on the armrest 13 in the third and fourth detection frames shown in FIG. 7A (a). 322 and 323 are set (S3).

抽出部32aは、第3及び第4の検出枠322、323内の画像に対してアームレスト13の短手方向の輝度微分値を算出するフィルタ処理、続いて2値化処理を行う。この2値化処理に基づいて図7A(c)及び図7B(e)に示す2値画像322a、323aが得られるので、判別部32bは、2値画像322a、323aから画素値が「1」(2値画像322a、323aにおいて黒色で塗られた画素)、すなわち第5のエッジ131d(第3のエッジ)及び第8のエッジ132d(第4のエッジ)を構成する画素の数を算出する。   The extraction unit 32a performs a filtering process for calculating a luminance differential value in the short direction of the armrest 13 on the images in the third and fourth detection frames 322 and 323, and then performs a binarization process. Since the binary images 322a and 323a shown in FIGS. 7A (c) and 7B (e) are obtained based on this binarization processing, the determination unit 32b has a pixel value “1” from the binary images 322a and 323a. The number of pixels constituting the fifth edge 131d (third edge) and the eighth edge 132d (fourth edge) is calculated (pixels painted in black in the binary images 322a and 323a).

第3及び第4の検出枠322、323は、アームレスト13に設置されたスイッチ部41の近傍に設定されることから、第3及び第4の検出枠322、323内における画素値が「1」である画素が多い方が、操作者の腕のエッジを表していると考えられる。よって判別部32bは、画素値が「1」である画素を第3及び第4の検出枠322、323それぞれについて算出し、画素数と操作者判定テーブル33に基づいて操作者を判別する。   Since the third and fourth detection frames 322 and 323 are set in the vicinity of the switch unit 41 installed on the armrest 13, the pixel value in the third and fourth detection frames 322 and 323 is “1”. It can be considered that the more pixels that are, the edge of the operator's arm is represented. Therefore, the determination unit 32 b calculates a pixel having a pixel value “1” for each of the third and fourth detection frames 322 and 323, and determines the operator based on the number of pixels and the operator determination table 33.

図7A(c)に示す第3の検出枠322の画素数が「1」である画素の数をC(図中では、一例として5個)、図7B(e)に示す第4の検出枠323の画素数が「1」である画素の数をD(図中では、一例として11個)とすると、判別部32bは、操作者判定テーブル33に基づいて(1)C≧Dのとき、操作者を運転者2Aと判定し、(2)C<Dのとき、操作者を同乗者2Bと判定する。なお、C=Dのとき、判別部32bが操作者を運転者2Aであると判定する理由は、運転者2Aは運転を行っている可能性が高く、カーナビゲーション部4の操作を長時間行うことは、事故に繋がる可能性があるためである。そこで、運転者2Aの操作を制限する方が安全に繋がるため、C=Dのとき、判別部32bは、操作者を運転者2Aと判定し、操作を制限する。   The number of pixels in which the number of pixels in the third detection frame 322 shown in FIG. 7A (c) is “1” is C (5 in the figure as an example), and the fourth detection frame shown in FIG. 7B (e). Assuming that the number of pixels in which the number of pixels of 323 is “1” is D (11 in the figure as an example), the determination unit 32b is based on the operator determination table 33 (1) When C ≧ D, The operator is determined to be the driver 2A. (2) When C <D, the operator is determined to be the passenger 2B. When C = D, the reason why the determination unit 32b determines that the operator is the driver 2A is that the driver 2A is likely to be driving and the car navigation unit 4 is operated for a long time. This is because it may lead to an accident. Therefore, since it is safer to restrict the operation of the driver 2A, when C = D, the determination unit 32b determines that the operator is the driver 2A and restricts the operation.

上記の理由により判別部32bは、図7A(c)及び図7B(e)に示す2値画像322a、323aに基づいて第5及び第8のエッジ131d、132dを構成する画素数を算出し、C<Dであるので、操作者判定テーブル33に基づいて操作者を同乗者2Bであると判定する(S4)。   For the above reason, the determination unit 32b calculates the number of pixels constituting the fifth and eighth edges 131d and 132d based on the binary images 322a and 323a shown in FIGS. 7A (c) and 7B (e). Since C <D, the operator is determined to be the passenger 2B based on the operator determination table 33 (S4).

ここでステップ2において、第1及び第2の検出枠320、321内の第1及び第2のエッジ131a、132aが同時に切れていなかったとき(S2;No)、判別部32bは、ステップ4に進んで操作者を判別する。なお、第1及び第2のエッジ131a、132aが、どちらも切れていないときは、判別部32bは、判別を行わず、抽出部32aは、所定の時間間隔に基づいて第1及び第2の検出枠320、321内のエッジの抽出処理を行う。   Here, in step 2, when the first and second edges 131a and 132a in the first and second detection frames 320 and 321 are not cut simultaneously (S2; No), the determination unit 32b proceeds to step 4. Go ahead and determine the operator. When neither the first edge 131a nor the second edge 132a is cut, the determination unit 32b does not perform determination, and the extraction unit 32a determines whether the first and second edges are based on a predetermined time interval. Extraction processing of edges within the detection frames 320 and 321 is performed.

画像処理部32は、上記の処理に基づいて操作者を同乗者2Bと判定したのち、カーナビゲーション部4を制御して、同乗者2Bに許された操作メニューを表示部40に表示させる。   The image processing unit 32 determines that the operator is the passenger 2B based on the above processing, and then controls the car navigation unit 4 to display the operation menu permitted for the passenger 2B on the display unit 40.

(効果)
上記した実施の形態によると、操作者の腕が必ず通過する画像上の特定の領域のみに対して画像処理を行うので、運転者2Aの腕2aなのか、同乗者2Bの腕2bなのかを、簡単なアルゴリズムによって判別することができ、小型で安価なコンピュータを用いることができる。また、小型で安価なコンピュータを用いることができるので、省スペース及び省コストである。
(effect)
According to the above-described embodiment, image processing is performed only on a specific region on the image through which the operator's arm always passes. Therefore, it is determined whether the arm 2a of the driver 2A or the arm 2b of the passenger 2B. This can be determined by a simple algorithm, and a small and inexpensive computer can be used. Further, since a small and inexpensive computer can be used, space and cost are saved.

なお、本発明は、上記した実施の形態に限定されず、本発明の技術思想を逸脱あるいは変更しない範囲内で種々の変形が可能である。   The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from or changing the technical idea of the present invention.

本発明の実施の形態に係る操作者判別装置を搭載した車両の概略図である。It is the schematic of the vehicle carrying the operator discrimination device which concerns on embodiment of this invention. 本発明の実施の形態に係る操作者判別装置のブロック図である。It is a block diagram of the operator discriminating device concerning an embodiment of the invention. 本発明の実施の形態に係る車両内部の上方図である。It is an upper view inside a vehicle concerning an embodiment of the invention. 本発明の実施の形態に係る操作者判定テーブルである。It is an operator determination table which concerns on embodiment of this invention. (a)は、本発明の実施の形態に係る撮像されたアームレスト近傍の画像の概略図であり、(b)は、本発明の実施の形態に係る第1の検出枠内における2値画像であり、(c)は、本発明の実施の形態に係る第2の検出枠内における2値画像である。(A) is the schematic of the image of the imaged armrest vicinity which concerns on embodiment of this invention, (b) is a binary image in the 1st detection frame which concerns on embodiment of this invention. And (c) is a binary image in the second detection frame according to the embodiment of the present invention. (a)は、本発明の実施の形態に係る撮像されたアームレスト近傍の画像の概略図であり、(b)は、本発明の実施の形態に係る第1の検出枠内における2値画像であり、(c)は、本発明の実施の形態に係る第2の検出枠内における2値画像である。(A) is the schematic of the image of the imaged armrest vicinity which concerns on embodiment of this invention, (b) is a binary image in the 1st detection frame which concerns on embodiment of this invention. And (c) is a binary image in the second detection frame according to the embodiment of the present invention. (a)は、本発明の実施の形態に係る撮像されたアームレスト近傍の画像の概略図であり、(b)は、本発明の実施の形態に係る第1の検出枠内における2値画像であり、(c)は、本発明の実施の形態に係る第3の検出枠内における2値画像である。(A) is the schematic of the image of the imaged armrest vicinity which concerns on embodiment of this invention, (b) is a binary image in the 1st detection frame which concerns on embodiment of this invention. And (c) is a binary image in the third detection frame according to the embodiment of the present invention. (d)は、本発明の実施の形態に係る第2の検出枠内における2値画像であり、(e)は、本発明の実施の形態に係る第4の検出枠内における2値画像である。(D) is a binary image in the second detection frame according to the embodiment of the present invention, and (e) is a binary image in the fourth detection frame according to the embodiment of the present invention. is there. 本発明の実施の形態に係るフローチャートである。It is a flowchart which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1…車両、2A…運転者、2B…同乗者、2a、2b…腕、3…操作者判別装置、4…カーナビゲーション部、10…車両本体、11…運転者座席、12…同乗者座席、13…アームレスト、31…CCDカメラ、32…画像処理部、32a…抽出部、32b…判別部、33…操作者判定テーブル、40…表示部、41…スイッチ部、131…第1の縁辺、132…第2の縁辺、131a…第1のエッジ、131b…第3のエッジ、131c…第4のエッジ、131d…第5のエッジ、132a…第2のエッジ、132b…第6のエッジ、132c…第7のエッジ、132d…第8のエッジ、320…第1の検出枠、320a…2値画像、321…第2の検出枠、321a…2値画像、322…第3の検出枠、322a…2値画像、323…第4の検出枠、323a…2値画像、330a…エッジ切れ、330b…画素数、330c…判定 DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2A ... Driver, 2B ... Passenger, 2a, 2b ... Arm, 3 ... Operator discrimination | determination apparatus, 4 ... Car navigation part, 10 ... Vehicle main body, 11 ... Driver seat, 12 ... Passenger seat, DESCRIPTION OF SYMBOLS 13 ... Armrest, 31 ... CCD camera, 32 ... Image processing part, 32a ... Extraction part, 32b ... Discrimination part, 33 ... Operator determination table, 40 ... Display part, 41 ... Switch part, 131 ... First edge, 132 2nd edge, 131a ... 1st edge, 131b ... 3rd edge, 131c ... 4th edge, 131d ... 5th edge, 132a ... 2nd edge, 132b ... 6th edge, 132c ... Seventh edge, 132d ... eighth edge, 320 ... first detection frame, 320a ... binary image, 321 ... second detection frame, 321a ... binary image, 322 ... third detection frame, 322a ... Binary image, 323 ... Fourth detection frame, 323a ... 2 binary image, 330a ... edge tear, 330b ... number of pixels, 330c ... determination

Claims (5)

運転者及び同乗者から操作可能な位置に設けられた車載装置の操作部を操作する操作者の腕が上部を通過する位置に設けられ、前記運転者側に第1の縁辺、及び前記同乗者側に第2の縁辺を有する構造物と、
前記構造物の前記第1及び第2の縁辺を含むように撮像可能な位置に設けられた撮像部と、
前記撮像部が撮像した画像データに基づいて前記第1及び第2の縁辺を含むように第1及び第2の検出枠をそれぞれ設定し、前記第1及び第2の検出枠内における前記第1及び第2の縁辺に基づいたエッジを抽出するフィルタ処理を行って第1及び第2のエッジを抽出する抽出部と、抽出された前記第1及び第2のエッジに対してラベリング処理を行い、前記操作者の前記腕によって前記第1のエッジが複数のエッジとして認識されたとき、前記運転者が前記操作者であると判別し、前記操作者の前記腕によって前記第2のエッジが複数の前記エッジとして認識されたとき、前記同乗者が前記操作者であると判別する判別部とを有する画像処理部と、
を備えたことを特徴とする操作者判別装置。
The arm of the operator who operates the operation unit of the in-vehicle device provided at a position operable by the driver and the passenger is provided at a position passing through the upper part, the first edge on the driver side, and the passenger A structure having a second edge on the side;
An imaging unit provided at a position capable of imaging so as to include the first and second edges of the structure;
First and second detection frames are respectively set so as to include the first and second edges based on image data captured by the imaging unit, and the first and second detection frames in the first and second detection frames are set. And an extraction unit for extracting the first and second edges by performing a filtering process for extracting an edge based on the second edge, and a labeling process for the extracted first and second edges, When the first edge is recognized as a plurality of edges by the operator's arm, the driver determines that the operator is the operator, and the operator's arm has a plurality of the second edge. An image processing unit having a determination unit that determines that the fellow passenger is the operator when recognized as the edge;
An operator discrimination device comprising:
前記構造物は、車両の運転者座席と同乗者座席の間に設けられたアームレストであることを特徴とする請求項1に記載の操作者判別装置。   The operator discriminating apparatus according to claim 1, wherein the structure is an armrest provided between a driver seat and a passenger seat of a vehicle. 前記撮像部は、前記車両の天井に設けられた、CCD(Charge−Coupled Device)カメラ又はCMOS(Complementary Metal Oxide Semiconductor)カメラであることを特徴とする請求項2に記載の操作者判別装置。   3. The operator determination device according to claim 2, wherein the imaging unit is a charge-coupled device (CCD) camera or a complementary metal oxide semiconductor (CMOS) camera provided on a ceiling of the vehicle. 前記抽出部は、前記第1及び第2の検出枠の間の前記運転者側に第3の検出枠、及び前記同乗者側に第4の検出枠、を前記操作部に近い位置に設け、前記第3及び第4の検出枠内において前記フィルタ処理を行って第3及び第4のエッジを抽出し、
前記判別部は、前記第1及び第2のエッジが複数の前記エッジとしてそれぞれ認識されたとき、前記第3のエッジを構成する第1の画素数、及び前記第4のエッジを構成する第2の画素数に基づいて前記第1の画素数が前記第2の画素数以上であるとき、前記運転者が前記操作者であると判別し、前記第1の画素数が前記第2の画素数よりも少ないとき、前記同乗者が前記操作者であると判別することを特徴とする請求項3に記載の操作者判別装置。
The extraction unit is provided with a third detection frame on the driver side between the first and second detection frames, and a fourth detection frame on the passenger side at a position close to the operation unit, Performing the filtering within the third and fourth detection frames to extract third and fourth edges;
When the first and second edges are respectively recognized as a plurality of the edges, the determination unit includes a first number of pixels constituting the third edge and a second constituting the fourth edge. When the first pixel number is equal to or greater than the second pixel number based on the number of pixels, the driver is determined to be the operator, and the first pixel number is the second pixel number. The operator discriminating apparatus according to claim 3, wherein when the number of passengers is smaller, the passenger is determined to be the operator.
運転者及び同乗者から操作可能な位置に設けられた車載装置の操作部を操作する操作者の腕が上部を通過する位置に設けられ、前記運転者側に第1の縁辺、及び前記同乗者側に第2の縁辺を有する構造物と、
前記構造物の前記第1及び第2の縁辺を含むように撮像可能な位置に設けられた撮像部と、
前記撮像部が撮像した画像データに基づいて前記第1及び第2の縁辺を含むように第1及び第2の検出枠をそれぞれ設定し、前記第1及び第2の検出枠内における前記第1及び第2の縁辺に基づいたエッジを抽出するフィルタ処理を行って第1及び第2のエッジを抽出する抽出部と、抽出された前記第1及び第2のエッジに対してラベリング処理を行い、前記操作者の前記腕によって前記第1及び第2のエッジがそれぞれ複数のエッジとして認識されたとき、前記抽出部によって前記第1及び第2の検出枠の間の前記運転者側に第3の検出枠、及び前記同乗者側に第4の検出枠、を前記操作部に近い位置に設けて前記第3及び第4の検出枠内においてエッジを抽出する前記フィルタ処理を行って第3及び第4のエッジを抽出したのち、前記第3のエッジを構成する第1の画素数、及び前記第4のエッジを構成する第2の画素数に基づいて前記第1の画素数が前記第2の画素数以上であるとき、前記運転者が前記操作者であると判別し、前記第1の画素数が前記第2の画素数よりも少ないとき、前記同乗者が前記操作者であると判別する判別部とを有する画像処理部と、
を備えたことを特徴とする操作者判別装置。
The arm of the operator who operates the operation unit of the in-vehicle device provided at a position operable by the driver and the passenger is provided at a position passing through the upper part, the first edge on the driver side, and the passenger A structure having a second edge on the side;
An imaging unit provided at a position capable of imaging so as to include the first and second edges of the structure;
First and second detection frames are respectively set so as to include the first and second edges based on image data captured by the imaging unit, and the first and second detection frames in the first and second detection frames are set. And an extraction unit for extracting the first and second edges by performing a filtering process for extracting an edge based on the second edge, and a labeling process for the extracted first and second edges, When the first and second edges are recognized as a plurality of edges by the operator's arm, a third part is provided on the driver side between the first and second detection frames by the extraction unit. A detection frame and a fourth detection frame on the passenger side are provided at positions close to the operation unit, and the filtering process is performed to extract an edge in the third and fourth detection frames, and the third and fourth detection frames are performed. After extracting 4 edges, When the first pixel number is equal to or greater than the second pixel number based on the first pixel number constituting the edge and the second pixel number constituting the fourth edge, the driver An image processing unit having a determination unit that determines that the passenger is the operator and determines that the fellow passenger is the operator when the first pixel number is smaller than the second pixel number;
An operator discrimination device comprising:
JP2008056172A 2008-03-06 2008-03-06 Operator-discriminating device Pending JP2009208716A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008056172A JP2009208716A (en) 2008-03-06 2008-03-06 Operator-discriminating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008056172A JP2009208716A (en) 2008-03-06 2008-03-06 Operator-discriminating device

Publications (1)

Publication Number Publication Date
JP2009208716A true JP2009208716A (en) 2009-09-17

Family

ID=41182282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008056172A Pending JP2009208716A (en) 2008-03-06 2008-03-06 Operator-discriminating device

Country Status (1)

Country Link
JP (1) JP2009208716A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101696593B1 (en) * 2015-07-09 2017-01-16 현대자동차주식회사 Input apparatus, vehicle comprising the same and control method for the vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101696593B1 (en) * 2015-07-09 2017-01-16 현대자동차주식회사 Input apparatus, vehicle comprising the same and control method for the vehicle
US10095313B2 (en) 2015-07-09 2018-10-09 Hyundai Motor Company Input device, vehicle having the input device, and method for controlling the vehicle

Similar Documents

Publication Publication Date Title
US10166922B2 (en) On-vehicle image display device, on-vehicle image display method for vehicle, and on-vehicle image setting device
US20170066375A1 (en) Vehicle-mounted display device
JP6011104B2 (en) Visibility support device for vehicle
EP2683569B1 (en) System and method for disabling a vehicle
JP6197814B2 (en) Vehicle display device
JP5482737B2 (en) Visual load amount estimation device, driving support device, and visual load amount estimation program
JP2004067031A (en) Operator determining device and on-vehicle device using the same
US10752177B2 (en) Vehicular visual recognition device and vehicular visual recognition image display method
CN105857180B (en) Haze sky vehicle drive assist system and its method
US8611608B2 (en) Front seat vehicle occupancy detection via seat pattern recognition
US9393908B2 (en) Obstacle alarm device
JP2008141578A (en) Visual recognizing apparatus for vehicle surrounding
EP2775468A1 (en) Obstacle alert device
JP6523018B2 (en) Parking support device and parking support system
US9396401B2 (en) Obstacle alarm device
WO2016157766A1 (en) Image processing device and electronic mirror system
JP2014197252A (en) Gesture operation apparatus, program thereof, and vehicle mounted with gesture operation apparatus
JP2009208716A (en) Operator-discriminating device
JP2009083791A (en) Image display method, on-vehicle image display system and image processing apparatus
JP5704416B2 (en) Obstacle alarm device
JP2019009598A (en) Display controller, display control method, and display control program
CN109068091A (en) Image transfer apparatus, image diagnosing system and image diagnostic system
JP5943207B2 (en) Video display device for vehicle parking operation support
JP5617678B2 (en) Vehicle display device
JP2009294843A (en) Operator discrimination apparatus and operator discrimination method