JP2009208716A - Operator-discriminating device - Google Patents
Operator-discriminating device Download PDFInfo
- Publication number
- JP2009208716A JP2009208716A JP2008056172A JP2008056172A JP2009208716A JP 2009208716 A JP2009208716 A JP 2009208716A JP 2008056172 A JP2008056172 A JP 2008056172A JP 2008056172 A JP2008056172 A JP 2008056172A JP 2009208716 A JP2009208716 A JP 2009208716A
- Authority
- JP
- Japan
- Prior art keywords
- operator
- edge
- edges
- passenger
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、車載装置を操作する操作者が、運転者か、同乗者かを判別することができる操作者判別装置に関する。 The present invention relates to an operator discriminating device that can discriminate whether an operator who operates an in-vehicle device is a driver or a passenger.
従来の技術として、車両の運転者座席と助手席の前方に設けられ、車載装置の操作項目を表示する表示操作部と、表示操作部と表示操作部へ伸ばされた運転者の左手、及び助手席着座者の右手を共に視野にいれて撮像可能に車両中心線上である運転者座席と助手席の中心に設けられた遠赤外線カメラと、遠赤外線カメラで撮像した画像データを処理して操作者を判別する画像処理部と、を備えた操作者判別装置が知られている(例えば、特許文献1参照)。 As a conventional technique, a display operation unit that is provided in front of a driver seat and a passenger seat of a vehicle and displays operation items of the in-vehicle device, a driver's left hand extended to the display operation unit and the display operation unit, and an assistant An operator who processes the image data captured by the far-infrared camera and the far-infrared camera provided in the center of the driver's seat and the passenger seat on the vehicle center line so that the right hand of the seated occupant can both be viewed and captured. There is known an operator discriminating device including an image processing unit for discriminating (see, for example, Patent Document 1).
この操作者判別装置によれば、画像データから抽出された操作者の手の重心が、画像内に設定された基準線の左側領域にあるか右側領域にあるかによって操作者を判別し、その判別結果と車両の走行状態に基づいて表示操作部に表示された操作項目の許可範囲を制限することができる。
従来の操作者判別装置では、遠赤外線カメラは、運転者座席と助手席の間に設置されるため、後部座席からの視界を遮る可能性があった。また、従来の操作者判別装置に用いる遠赤外線カメラは高価で入手しにくいという問題があった。 In the conventional operator discriminating device, the far-infrared camera is installed between the driver's seat and the passenger seat, and thus there is a possibility that the view from the rear seat may be blocked. In addition, the far-infrared camera used in the conventional operator discrimination device is expensive and difficult to obtain.
また、従来の操作者判別装置は、遠赤外線カメラを用いた場合、熱い飲料の入った容器、高温の電子機器、直射日光によって熱せられた物体などの、高温の物体が表示操作部の近傍に存在するとき、操作者の手の判別制度が悪化する可能性があった。 Further, when the conventional operator discriminating device uses a far infrared camera, a hot object such as a container containing a hot beverage, a high-temperature electronic device, an object heated by direct sunlight, etc. is in the vicinity of the display operation unit. When present, the operator's hand discrimination system could deteriorate.
従って本発明の目的は、車載装置を操作する操作者を精度良く判別する操作者判別装置を提供する。 Accordingly, an object of the present invention is to provide an operator discriminating device that discriminates an operator who operates an in-vehicle device with high accuracy.
(1)本発明は上記目的を達成するため、運転者及び同乗者から操作可能な位置に設けられた車載装置の操作部を操作する操作者の腕が上部を通過する位置に設けられ、前記運転者側に第1の縁辺、及び前記同乗者側に第2の縁辺を有する構造物と、前記構造物の前記第1及び第2の縁辺を含むように撮像可能な位置に設けられた撮像部と、前記撮像部が撮像した画像データに基づいて前記第1及び第2の縁辺を含むように第1及び第2の検出枠をそれぞれ設定し、前記第1及び第2の検出枠内における前記第1及び第2の縁辺に基づいたエッジを抽出するフィルタ処理を行って第1及び第2のエッジを抽出する抽出部と、抽出された前記第1及び第2のエッジに対してラベリング処理を行い、前記操作者の前記腕によって前記第1のエッジが複数のエッジとして認識されたとき、前記運転者が前記操作者であると判別し、前記操作者の前記腕によって前記第2のエッジが複数の前記エッジとして認識されたとき、前記同乗者が前記操作者であると判別する判別部とを有する画像処理部と、を備えたことを特徴とする操作者判別装置を提供する。 (1) In order to achieve the above object, the present invention is provided at a position where an operator's arm for operating an operation unit of an in-vehicle device provided at a position operable by a driver and a passenger passes through the upper part, A structure having a first edge on the driver side and a second edge on the passenger side, and imaging provided at a position where imaging can be performed so as to include the first and second edges of the structure. And first and second detection frames are set to include the first and second edges based on the image data captured by the image capturing unit and the image capturing unit, and the first and second detection frames are set in the first and second detection frames, respectively. An extraction unit that extracts the first and second edges by performing a filtering process that extracts edges based on the first and second edges, and a labeling process on the extracted first and second edges The first edge by the arm of the operator When recognized as a plurality of edges, the driver determines that the driver is the operator, and when the second edge is recognized as the plurality of edges by the operator's arm, the passenger is An operator discriminating apparatus comprising: an image processing unit including a discriminating unit that discriminates that the user is an operator.
上記した構成によれば、車載装置を操作する操作者を精度良く判別することができる。 According to the configuration described above, it is possible to accurately determine the operator who operates the in-vehicle device.
(2)本発明は上記目的を達成するため、運転者及び同乗者から操作可能な位置に設けられた車載装置の操作部を操作する操作者の腕が上部を通過する位置に設けられ、前記運転者側に第1の縁辺、及び前記同乗者側に第2の縁辺を有する構造物と、前記構造物の前記第1及び第2の縁辺を含むように撮像可能な位置に設けられた撮像部と、前記撮像部が撮像した画像データに基づいて前記第1及び第2の縁辺を含むように第1及び第2の検出枠をそれぞれ設定し、前記第1及び第2の検出枠内における前記第1及び第2の縁辺に基づいたエッジを抽出するフィルタ処理を行って第1及び第2のエッジを抽出する抽出部と、抽出された前記第1及び第2のエッジに対してラベリング処理を行い、前記操作者の前記腕によって前記第1及び第2のエッジがそれぞれ複数のエッジとして認識されたとき、前記抽出部によって前記第1及び第2の検出枠の間の前記運転者側に第3の検出枠、及び前記同乗者側に第4の検出枠、を前記操作部に近い位置に設けて前記第3及び第4の検出枠内においてエッジを抽出する前記フィルタ処理を行って第3及び第4のエッジを抽出したのち、前記第3のエッジを構成する第1の画素数、及び前記第4のエッジを構成する第2の画素数に基づいて前記第1の画素数が前記第2の画素数以上であるとき、前記運転者が前記操作者であると判別し、前記第1の画素数が前記第2の画素数よりも少ないとき、前記同乗者が前記操作者であると判別する判別部とを有する画像処理部と、を備えたことを特徴とする操作者判別装置を提供する。 (2) In order to achieve the above object, the present invention is provided at a position where an operator's arm for operating an operation unit of an in-vehicle device provided at a position operable by a driver and a passenger passes through the upper part, A structure having a first edge on the driver side and a second edge on the passenger side, and imaging provided at a position where imaging can be performed so as to include the first and second edges of the structure. And first and second detection frames are set to include the first and second edges based on the image data captured by the image capturing unit and the image capturing unit, and the first and second detection frames are set in the first and second detection frames, respectively. An extraction unit that extracts the first and second edges by performing a filtering process that extracts edges based on the first and second edges, and a labeling process on the extracted first and second edges And the first and second by the arm of the operator When each edge is recognized as a plurality of edges, the extraction unit provides a third detection frame on the driver side and a fourth detection frame on the passenger side between the first and second detection frames. , At a position close to the operation unit, and performing the filtering process for extracting edges within the third and fourth detection frames to extract the third and fourth edges, and then extracting the third edge. When the first pixel number is equal to or larger than the second pixel number based on the first pixel number constituting the second pixel number and the second pixel number constituting the fourth edge, the driver is the operator And an image processing unit including a determination unit that determines that the fellow passenger is the operator when the first number of pixels is smaller than the second number of pixels. An operator discrimination device characterized by the above is provided.
上記した構成によれば、車載装置を操作する操作者を、さらに精度良く判別することができる。 According to the configuration described above, the operator who operates the in-vehicle device can be determined with higher accuracy.
このような構成によれば、車載装置を操作する操作者を精度良く判別する操作者判別装置を提供することができる。 According to such a configuration, it is possible to provide an operator discrimination device that accurately discriminates an operator who operates the in-vehicle device.
以下に、本発明の操作者判別装置の実施の形態を図面を参考にして詳細に説明する。 Embodiments of an operator discrimination device according to the present invention will be described below in detail with reference to the drawings.
[実施の形態]
(車両1の構成)
図1は、本発明の実施の形態に係る操作者判別装置を搭載した車両の概略図である。本実施の形態における操作者判別装置は、車両1に搭載され、一例として、後述する車載装置としてのカーナビゲーション部のスイッチ部41を操作する操作者の判別を行うものとする。なお、本実施の形態としてカーナビゲーション部を例にとって説明するが、これに限定されず、カーオーディオ等の電子機器に適用されても良い。また、表示部40を運転者2A側及び同乗者側の2画面に分け、それぞれに異なる操作メニューを表示し、スイッチ部41を操作する操作者を判別することによって、判別された操作者側の画面に表示された操作メニューのみを操作可能にするようにしても良く、これに限定されない。ここで同乗者とは、運転者2Aの隣に着座する者を指すものとする。
[Embodiment]
(Configuration of vehicle 1)
FIG. 1 is a schematic diagram of a vehicle equipped with an operator discrimination device according to an embodiment of the present invention. The operator discriminating device in the present embodiment is mounted on the
車両1は、エンジン及び各種電子機器(図示せず)を搭載する車両本体10と、運転者2Aが着座する運転者座席11と、運転者座席11と後述する同乗者座席との間に設けられた構造物としてのアームレスト13と、アームレスト13に対向する車両本体10の天井に設けられた撮像部としてのCCD(Charge−Coupled Device)カメラ31と、画像や操作メニュー等を表示する後述するカーナビゲーション部の表示部40と、アームレスト13の前方に設けられたカーナビゲーション部の操作部としてのスイッチ部41と、を備えて概略構成されている。なお、スイッチ部41の位置は、これに限定されず、表示部40の近傍に設置、又はタッチパネル式の表示部としても良く、これに限定されない。
The
(操作者判別装置3の構成)
図2は、本発明の実施の形態に係る操作者判別装置のブロック図である。操作者判別装置3は、アームレスト13と、CCDカメラ31と、CCDカメラ31によって撮像された画像(画像データ)を解析し、操作者を判別する画像処理部32と、を備えて構成されている。画像処理部32は、さらに、画像に基づいて水平方向のエッジを抽出する抽出部32aと、抽出されたエッジに基づいてラベリング処理を行い、操作者を判別する判別部32bとを備え、カーナビゲーション部4と接続されている。画像処理部32は、操作者を判定する基準となる後述する操作者判定テーブル33を内部に記憶している。カーナビゲーション部4は、表示部40と、スイッチ部41と、を備えて概略構成されている。
(Configuration of operator discrimination device 3)
FIG. 2 is a block diagram of the operator discrimination device according to the embodiment of the present invention. The
なお、CCDカメラ31は、安価で低解像度の固定撮像素子を有するCMOS(Complementary Metal Oxide Semiconductor)カメラであっても良い。CCDカメラ31は、所定の時間間隔に基づいて車両内部を撮像するものとする。 The CCD camera 31 may be a CMOS (Complementary Metal Oxide Semiconductor) camera having a low-cost, low-resolution fixed image sensor. Assume that the CCD camera 31 images the inside of the vehicle based on a predetermined time interval.
(アームレスト13について)
図3は、本発明の実施の形態に係る車両内部の上方図である。車両1は、運転者2Aが着座する運転者座席11と、同乗者2Bが着座する同乗者座席12と、を備え、その間にはアームレスト13を備えている。このアームレスト13の運転者2A側の長手方向の辺を第1の縁辺131とし、同乗者2B側の長手方向の辺を第2の縁辺132とする。なお、後述する検出枠が設定され、操作者を判別する基準となる構造物は、アームレスト13に限定されず、容易にエッジが抽出できる特徴を有し、操作者の腕によって当該エッジが分断される、言い換えるならひとつのエッジとして認識されていたエッジが、複数のエッジとして認識されるものであれば良い。
(About armrest 13)
FIG. 3 is an upper view inside the vehicle according to the embodiment of the present invention. The
(操作者判定テーブル33について)
図4は、本発明の実施の形態に係る操作者判定テーブルである。操作者判定テーブル33は、一例として、画像処理部32の内部に記憶されているものであり、エッジ切れ330aとは、操作者の腕によって分断されたエッジを示すものであり、画素数330bとは、後述する第3及び第4のエッジを構成する画素数のことであり、判定330cとは、エッジ切れ330a及び画素数330bとに基づいて運転者2Aであるか同乗者2Bであるかの判定結果を示すものである。画像処理部32は、得られた結果に基づいて操作者判定テーブル33を参照し、スイッチ部41を操作する操作者が運転者2Aであるか同乗者2Bであるかを判別する。
(About the operator determination table 33)
FIG. 4 is an operator determination table according to the embodiment of the present invention. The operator determination table 33 is stored in the
(動作)
以下に本発明の実施の形態における操作者判別装置の動作を図1〜4、及び後述する図5〜7を参照し、図8のフローチャートに従って詳細に説明する。
(Operation)
The operation of the operator discriminating apparatus according to the embodiment of the present invention will be described in detail with reference to FIGS. 1 to 4 and FIGS.
図5(a)は、本発明の実施の形態に係る撮像されたアームレスト近傍の画像の概略図であり、図5(b)は、本発明の実施の形態に係る第1の検出枠内における2値画像であり、図5(c)は、本発明の実施の形態に係る第2の検出枠内における2値画像である。まず、第1及び第2の検出枠320、321における2値画像320a、321aについて説明する。
FIG. 5A is a schematic diagram of an image of the vicinity of the imaged armrest according to the embodiment of the present invention, and FIG. 5B is a diagram within the first detection frame according to the embodiment of the present invention. FIG. 5C shows a binary image, which is a binary image in the second detection frame according to the embodiment of the present invention. First, the
画像処理部32の抽出部32aは、図5(a)に示すように、CCDカメラ31から出力された画像データに基づいて第1及び第2の検出枠320、321をアームレスト13の第1及び第2の縁辺131、132が含まれるように設定する。
As illustrated in FIG. 5A, the extraction unit 32 a of the
抽出部32aは、第1及び第2の検出枠320、321を設定すると、第1及び第2の検出枠320、321内の画像データに対してアームレスト13の短手方向の輝度微分値を算出するフィルタ処理、続いて2値化処理を行い、アームレスト13の長手方向のエッジを抽出し、判別部32bは、抽出されたエッジに対してラベリング処理を行う。
When the first and second detection frames 320 and 321 are set, the extraction unit 32a calculates a luminance differential value in the short direction of the armrest 13 with respect to the image data in the first and second detection frames 320 and 321. Filter processing, and then binarization processing are performed to extract the edge in the longitudinal direction of the armrest 13, and the
このとき、第1の検出枠320において抽出部32aは、構成する画素数が最大であるエッジを第1の縁辺131に基づいたエッジとし、例えば、図5(b)に示す第1のエッジ131aを抽出する。また、第2の検出枠321において抽出部32aは、構成する画素数が最大であるエッジを第2の縁辺132に基づいたエッジとして、例えば、図5(c)に示す第2のエッジ132aを抽出する。
At this time, in the
画像処理部32は、上記の抽出結果を記憶し、例えば記憶された第1及び第2のエッジ131a、132aと、あらためて抽出されたエッジとを比較し、CCDカメラ31によって撮像された画像(画像データ)の補正を行う。
The
(運転者2Aの腕2aのみがアームレスト13上にある場合)
図6(a)は、本発明の実施の形態に係る撮像されたアームレスト近傍の画像の概略図であり、図6(b)は、本発明の実施の形態に係る第1の検出枠内における2値画像であり、図6(c)は、本発明の実施の形態に係る第2の検出枠内における2値画像である。続いて、運転者2Aがスイッチ部41の操作を行ったときの腕2aの検出について説明する。
(When only the driver's 2A arm 2a is on the armrest 13)
FIG. 6A is a schematic diagram of an image of the vicinity of the armrest imaged according to the embodiment of the present invention, and FIG. 6B is a diagram in the first detection frame according to the embodiment of the present invention. FIG. 6C is a binary image, and is a binary image in the second detection frame according to the embodiment of the present invention. Next, detection of the arm 2a when the driver 2A operates the
運転者2Aが、スイッチ部41の操作を行うとき、運転者2Aの腕2aがアームレスト13上を通過するため、CCDカメラ31によって撮像される画像は、図6(a)に示すように、第1の縁辺131の一部が隠された状態で撮像される。なお、このとき、図6(c)に示すように、同乗者2Bの腕2bは、アームレスト13の上にないものとする。運転者2Aの腕2aと同乗者2Bの腕2bが、同時にアームレスト13上にある場合については後述する。
When the driver 2A operates the
抽出部32aは、第1の検出枠320内の画像に対してアームレスト13の短手方向の輝度微分値を算出するフィルタ処理、続いて2値化処理を行う。判別部32bは、抽出されたエッジに対してラベリング処理を行い、第1の縁辺131は、腕2aによってその一部が隠されているので、図6(b)に示すように、第1のエッジ131aを第3及び第4のエッジ131b、131cの複数のエッジとして認識する。
The extraction unit 32a performs a filtering process for calculating a luminance differential value in the short direction of the armrest 13 on the image in the
判別部32bは、第1のエッジ131aを構成する画素数に比べて第3及び第4のエッジ131b、131cを構成する画素数が所定の数未満であるとき、第1のエッジ131aが分断されていると判定し、操作者判定テーブル33を参照し、運転者2Aがスイッチ部41を操作する操作者であると判別する。なお、所定の数は、操作者判別装置3の設計者が自由に設定できるものであるとする。
The
なお、上記では、運転者2Aの腕2aがアームレスト13上にある場合について述べたが、同乗者2Bの腕2bのみがアームレスト13上にある場合についても同様の方法によって判別される。 In the above description, the case where the driver's 2A arm 2a is on the armrest 13 has been described, but the case where only the passenger 2B's arm 2b is on the armrest 13 is also determined by the same method.
(運転者2Aの腕2aと同乗者2Bの腕2bがアームレスト13上にある場合)
図7A(a)は、本発明の実施の形態に係る撮像されたアームレスト近傍の画像の概略図であり、図7A(b)は、本発明の実施の形態に係る第1の検出枠内における2値画像であり、図7A(c)は、本発明の実施の形態に係る第3の検出枠内における2値画像であり、図7B(d)は、本発明の実施の形態に係る第2の検出枠内における2値画像であり、図7B(e)は、本発明の実施の形態に係る第4の検出枠内における2値画像である。2値画像322a及び323aは、一例として画像を5×8画素で表しているが、これに限定されない。
(When the driver's 2A arm 2a and the passenger 2B's arm 2b are on the armrest 13)
FIG. 7A (a) is a schematic diagram of an image of the vicinity of the imaged armrest according to the embodiment of the present invention, and FIG. 7A (b) is within the first detection frame according to the embodiment of the present invention. 7A (c) is a binary image in the third detection frame according to the embodiment of the present invention, and FIG. 7B (d) is a second image according to the embodiment of the present invention. FIG. 7B (e) is a binary image in the fourth detection frame according to the embodiment of the present invention. As an example, the binary images 322a and 323a represent 5 × 8 pixels, but the present invention is not limited to this.
上記した例では、運転者2Aの腕2aと同乗者2Bの腕2bが、同時にアームレスト13上にない場合については、精度良くスイッチ部41を操作する操作者の腕を検出することができた。しかし、運転者2Aの腕2aと同乗者2Bの腕2bが、同時にアームレスト13上ある場合は、第1及び第2の検出枠320、321内の画像処理だけでは、操作者を判別することができない恐れがある。そこで以下では、抽出部32aが画像上のアームレスト13内に第3及び第4の検出枠322、323を設定し、操作者を判別する方法について説明する。なお、第3及び第4の検出枠322、323の大きさは、これに限定されない。
In the above-described example, when the arm 2a of the driver 2A and the arm 2b of the passenger 2B are not on the armrest 13 at the same time, the arm of the operator who operates the
運転者2A及び同乗者2Bは、運転者座席11及び同乗者座席12にそれぞれ着座しているものとする。運転者2Aが車両1の電源を投入したのち、操作者判別装置3のCCDカメラ31は撮像を開始する。
It is assumed that the driver 2A and the passenger 2B are seated in the driver seat 11 and the passenger seat 12, respectively. After the driver 2A turns on the
まず抽出部32aは、第1及び第2の検出枠320、321を設定し、第1及び第2の検出枠320、321内の画像に対してアームレスト13の短手方向の輝度微分値を算出するフィルタ処理、続いて2値化処理を行う。抽出部32aは、第1及び第2の検出枠320、321内のエッジを抽出し、判別部32bは、エッジが切れているか否かを検出する(S1)。
First, the extraction unit 32 a sets the first and second detection frames 320 and 321, and calculates the luminance differential value in the short direction of the armrest 13 with respect to the images in the first and second detection frames 320 and 321. Filter processing, and then binarization processing. The extraction unit 32a extracts the edges in the first and second detection frames 320 and 321, and the
運転者2Aの腕2aと同乗者2Bの腕2bは、図7A(a)に示すように、同時にアームレスト13上にあるので、判別部32bは、図7A(b)及び図7B(d)に示すように、第1の縁辺131のエッジが第3及び第4のエッジ131b、131cに分断され、第2の縁辺132のエッジが第6及び第7のエッジ132b、132cに分断されていると判定し(S2;Yes)、この状態では操作者を判別できないので、抽出部32aは、アームレスト13上のスイッチ部41に近い領域に、図7A(a)に示す第3及び第4の検出枠322、323を設定する(S3)。
Since the arm 2a of the driver 2A and the arm 2b of the passenger 2B are simultaneously on the armrest 13 as shown in FIG. 7A (a), the
抽出部32aは、第3及び第4の検出枠322、323内の画像に対してアームレスト13の短手方向の輝度微分値を算出するフィルタ処理、続いて2値化処理を行う。この2値化処理に基づいて図7A(c)及び図7B(e)に示す2値画像322a、323aが得られるので、判別部32bは、2値画像322a、323aから画素値が「1」(2値画像322a、323aにおいて黒色で塗られた画素)、すなわち第5のエッジ131d(第3のエッジ)及び第8のエッジ132d(第4のエッジ)を構成する画素の数を算出する。
The extraction unit 32a performs a filtering process for calculating a luminance differential value in the short direction of the armrest 13 on the images in the third and fourth detection frames 322 and 323, and then performs a binarization process. Since the binary images 322a and 323a shown in FIGS. 7A (c) and 7B (e) are obtained based on this binarization processing, the
第3及び第4の検出枠322、323は、アームレスト13に設置されたスイッチ部41の近傍に設定されることから、第3及び第4の検出枠322、323内における画素値が「1」である画素が多い方が、操作者の腕のエッジを表していると考えられる。よって判別部32bは、画素値が「1」である画素を第3及び第4の検出枠322、323それぞれについて算出し、画素数と操作者判定テーブル33に基づいて操作者を判別する。
Since the third and fourth detection frames 322 and 323 are set in the vicinity of the
図7A(c)に示す第3の検出枠322の画素数が「1」である画素の数をC(図中では、一例として5個)、図7B(e)に示す第4の検出枠323の画素数が「1」である画素の数をD(図中では、一例として11個)とすると、判別部32bは、操作者判定テーブル33に基づいて(1)C≧Dのとき、操作者を運転者2Aと判定し、(2)C<Dのとき、操作者を同乗者2Bと判定する。なお、C=Dのとき、判別部32bが操作者を運転者2Aであると判定する理由は、運転者2Aは運転を行っている可能性が高く、カーナビゲーション部4の操作を長時間行うことは、事故に繋がる可能性があるためである。そこで、運転者2Aの操作を制限する方が安全に繋がるため、C=Dのとき、判別部32bは、操作者を運転者2Aと判定し、操作を制限する。
The number of pixels in which the number of pixels in the third detection frame 322 shown in FIG. 7A (c) is “1” is C (5 in the figure as an example), and the fourth detection frame shown in FIG. 7B (e). Assuming that the number of pixels in which the number of pixels of 323 is “1” is D (11 in the figure as an example), the
上記の理由により判別部32bは、図7A(c)及び図7B(e)に示す2値画像322a、323aに基づいて第5及び第8のエッジ131d、132dを構成する画素数を算出し、C<Dであるので、操作者判定テーブル33に基づいて操作者を同乗者2Bであると判定する(S4)。
For the above reason, the
ここでステップ2において、第1及び第2の検出枠320、321内の第1及び第2のエッジ131a、132aが同時に切れていなかったとき(S2;No)、判別部32bは、ステップ4に進んで操作者を判別する。なお、第1及び第2のエッジ131a、132aが、どちらも切れていないときは、判別部32bは、判別を行わず、抽出部32aは、所定の時間間隔に基づいて第1及び第2の検出枠320、321内のエッジの抽出処理を行う。
Here, in
画像処理部32は、上記の処理に基づいて操作者を同乗者2Bと判定したのち、カーナビゲーション部4を制御して、同乗者2Bに許された操作メニューを表示部40に表示させる。
The
(効果)
上記した実施の形態によると、操作者の腕が必ず通過する画像上の特定の領域のみに対して画像処理を行うので、運転者2Aの腕2aなのか、同乗者2Bの腕2bなのかを、簡単なアルゴリズムによって判別することができ、小型で安価なコンピュータを用いることができる。また、小型で安価なコンピュータを用いることができるので、省スペース及び省コストである。
(effect)
According to the above-described embodiment, image processing is performed only on a specific region on the image through which the operator's arm always passes. Therefore, it is determined whether the arm 2a of the driver 2A or the arm 2b of the passenger 2B. This can be determined by a simple algorithm, and a small and inexpensive computer can be used. Further, since a small and inexpensive computer can be used, space and cost are saved.
なお、本発明は、上記した実施の形態に限定されず、本発明の技術思想を逸脱あるいは変更しない範囲内で種々の変形が可能である。 The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from or changing the technical idea of the present invention.
1…車両、2A…運転者、2B…同乗者、2a、2b…腕、3…操作者判別装置、4…カーナビゲーション部、10…車両本体、11…運転者座席、12…同乗者座席、13…アームレスト、31…CCDカメラ、32…画像処理部、32a…抽出部、32b…判別部、33…操作者判定テーブル、40…表示部、41…スイッチ部、131…第1の縁辺、132…第2の縁辺、131a…第1のエッジ、131b…第3のエッジ、131c…第4のエッジ、131d…第5のエッジ、132a…第2のエッジ、132b…第6のエッジ、132c…第7のエッジ、132d…第8のエッジ、320…第1の検出枠、320a…2値画像、321…第2の検出枠、321a…2値画像、322…第3の検出枠、322a…2値画像、323…第4の検出枠、323a…2値画像、330a…エッジ切れ、330b…画素数、330c…判定
DESCRIPTION OF
Claims (5)
前記構造物の前記第1及び第2の縁辺を含むように撮像可能な位置に設けられた撮像部と、
前記撮像部が撮像した画像データに基づいて前記第1及び第2の縁辺を含むように第1及び第2の検出枠をそれぞれ設定し、前記第1及び第2の検出枠内における前記第1及び第2の縁辺に基づいたエッジを抽出するフィルタ処理を行って第1及び第2のエッジを抽出する抽出部と、抽出された前記第1及び第2のエッジに対してラベリング処理を行い、前記操作者の前記腕によって前記第1のエッジが複数のエッジとして認識されたとき、前記運転者が前記操作者であると判別し、前記操作者の前記腕によって前記第2のエッジが複数の前記エッジとして認識されたとき、前記同乗者が前記操作者であると判別する判別部とを有する画像処理部と、
を備えたことを特徴とする操作者判別装置。 The arm of the operator who operates the operation unit of the in-vehicle device provided at a position operable by the driver and the passenger is provided at a position passing through the upper part, the first edge on the driver side, and the passenger A structure having a second edge on the side;
An imaging unit provided at a position capable of imaging so as to include the first and second edges of the structure;
First and second detection frames are respectively set so as to include the first and second edges based on image data captured by the imaging unit, and the first and second detection frames in the first and second detection frames are set. And an extraction unit for extracting the first and second edges by performing a filtering process for extracting an edge based on the second edge, and a labeling process for the extracted first and second edges, When the first edge is recognized as a plurality of edges by the operator's arm, the driver determines that the operator is the operator, and the operator's arm has a plurality of the second edge. An image processing unit having a determination unit that determines that the fellow passenger is the operator when recognized as the edge;
An operator discrimination device comprising:
前記判別部は、前記第1及び第2のエッジが複数の前記エッジとしてそれぞれ認識されたとき、前記第3のエッジを構成する第1の画素数、及び前記第4のエッジを構成する第2の画素数に基づいて前記第1の画素数が前記第2の画素数以上であるとき、前記運転者が前記操作者であると判別し、前記第1の画素数が前記第2の画素数よりも少ないとき、前記同乗者が前記操作者であると判別することを特徴とする請求項3に記載の操作者判別装置。 The extraction unit is provided with a third detection frame on the driver side between the first and second detection frames, and a fourth detection frame on the passenger side at a position close to the operation unit, Performing the filtering within the third and fourth detection frames to extract third and fourth edges;
When the first and second edges are respectively recognized as a plurality of the edges, the determination unit includes a first number of pixels constituting the third edge and a second constituting the fourth edge. When the first pixel number is equal to or greater than the second pixel number based on the number of pixels, the driver is determined to be the operator, and the first pixel number is the second pixel number. The operator discriminating apparatus according to claim 3, wherein when the number of passengers is smaller, the passenger is determined to be the operator.
前記構造物の前記第1及び第2の縁辺を含むように撮像可能な位置に設けられた撮像部と、
前記撮像部が撮像した画像データに基づいて前記第1及び第2の縁辺を含むように第1及び第2の検出枠をそれぞれ設定し、前記第1及び第2の検出枠内における前記第1及び第2の縁辺に基づいたエッジを抽出するフィルタ処理を行って第1及び第2のエッジを抽出する抽出部と、抽出された前記第1及び第2のエッジに対してラベリング処理を行い、前記操作者の前記腕によって前記第1及び第2のエッジがそれぞれ複数のエッジとして認識されたとき、前記抽出部によって前記第1及び第2の検出枠の間の前記運転者側に第3の検出枠、及び前記同乗者側に第4の検出枠、を前記操作部に近い位置に設けて前記第3及び第4の検出枠内においてエッジを抽出する前記フィルタ処理を行って第3及び第4のエッジを抽出したのち、前記第3のエッジを構成する第1の画素数、及び前記第4のエッジを構成する第2の画素数に基づいて前記第1の画素数が前記第2の画素数以上であるとき、前記運転者が前記操作者であると判別し、前記第1の画素数が前記第2の画素数よりも少ないとき、前記同乗者が前記操作者であると判別する判別部とを有する画像処理部と、
を備えたことを特徴とする操作者判別装置。 The arm of the operator who operates the operation unit of the in-vehicle device provided at a position operable by the driver and the passenger is provided at a position passing through the upper part, the first edge on the driver side, and the passenger A structure having a second edge on the side;
An imaging unit provided at a position capable of imaging so as to include the first and second edges of the structure;
First and second detection frames are respectively set so as to include the first and second edges based on image data captured by the imaging unit, and the first and second detection frames in the first and second detection frames are set. And an extraction unit for extracting the first and second edges by performing a filtering process for extracting an edge based on the second edge, and a labeling process for the extracted first and second edges, When the first and second edges are recognized as a plurality of edges by the operator's arm, a third part is provided on the driver side between the first and second detection frames by the extraction unit. A detection frame and a fourth detection frame on the passenger side are provided at positions close to the operation unit, and the filtering process is performed to extract an edge in the third and fourth detection frames, and the third and fourth detection frames are performed. After extracting 4 edges, When the first pixel number is equal to or greater than the second pixel number based on the first pixel number constituting the edge and the second pixel number constituting the fourth edge, the driver An image processing unit having a determination unit that determines that the passenger is the operator and determines that the fellow passenger is the operator when the first pixel number is smaller than the second pixel number;
An operator discrimination device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008056172A JP2009208716A (en) | 2008-03-06 | 2008-03-06 | Operator-discriminating device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008056172A JP2009208716A (en) | 2008-03-06 | 2008-03-06 | Operator-discriminating device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009208716A true JP2009208716A (en) | 2009-09-17 |
Family
ID=41182282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008056172A Pending JP2009208716A (en) | 2008-03-06 | 2008-03-06 | Operator-discriminating device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009208716A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101696593B1 (en) * | 2015-07-09 | 2017-01-16 | 현대자동차주식회사 | Input apparatus, vehicle comprising the same and control method for the vehicle |
-
2008
- 2008-03-06 JP JP2008056172A patent/JP2009208716A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101696593B1 (en) * | 2015-07-09 | 2017-01-16 | 현대자동차주식회사 | Input apparatus, vehicle comprising the same and control method for the vehicle |
US10095313B2 (en) | 2015-07-09 | 2018-10-09 | Hyundai Motor Company | Input device, vehicle having the input device, and method for controlling the vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10166922B2 (en) | On-vehicle image display device, on-vehicle image display method for vehicle, and on-vehicle image setting device | |
US20170066375A1 (en) | Vehicle-mounted display device | |
JP6011104B2 (en) | Visibility support device for vehicle | |
EP2683569B1 (en) | System and method for disabling a vehicle | |
JP6197814B2 (en) | Vehicle display device | |
JP5482737B2 (en) | Visual load amount estimation device, driving support device, and visual load amount estimation program | |
JP2004067031A (en) | Operator determining device and on-vehicle device using the same | |
US10752177B2 (en) | Vehicular visual recognition device and vehicular visual recognition image display method | |
CN105857180B (en) | Haze sky vehicle drive assist system and its method | |
US8611608B2 (en) | Front seat vehicle occupancy detection via seat pattern recognition | |
US9393908B2 (en) | Obstacle alarm device | |
JP2008141578A (en) | Visual recognizing apparatus for vehicle surrounding | |
EP2775468A1 (en) | Obstacle alert device | |
JP6523018B2 (en) | Parking support device and parking support system | |
US9396401B2 (en) | Obstacle alarm device | |
WO2016157766A1 (en) | Image processing device and electronic mirror system | |
JP2014197252A (en) | Gesture operation apparatus, program thereof, and vehicle mounted with gesture operation apparatus | |
JP2009208716A (en) | Operator-discriminating device | |
JP2009083791A (en) | Image display method, on-vehicle image display system and image processing apparatus | |
JP5704416B2 (en) | Obstacle alarm device | |
JP2019009598A (en) | Display controller, display control method, and display control program | |
CN109068091A (en) | Image transfer apparatus, image diagnosing system and image diagnostic system | |
JP5943207B2 (en) | Video display device for vehicle parking operation support | |
JP5617678B2 (en) | Vehicle display device | |
JP2009294843A (en) | Operator discrimination apparatus and operator discrimination method |