JP2017187922A - In-vehicle information processing system - Google Patents

In-vehicle information processing system Download PDF

Info

Publication number
JP2017187922A
JP2017187922A JP2016076084A JP2016076084A JP2017187922A JP 2017187922 A JP2017187922 A JP 2017187922A JP 2016076084 A JP2016076084 A JP 2016076084A JP 2016076084 A JP2016076084 A JP 2016076084A JP 2017187922 A JP2017187922 A JP 2017187922A
Authority
JP
Japan
Prior art keywords
operator
unit
screen
control unit
touch operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016076084A
Other languages
Japanese (ja)
Inventor
佐藤 晴彦
Haruhiko Sato
晴彦 佐藤
吉富 輝雄
Teruo Yoshitomi
輝雄 吉富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Marelli Corp
Original Assignee
Calsonic Kansei Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Calsonic Kansei Corp filed Critical Calsonic Kansei Corp
Priority to JP2016076084A priority Critical patent/JP2017187922A/en
Publication of JP2017187922A publication Critical patent/JP2017187922A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an in-vehicle information processing system allowing for intuitive operation with reduced delay.SOLUTION: An in-vehicle information processing system 10 includes: a display unit 11 having at least one screen; a touch operation unit 12 which detects a touch of an operating hand of an operator; an imaging unit 13 which images at least a part of the operating hand and the touch operation unit 12; and a control unit 14 which performs image processing within a predetermined time on the basis of an image captured by the imaging unit 13, while associating position coordinates in an operation area R2 on the screen with position coordinates in a predetermined area R1 of the touch operation unit 12, to superimpose at least a part of the operating hand on the screen.SELECTED DRAWING: Figure 1

Description

本発明は、車両に関する情報を制御するために車両に搭載される車載用情報処理システムに関する。   The present invention relates to an in-vehicle information processing system mounted on a vehicle in order to control information related to the vehicle.

従来、操作者は、センターコンソールに設置されたタッチパッド上でタッチ操作を行うことにより、画面上に表示されたポインタ又はカーソルの操作、画面のスクロール操作、選択操作、及び入力操作などを行うことが可能である。   Conventionally, an operator performs a pointer operation or a cursor operation displayed on a screen, a screen scroll operation, a selection operation, an input operation, and the like by performing a touch operation on a touch pad installed on a center console. Is possible.

例えば、特許文献1に開示された操作入力装置は、走行中の車両の振動を含む外乱因子の影響を低減して、タッチパッド上でのタッチ操作に基づく表示部上のカーソル移動を滑らかにすることが可能である。   For example, the operation input device disclosed in Patent Literature 1 reduces the influence of disturbance factors including vibration of a running vehicle, and smoothes the cursor movement on the display unit based on the touch operation on the touch pad. It is possible.

また例えば、特許文献2に開示された操作装置は、センターコンソールに設置されたタッチパッド上での操作者によるタッチ操作により、画面上に表示されたポインタ又はカーソルの操作、及び画面のスクロールを可能とする。   In addition, for example, the operation device disclosed in Patent Document 2 can operate a pointer or cursor displayed on the screen and scroll the screen by a touch operation by an operator on a touch pad installed in the center console. And

特開2015−174648JP2015-174648 特開2016−012313JP, 2006-012313, A

しかしながら、特許文献1及び2に開示された従来の装置は、画面上にポインタ、カーソル、又は移動ベクトルなどを描画することで操作者の操作に対して応答する。このような操作は、直感的ではない。また、操作者の操作手の位置と画面上のポインタなどの位置との対応関係が明確でないために、操作者が画面上のポインタなどを注視する時間は長くなる。従って、より直感的な操作を可能とするインターフェースの実現が望まれる。   However, the conventional devices disclosed in Patent Documents 1 and 2 respond to an operation of the operator by drawing a pointer, a cursor, a movement vector, or the like on the screen. Such an operation is not intuitive. In addition, since the correspondence between the position of the operator's operator's hand and the position of the pointer on the screen is not clear, it takes a long time for the operator to watch the pointer on the screen. Therefore, it is desired to realize an interface that enables more intuitive operation.

そこで、カメラにより撮像した操作者の操作手を画面上に重畳表示させて、実際の感覚により近い状態での操作を可能とするシステムが有効的である。当該システムにおいて、操作者の操作手によるタッチ操作位置を識別するために、撮像画像に基づいて画像処理を行う方法が考えられる。しかしながら、当該方法は、計算処理時間の増大を招き、操作者の操作手の実際の動きと画面上の動きとの間で時間遅れを発生させる。結果、操作者は、操作に対して違和感を感じることが予想される。   Therefore, a system is effective in which the operator's operator's hand imaged by the camera is displayed on the screen so that the operation can be performed in a state closer to the actual feeling. In this system, in order to identify the touch operation position by the operator's operator, a method of performing image processing based on the captured image can be considered. However, this method causes an increase in calculation processing time and causes a time delay between the actual movement of the operator's operator and the movement on the screen. As a result, the operator is expected to feel uncomfortable with the operation.

かかる観点に鑑みてなされた本発明の目的は、直感的で遅延の少ない操作を可能とする車載用情報処理システムを提供することにある。   An object of the present invention made in view of such a viewpoint is to provide an in-vehicle information processing system capable of an intuitive operation with little delay.

上記課題を解決する第1の観点に係る車載用情報処理システムは、
少なくとも1つの画面を有する表示部と、
操作者の操作手による接触を検出するタッチ操作部と、
前記操作手の少なくとも一部と、前記タッチ操作部とを撮像する撮像部と、
前記画面上の操作領域内の位置座標と、前記タッチ操作部の所定の領域内の位置座標とを対応させ、前記撮像部により撮像された画像に基づいて所定の時間内で画像処理を行い、前記操作手の少なくとも一部を前記画面上に重畳表示させる制御部と、を備える。
An in-vehicle information processing system according to a first aspect that solves the above problem is as follows.
A display unit having at least one screen;
A touch operation unit that detects contact by an operator's operator;
An imaging unit that images at least a part of the operator and the touch operation unit;
Corresponding the position coordinates in the operation area on the screen and the position coordinates in the predetermined area of the touch operation unit, and performing image processing within a predetermined time based on the image captured by the imaging unit, A control unit that superimposes and displays at least a part of the operator on the screen.

また、第2の観点に係る車載用情報処理システムでは、
前記撮像部は、前記タッチ操作部と前記操作手との位置関係を撮像し、
前記制御部は、前記タッチ操作部における前記操作手の位置と対応するように、当該操作手の少なくとも一部を前記画面上に重畳表示させる。
In the in-vehicle information processing system according to the second aspect,
The imaging unit images a positional relationship between the touch operation unit and the operator,
The control unit superimposes and displays at least a part of the operating hand on the screen so as to correspond to the position of the operating hand in the touch operation unit.

また、第3の観点に係る車載用情報処理システムでは、
前記制御部は、前記撮像部により撮像された前記画像に基づいて、前記操作手の少なくとも一部を抽出する画像処理を行う。
In the in-vehicle information processing system according to the third aspect,
The control unit performs image processing for extracting at least a part of the operating hand based on the image captured by the imaging unit.

また、第4の観点に係る車載用情報処理システムでは、
前記制御部は、前記タッチ操作部の前記所定の領域と前記画面上の前記操作領域との間の大きさの比率に基づいて、前記操作手の表示倍率を変更する画像処理を行う。
In the vehicle information processing system according to the fourth aspect,
The control unit performs image processing for changing a display magnification of the operator based on a size ratio between the predetermined region of the touch operation unit and the operation region on the screen.

また、第5の観点に係る車載用情報処理システムでは、
前記制御部は、前記操作手による接触が検出される前記タッチ操作部の前記所定の領域内の位置座標を、前記タッチ操作部からの検出情報に基づいて識別する。
In the in-vehicle information processing system according to the fifth aspect,
The control unit identifies position coordinates in the predetermined area of the touch operation unit where contact by the operator is detected based on detection information from the touch operation unit.

第1の観点に係る車載用情報処理システムによれば、直感的で遅延の少ない操作が可能である。   According to the in-vehicle information processing system according to the first aspect, an intuitive operation with little delay is possible.

また、第2の観点に係る車載用情報処理システムによれば、操作者が画面上を注視する時間を短縮できる。   Moreover, according to the vehicle-mounted information processing system according to the second aspect, it is possible to shorten the time for the operator to watch the screen.

また、第3の観点に係る車載用情報処理システムによれば、画面上で操作者の操作手を忠実に重畳表示させることが可能である。   Further, according to the in-vehicle information processing system according to the third aspect, it is possible to faithfully superimpose and display the operator's operator's hand on the screen.

また、第4の観点に係る車載用情報処理システムによれば、画面に合わせた最適な大きさで操作者の操作手を重畳表示させることが可能である。   Further, according to the in-vehicle information processing system according to the fourth aspect, it is possible to superimpose and display the operator's hand with an optimum size according to the screen.

また、第5の観点に係る車載用情報処理システムによれば、画像処理により位置座標を識別する場合と比べて、時間遅れを低減することが可能である。   Further, according to the in-vehicle information processing system according to the fifth aspect, it is possible to reduce the time delay as compared with the case where the position coordinates are identified by image processing.

本実施形態に係る車載用情報処理システムの全体を示す模式図である。It is a mimetic diagram showing the whole in-vehicle information processing system concerning this embodiment. 図1の車載用情報処理システムの概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the vehicle-mounted information processing system of FIG. 表示部に表示される画像の一例を示した模式図である。It is the schematic diagram which showed an example of the image displayed on a display part. タッチ操作部を側面方向から見たときの断面を模式的に示す図である。It is a figure which shows typically a cross section when a touch operation part is seen from a side surface direction. タッチ操作部の所定の領域と、表示部を構成する画面上の操作領域との対応関係の一例を示す模式図である。It is a schematic diagram which shows an example of the correspondence of the predetermined area | region of a touch operation part, and the operation area on the screen which comprises a display part. 車載用情報処理システムが行う画像処理の様子を示した模式図である。It is the schematic diagram which showed the mode of the image processing which an in-vehicle information processing system performs. 表示部を構成する画面に表示される機能項目とタッチパッドとの対応関係を例示した模式図である。It is the schematic diagram which illustrated the correspondence of the function item displayed on the screen which comprises a display part, and a touchpad. 画面上に重畳表示された操作者の操作手が仮想的に行う操作の様子を例示した模式図である。It is the schematic diagram which illustrated the mode of operation which the operator's operator hand superimposed and displayed on the screen performed virtually. 図1の車載用情報処理システムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the vehicle-mounted information processing system of FIG.

以降、諸図面を参照しながら、本発明の実施形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本実施形態に係る車載用情報処理システム10の全体を示す模式図である。図2は、図1の車載用情報処理システム10の概略構成を示す機能ブロック図である。車載用情報処理システム10は、表示部11と、タッチ操作部12と、撮像部13と、制御部14と、記憶部15とを有する。図3は、表示部11に表示される画像の一例を示した模式図である。図3(a)は、メニュー画面の一例を示し、図3(b)は、地図画面の一例を示す。図4は、タッチ操作部12を側面方向から見たときの断面を模式的に示す図である。   FIG. 1 is a schematic diagram showing an entire in-vehicle information processing system 10 according to the present embodiment. FIG. 2 is a functional block diagram showing a schematic configuration of the in-vehicle information processing system 10 of FIG. The in-vehicle information processing system 10 includes a display unit 11, a touch operation unit 12, an imaging unit 13, a control unit 14, and a storage unit 15. FIG. 3 is a schematic diagram illustrating an example of an image displayed on the display unit 11. FIG. 3A shows an example of a menu screen, and FIG. 3B shows an example of a map screen. FIG. 4 is a diagram schematically illustrating a cross section when the touch operation unit 12 is viewed from the side surface direction.

車載用情報処理システム10は、表示部11を構成する画面上の操作領域内の位置座標と、タッチ操作部12の所定の領域内の位置座標とを対応させて、撮像部13により撮像した画像に基づいて、操作者の操作手を画面上に重畳表示する。すなわち、タッチ操作部12上での操作者によるタッチ操作に基づいて、画面上に重畳表示した操作手が、対応する位置で仮想的に画面を操作する。車載用情報処理システム10は、画面上に重畳表示した操作手の動きを、撮像部13によって撮像した実際の操作者の操作手の動きと対応させる。ここで、操作者とは、例えば車両を運転する運転者又は助手席に座っている同乗者であり、操作手とは、例えばセンターコンソール側の運転者又は同乗者自身の手である。   The in-vehicle information processing system 10 associates the position coordinates in the operation area on the screen configuring the display unit 11 with the position coordinates in the predetermined area of the touch operation unit 12 and images captured by the imaging unit 13. Based on the above, the operator's operating hand is superimposed on the screen. That is, based on the touch operation by the operator on the touch operation unit 12, the operator superimposed on the screen operates the screen virtually at the corresponding position. The in-vehicle information processing system 10 causes the movement of the operator superimposed on the screen to correspond to the movement of the actual operator's operator captured by the imaging unit 13. Here, the operator is, for example, a driver driving the vehicle or a passenger sitting in the passenger seat, and the operator is, for example, a driver on the center console side or the passenger's own hand.

図1に示すとおり、表示部11は、少なくとも1つの画面を有する。表示部11は、液晶ディスプレイなどの任意の表示装置により構成されてもよい。表示部11は、液晶ディスプレイによって構成される場合、例えばインストルメントパネルに配置される。表示部11を構成する表示装置は、タッチパネルディスプレイであってもよいし、タッチ操作不能のディスプレイであってもよい。以下では、表示部11は、タッチ操作不能のディスプレイであるとして説明する。   As shown in FIG. 1, the display unit 11 has at least one screen. The display unit 11 may be configured by an arbitrary display device such as a liquid crystal display. When the display unit 11 is configured by a liquid crystal display, for example, the display unit 11 is disposed on an instrument panel. The display device constituting the display unit 11 may be a touch panel display or a display incapable of touch operation. In the following description, it is assumed that the display unit 11 is a display that cannot be touched.

また、車載用情報処理システム10は、表示部11に加えて又は代えて、いわゆるヘッドアップディスプレイ型の装置を有してもよい。この場合、ヘッドアップディスプレイ型の装置は、表示情報を表示光として発生する発光部を有し、発生した表示光を運転者等の観察者へ向かうように反射して、フロントウィンドシールド越しに虚像を表示する。なお、観察者は運転者に限らず助手席に座っている同乗者等でもよい。   The in-vehicle information processing system 10 may include a so-called head-up display type device in addition to or instead of the display unit 11. In this case, the head-up display type device has a light emitting unit that generates display information as display light, reflects the generated display light toward an observer such as a driver, and the virtual image through the front windshield. Is displayed. The observer is not limited to the driver and may be a passenger sitting in the passenger seat.

表示部11は、車両に関する情報若しくは当該情報を制御するための機能項目、又はこれらの組合せを表示する。以下では、これらをまとめて「表示内容」という。車両に関する情報は、例えば、空調、カーナビゲーション、オーディオ、電子ミラーによる車両周囲の画像、車速、複数車線における自車の走行位置、又は車間距離などの情報を含む。当該情報を制御するための機能項目は、例えば、「戻る」、「進む」、「ホーム」、「決定」、「各種メニュー」、「温度高い・低い」、「現在地」、「音量大・小」、「拡大・縮小」、「速度速い・遅い」、「車線変更」、又は「距離長い・短い」などの項目を含む。表示部11は、各項目を文字として表示してもよいし、アイコンとして表示してもよい。   The display unit 11 displays information on the vehicle, function items for controlling the information, or a combination thereof. Hereinafter, these are collectively referred to as “display contents”. The information about the vehicle includes, for example, information such as air conditioning, car navigation, audio, an image around the vehicle by an electronic mirror, a vehicle speed, a traveling position of the vehicle in a plurality of lanes, or an inter-vehicle distance. The function items for controlling the information include, for example, “return”, “forward”, “home”, “decision”, “various menus”, “temperature high / low”, “current location”, “volume high / low” ”,“ Enlargement / reduction ”,“ speed fast / slow ”,“ lane change ”, or“ distance long / short ”. The display unit 11 may display each item as a character or an icon.

例えば、図3(a)に示すとおり、表示部11は、車両に関する情報を制御するための機能項目として、各種メニューを表示する。具体的には、表示部11は、各種アプリを表示するための項目として「APPS」を、電話を使用するための項目として「TEL」を、エアコンを制御するための項目として「A/C」を、カーナビゲーションを使用するためのメニューとして「NAVI」を、オーディオを使用するためのメニューとして「AUDIO」を表示する。同様に、表示部11は、ホーム画面に戻るための項目として「HOME」を表示し、1つ前の画面に戻るための項目として「RETURN」を表示する。   For example, as shown to Fig.3 (a), the display part 11 displays various menus as a function item for controlling the information regarding a vehicle. Specifically, the display unit 11 displays “APPS” as an item for displaying various applications, “TEL” as an item for using a telephone, and “A / C” as an item for controlling an air conditioner. , “NAVI” is displayed as a menu for using the car navigation, and “AUDIO” is displayed as a menu for using the audio. Similarly, the display unit 11 displays “HOME” as an item for returning to the home screen, and “RETURN” as an item for returning to the previous screen.

例えば、図3(b)に示すとおり、表示部11は、車両に関する情報として、カーナビゲーションシステムの一部である地図情報を表示する。さらに、表示部11は、車両に関する情報及び当該情報を制御するための機能項目の組合せとして、当該地図情報に重畳させるように、「目的地設定」、「HOME」、及び「RETURN」などの機能項目を表示する。   For example, as shown in FIG. 3B, the display unit 11 displays map information that is a part of the car navigation system as information about the vehicle. Further, the display unit 11 has functions such as “Destination setting”, “HOME”, and “RETURN” so as to be superimposed on the map information as a combination of information on the vehicle and functional items for controlling the information. Display items.

表示部11は、上記の表示内容と重畳させるように操作者の操作手を表示する。表示部11は、図3に示すとおり、操作者の操作手を半透過にして、その背後に上記の表示内容を表示する。表示部11は、これに限定されず、操作者の操作手が重畳したときに、背後の表示内容が一時的に隠れるように、不透明な操作手を表示してもよい。   The display unit 11 displays the operator's hand so as to overlap the display content. As shown in FIG. 3, the display unit 11 makes the operator's operating hand translucent and displays the above display content behind it. The display unit 11 is not limited to this, and may display an opaque operation hand so that the display content behind the operator is temporarily hidden when the operator's operation hand is superimposed.

以下では、半透過の度合い、すなわち透過率は、重畳させる位置に依存せず一定であるとして説明するが、これに限定されず、重畳させる位置ごとに変化してもよい。例えば、機能項目を表示している位置では、操作者がどの項目を選択すべきかを十分に視認可能なように、表示部11は、透過率を所定値よりも上げて操作者の操作手を表示してもよい。逆に、単なる背景のみを表示している位置では、表示部11は、透過率を所定値よりも下げて表示してもよい。   In the following, the degree of semi-transmission, that is, the transmittance is described as being constant without depending on the overlapping position, but is not limited thereto, and may be changed for each overlapping position. For example, at the position where the function items are displayed, the display unit 11 raises the transmittance above a predetermined value so that the operator can sufficiently recognize which item the operator should select. It may be displayed. Conversely, at a position where only the background is displayed, the display unit 11 may display the transmittance lower than a predetermined value.

また、表示部11は、グラデーションを付した操作者の操作手を表示してもよい。ここで述べるグラデーションは、明暗、色彩、若しくは透過率又はこれらの組合せに関する任意の段階的変化を含んでよい。表示部11は、操作者が背後の表示内容を容易に視認可能な任意の方法によりグラデーション表示するのが好適である。例えば、表示部11は、重畳表示した操作者の操作手の指先により近づくほど、操作手を徐々に明るくしたり、淡い色へと徐々に変えたり、透過率を徐々に上げたりして表示してもよい。   Moreover, the display part 11 may display the operator's operator hand which attached the gradation. The gradations described herein may include any step change with respect to light and darkness, color, or transmittance, or a combination thereof. The display unit 11 is preferably displayed in gradation by an arbitrary method in which the operator can easily view the display content behind. For example, the display unit 11 displays the operator by gradually increasing the brightness of the operator, gradually changing to a lighter color, or gradually increasing the transmittance as the fingertip of the operator's operator superimposed on the display approaches. May be.

透過率が低いほど、重畳させる操作者の操作手のリアリティは向上するが、操作者は、背後の表示内容を視認することが困難となる。逆に、透過率が高いほど、操作者による背後の表示内容の視認は容易となるが、リアリティは低下する。従って、表示部11は、重畳させる操作者の操作手のリアリティを確保しつつ、表示内容を操作者が容易に視認可能な任意の表示方法によりそれぞれを表示するのが好適である。   As the transmittance is lower, the reality of the operator's operator to be superimposed is improved, but it becomes difficult for the operator to visually recognize the display content behind. Conversely, the higher the transmittance, the easier it is for the operator to visually recognize the display content behind, but the reality is reduced. Therefore, it is preferable that the display unit 11 displays each display content by an arbitrary display method that allows the operator to easily view the display contents while ensuring the reality of the operator's operator to be superimposed.

表示部11は、上述の表示内容などが表示される仮想空間上に、現実世界の操作者の操作手を重畳させるものとして説明したが、これに限定されない。例えば、表示部11は、いわゆるミックスドリアリティのように、画面上に表示した操作者の操作手の前面から、表示内容などを重畳表示してもよい。   Although the display unit 11 has been described as superimposing an operator's hand in the real world on a virtual space in which the above-described display content is displayed, the present invention is not limited to this. For example, the display unit 11 may superimpose display contents and the like from the front surface of the operator's operator displayed on the screen as in a so-called mixed reality.

タッチ操作部12は、図1に示すとおり、例えばセンターコンソールに配置される。タッチ操作部12は、図2に示すとおり、タッチパッド121と、タクトスイッチ122とを有する。図4に示すとおり、操作者は、アームレスト及びパームレストに自身の腕及び手首をそれぞれ乗せて、操作手の一部、例えば指をタッチパッド121に接触させる。   As shown in FIG. 1, the touch operation part 12 is arrange | positioned at a center console, for example. The touch operation unit 12 includes a touch pad 121 and a tact switch 122 as shown in FIG. As shown in FIG. 4, the operator places his / her arm and wrist on the armrest and palmrest, respectively, and makes a part of the operation hand, for example, a finger contact the touchpad 121.

タッチパッド121は、操作者の操作手又はスタイラスペンなどの接触物による接触を、対応する接触位置において検出する。特に、タッチパッド121は、操作者の操作手の一部、例えば指による接触を対応する接触位置において検出する。操作者は、タッチ操作部12、特にタッチパッド121上でタッチ操作を行うことにより、表示部11を構成する各画面上に表示される情報を操作する。タッチパッド121は、例えば透明なガラスにより形成され、抵抗膜方式、静電容量方式、表面弾性波方式、赤外線方式、又は電磁誘導方式などの任意の方式により構成されたタッチセンサを用いることができる。以下では、タッチパッド121は、静電容量方式による静電タッチパッドであるものとして説明する。   The touch pad 121 detects contact by a contact object such as an operator's operating hand or a stylus pen at a corresponding contact position. In particular, the touch pad 121 detects contact with a part of the operator's operating hand, for example, a finger at a corresponding contact position. The operator operates information displayed on each screen constituting the display unit 11 by performing a touch operation on the touch operation unit 12, particularly the touch pad 121. The touch pad 121 is formed of, for example, transparent glass, and a touch sensor configured by an arbitrary method such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, or an electromagnetic induction method can be used. . In the following description, it is assumed that the touch pad 121 is a capacitive touch pad.

タクトスイッチ122は、図4に示すとおり、タッチパッド121の直下に配置され、基板により支持される。タクトスイッチ122は、操作者の押込みによってタッチパッド121が下方へと変位した場合、その押圧によりオンになる。タクトスイッチ122は、操作者の押込みが解除されタッチパッド121が元の位置に戻った場合、オフになる。操作者は、タッチパッド121を押込むと、タクトスイッチ122がオンになることで、クリック感を得る。   As shown in FIG. 4, the tact switch 122 is disposed immediately below the touch pad 121 and supported by the substrate. When the touch pad 121 is displaced downward by the operator's pressing, the tact switch 122 is turned on by the pressing. The tact switch 122 is turned off when the push of the operator is released and the touch pad 121 returns to the original position. When the operator depresses the touch pad 121, the tact switch 122 is turned on to obtain a click feeling.

図4では、タクトスイッチ122は、タッチパッド121の直下において、その中心部に1つ配置されているが、これに限定されず、タッチパッド121からの押圧を検出可能であれば、任意の個数で任意の場所に配置されてもよい。例えば、タクトスイッチ122は、タッチパッド121の直下において、その外周部に1つ配置されてもよいし、分散した位置に複数個配置されてもよい。例えば、タッチパッド121の直下に複数のタクトスイッチ122が配置されることで、タッチ操作部12は、タッチパッド121の所定のエリアごとにタッチパッド121からの押圧を検出可能なように構成されてもよい。すなわち、タッチ操作部12は、操作者の複数の指が同時にタッチパッド121に接触している場合に、タッチパッド121上のどの位置で操作者が押込んだかを検出可能なように構成されてもよい。   In FIG. 4, one tact switch 122 is arranged at the central portion immediately below the touch pad 121. However, the tact switch 122 is not limited to this, and any number can be used as long as the pressure from the touch pad 121 can be detected. It may be arranged at any place. For example, one tact switch 122 may be disposed on the outer periphery of the tact switch 122 immediately below the touch pad 121, or a plurality of tact switches 122 may be disposed at dispersed positions. For example, by arranging a plurality of tact switches 122 immediately below the touch pad 121, the touch operation unit 12 is configured to be able to detect a pressure from the touch pad 121 for each predetermined area of the touch pad 121. Also good. That is, the touch operation unit 12 is configured to be able to detect at which position on the touch pad 121 the operator has pressed when a plurality of fingers of the operator are in contact with the touch pad 121 at the same time. Also good.

タッチパッド121の直下に配置される構成部は、タクトスイッチ122に限定されず、タッチパッド121からの押圧を検出可能であれば、任意の構成であってよい。例えば、タクトスイッチ122に代えて、圧電素子などの感圧センサがタッチパッド121の直下に配置されてもよい。   The configuration unit arranged immediately below the touch pad 121 is not limited to the tact switch 122, and may be any configuration as long as the pressing from the touch pad 121 can be detected. For example, instead of the tact switch 122, a pressure sensitive sensor such as a piezoelectric element may be disposed immediately below the touch pad 121.

タッチ操作部12は、タッチパッド121と、タクトスイッチ122とに加えて、車両走行中の振動によるタッチパッド121の不要な検出信号を除去するために、フィルターを有してもよい。   In addition to the touch pad 121 and the tact switch 122, the touch operation unit 12 may include a filter in order to remove an unnecessary detection signal of the touch pad 121 due to vibration during traveling of the vehicle.

撮像部13は、少なくとも1つのカメラを有し、例えば、ルーフパネルに配置される。撮像部13を構成するカメラは、ルーフパネルから車内を撮像するように配置される。より具体的には、撮像部13は、タッチ操作部12でタッチ操作を行う操作者の操作手の少なくとも一部と、タッチ操作部12とを上方から撮像する。   The imaging unit 13 includes at least one camera and is disposed on, for example, a roof panel. The camera which comprises the imaging part 13 is arrange | positioned so that the inside of a vehicle may be imaged from a roof panel. More specifically, the imaging unit 13 captures an image of at least a part of an operator's operator who performs a touch operation with the touch operation unit 12 and the touch operation unit 12 from above.

撮像部13は、操作者の操作手の少なくとも一部、例えば5本の指のみを撮像してもよいが、手の甲なども含めた操作者の操作手全体を撮像するのが好適である。ここで、操作手全体とは、操作者の手首付近から指先までを含む部位全体である。この場合、撮像部13は、操作者の操作手全体を容易に撮像するために、例えば、ルーフパネルなど、操作手の上方に配置されるのが好適である。   The imaging unit 13 may image at least a part of the operator's operating hand, for example, only five fingers, but it is preferable to image the entire operator's operating hand including the back of the hand. Here, the entire operating hand is the entire part including from the vicinity of the wrist of the operator to the fingertip. In this case, the imaging unit 13 is preferably arranged above the operator, such as a roof panel, in order to easily image the entire operator's operator.

撮像部13は、このような配置に限定されず、操作者の操作手の少なくとも一部を撮像可能であれば、任意の場所に配置されてもよい。例えば、撮像部13は、透明なタッチパッド121の直下に配置され、タッチパッド121でタッチ操作を行っている操作者の操作手の一部を下方から撮像してもよい。この場合、例えば、図4のパームレスト部分を任意の透明な支持部材に変えることで、撮像部13は、手の甲なども含めた操作者の操作手全体を撮像することも可能である。   The imaging unit 13 is not limited to such an arrangement, and may be arranged at an arbitrary place as long as at least a part of the operator's operating hand can be imaged. For example, the imaging unit 13 may be arranged directly below the transparent touch pad 121 and may capture a part of the operator's operator performing a touch operation with the touch pad 121 from below. In this case, for example, by changing the palm rest portion in FIG. 4 to an arbitrary transparent support member, the imaging unit 13 can also image the entire operator's operating hand including the back of the hand.

撮像部13は、昼間の明るい状態及び夜間の暗い状態の両方で操作者の操作手を鮮明に撮像可能なように、ダイナミックレンジの広いカメラで構成されるのが好適である。また、カメラにより撮像される画像は、白黒画像であってもよいし、カラー画像であってもよい。   The imaging unit 13 is preferably composed of a camera with a wide dynamic range so that the operator's hand can be clearly imaged both in a bright state during the day and in a dark state at night. The image captured by the camera may be a black and white image or a color image.

撮像部13は、ダイナミックレンジの広いカメラによる構成に限定されず、昼間の明るい状態で撮像可能なカメラにより構成されてもよい。この場合、撮像部13は、夜間でも操作者の操作手を鮮明に撮像するために、タッチパッド121上の操作者の操作手に上方からスポットライトを照射してもよい。   The imaging unit 13 is not limited to a configuration with a camera having a wide dynamic range, and may be configured with a camera capable of imaging in a bright state in the daytime. In this case, the imaging unit 13 may irradiate the operator's operating hand on the touch pad 121 with a spotlight from above in order to clearly capture the operator's operating hand even at night.

車両が自動運転を行う場合、操作者は、リクライニングシートを倒して、リラックスした状態でシートに寄りかかることが想定される。この時、タッチ操作部12の位置が固定されていると、操作者は、シートに寄りかかった状態で腕を伸ばしてタッチ操作を行う必要があり、不便性を感じる。従って、例えば、タッチ操作部12が配置されたセンターコンソールを、リクライニングシートの動きに連動して後方に下がるように構成することで、操作者は腕を伸ばすことなく、容易にタッチ操作を行うことができる。このような構成の場合、撮像部13は、リクライニングシートの動きに連動したタッチ操作部12のそれぞれの位置に合わせて、タッチパッド121上の操作手を撮像する必要がある。   When the vehicle performs automatic driving, it is assumed that the operator leans on the reclining seat and leans on the seat in a relaxed state. At this time, if the position of the touch operation unit 12 is fixed, the operator needs to perform the touch operation by extending his arm while leaning on the seat, and feels inconvenience. Therefore, for example, by configuring the center console on which the touch operation unit 12 is disposed so as to be lowered rearward in conjunction with the movement of the reclining seat, the operator can easily perform the touch operation without extending the arm. Can do. In the case of such a configuration, the imaging unit 13 needs to image the operator on the touch pad 121 in accordance with each position of the touch operation unit 12 that is linked to the movement of the reclining seat.

従って、撮像部13は、上記に加えて、画角の広いカメラで構成されるのが好適である。撮像部13は、これに限定されず、画角の狭いカメラであっても、タッチ操作部12の位置の変化に連動してカメラ自体の角度が変化するように構成されてもよい。同様に、撮像部13は、タッチ操作部12の位置の変化に連動してカメラ自体が平行移動するように構成されてもよい。また、リクライニングシートの動きに連動して変化するタッチ操作部12の位置を、例えば、手動運転時の位置及び自動運転時の位置の二カ所に限定して、各々の位置に対応するように二台のカメラが配置されてもよい。   Therefore, in addition to the above, the imaging unit 13 is preferably configured with a camera having a wide angle of view. The imaging unit 13 is not limited to this, and may be configured such that the angle of the camera itself changes in conjunction with a change in the position of the touch operation unit 12 even if the camera has a narrow angle of view. Similarly, the imaging unit 13 may be configured such that the camera itself translates in conjunction with a change in the position of the touch operation unit 12. Further, the position of the touch operation unit 12 that changes in conjunction with the movement of the reclining seat is limited to two positions, for example, a position at the time of manual operation and a position at the time of automatic operation, so as to correspond to each position. Two cameras may be arranged.

制御部14は、車載用情報処理システム10の各機能ブロックをはじめとして、車載用情報処理システム10の全体を制御及び管理するプロセッサである。制御部14は、制御手順を規定したプログラムを実行するCPU(Central Processing Unit)等のプロセッサで構成され、かかるプログラムは、例えば記憶部15に格納される。   The control unit 14 is a processor that controls and manages the entire in-vehicle information processing system 10 including each functional block of the in-vehicle information processing system 10. The control unit 14 includes a processor such as a CPU (Central Processing Unit) that executes a program that defines a control procedure, and the program is stored in the storage unit 15, for example.

制御部14は、タッチパッド121上で検出した接触情報を、入力信号としてタッチ操作部12から取得する。具体的には、制御部14は、接触物、例えば、操作者の指による接触及び対応する接触位置に関する検出情報を取得する。制御部14は、対応する接触位置に関する検出情報に基づいて、タッチ操作が行われるタッチパッド121上の正確な位置座標を識別する。   The control unit 14 acquires the contact information detected on the touch pad 121 from the touch operation unit 12 as an input signal. Specifically, the control unit 14 acquires detection information related to a contact object, for example, contact with an operator's finger and a corresponding contact position. The control unit 14 identifies accurate position coordinates on the touch pad 121 where the touch operation is performed based on the detection information regarding the corresponding contact position.

制御部14は、タクトスイッチ122のオン状態又はオフ状態に関する信号を、タッチ操作部12から取得する。具体的には、操作者が、タッチパッド121を介して、タクトスイッチ122を押込んだ場合、制御部14は、オン状態の信号を取得する。操作者が、タッチパッド121への押込みを止めて、タクトスイッチ122の押込みを解除した場合、制御部14は、オフ状態の信号を取得する。制御部14は、取得した信号に基づいて、タクトスイッチ122のオン状態又はオフ状態を識別する。   The control unit 14 acquires a signal related to the on state or the off state of the tact switch 122 from the touch operation unit 12. Specifically, when the operator presses the tact switch 122 via the touch pad 121, the control unit 14 acquires an on-state signal. When the operator stops pressing the touch pad 121 and releases the pressing of the tact switch 122, the control unit 14 acquires an off-state signal. The control unit 14 identifies the on state or the off state of the tact switch 122 based on the acquired signal.

制御部14は、操作者の操作手の一部による接触をタッチパッド121が検出した場合、表示部11を構成する画面上の対応する項目を選択する。この時、制御部14は、当該項目をハイライトさせる。ハイライトとは、所定の項目を強調して表示することである。制御部14は、ハイライトにより上記の項目が選択状態にあることを操作者にフィードバックする。例えば、図3(a)に示すとおり、操作者の指による接触をタッチパッド121の対応する位置で検出した場合、制御部14は、画面上の「NAVI」の機能項目をハイライトさせる。この時、制御部14は、撮像部13により撮像された画像に基づいて、操作者の操作手を対応する位置に重畳表示させる。   The control unit 14 selects a corresponding item on the screen constituting the display unit 11 when the touch pad 121 detects contact by a part of the operator's operating hand. At this time, the control unit 14 highlights the item. Highlighting is to display a predetermined item with emphasis. The control unit 14 provides feedback to the operator that the above items are in a selected state by highlighting. For example, as illustrated in FIG. 3A, when contact with the operator's finger is detected at a corresponding position on the touch pad 121, the control unit 14 highlights the function item “NAVI” on the screen. At this time, the control unit 14 superimposes and displays the operator's operating hand at a corresponding position based on the image captured by the imaging unit 13.

続いて、制御部14は、操作者の操作手の一部によるタッチパッド121の押込みによりタクトスイッチ122がオンになった場合、画面上の所定の項目の選択を確定させる。画面上の所定の項目の選択を確定させる操作は、これに限定されず、例えば、タッチパッド121上でのダブルタップなど、任意の操作であってよい。この場合、タッチ操作部12は、タクトスイッチ122を有さなくてもよい。   Subsequently, when the tact switch 122 is turned on by pressing the touch pad 121 by a part of the operator's operating hand, the control unit 14 determines the selection of a predetermined item on the screen. The operation for confirming selection of a predetermined item on the screen is not limited to this, and may be an arbitrary operation such as a double tap on the touch pad 121, for example. In this case, the touch operation unit 12 may not have the tact switch 122.

例えば、図3(a)では、操作者の操作手の一部による押込みによりタクトスイッチ122がオンになった場合、制御部14は、画面上に表示された「NAVI」の項目の選択を確定させる。この時、制御部14は、タッチパッド121に接触している操作者の操作手の一部、例えば人差し指の押込み又はダブルタップなどに合わせて、同様の動きを画面上に表示させる。   For example, in FIG. 3A, when the tact switch 122 is turned on by being pushed by a part of the operator's operator's hand, the control unit 14 confirms the selection of the item “NAVI” displayed on the screen. Let At this time, the control unit 14 causes the same movement to be displayed on the screen in accordance with a part of the operator's operator touching the touch pad 121, for example, pressing of the index finger or double tap.

制御部14は、車両に関する情報若しくは当該情報を制御するための機能項目、又はこれらの組合せを表示部11に表示させる。また、制御部14は、後述する画像処理により、表示部11を構成する画面上の操作領域の大きさに基づいた表示倍率で、操作者の操作手の少なくとも一部をその画面上に重畳表示させる。   The control unit 14 causes the display unit 11 to display information on the vehicle, function items for controlling the information, or a combination thereof. Further, the control unit 14 superimposes and displays at least a part of the operator's operator's hand on the screen at a display magnification based on the size of the operation area on the screen constituting the display unit 11 by image processing to be described later. Let

制御部14は、記憶部15に格納された種々の情報を参照する。具体的には、制御部14は、上記の車両に関する情報又は当該情報を制御するための機能項目に関する情報を参照する。制御部14は、タクトスイッチ122のオン状態又はオフ状態に関する情報を参照する。制御部14は、撮像部13により撮像された画像情報を参照する。制御部14は、表示部11に最終的に重畳表示させる、画像処理された操作者の操作手に関する情報を参照する。   The control unit 14 refers to various information stored in the storage unit 15. Specifically, the control unit 14 refers to information related to the vehicle or information related to a function item for controlling the information. The control unit 14 refers to information regarding the on state or the off state of the tact switch 122. The control unit 14 refers to the image information captured by the imaging unit 13. The control unit 14 refers to information on the operator's operator who has been image-processed and is finally superimposed on the display unit 11.

記憶部15は、半導体メモリ又は磁気メモリ等で構成することができ、上述した各種情報及び車載用情報処理システム10を動作させるためのプログラムなどを記憶する。また、記憶部15は、ワークメモリとしても機能する。一例を挙げると、記憶部15は、表示部11に最終的に重畳表示させる、画像処理された操作者の操作手に関する情報などを記憶する。   The storage unit 15 can be configured by a semiconductor memory, a magnetic memory, or the like, and stores various information described above, a program for operating the in-vehicle information processing system 10, and the like. The storage unit 15 also functions as a work memory. For example, the storage unit 15 stores information related to the operator's operator who has been subjected to image processing, which is finally superimposed on the display unit 11.

以下では、図5及び図6を参照して、車載用情報処理システム10が行う画像処理について詳細に説明する。   Below, with reference to FIG.5 and FIG.6, the image processing which the vehicle-mounted information processing system 10 performs is demonstrated in detail.

図5は、タッチ操作部12の所定の領域と、表示部11を構成する画面上の操作領域との対応関係の一例を示す模式図である。図5(a)は、タッチ操作部12の所定の領域R1を示す。図5(b)は、表示部11を構成する画面上の操作領域R2を示す。   FIG. 5 is a schematic diagram illustrating an example of a correspondence relationship between a predetermined area of the touch operation unit 12 and an operation area on the screen configuring the display unit 11. FIG. 5A shows a predetermined region R1 of the touch operation unit 12. FIG. 5B shows an operation area R <b> 2 on the screen constituting the display unit 11.

制御部14は、タッチ操作部12の所定の領域R1及び表示部11を構成する画面上の操作領域R2を設定する。タッチ操作部12の所定の領域R1とは、操作者が操作手の一部によりタッチ操作を行うための領域である。例えば、タッチ操作部12の所定の領域R1は、タッチパッド121の一部又は全体の領域である。表示部11を構成する画面上の操作領域R2とは、画面上に重畳表示された操作者の操作手が仮想的に操作可能な画面上の領域である。例えば、表示部11を構成する画面上の操作領域R2は、当該画面の一部又は全体の領域である。   The control unit 14 sets a predetermined region R1 of the touch operation unit 12 and an operation region R2 on the screen constituting the display unit 11. The predetermined area R1 of the touch operation unit 12 is an area for the operator to perform a touch operation with a part of the operator. For example, the predetermined region R1 of the touch operation unit 12 is a part or the entire region of the touch pad 121. The operation area R2 on the screen constituting the display unit 11 is an area on the screen that can be virtually operated by the operator's operator hand superimposed on the screen. For example, the operation area R2 on the screen constituting the display unit 11 is a part or the entire area of the screen.

図5(a)に示すとおり、タッチ操作部12の所定の領域R1は、タッチ操作部12全体に操作者の操作手が重畳するように、タッチ操作部12の奥側に設定されるのが好適である。タッチ操作部12の奥側とは、例えば、タッチ操作部12を構成するタッチパッド121の奥側である。すなわち、図4及び図5に示すとおり、タッチ操作部12の奥側とは、操作者の腕及び手首をアームレスト及びパームレストにそれぞれ配置したときに、手首から最も離れるタッチパッド121上の領域である。   As shown in FIG. 5A, the predetermined region R <b> 1 of the touch operation unit 12 is set on the back side of the touch operation unit 12 so that the operator's operating hand is superimposed on the entire touch operation unit 12. Is preferred. The back side of the touch operation unit 12 is, for example, the back side of the touch pad 121 constituting the touch operation unit 12. That is, as shown in FIGS. 4 and 5, the back side of the touch operation unit 12 is an area on the touch pad 121 that is farthest from the wrist when the operator's arm and wrist are arranged on the armrest and palmrest, respectively. .

タッチ操作部12の所定の領域R1は、これに限定されず、上述のとおり、タッチパッド121上の任意の一部の領域であってもよいし、全体領域であってもよい。タッチ操作部12の所定の領域R1がタッチパッド121上の任意の一部の領域である場合、所定の領域R1以外のタッチパッド121上の領域は、タッチ操作に対して反応しないように構成されてもよい。   The predetermined region R1 of the touch operation unit 12 is not limited to this, and may be an arbitrary partial region on the touch pad 121 or the entire region as described above. When the predetermined area R1 of the touch operation unit 12 is an arbitrary partial area on the touch pad 121, the areas on the touch pad 121 other than the predetermined area R1 are configured not to react to the touch operation. May be.

一方で、表示部11を構成する画面上の操作領域R2は、タッチパッド121の奥側に上記の所定の領域R1が設定されたとき、対応するように、画面の上部に設定される。すなわち、タッチパッド121の奥側及び手前側が、画面の上部及び下部にそれぞれ対応する。このように各々を対応させるのが最も直感的であるが、タッチパッド121と、表示部11を構成する画面との対応関係はこれに限定されない。例えば、上記の対応関係を逆にして、タッチパッド121の手前側及び奥側が、画面の上部及び下部にそれぞれ対応してもよい。この場合、タッチ操作部12全体に操作者の操作手を重畳させるために、タッチ操作部12の奥側の所定の領域R1に対応させて、表示部11を構成する画面上の操作領域R2は、その下部に設定されてもよい。   On the other hand, the operation area R2 on the screen constituting the display unit 11 is set at the upper part of the screen so as to correspond when the predetermined area R1 is set on the back side of the touch pad 121. That is, the back side and the near side of the touch pad 121 correspond to the upper part and the lower part of the screen, respectively. Although it is most intuitive to make each correspond in this way, the correspondence relationship between the touch pad 121 and the screen constituting the display unit 11 is not limited to this. For example, the above correspondence relationship may be reversed, and the near side and the far side of the touch pad 121 may correspond to the upper part and the lower part of the screen, respectively. In this case, in order to superimpose the operator's operation hand on the entire touch operation unit 12, the operation region R2 on the screen constituting the display unit 11 is associated with the predetermined region R1 on the back side of the touch operation unit 12. , May be set at the lower part thereof.

制御部14は、設定したタッチ操作部12の所定の領域R1内の位置座標と、表示部11を構成する画面上の操作領域R2内の位置座標とを対応させる。例えば、タッチ操作部12の所定の領域R1が、タッチパッド121の一部又は全体の四角の領域であり、画面上の操作領域R2が、当該画面の一部又は全体の四角の領域である場合を考える。この場合、制御部14は、所定の領域R1の4つの頂点と操作領域R2の4つの頂点とをそれぞれ対応させる。制御部14は、4つの頂点の位置座標の対応関係を識別することで、各頂点を結ぶ四角の領域内に位置する各点の位置座標の対応関係を決定することができる。   The control unit 14 associates the set position coordinates in the predetermined region R1 of the touch operation unit 12 with the position coordinates in the operation region R2 on the screen constituting the display unit 11. For example, when the predetermined area R1 of the touch operation unit 12 is a square area of a part or the whole of the touch pad 121, and the operation area R2 on the screen is a part of or a whole square area of the screen. think of. In this case, the control unit 14 associates the four vertices of the predetermined area R1 with the four vertices of the operation area R2. The control unit 14 can determine the correspondence between the position coordinates of each point located in the square area connecting the vertices by identifying the correspondence between the position coordinates of the four vertices.

このような処理は、例えば、車載用情報処理システム10が車両に搭載された初期の段階でキャリブレーションとして実行されてもよいし、随時実行されてもよい。   Such processing may be executed as calibration at an initial stage when the in-vehicle information processing system 10 is mounted on the vehicle, or may be executed as needed.

図6は、車載用情報処理システム10が行う画像処理の様子を示した模式図である。図6(a)は、タッチ操作部12上でタッチ操作を行っている操作者の操作手の様子を示す。図6(b)は、表示部11を構成する画面上に重畳表示させた操作者の操作手の様子を示す。   FIG. 6 is a schematic diagram illustrating a state of image processing performed by the in-vehicle information processing system 10. FIG. 6A shows the state of the operator's operator performing a touch operation on the touch operation unit 12. FIG. 6B shows the state of the operator's operator hand superimposed on the screen constituting the display unit 11.

制御部14は、カメラによって撮像された画像情報を、撮像部13から取得する。図6の領域R3により示すとおり、撮像された画像は、タッチ操作部12でタッチ操作を行う操作者の操作手の少なくとも一部と、タッチ操作部12、特にタッチパッド121とを含む。すなわち、撮像部13は、タッチ操作部12と操作者の操作手との位置関係を撮像する。加えて、上述のとおり、制御部14は、所定の領域R1内の位置座標と操作領域R2内の位置座標とを対応させるので、タッチ操作部12における操作者の操作手の位置と対応するように、当該操作手の少なくとも一部を画面上に重畳表示させることが可能である。   The control unit 14 acquires image information captured by the camera from the imaging unit 13. As illustrated by a region R3 in FIG. 6, the captured image includes at least a part of an operator's hand performing a touch operation with the touch operation unit 12 and the touch operation unit 12, particularly the touch pad 121. That is, the imaging unit 13 images the positional relationship between the touch operation unit 12 and the operator's operating hand. In addition, as described above, the control unit 14 associates the position coordinates in the predetermined region R1 with the position coordinates in the operation region R2, so that it corresponds to the position of the operator's operating hand in the touch operation unit 12. In addition, at least a part of the operator can be displayed in a superimposed manner on the screen.

制御部14は、表示部11に操作者の操作手を重畳表示させるとき、上記の画像に基づいて、操作者の操作手の一部又は全体を抽出する画像処理を行う。すなわち、制御部14は、操作者の操作手の輪郭よりも外部の背景等の画像情報を除去する。なお、タッチパッド121の周囲を黒色の縁により囲むことで、制御部14は、撮像された画像に基づいて容易に操作者の操作手を抽出することができる。   When the operator's operator's hand is superimposed and displayed on the display unit 11, the control unit 14 performs image processing for extracting a part or the whole of the operator's operator's hand based on the above image. That is, the control unit 14 removes image information such as an external background from the contour of the operator's operator's hand. Note that by surrounding the periphery of the touch pad 121 with a black edge, the control unit 14 can easily extract the operator's operator based on the captured image.

さらに、制御部14は、撮像された画像が白黒画像の場合、画像処理によって操作手部分を着色してもよいし、着色しなくてもよい。表示部11に表示される操作者の操作手のリアリティをより向上させるためには、制御部14は、画像処理により着色するのが好適である。   Further, when the captured image is a black and white image, the control unit 14 may or may not color the operating part by image processing. In order to further improve the reality of the operator's operator displayed on the display unit 11, the control unit 14 is preferably colored by image processing.

一方で、制御部14は、撮像された画像がカラー画像の場合、操作者の操作手の実際の色彩及び明暗などに合わせて、画面上にそのまま重畳表示させるのが好適である。制御部14は、これに限定されず、背後の表示内容をより容易に視認可能とするために、操作手部分の色彩及び明暗などを排除して、代わりに例えば所定の一色を付す画像処理を行ってもよい。また、制御部14は、操作手部分の色彩及び明暗などを排除して、操作手部分を完全に無色透明とする画像処理を行ってもよい。この場合、制御部14は、操作手の輪郭近傍の部位のみを画面上に表示させる。   On the other hand, when the captured image is a color image, it is preferable that the control unit 14 directly superimposes and displays the image on the screen in accordance with the actual color and brightness of the operator's operator. The control unit 14 is not limited to this, and in order to make it easier to visually recognize the display content behind, the controller 14 eliminates the color and brightness of the operator part, and instead performs image processing that adds a predetermined color, for example. You may go. Further, the control unit 14 may perform image processing in which the color and brightness of the operation part are excluded, and the operation part is completely colorless and transparent. In this case, the control unit 14 displays only a part near the contour of the operator on the screen.

以下では、撮像部13によって撮像された画像はカラー画像であり、制御部14は、操作者の操作手の実際の色彩及び明暗などに合わせて、画面上にそのまま重畳表示させるものとして説明する。すなわち、制御部14は、色彩及び明暗などに関する画像処理を行う必要はないものとして説明する。   In the following description, it is assumed that the image captured by the imaging unit 13 is a color image, and the control unit 14 superimposes and displays the image on the screen as it is in accordance with the actual color and brightness of the operator's operator. That is, the description will be made assuming that the control unit 14 does not need to perform image processing relating to color, brightness, and the like.

制御部14は、撮像された画像中のタッチ操作部12の所定の領域R1と、表示部11を構成する画面上の操作領域R2との間の大きさの比率に基づいて、操作者の操作手の表示倍率を決定する。例えば、タッチ操作部12の所定の領域R1が、タッチパッド121の一部又は全体の四角の領域であり、画面上の操作領域R2が、当該画面の一部又は全体の四角の領域である場合を考える。この場合、制御部14は、タッチ操作部12の所定の領域R1の各辺の長さと、画面上の操作領域R2の対応する各辺の長さとの比率をそれぞれ算出する。制御部14は、当該比率に基づいて、表示部11に重畳表示させる操作者の操作手の表示倍率を決定する。   Based on the ratio of the size between the predetermined area R1 of the touch operation unit 12 in the captured image and the operation area R2 on the screen constituting the display unit 11, the control unit 14 performs the operation of the operator. Determine the hand display magnification. For example, when the predetermined area R1 of the touch operation unit 12 is a square area of a part or the whole of the touch pad 121, and the operation area R2 on the screen is a part of or a whole square area of the screen. think of. In this case, the control unit 14 calculates the ratio between the length of each side of the predetermined region R1 of the touch operation unit 12 and the length of each corresponding side of the operation region R2 on the screen. Based on the ratio, the control unit 14 determines the display magnification of the operator's operator's hand displayed on the display unit 11 in a superimposed manner.

制御部14は、決定した表示倍率に基づいて、撮像された操作者の操作手を、拡大若しくは縮小した状態、又はそのままの状態で表示部11に重畳表示させる。   Based on the determined display magnification, the control unit 14 superimposes and displays the captured operator's operator on the display unit 11 in an enlarged or reduced state or as it is.

制御部14は、操作者の操作手の表示倍率を上記の比率と同一としてもよいし、上記の比率に基づく異なる値としてもよい。また、表示倍率の決定処理は、例えば、車載用情報処理システム10が車両に搭載された初期の段階で上述のキャリブレーションと同時に実行されてもよいし、随時実行されてもよい。制御部14は、表示倍率を一度決定すると、その倍率を固定してもよいし、状況に応じて可変としてもよい。例えば、制御部14は、昼間と夜間とで操作者の操作手の表示倍率を変えてもよいし、操作者の設定により表示倍率を適宜変えてもよい。   The control unit 14 may make the display magnification of the operator's operator the same as the above ratio, or may be a different value based on the above ratio. The display magnification determination process may be executed simultaneously with the above-described calibration at the initial stage when the in-vehicle information processing system 10 is mounted on the vehicle, or may be executed as needed. Once the display magnification is determined, the control unit 14 may fix the magnification or change it according to the situation. For example, the control unit 14 may change the display magnification of the operator's operator between daytime and nighttime, or may appropriately change the display magnification according to the operator's setting.

例えば、表示部11が複数の画面により構成される場合、制御部14は、各々の画面の操作領域R2の大きさに基づいて、重畳表示させる操作者の操作手の表示倍率をそれぞれ変えてもよい。これに限定されず、制御部14は、各々の画面の操作領域R2の大きさに基づいて、例えば、その平均値を導出し、当該平均値に基づいて、重畳表示させる操作者の操作手の表示倍率を一定にしてもよい。   For example, when the display unit 11 is configured by a plurality of screens, the control unit 14 may change the display magnification of the operator's operator to be superimposed and displayed based on the size of the operation area R2 of each screen. Good. Without being limited to this, the control unit 14 derives, for example, an average value based on the size of the operation area R2 of each screen, and the operator's operator's hand that performs superimposition display based on the average value. The display magnification may be constant.

制御部14は、画面上の操作領域R2の大きさのみならず、画面上に表示する内容に応じて、操作者の操作手の表示倍率を変化させてもよい。例えば、表示部11が地図又は機能項目などを表示して、操作者が各々を操作する場合、制御部14は、操作者が操作しやすいようにその操作手の表示倍率を通常よりも低下させて、表示部11に重畳表示させてもよい。   The control unit 14 may change the display magnification of the operator's operator according to not only the size of the operation area R2 on the screen but also the content displayed on the screen. For example, when the display unit 11 displays a map or a function item and the operator operates each, the control unit 14 reduces the display magnification of the operator to be lower than usual so that the operator can easily operate. Then, the display unit 11 may be displayed in a superimposed manner.

また、制御部14は、例えば、操作手の大きさの異なる操作者間で、表示部11に重畳表示される操作手の大きさを一致させるために、操作者ごとに表示倍率を変えてもよい。一方で、制御部14は、操作手の大きさの異なる操作者間で、表示部11に重畳表示される操作手の表示倍率を一定にして、現実の操作者の操作手の大きさに合わせて重畳表示させてもよい。   In addition, the control unit 14 may change the display magnification for each operator in order to match the size of the operator displayed superimposed on the display unit 11 between operators having different sizes of the operator. Good. On the other hand, the control unit 14 makes the display magnification of the operator superimposed on the display unit 11 constant among operators having different sizes of the operator, and matches the actual operator's size of the operator. May be displayed in a superimposed manner.

制御部14は、撮像部13により撮像された画像に基づいて、所定の時間内で画像処理を行うのが好適である。所定の時間とは、操作者の実際の操作手による操作のタイミングと、画面上に重畳表示させた操作者の操作手の動きのタイミングとの間の時間遅れであって、操作者が意識しない程度の時間遅れを意味する。すなわち、制御部14は、操作者の反応速度及び認知能力などによって操作者が操作に違和感を感じる時間遅れよりも十分に短い時間内で画像処理を完結するのが好適である。例えば、制御部14は、上述した、撮像された操作者の操作手の抽出及び表示倍率の調整のみに画像処理を限定するのが好適である。   The control unit 14 preferably performs image processing within a predetermined time based on the image captured by the imaging unit 13. The predetermined time is a time delay between the timing of the operation by the operator's actual operator and the timing of the movement of the operator's operator superimposed on the screen, and the operator is not aware of it. Means a time delay. That is, it is preferable that the control unit 14 completes the image processing within a time sufficiently shorter than a time delay in which the operator feels uncomfortable with the operation due to the reaction speed and the recognition ability of the operator. For example, it is preferable that the control unit 14 limit the image processing only to the above-described extraction of the operator's operator's hand imaged and adjustment of the display magnification.

すなわち、操作者の操作手によるタッチ操作が検出されるタッチ操作部12の所定の領域R1内の位置座標は、撮像部13による撮像画像の画像処理により識別されるのではなく、上述したとおり、タッチ操作部12、特にタッチパッド121からの検出情報に基づいて識別されるのが好適である。   That is, the position coordinates in the predetermined region R1 of the touch operation unit 12 where the touch operation by the operator's operator is detected is not identified by image processing of the captured image by the imaging unit 13, but as described above. It is preferable that identification is performed based on detection information from the touch operation unit 12, particularly the touch pad 121.

制御部14は、上記のように2つの画像処理を行うものとして説明するが、これに限定されず、所定の時間内であれば、3つ以上の画像処理を行ってもよい。この場合、例えば、操作者の操作手によるタッチ操作が検出されるタッチ操作部12の所定の領域R1内の位置座標は、撮像部13による撮像画像の画像処理により識別されてもよい。   Although the control unit 14 is described as performing two image processes as described above, the present invention is not limited to this, and three or more image processes may be performed within a predetermined time. In this case, for example, the position coordinates in the predetermined region R1 of the touch operation unit 12 where the touch operation by the operator's operator is detected may be identified by image processing of the captured image by the imaging unit 13.

制御部14は、上記の画像処理を行うにあたり、タッチ操作部12の所定の領域R1及び表示部11を構成する画面上の操作領域R2に関する情報を、記憶部15より参照する。すなわち、制御部14は、検出情報に対応させた、タッチパッド121の所定の領域R1内の位置座標に関する情報を参照する。制御部14は、表示部11を構成する各画面の操作領域R2内の位置座標に関する情報を参照する。制御部14は、キャリブレーションなどにより決定された、重畳表示させる操作者の操作手の表示倍率に関する情報を参照する。   When performing the above-described image processing, the control unit 14 refers to information about the predetermined region R1 of the touch operation unit 12 and the operation region R2 on the screen constituting the display unit 11 from the storage unit 15. That is, the control unit 14 refers to the information regarding the position coordinates in the predetermined region R1 of the touch pad 121 corresponding to the detection information. The control unit 14 refers to information regarding the position coordinates in the operation region R2 of each screen constituting the display unit 11. The control unit 14 refers to information regarding the display magnification of the operator's operator's hand to be displayed in a superimposed manner determined by calibration or the like.

以下では、図7及び図8を参照して、操作者が車載用情報処理システム10を用いて行う操作の一例を詳細に説明する。   Below, with reference to FIG.7 and FIG.8, an example of operation which an operator performs using the vehicle-mounted information processing system 10 is demonstrated in detail.

図7は、表示部11を構成する画面に表示される機能項目とタッチパッド121との対応関係を例示した模式図である。制御部14は、画面上の操作領域R2内で少なくとも1つのエリアを定めて、操作者が車両に関する情報を制御するための少なくとも1つの機能項目を、エリアごとに対応させて画面上に表示させる。例えば、制御部14は、その画面の上部に設定された操作領域R2をさらに7つのエリアR21、R22、R23、R24、R25、R26、及びR27に分けて、「APPS」、「TEL」、「A/C」、「NAVI」、「AUDIO」、「HOME」、及び「RETURN」の機能項目をそれぞれのエリアに対応させて表示させる。7つのエリアR21乃至R27は、タッチ操作部12の所定の領域R1中のエリアR11、R12、R13、R14、R15、R16、及びR17にそれぞれ対応する。   FIG. 7 is a schematic view illustrating the correspondence between the function items displayed on the screen configuring the display unit 11 and the touch pad 121. The control unit 14 determines at least one area in the operation region R2 on the screen, and displays on the screen at least one function item for the operator to control information related to the vehicle in association with each area. . For example, the control unit 14 further divides the operation region R2 set at the top of the screen into seven areas R21, R22, R23, R24, R25, R26, and R27, and “APPS”, “TEL”, “ The function items of “A / C”, “NAVI”, “AUDIO”, “HOME”, and “RETURN” are displayed corresponding to the respective areas. The seven areas R21 to R27 correspond to the areas R11, R12, R13, R14, R15, R16, and R17 in the predetermined region R1 of the touch operation unit 12, respectively.

制御部14が分けるエリアの数は7つに限定されず、少なくとも1つのエリアが定められていればよい。また、各エリアに表示させる機能項目は、上記に限定されず、車両に関する情報を制御するための任意の項目であってよい。各機能項目の表示方法は、図7に示した文字による表示に限定されず、例えば、矢印などのアイコンによる表示など、操作者が視認可能な任意の表示方法であってよい。   The number of areas divided by the control unit 14 is not limited to seven, and it is sufficient that at least one area is determined. Moreover, the function item displayed on each area is not limited to the above, and may be any item for controlling information on the vehicle. The display method of each function item is not limited to the display using characters illustrated in FIG. 7, and may be any display method that can be visually recognized by the operator, such as a display using an icon such as an arrow.

操作者は、例えば、カーナビゲーションを起動したいときは、エリアR14でタッチ操作を行う。タッチパッド121が操作者の操作手の一部による接触をエリアR14で検出した場合、制御部14は、エリアR24に表示された「NAVI」の項目をハイライトさせる。この時、制御部14は、撮像部13により撮像された画像に基づいて、操作者の操作手を対応する位置に重畳表示させる。   For example, when the operator wants to activate car navigation, the operator performs a touch operation in the area R14. When the touch pad 121 detects a contact by a part of the operator's operating hand in the area R14, the control unit 14 highlights the item “NAVI” displayed in the area R24. At this time, the control unit 14 superimposes and displays the operator's operating hand at a corresponding position based on the image captured by the imaging unit 13.

続いて、操作者の操作手の一部によるタッチパッド121の押込みによりタクトスイッチ122がオンになった場合、制御部14は、エリアR24に表示された「NAVI」の項目の選択を確定させる。この時、制御部14は、エリアR14に接触している操作者の操作手の一部、例えば人差し指の押込みに合わせて、同様の動きを画面上で表示させる。   Subsequently, when the tact switch 122 is turned on by pressing the touch pad 121 by a part of the operator's operator, the control unit 14 determines the selection of the item “NAVI” displayed in the area R24. At this time, the control unit 14 displays the same movement on the screen in accordance with the pressing of a part of the operator's operator touching the area R14, for example, the index finger.

同様に、操作者がエリアR11でタッチ操作を行うと、制御部14は、エリアR21に表示された「APPS」に関する処理を行う。操作者がエリアR12でタッチ操作を行うと、制御部14は、エリアR22に表示された「TEL」に関する処理を行う。操作者がエリアR13でタッチ操作を行うと、制御部14は、エリアR23に表示された「A/C」に関する処理を行う。操作者がエリアR15でタッチ操作を行うと、制御部14は、エリアR25に表示された「AUDIO」に関する処理を行う。操作者がエリアR16でタッチ操作を行うと、制御部14は、エリアR26に表示された「HOME」に関する処理を行う。操作者がエリアR17でタッチ操作を行うと、制御部14は、エリアR27に表示された「RETURN」に関する処理を行う。   Similarly, when the operator performs a touch operation in the area R11, the control unit 14 performs processing related to “APPS” displayed in the area R21. When the operator performs a touch operation in the area R12, the control unit 14 performs a process related to “TEL” displayed in the area R22. When the operator performs a touch operation in the area R13, the control unit 14 performs processing related to “A / C” displayed in the area R23. When the operator performs a touch operation in the area R15, the control unit 14 performs a process related to “AUDIO” displayed in the area R25. When the operator performs a touch operation in the area R16, the control unit 14 performs a process related to “HOME” displayed in the area R26. When the operator performs a touch operation in the area R17, the control unit 14 performs a process related to “RETURN” displayed in the area R27.

図7では、制御部14は、操作領域R2内に定められたエリアごとに各機能項目を対応させて表示させるものとして説明したが、これに限定されない。図8に示すとおり、制御部14は、操作者の操作手の各部にそれぞれ機能を割り当てて、タッチ操作部12における各部の動作に基づいて、画面上で各種機能を選択実行させてもよい。この場合、制御部14は、各種機能を選択実行させるためにエリアごとに各機能項目を表示させる必要はない。   In FIG. 7, the control unit 14 has been described as displaying each function item in association with each area defined in the operation region R2, but the present invention is not limited to this. As shown in FIG. 8, the control unit 14 may assign a function to each part of the operator's operating hand and select and execute various functions on the screen based on the operation of each part in the touch operation unit 12. In this case, the control unit 14 does not need to display each function item for each area in order to select and execute various functions.

図8は、画面上に重畳表示された操作者の操作手が仮想的に行う操作の様子を例示した模式図である。制御部14は、画面上に各機能項目を表示させる代わりに、操作者の操作手の各部、例えば3本の指それぞれに各種機能を割り当てる。より具体的には、制御部14は、操作者の操作手の親指、人差し指、及び中指に、「RETURN」、「NAVI」、及び「HOME」の機能をそれぞれ割り当てる。各種機能を割り当てる指の種類及び本数は上記に限定されず、任意の本数の任意の指に、任意の機能が割り当てられてもよい。   FIG. 8 is a schematic view illustrating an operation that is virtually performed by the operator's operator superimposed and displayed on the screen. Instead of displaying each function item on the screen, the control unit 14 assigns various functions to each part of the operator's operating hand, for example, each of three fingers. More specifically, the control unit 14 assigns the functions “RETURN”, “NAVI”, and “HOME” to the thumb, index finger, and middle finger of the operator's operation hand, respectively. The kind and number of fingers to which various functions are assigned are not limited to the above, and any function may be assigned to any number of fingers.

例えば、操作者が人差し指をタッチパッド121に接触させた場合、制御部14は、タッチパッド121上の接触に関する検出信号を、タッチ操作部12から取得する。この時、制御部14は、撮像部13から取得した撮像画像により、タッチパッド121に接触している指の種類を識別する。すなわち、制御部14は、タッチ操作部12から取得した検出情報に基づいて、タッチパッド121上の接触の位置座標を識別し、撮像部13から取得した画像情報に基づいて、接触している指の種類を識別する。   For example, when the operator causes the index finger to contact the touch pad 121, the control unit 14 acquires a detection signal related to contact on the touch pad 121 from the touch operation unit 12. At this time, the control unit 14 identifies the type of finger touching the touch pad 121 based on the captured image acquired from the imaging unit 13. That is, the control unit 14 identifies the position coordinates of the contact on the touch pad 121 based on the detection information acquired from the touch operation unit 12, and the finger touching based on the image information acquired from the imaging unit 13. Identify the type.

制御部14は、操作者の操作手による接触を識別した場合、画面上に任意の合図を表示させてもよい。制御部14は、操作者の操作手による接触を識別しない場合、画面上に当該合図を表示させない。例えば、制御部14は、前者の場合、画面上に重畳表示された操作者の人差し指の近傍に「NAVI」という項目を文字で表示させてもよいし、所定のアイコンで表示させてもよい。制御部14は、さらに、表示した項目をハイライトさせてもよい。また、制御部14は、操作者の人差し指による接触の識別を操作者に視覚情報としてフィードバックするために、人差し指の周囲をサークル状のポインタなどで囲むように表示させてもよい。以上により、操作者は、どの指がタッチパッド121に接触しているかを、視覚情報としても容易に認識することができる。   The control unit 14 may display an arbitrary signal on the screen when the contact by the operator's operating hand is identified. When the control unit 14 does not identify contact by the operator's operating hand, the control unit 14 does not display the signal on the screen. For example, in the former case, the control unit 14 may display the item “NAVI” in the vicinity of the index finger of the operator superimposed on the screen, or may display it with a predetermined icon. The control unit 14 may further highlight the displayed item. Further, the control unit 14 may display the circumference of the index finger so as to surround the index finger with a circle pointer or the like in order to feed back the identification of the contact with the index finger of the operator as visual information to the operator. As described above, the operator can easily recognize which finger is in contact with the touch pad 121 as visual information.

続いて、操作者がタッチパッド121を押込み、タクトスイッチ122がオンになった場合、制御部14は、操作者の人差し指の近傍に表示された「NAVI」の項目の選択を確定させる。この時、制御部14は、タッチパッド121上の対応する位置に接触している操作者の人差し指の押込みに合わせて、同様の動きを画面上で表示する。   Subsequently, when the operator depresses the touch pad 121 and the tact switch 122 is turned on, the control unit 14 determines the selection of the item “NAVI” displayed near the operator's index finger. At this time, the control unit 14 displays the same movement on the screen in accordance with the pressing of the index finger of the operator who is in contact with the corresponding position on the touch pad 121.

同様に、操作者が親指でタッチ操作を行うと、制御部14は、「RETURN」に関する処理を行う。操作者が中指でタッチ操作を行うと、制御部14は、「HOME」に関する処理を行う。   Similarly, when the operator performs a touch operation with the thumb, the control unit 14 performs processing related to “RETURN”. When the operator performs a touch operation with the middle finger, the control unit 14 performs processing related to “HOME”.

例えば、操作者が親指、人差し指、及び中指を同時にタッチパッド121に接触させた場合、制御部14は、上記の全ての項目を画面上に同時に表示してもよい。すなわち、制御部14は、画面上に重畳表示された操作者の親指、人差し指、及び中指の近傍に、「RETURN」、「NAVI」、及び「HOME」という項目をそれぞれ文字又はアイコンで同時に表示させてもよい。制御部14は、さらに、表示した項目をそれぞれハイライトさせてもよい。また、制御部14は、操作者の各指による接触の識別を操作者に視覚情報としてフィードバックするために、各指の周囲をサークル状のポインタなどでそれぞれ囲むように表示させてもよい。続いて、操作者が特定の指でタッチパッド121を押込むと、制御部14は、その指に割り当てられた機能の選択を確定させる。   For example, when the operator causes the thumb, index finger, and middle finger to touch the touch pad 121 at the same time, the control unit 14 may simultaneously display all the above items on the screen. That is, the control unit 14 causes the items “RETURN”, “NAVI”, and “HOME” to be displayed simultaneously with characters or icons in the vicinity of the thumb, index finger, and middle finger of the operator superimposed on the screen. May be. The control unit 14 may further highlight each displayed item. In addition, the control unit 14 may display each finger so as to surround each finger with a circle pointer or the like in order to feed back the identification of the contact by each finger of the operator as visual information to the operator. Subsequently, when the operator presses the touch pad 121 with a specific finger, the control unit 14 determines the selection of the function assigned to the finger.

上記の場合、制御部14は、例えば、撮像部13によって撮像された画像情報に基づいて、押込んだ指を識別してもよい。また、より精度良く押込んだ指を識別するために、制御部14は、例えば、タッチパッド121の直下に配置された複数のタクトスイッチ122からの検出信号に基づいて、押込んだ指を識別してもよい。すなわち、制御部14は、操作者が各指を同時にタッチパッド121に接触させた時点で、それぞれの位置座標及び指の種類を識別する。その後、制御部14は、タクトスイッチ122によりタッチパッド121上のどの位置で押圧があったかを識別する。これにより、制御部14は、どの指の機能の選択を確定させるかを識別する。   In the above case, the control unit 14 may identify the pressed finger based on the image information captured by the imaging unit 13, for example. In addition, in order to identify the pressed finger with higher accuracy, the control unit 14 identifies the pressed finger based on detection signals from a plurality of tact switches 122 arranged immediately below the touch pad 121, for example. May be. That is, the control unit 14 identifies each position coordinate and the type of finger when the operator simultaneously touches each finger with the touch pad 121. Thereafter, the control unit 14 identifies a position on the touch pad 121 by the tact switch 122. Thereby, the control unit 14 identifies which finger function is to be selected.

図9は、車載用情報処理システム10の動作の一例を示すフローチャートである。   FIG. 9 is a flowchart showing an example of the operation of the in-vehicle information processing system 10.

初めに、制御部14は、キャリブレーションを行う。すなわち、制御部14は、設定されたタッチ操作部12の所定の領域R1内の位置座標と、表示部11を構成する画面上の操作領域R2内の位置座標とを対応させる(ステップS10)。   First, the control unit 14 performs calibration. That is, the control unit 14 associates the set position coordinates in the predetermined region R1 of the touch operation unit 12 with the position coordinates in the operation region R2 on the screen constituting the display unit 11 (step S10).

続いて、制御部14は、キャリブレーションなどによって、表示部11に重畳表示させる操作者の操作手の表示倍率を決定する(ステップS11)。   Subsequently, the control unit 14 determines the display magnification of the operator's operator's hand to be superimposed and displayed on the display unit 11 by calibration or the like (step S11).

次に、制御部14は、撮像部13により撮像された画像に基づいて、タッチ操作部12上に操作者の操作手が重畳しているかを判別する(ステップS12)。   Next, the control unit 14 determines whether the operator's operating hand is superimposed on the touch operation unit 12 based on the image captured by the imaging unit 13 (step S12).

制御部14は、タッチ操作部12上に操作者の操作手が重畳していると判別した場合、ステップS13に進む。制御部14は、タッチ操作部12上に操作者の操作手が重畳していないと判別した場合、再度ステップS12に戻り、操作者の操作手が重畳するまで待機する。   When it is determined that the operator's operating hand is superimposed on the touch operation unit 12, the control unit 14 proceeds to step S13. When it is determined that the operator's operating hand is not superimposed on the touch operation unit 12, the control unit 14 returns to step S12 again and waits until the operator's operating hand is superimposed.

制御部14は、タッチ操作部12上に操作者の操作手が重畳していると判別した場合、操作者の操作手の一部又は全体を抽出する画像処理を行う(ステップS13)。   When it is determined that the operator's operator's hand is superimposed on the touch operation unit 12, the control unit 14 performs image processing for extracting part or all of the operator's operator's hand (step S13).

続いて、制御部14は、ステップS11で決定された表示倍率に基づいて、撮像された操作者の操作手を重畳表示させる(ステップS14)。   Subsequently, the control unit 14 superimposes and displays the captured operator's hand based on the display magnification determined in step S11 (step S14).

続いて、制御部14は、タッチ操作部12からタッチ操作に関する検出情報を取得したかを判別する(ステップS15)。   Subsequently, the control unit 14 determines whether detection information related to the touch operation is acquired from the touch operation unit 12 (step S15).

制御部14は、検出情報を取得した場合、ステップS16に進む。制御部14は、検出情報を取得しない場合、再度ステップS15に戻り、検出情報を取得するまで待機する。   When acquiring the detection information, the control unit 14 proceeds to step S16. When the detection information is not acquired, the control unit 14 returns to step S15 again and waits until the detection information is acquired.

制御部14は、検出情報を取得した場合、識別したタッチ操作部12の所定の領域R1内の位置座標に対応する機能項目をハイライトさせる(ステップS16)。   When acquiring the detection information, the control unit 14 highlights the function item corresponding to the position coordinate in the predetermined region R1 of the identified touch operation unit 12 (step S16).

続いて、制御部14は、タクトスイッチ122がオン状態の信号をタッチ操作部12より取得したかを判別する(ステップS17)。   Subsequently, the control unit 14 determines whether a signal indicating that the tact switch 122 is on is acquired from the touch operation unit 12 (step S17).

制御部14は、オン状態の信号を取得した場合、ステップS18に進む。制御部14は、オン状態の信号を取得しない場合、ステップS15に戻り、検出情報を取得したかを再度判別する。   When the control unit 14 obtains an on-state signal, the control unit 14 proceeds to step S18. When the control unit 14 does not acquire the on-state signal, the control unit 14 returns to step S15 and determines again whether the detection information has been acquired.

制御部14は、オン状態の信号を取得した場合、ステップS16でハイライトさせた機能項目の選択を確定させる(ステップS18)。   When acquiring the ON state signal, the control unit 14 determines the selection of the function item highlighted in Step S16 (Step S18).

その後、フローは終了する。   Thereafter, the flow ends.

以上により、本実施形態に係る車載用情報処理システム10は、表示部11に表示された操作者の操作手が仮想的に画面上で情報を操作するので、操作者に対して直感的な操作を可能とする。すなわち、操作者は、実際の感覚により近い状態で画面内にアクセスできる。また、操作者は、操作手の実際の位置と画面上の位置関係とを直感的に認識できる。従って、車載用情報処理システム10は、ポインタなどを表示させる従来の装置と比べて、操作者が画面を注視する時間を低減させることが可能である。   As described above, in the in-vehicle information processing system 10 according to the present embodiment, the operator's operator displayed on the display unit 11 virtually operates the information on the screen. Is possible. That is, the operator can access the screen in a state closer to the actual feeling. In addition, the operator can intuitively recognize the actual position of the operator and the positional relationship on the screen. Therefore, the in-vehicle information processing system 10 can reduce the time for the operator to watch the screen as compared with a conventional device that displays a pointer or the like.

車載用情報処理システム10は、画像処理を行う時間を限定するので、最小限の遅延により、操作者の操作手を重畳表示させることが可能である。すなわち、車載用情報処理システム10は、実際の操作手と画面上に重畳表示された操作手との間で、時間的な動きのズレを低減することができる。これにより、操作者は、より違和感なく画面上に表示される情報を操作可能である。   Since the in-vehicle information processing system 10 limits the time for performing image processing, it is possible to superimpose and display the operator's hand with a minimum delay. That is, the in-vehicle information processing system 10 can reduce a temporal movement shift between the actual operator and the operator superimposed and displayed on the screen. Thereby, the operator can operate the information displayed on the screen without a more uncomfortable feeling.

車載用情報処理システム10は、撮像部13により撮像された操作者の操作手を抽出する画像処理を行うので、画面上で操作者の操作手を忠実に重畳表示させることが可能である。これにより、操作者は、画面上に重畳表示された操作手を、自身の手であると直感的に認識することができる。   Since the in-vehicle information processing system 10 performs image processing for extracting the operator's operating hand imaged by the imaging unit 13, the operator's operating hand can be faithfully superimposed on the screen. As a result, the operator can intuitively recognize the operating hand superimposed on the screen as his / her own hand.

車載用情報処理システム10は、撮像部13により撮像された操作者の操作手の表示倍率を変更する画像処理を行うので、画面に合わせた最適な大きさで操作者の操作手を重畳表示させることが可能である。これにより、操作者は、画面上に重畳表示されている操作手にリアリティを感じつつ、その背後に表示された表示内容を容易に視認可能である。   The in-vehicle information processing system 10 performs image processing to change the display magnification of the operator's operator imaged by the imaging unit 13, so that the operator's operator's operator is superimposed and displayed with an optimum size according to the screen. It is possible. As a result, the operator can easily see the display content displayed behind the operator while feeling the reality of the operator superimposed on the screen.

車載用情報処理システム10は、タッチ操作が検出される所定の領域R1内の位置座標を画像処理により識別する場合と比べて、最小限の遅延により、操作者の操作手を重畳表示させることが可能である。また、車載用情報処理システム10は、撮像部13により撮像された画像に基づいて間接的に位置座標を識別するのではなく、タッチ操作部12により直接識別するので、精度良く位置座標を識別することができる。すなわち、車載用情報処理システム10は、タッチ操作部12により操作手が実際に接触している位置を検出するので、操作者が画面上に表示された機能項目などを選択する際に、誤動作を引き起こす可能性が低い。   The in-vehicle information processing system 10 can display an operator's operator in a superimposed manner with a minimum delay compared to the case where the position coordinates in the predetermined region R1 where the touch operation is detected are identified by image processing. Is possible. The in-vehicle information processing system 10 does not indirectly identify the position coordinates based on the image captured by the imaging unit 13, but directly identifies the position coordinates by the touch operation unit 12, and thus identifies the position coordinates with high accuracy. be able to. That is, since the in-vehicle information processing system 10 detects the position where the operator is actually touching by the touch operation unit 12, when the operator selects a function item displayed on the screen, a malfunction occurs. Less likely to cause.

車載用情報処理システム10では、撮像部13が操作者の操作手全体を撮像することで、操作者は、画面上に重畳表示された操作手が自身の手であることを容易に認識できる。さらに、操作者は、操作手のどの部分を動かしているのかを、画面上の表示に基づいて容易に認識できる。また、操作者は、実際の操作手の位置と、画面上の位置との関係を正確に認識するので、操作手の移動量及び移動可能な画面上の領域を容易に把握できる。   In the in-vehicle information processing system 10, the imaging unit 13 captures an image of the operator's entire operating hand, so that the operator can easily recognize that the operating hand superimposed on the screen is his / her hand. Furthermore, the operator can easily recognize which part of the operator is moving based on the display on the screen. Further, since the operator accurately recognizes the relationship between the actual position of the operator and the position on the screen, the operator can easily grasp the movement amount of the operator and the movable area on the screen.

車載用情報処理システム10は、撮像部13により操作者の操作手全体を撮像することで、タッチパッド121上の操作者の操作手を精度良く識別することが可能である。すなわち、車載用情報処理システム10は、操作者の操作手を人の手として精度良く認識することが可能である。さらに、車載用情報処理システム10は、操作者の操作手の各部の識別をより精度良く行うことが可能である。すなわち、車載用情報処理システム10は、撮像された画像中の指がどの指に対応するかを精度良く識別することが可能である。また、車載用情報処理システム10は、操作手全体を撮像することで、操作手全体の大きさ、操作手全体に占める各部の大きさの割合などを精度良く識別することが可能である。これにより、車載用情報処理システム10は、画面中での操作者の操作手の移動量、移動可能な画面上の領域を、タッチパッド121上の実際の操作手の動きと対応させて精度良く識別することが可能である。   The in-vehicle information processing system 10 can accurately identify the operator's operator on the touch pad 121 by imaging the entire operator's operator with the imaging unit 13. That is, the in-vehicle information processing system 10 can accurately recognize the operator's operating hand as a human hand. Further, the in-vehicle information processing system 10 can identify each part of the operator's operator with higher accuracy. That is, the in-vehicle information processing system 10 can accurately identify which finger corresponds to the finger in the captured image. Further, the in-vehicle information processing system 10 can accurately identify the size of the entire operating hand, the proportion of the size of each part in the entire operating hand, and the like by imaging the entire operating hand. As a result, the in-vehicle information processing system 10 accurately matches the movement amount of the operator's operator's hand on the screen and the movable area on the screen with the actual movement of the operator's hand on the touch pad 121. It is possible to identify.

車載用情報処理システム10は、タッチパッド121の奥側に所定の領域R1を設定し、画面上の上部に操作領域R2を設定することで、操作者は、必然的にタッチ操作部12全体に自身の操作手を重畳させることになる。この時、車載用情報処理システム10は、撮像部13により、必然的に操作者の操作手全体を撮像可能である。なお、所定の領域R1以外のタッチパッド121上の領域をタッチ操作に対して無反応とすることで、操作者の意識は所定の領域R1により集中することになる。この時、車載用情報処理システム10は、より確実に操作者の操作手全体を撮像可能である。   The in-vehicle information processing system 10 sets a predetermined area R1 on the back side of the touch pad 121 and sets an operation area R2 on the upper part of the screen, so that the operator inevitably moves the entire touch operation unit 12. The operator's own hand is superimposed. At this time, the in-vehicle information processing system 10 can inevitably image the entire operator's operation hand by the imaging unit 13. In addition, by making the area on the touch pad 121 other than the predetermined area R1 non-responsive to the touch operation, the operator's consciousness is concentrated on the predetermined area R1. At this time, the vehicle-mounted information processing system 10 can capture the entire operator's operating hand more reliably.

車載用情報処理システム10は、操作領域R2内に定められたエリアごとに各機能項目を対応させて表示させるので、操作者は、選択したい機能項目を容易に視認可能である。換言すると、操作者は、所定の機能項目を選択する場合に、タッチ操作部12上のどのエリアでタッチ操作を行うべきかを直感的に認識可能である。   The in-vehicle information processing system 10 displays each function item corresponding to each area defined in the operation region R2, so that the operator can easily visually recognize the function item to be selected. In other words, the operator can intuitively recognize in which area on the touch operation unit 12 the touch operation should be performed when selecting a predetermined function item.

一方で、車載用情報処理システム10は、操作者の操作手の各部にそれぞれ機能を割り当てる場合、画面上の任意の場所で、各種機能を選択実行可能である。すなわち、車載用情報処理システム10は、タッチ操作において、操作者の動作範囲を最小限に抑えることが可能であり、操作者は、容易にタッチ操作を行うことができる。   On the other hand, the in-vehicle information processing system 10 can selectively execute various functions at arbitrary locations on the screen when assigning functions to each part of the operator's operator. That is, the in-vehicle information processing system 10 can minimize the operation range of the operator in the touch operation, and the operator can easily perform the touch operation.

車載用情報処理システム10は、操作者が接触により選択した項目をハイライトさせることで、どの指がタッチパッド121に接触しているかを、視覚情報としても明瞭に認識することができる。また、操作者は、重畳表示された操作手が画面上のどの位置で接触しているのか、又はどの項目が選択されているのかを容易に視認可能である。   The in-vehicle information processing system 10 can clearly recognize which finger is in contact with the touch pad 121 as visual information by highlighting an item selected by contact by the operator. In addition, the operator can easily visually recognize at which position on the screen the operator displayed in a superimposed manner or which item is selected.

車載用情報処理システム10は、タクトスイッチ122がオンになるときに操作者に対してクリック感を与えるので、操作者は、自身の動作による触感的なフィードバックを得ることができ、より直感的な操作が可能である。換言すると、タクトスイッチ122が選択の確定に用いられることで、操作者は、自然な動作で選択した項目を確定させることができる。加えて、操作者は、指に働く反力によって、画面上に重畳表示された操作手に対してよりリアリティを感じる。すなわち、操作者は、自身の実際の操作手があたかも直接画面に触れているような錯覚を覚えやすくなる。   The in-vehicle information processing system 10 gives a click feeling to the operator when the tact switch 122 is turned on, so that the operator can obtain tactile feedback by his / her own operation, and is more intuitive. Operation is possible. In other words, the tact switch 122 is used to confirm the selection, so that the operator can confirm the item selected by a natural action. In addition, the operator feels more reality with respect to the operator superimposed and displayed on the screen due to the reaction force acting on the finger. That is, the operator can easily feel the illusion that his / her actual operator is touching the screen directly.

車載用情報処理システム10は、重畳表示させる操作者の操作手を半透過にするので、リアリティを確保しつつ、操作者は、画面上に表示される情報を容易に視認可能である。すなわち、操作者は、より直感的に画面上に表示される情報を操作可能である。   The in-vehicle information processing system 10 makes the operator's operator's hand to be superimposed and displayed semi-transparent, so that the operator can easily visually recognize the information displayed on the screen while ensuring the reality. That is, the operator can operate information displayed on the screen more intuitively.

車載用情報処理システム10は、タッチ操作部12の上方に撮像部13を設置することで、操作者の操作手全体をより容易に撮像可能である。   The in-vehicle information processing system 10 can more easily image the entire operator's operating hand by installing the imaging unit 13 above the touch operation unit 12.

本発明は、その精神又はその本質的な特徴から離れることなく、上述した実施形態以外の他の所定の形態で実現できることは当業者にとって明白である。従って、先の記述は例示的なものであり、これに限定されるものではない。発明の範囲は、先の記述によってではなく、付加した請求項によって定義される。あらゆる変更のうちその均等の範囲内にあるいくつかの変更は、その中に包含されるものとする。   It will be apparent to those skilled in the art that the present invention can be realized in other predetermined forms other than the above-described embodiments without departing from the spirit or essential characteristics thereof. Accordingly, the above description is illustrative and not restrictive. The scope of the invention is defined by the appended claims rather than by the foregoing description. Some of all changes that fall within the equivalent scope shall be included therein.

10 車載用情報処理システム
11 表示部
12 タッチ操作部
121 タッチパッド
122 タクトスイッチ
13 撮像部
14 制御部
15 記憶部
R1 所定の領域
R11、R12、R13、R14、R15、R16、R17 エリア
R2 操作領域
R21、R22、R23、R24、R25、R26、R27 エリア
R3 領域
DESCRIPTION OF SYMBOLS 10 In-vehicle information processing system 11 Display unit 12 Touch operation unit 121 Touch pad 122 Tact switch 13 Imaging unit 14 Control unit 15 Storage unit R1 Predetermined regions R11, R12, R13, R14, R15, R16, R17 Area R2 Operation region R21 , R22, R23, R24, R25, R26, R27 Area R3 area

Claims (5)

少なくとも1つの画面を有する表示部と、
操作者の操作手による接触を検出するタッチ操作部と、
前記操作手の少なくとも一部と、前記タッチ操作部とを撮像する撮像部と、
前記画面上の操作領域内の位置座標と、前記タッチ操作部の所定の領域内の位置座標とを対応させ、前記撮像部により撮像された画像に基づいて所定の時間内で画像処理を行い、前記操作手の少なくとも一部を前記画面上に重畳表示させる制御部と、を備える、
車載用情報処理システム。
A display unit having at least one screen;
A touch operation unit that detects contact by an operator's operator;
An imaging unit that images at least a part of the operator and the touch operation unit;
Corresponding the position coordinates in the operation area on the screen and the position coordinates in the predetermined area of the touch operation unit, and performing image processing within a predetermined time based on the image captured by the imaging unit, A control unit that superimposes and displays at least a part of the operating hand on the screen,
In-vehicle information processing system.
前記撮像部は、前記タッチ操作部と前記操作手との位置関係を撮像し、
前記制御部は、前記タッチ操作部における前記操作手の位置と対応するように、当該操作手の少なくとも一部を前記画面上に重畳表示させる、
請求項1に記載の車載用情報処理システム。
The imaging unit images a positional relationship between the touch operation unit and the operator,
The control unit causes at least a part of the operation hand to be superimposed on the screen so as to correspond to the position of the operation hand in the touch operation unit.
The in-vehicle information processing system according to claim 1.
前記制御部は、前記撮像部により撮像された前記画像に基づいて、前記操作手の少なくとも一部を抽出する画像処理を行う、
請求項1又は2に記載の車載用情報処理システム。
The control unit performs image processing for extracting at least a part of the operating hand based on the image captured by the imaging unit.
The in-vehicle information processing system according to claim 1 or 2.
前記制御部は、前記タッチ操作部の前記所定の領域と前記画面上の前記操作領域との間の大きさの比率に基づいて、前記操作手の表示倍率を変更する画像処理を行う、
請求項1乃至3のいずれか一項に記載の車載用情報処理システム。
The control unit performs image processing for changing a display magnification of the operator based on a ratio of a size between the predetermined region of the touch operation unit and the operation region on the screen.
The in-vehicle information processing system according to any one of claims 1 to 3.
前記制御部は、前記操作手による接触が検出される前記タッチ操作部の前記所定の領域内の位置座標を、前記タッチ操作部からの検出情報に基づいて識別する、
請求項1乃至4のいずれか一項に記載の車載用情報処理システム。
The control unit identifies position coordinates in the predetermined area of the touch operation unit where contact by the operator is detected based on detection information from the touch operation unit.
The in-vehicle information processing system according to any one of claims 1 to 4.
JP2016076084A 2016-04-05 2016-04-05 In-vehicle information processing system Pending JP2017187922A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016076084A JP2017187922A (en) 2016-04-05 2016-04-05 In-vehicle information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016076084A JP2017187922A (en) 2016-04-05 2016-04-05 In-vehicle information processing system

Publications (1)

Publication Number Publication Date
JP2017187922A true JP2017187922A (en) 2017-10-12

Family

ID=60045584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016076084A Pending JP2017187922A (en) 2016-04-05 2016-04-05 In-vehicle information processing system

Country Status (1)

Country Link
JP (1) JP2017187922A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110543233A (en) * 2018-05-29 2019-12-06 富士施乐株式会社 Information processing apparatus and non-transitory computer readable medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110543233A (en) * 2018-05-29 2019-12-06 富士施乐株式会社 Information processing apparatus and non-transitory computer readable medium
CN110543233B (en) * 2018-05-29 2024-06-07 富士胶片商业创新有限公司 Information processing apparatus and non-transitory computer readable medium

Similar Documents

Publication Publication Date Title
CN110045825B (en) Gesture recognition system for vehicle interaction control
US9604542B2 (en) I/O device for a vehicle and method for interacting with an I/O device
JP4351599B2 (en) Input device
KR20110076921A (en) Display and control system in a motor vehicle having user-adjustable representation of displayed objects, and method for operating such a display and control system
CN108108042B (en) Display device for vehicle and control method thereof
US11119576B2 (en) User interface and method for contactlessly operating a hardware operating element in a 3-D gesture mode
JP5858059B2 (en) Input device
JP2019175449A (en) Information processing apparatus, information processing system, movable body, information processing method, and program
CN107656659A (en) Input system, detection means, control device, storage medium and method
JP2018195134A (en) On-vehicle information processing system
JP2018136616A (en) Display operation system
JP2017197015A (en) On-board information processing system
WO2017188098A1 (en) Vehicle-mounted information processing system
US11221735B2 (en) Vehicular control unit
JP2018010472A (en) In-vehicle electronic equipment operation device and in-vehicle electronic equipment operation method
JP6739864B2 (en) In-vehicle information processing system
KR101422060B1 (en) Information display apparatus and method for vehicle using touch-pad, and information input module thereof
JP2017187922A (en) In-vehicle information processing system
JP2009184551A (en) On-vehicle equipment input device
JP7529380B2 (en) Vehicle operation control device
WO2019163390A1 (en) Menu display control device for vehicles, vehicle-mounted equipment operation system, and gui program
JP2017199203A (en) Vehicle-mounted information processing system
JP7255584B2 (en) VEHICLE MENU DISPLAY CONTROL DEVICE, VEHICLE DEVICE OPERATION SYSTEM, AND GUI PROGRAM
JP2018162023A (en) Operation device
JP2018122827A (en) On-vehicle information input device and on-vehicle information input system