JP2017187922A - In-vehicle information processing system - Google Patents
In-vehicle information processing system Download PDFInfo
- Publication number
- JP2017187922A JP2017187922A JP2016076084A JP2016076084A JP2017187922A JP 2017187922 A JP2017187922 A JP 2017187922A JP 2016076084 A JP2016076084 A JP 2016076084A JP 2016076084 A JP2016076084 A JP 2016076084A JP 2017187922 A JP2017187922 A JP 2017187922A
- Authority
- JP
- Japan
- Prior art keywords
- operator
- unit
- screen
- control unit
- touch operation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、車両に関する情報を制御するために車両に搭載される車載用情報処理システムに関する。 The present invention relates to an in-vehicle information processing system mounted on a vehicle in order to control information related to the vehicle.
従来、操作者は、センターコンソールに設置されたタッチパッド上でタッチ操作を行うことにより、画面上に表示されたポインタ又はカーソルの操作、画面のスクロール操作、選択操作、及び入力操作などを行うことが可能である。 Conventionally, an operator performs a pointer operation or a cursor operation displayed on a screen, a screen scroll operation, a selection operation, an input operation, and the like by performing a touch operation on a touch pad installed on a center console. Is possible.
例えば、特許文献1に開示された操作入力装置は、走行中の車両の振動を含む外乱因子の影響を低減して、タッチパッド上でのタッチ操作に基づく表示部上のカーソル移動を滑らかにすることが可能である。 For example, the operation input device disclosed in Patent Literature 1 reduces the influence of disturbance factors including vibration of a running vehicle, and smoothes the cursor movement on the display unit based on the touch operation on the touch pad. It is possible.
また例えば、特許文献2に開示された操作装置は、センターコンソールに設置されたタッチパッド上での操作者によるタッチ操作により、画面上に表示されたポインタ又はカーソルの操作、及び画面のスクロールを可能とする。 In addition, for example, the operation device disclosed in Patent Document 2 can operate a pointer or cursor displayed on the screen and scroll the screen by a touch operation by an operator on a touch pad installed in the center console. And
しかしながら、特許文献1及び2に開示された従来の装置は、画面上にポインタ、カーソル、又は移動ベクトルなどを描画することで操作者の操作に対して応答する。このような操作は、直感的ではない。また、操作者の操作手の位置と画面上のポインタなどの位置との対応関係が明確でないために、操作者が画面上のポインタなどを注視する時間は長くなる。従って、より直感的な操作を可能とするインターフェースの実現が望まれる。 However, the conventional devices disclosed in Patent Documents 1 and 2 respond to an operation of the operator by drawing a pointer, a cursor, a movement vector, or the like on the screen. Such an operation is not intuitive. In addition, since the correspondence between the position of the operator's operator's hand and the position of the pointer on the screen is not clear, it takes a long time for the operator to watch the pointer on the screen. Therefore, it is desired to realize an interface that enables more intuitive operation.
そこで、カメラにより撮像した操作者の操作手を画面上に重畳表示させて、実際の感覚により近い状態での操作を可能とするシステムが有効的である。当該システムにおいて、操作者の操作手によるタッチ操作位置を識別するために、撮像画像に基づいて画像処理を行う方法が考えられる。しかしながら、当該方法は、計算処理時間の増大を招き、操作者の操作手の実際の動きと画面上の動きとの間で時間遅れを発生させる。結果、操作者は、操作に対して違和感を感じることが予想される。 Therefore, a system is effective in which the operator's operator's hand imaged by the camera is displayed on the screen so that the operation can be performed in a state closer to the actual feeling. In this system, in order to identify the touch operation position by the operator's operator, a method of performing image processing based on the captured image can be considered. However, this method causes an increase in calculation processing time and causes a time delay between the actual movement of the operator's operator and the movement on the screen. As a result, the operator is expected to feel uncomfortable with the operation.
かかる観点に鑑みてなされた本発明の目的は、直感的で遅延の少ない操作を可能とする車載用情報処理システムを提供することにある。 An object of the present invention made in view of such a viewpoint is to provide an in-vehicle information processing system capable of an intuitive operation with little delay.
上記課題を解決する第1の観点に係る車載用情報処理システムは、
少なくとも1つの画面を有する表示部と、
操作者の操作手による接触を検出するタッチ操作部と、
前記操作手の少なくとも一部と、前記タッチ操作部とを撮像する撮像部と、
前記画面上の操作領域内の位置座標と、前記タッチ操作部の所定の領域内の位置座標とを対応させ、前記撮像部により撮像された画像に基づいて所定の時間内で画像処理を行い、前記操作手の少なくとも一部を前記画面上に重畳表示させる制御部と、を備える。
An in-vehicle information processing system according to a first aspect that solves the above problem is as follows.
A display unit having at least one screen;
A touch operation unit that detects contact by an operator's operator;
An imaging unit that images at least a part of the operator and the touch operation unit;
Corresponding the position coordinates in the operation area on the screen and the position coordinates in the predetermined area of the touch operation unit, and performing image processing within a predetermined time based on the image captured by the imaging unit, A control unit that superimposes and displays at least a part of the operator on the screen.
また、第2の観点に係る車載用情報処理システムでは、
前記撮像部は、前記タッチ操作部と前記操作手との位置関係を撮像し、
前記制御部は、前記タッチ操作部における前記操作手の位置と対応するように、当該操作手の少なくとも一部を前記画面上に重畳表示させる。
In the in-vehicle information processing system according to the second aspect,
The imaging unit images a positional relationship between the touch operation unit and the operator,
The control unit superimposes and displays at least a part of the operating hand on the screen so as to correspond to the position of the operating hand in the touch operation unit.
また、第3の観点に係る車載用情報処理システムでは、
前記制御部は、前記撮像部により撮像された前記画像に基づいて、前記操作手の少なくとも一部を抽出する画像処理を行う。
In the in-vehicle information processing system according to the third aspect,
The control unit performs image processing for extracting at least a part of the operating hand based on the image captured by the imaging unit.
また、第4の観点に係る車載用情報処理システムでは、
前記制御部は、前記タッチ操作部の前記所定の領域と前記画面上の前記操作領域との間の大きさの比率に基づいて、前記操作手の表示倍率を変更する画像処理を行う。
In the vehicle information processing system according to the fourth aspect,
The control unit performs image processing for changing a display magnification of the operator based on a size ratio between the predetermined region of the touch operation unit and the operation region on the screen.
また、第5の観点に係る車載用情報処理システムでは、
前記制御部は、前記操作手による接触が検出される前記タッチ操作部の前記所定の領域内の位置座標を、前記タッチ操作部からの検出情報に基づいて識別する。
In the in-vehicle information processing system according to the fifth aspect,
The control unit identifies position coordinates in the predetermined area of the touch operation unit where contact by the operator is detected based on detection information from the touch operation unit.
第1の観点に係る車載用情報処理システムによれば、直感的で遅延の少ない操作が可能である。 According to the in-vehicle information processing system according to the first aspect, an intuitive operation with little delay is possible.
また、第2の観点に係る車載用情報処理システムによれば、操作者が画面上を注視する時間を短縮できる。 Moreover, according to the vehicle-mounted information processing system according to the second aspect, it is possible to shorten the time for the operator to watch the screen.
また、第3の観点に係る車載用情報処理システムによれば、画面上で操作者の操作手を忠実に重畳表示させることが可能である。 Further, according to the in-vehicle information processing system according to the third aspect, it is possible to faithfully superimpose and display the operator's operator's hand on the screen.
また、第4の観点に係る車載用情報処理システムによれば、画面に合わせた最適な大きさで操作者の操作手を重畳表示させることが可能である。 Further, according to the in-vehicle information processing system according to the fourth aspect, it is possible to superimpose and display the operator's hand with an optimum size according to the screen.
また、第5の観点に係る車載用情報処理システムによれば、画像処理により位置座標を識別する場合と比べて、時間遅れを低減することが可能である。 Further, according to the in-vehicle information processing system according to the fifth aspect, it is possible to reduce the time delay as compared with the case where the position coordinates are identified by image processing.
以降、諸図面を参照しながら、本発明の実施形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本実施形態に係る車載用情報処理システム10の全体を示す模式図である。図2は、図1の車載用情報処理システム10の概略構成を示す機能ブロック図である。車載用情報処理システム10は、表示部11と、タッチ操作部12と、撮像部13と、制御部14と、記憶部15とを有する。図3は、表示部11に表示される画像の一例を示した模式図である。図3(a)は、メニュー画面の一例を示し、図3(b)は、地図画面の一例を示す。図4は、タッチ操作部12を側面方向から見たときの断面を模式的に示す図である。
FIG. 1 is a schematic diagram showing an entire in-vehicle
車載用情報処理システム10は、表示部11を構成する画面上の操作領域内の位置座標と、タッチ操作部12の所定の領域内の位置座標とを対応させて、撮像部13により撮像した画像に基づいて、操作者の操作手を画面上に重畳表示する。すなわち、タッチ操作部12上での操作者によるタッチ操作に基づいて、画面上に重畳表示した操作手が、対応する位置で仮想的に画面を操作する。車載用情報処理システム10は、画面上に重畳表示した操作手の動きを、撮像部13によって撮像した実際の操作者の操作手の動きと対応させる。ここで、操作者とは、例えば車両を運転する運転者又は助手席に座っている同乗者であり、操作手とは、例えばセンターコンソール側の運転者又は同乗者自身の手である。
The in-vehicle
図1に示すとおり、表示部11は、少なくとも1つの画面を有する。表示部11は、液晶ディスプレイなどの任意の表示装置により構成されてもよい。表示部11は、液晶ディスプレイによって構成される場合、例えばインストルメントパネルに配置される。表示部11を構成する表示装置は、タッチパネルディスプレイであってもよいし、タッチ操作不能のディスプレイであってもよい。以下では、表示部11は、タッチ操作不能のディスプレイであるとして説明する。
As shown in FIG. 1, the
また、車載用情報処理システム10は、表示部11に加えて又は代えて、いわゆるヘッドアップディスプレイ型の装置を有してもよい。この場合、ヘッドアップディスプレイ型の装置は、表示情報を表示光として発生する発光部を有し、発生した表示光を運転者等の観察者へ向かうように反射して、フロントウィンドシールド越しに虚像を表示する。なお、観察者は運転者に限らず助手席に座っている同乗者等でもよい。
The in-vehicle
表示部11は、車両に関する情報若しくは当該情報を制御するための機能項目、又はこれらの組合せを表示する。以下では、これらをまとめて「表示内容」という。車両に関する情報は、例えば、空調、カーナビゲーション、オーディオ、電子ミラーによる車両周囲の画像、車速、複数車線における自車の走行位置、又は車間距離などの情報を含む。当該情報を制御するための機能項目は、例えば、「戻る」、「進む」、「ホーム」、「決定」、「各種メニュー」、「温度高い・低い」、「現在地」、「音量大・小」、「拡大・縮小」、「速度速い・遅い」、「車線変更」、又は「距離長い・短い」などの項目を含む。表示部11は、各項目を文字として表示してもよいし、アイコンとして表示してもよい。
The
例えば、図3(a)に示すとおり、表示部11は、車両に関する情報を制御するための機能項目として、各種メニューを表示する。具体的には、表示部11は、各種アプリを表示するための項目として「APPS」を、電話を使用するための項目として「TEL」を、エアコンを制御するための項目として「A/C」を、カーナビゲーションを使用するためのメニューとして「NAVI」を、オーディオを使用するためのメニューとして「AUDIO」を表示する。同様に、表示部11は、ホーム画面に戻るための項目として「HOME」を表示し、1つ前の画面に戻るための項目として「RETURN」を表示する。
For example, as shown to Fig.3 (a), the
例えば、図3(b)に示すとおり、表示部11は、車両に関する情報として、カーナビゲーションシステムの一部である地図情報を表示する。さらに、表示部11は、車両に関する情報及び当該情報を制御するための機能項目の組合せとして、当該地図情報に重畳させるように、「目的地設定」、「HOME」、及び「RETURN」などの機能項目を表示する。
For example, as shown in FIG. 3B, the
表示部11は、上記の表示内容と重畳させるように操作者の操作手を表示する。表示部11は、図3に示すとおり、操作者の操作手を半透過にして、その背後に上記の表示内容を表示する。表示部11は、これに限定されず、操作者の操作手が重畳したときに、背後の表示内容が一時的に隠れるように、不透明な操作手を表示してもよい。
The
以下では、半透過の度合い、すなわち透過率は、重畳させる位置に依存せず一定であるとして説明するが、これに限定されず、重畳させる位置ごとに変化してもよい。例えば、機能項目を表示している位置では、操作者がどの項目を選択すべきかを十分に視認可能なように、表示部11は、透過率を所定値よりも上げて操作者の操作手を表示してもよい。逆に、単なる背景のみを表示している位置では、表示部11は、透過率を所定値よりも下げて表示してもよい。
In the following, the degree of semi-transmission, that is, the transmittance is described as being constant without depending on the overlapping position, but is not limited thereto, and may be changed for each overlapping position. For example, at the position where the function items are displayed, the
また、表示部11は、グラデーションを付した操作者の操作手を表示してもよい。ここで述べるグラデーションは、明暗、色彩、若しくは透過率又はこれらの組合せに関する任意の段階的変化を含んでよい。表示部11は、操作者が背後の表示内容を容易に視認可能な任意の方法によりグラデーション表示するのが好適である。例えば、表示部11は、重畳表示した操作者の操作手の指先により近づくほど、操作手を徐々に明るくしたり、淡い色へと徐々に変えたり、透過率を徐々に上げたりして表示してもよい。
Moreover, the
透過率が低いほど、重畳させる操作者の操作手のリアリティは向上するが、操作者は、背後の表示内容を視認することが困難となる。逆に、透過率が高いほど、操作者による背後の表示内容の視認は容易となるが、リアリティは低下する。従って、表示部11は、重畳させる操作者の操作手のリアリティを確保しつつ、表示内容を操作者が容易に視認可能な任意の表示方法によりそれぞれを表示するのが好適である。
As the transmittance is lower, the reality of the operator's operator to be superimposed is improved, but it becomes difficult for the operator to visually recognize the display content behind. Conversely, the higher the transmittance, the easier it is for the operator to visually recognize the display content behind, but the reality is reduced. Therefore, it is preferable that the
表示部11は、上述の表示内容などが表示される仮想空間上に、現実世界の操作者の操作手を重畳させるものとして説明したが、これに限定されない。例えば、表示部11は、いわゆるミックスドリアリティのように、画面上に表示した操作者の操作手の前面から、表示内容などを重畳表示してもよい。
Although the
タッチ操作部12は、図1に示すとおり、例えばセンターコンソールに配置される。タッチ操作部12は、図2に示すとおり、タッチパッド121と、タクトスイッチ122とを有する。図4に示すとおり、操作者は、アームレスト及びパームレストに自身の腕及び手首をそれぞれ乗せて、操作手の一部、例えば指をタッチパッド121に接触させる。
As shown in FIG. 1, the
タッチパッド121は、操作者の操作手又はスタイラスペンなどの接触物による接触を、対応する接触位置において検出する。特に、タッチパッド121は、操作者の操作手の一部、例えば指による接触を対応する接触位置において検出する。操作者は、タッチ操作部12、特にタッチパッド121上でタッチ操作を行うことにより、表示部11を構成する各画面上に表示される情報を操作する。タッチパッド121は、例えば透明なガラスにより形成され、抵抗膜方式、静電容量方式、表面弾性波方式、赤外線方式、又は電磁誘導方式などの任意の方式により構成されたタッチセンサを用いることができる。以下では、タッチパッド121は、静電容量方式による静電タッチパッドであるものとして説明する。
The
タクトスイッチ122は、図4に示すとおり、タッチパッド121の直下に配置され、基板により支持される。タクトスイッチ122は、操作者の押込みによってタッチパッド121が下方へと変位した場合、その押圧によりオンになる。タクトスイッチ122は、操作者の押込みが解除されタッチパッド121が元の位置に戻った場合、オフになる。操作者は、タッチパッド121を押込むと、タクトスイッチ122がオンになることで、クリック感を得る。
As shown in FIG. 4, the
図4では、タクトスイッチ122は、タッチパッド121の直下において、その中心部に1つ配置されているが、これに限定されず、タッチパッド121からの押圧を検出可能であれば、任意の個数で任意の場所に配置されてもよい。例えば、タクトスイッチ122は、タッチパッド121の直下において、その外周部に1つ配置されてもよいし、分散した位置に複数個配置されてもよい。例えば、タッチパッド121の直下に複数のタクトスイッチ122が配置されることで、タッチ操作部12は、タッチパッド121の所定のエリアごとにタッチパッド121からの押圧を検出可能なように構成されてもよい。すなわち、タッチ操作部12は、操作者の複数の指が同時にタッチパッド121に接触している場合に、タッチパッド121上のどの位置で操作者が押込んだかを検出可能なように構成されてもよい。
In FIG. 4, one
タッチパッド121の直下に配置される構成部は、タクトスイッチ122に限定されず、タッチパッド121からの押圧を検出可能であれば、任意の構成であってよい。例えば、タクトスイッチ122に代えて、圧電素子などの感圧センサがタッチパッド121の直下に配置されてもよい。
The configuration unit arranged immediately below the
タッチ操作部12は、タッチパッド121と、タクトスイッチ122とに加えて、車両走行中の振動によるタッチパッド121の不要な検出信号を除去するために、フィルターを有してもよい。
In addition to the
撮像部13は、少なくとも1つのカメラを有し、例えば、ルーフパネルに配置される。撮像部13を構成するカメラは、ルーフパネルから車内を撮像するように配置される。より具体的には、撮像部13は、タッチ操作部12でタッチ操作を行う操作者の操作手の少なくとも一部と、タッチ操作部12とを上方から撮像する。
The
撮像部13は、操作者の操作手の少なくとも一部、例えば5本の指のみを撮像してもよいが、手の甲なども含めた操作者の操作手全体を撮像するのが好適である。ここで、操作手全体とは、操作者の手首付近から指先までを含む部位全体である。この場合、撮像部13は、操作者の操作手全体を容易に撮像するために、例えば、ルーフパネルなど、操作手の上方に配置されるのが好適である。
The
撮像部13は、このような配置に限定されず、操作者の操作手の少なくとも一部を撮像可能であれば、任意の場所に配置されてもよい。例えば、撮像部13は、透明なタッチパッド121の直下に配置され、タッチパッド121でタッチ操作を行っている操作者の操作手の一部を下方から撮像してもよい。この場合、例えば、図4のパームレスト部分を任意の透明な支持部材に変えることで、撮像部13は、手の甲なども含めた操作者の操作手全体を撮像することも可能である。
The
撮像部13は、昼間の明るい状態及び夜間の暗い状態の両方で操作者の操作手を鮮明に撮像可能なように、ダイナミックレンジの広いカメラで構成されるのが好適である。また、カメラにより撮像される画像は、白黒画像であってもよいし、カラー画像であってもよい。
The
撮像部13は、ダイナミックレンジの広いカメラによる構成に限定されず、昼間の明るい状態で撮像可能なカメラにより構成されてもよい。この場合、撮像部13は、夜間でも操作者の操作手を鮮明に撮像するために、タッチパッド121上の操作者の操作手に上方からスポットライトを照射してもよい。
The
車両が自動運転を行う場合、操作者は、リクライニングシートを倒して、リラックスした状態でシートに寄りかかることが想定される。この時、タッチ操作部12の位置が固定されていると、操作者は、シートに寄りかかった状態で腕を伸ばしてタッチ操作を行う必要があり、不便性を感じる。従って、例えば、タッチ操作部12が配置されたセンターコンソールを、リクライニングシートの動きに連動して後方に下がるように構成することで、操作者は腕を伸ばすことなく、容易にタッチ操作を行うことができる。このような構成の場合、撮像部13は、リクライニングシートの動きに連動したタッチ操作部12のそれぞれの位置に合わせて、タッチパッド121上の操作手を撮像する必要がある。
When the vehicle performs automatic driving, it is assumed that the operator leans on the reclining seat and leans on the seat in a relaxed state. At this time, if the position of the
従って、撮像部13は、上記に加えて、画角の広いカメラで構成されるのが好適である。撮像部13は、これに限定されず、画角の狭いカメラであっても、タッチ操作部12の位置の変化に連動してカメラ自体の角度が変化するように構成されてもよい。同様に、撮像部13は、タッチ操作部12の位置の変化に連動してカメラ自体が平行移動するように構成されてもよい。また、リクライニングシートの動きに連動して変化するタッチ操作部12の位置を、例えば、手動運転時の位置及び自動運転時の位置の二カ所に限定して、各々の位置に対応するように二台のカメラが配置されてもよい。
Therefore, in addition to the above, the
制御部14は、車載用情報処理システム10の各機能ブロックをはじめとして、車載用情報処理システム10の全体を制御及び管理するプロセッサである。制御部14は、制御手順を規定したプログラムを実行するCPU(Central Processing Unit)等のプロセッサで構成され、かかるプログラムは、例えば記憶部15に格納される。
The
制御部14は、タッチパッド121上で検出した接触情報を、入力信号としてタッチ操作部12から取得する。具体的には、制御部14は、接触物、例えば、操作者の指による接触及び対応する接触位置に関する検出情報を取得する。制御部14は、対応する接触位置に関する検出情報に基づいて、タッチ操作が行われるタッチパッド121上の正確な位置座標を識別する。
The
制御部14は、タクトスイッチ122のオン状態又はオフ状態に関する信号を、タッチ操作部12から取得する。具体的には、操作者が、タッチパッド121を介して、タクトスイッチ122を押込んだ場合、制御部14は、オン状態の信号を取得する。操作者が、タッチパッド121への押込みを止めて、タクトスイッチ122の押込みを解除した場合、制御部14は、オフ状態の信号を取得する。制御部14は、取得した信号に基づいて、タクトスイッチ122のオン状態又はオフ状態を識別する。
The
制御部14は、操作者の操作手の一部による接触をタッチパッド121が検出した場合、表示部11を構成する画面上の対応する項目を選択する。この時、制御部14は、当該項目をハイライトさせる。ハイライトとは、所定の項目を強調して表示することである。制御部14は、ハイライトにより上記の項目が選択状態にあることを操作者にフィードバックする。例えば、図3(a)に示すとおり、操作者の指による接触をタッチパッド121の対応する位置で検出した場合、制御部14は、画面上の「NAVI」の機能項目をハイライトさせる。この時、制御部14は、撮像部13により撮像された画像に基づいて、操作者の操作手を対応する位置に重畳表示させる。
The
続いて、制御部14は、操作者の操作手の一部によるタッチパッド121の押込みによりタクトスイッチ122がオンになった場合、画面上の所定の項目の選択を確定させる。画面上の所定の項目の選択を確定させる操作は、これに限定されず、例えば、タッチパッド121上でのダブルタップなど、任意の操作であってよい。この場合、タッチ操作部12は、タクトスイッチ122を有さなくてもよい。
Subsequently, when the
例えば、図3(a)では、操作者の操作手の一部による押込みによりタクトスイッチ122がオンになった場合、制御部14は、画面上に表示された「NAVI」の項目の選択を確定させる。この時、制御部14は、タッチパッド121に接触している操作者の操作手の一部、例えば人差し指の押込み又はダブルタップなどに合わせて、同様の動きを画面上に表示させる。
For example, in FIG. 3A, when the
制御部14は、車両に関する情報若しくは当該情報を制御するための機能項目、又はこれらの組合せを表示部11に表示させる。また、制御部14は、後述する画像処理により、表示部11を構成する画面上の操作領域の大きさに基づいた表示倍率で、操作者の操作手の少なくとも一部をその画面上に重畳表示させる。
The
制御部14は、記憶部15に格納された種々の情報を参照する。具体的には、制御部14は、上記の車両に関する情報又は当該情報を制御するための機能項目に関する情報を参照する。制御部14は、タクトスイッチ122のオン状態又はオフ状態に関する情報を参照する。制御部14は、撮像部13により撮像された画像情報を参照する。制御部14は、表示部11に最終的に重畳表示させる、画像処理された操作者の操作手に関する情報を参照する。
The
記憶部15は、半導体メモリ又は磁気メモリ等で構成することができ、上述した各種情報及び車載用情報処理システム10を動作させるためのプログラムなどを記憶する。また、記憶部15は、ワークメモリとしても機能する。一例を挙げると、記憶部15は、表示部11に最終的に重畳表示させる、画像処理された操作者の操作手に関する情報などを記憶する。
The
以下では、図5及び図6を参照して、車載用情報処理システム10が行う画像処理について詳細に説明する。
Below, with reference to FIG.5 and FIG.6, the image processing which the vehicle-mounted
図5は、タッチ操作部12の所定の領域と、表示部11を構成する画面上の操作領域との対応関係の一例を示す模式図である。図5(a)は、タッチ操作部12の所定の領域R1を示す。図5(b)は、表示部11を構成する画面上の操作領域R2を示す。
FIG. 5 is a schematic diagram illustrating an example of a correspondence relationship between a predetermined area of the
制御部14は、タッチ操作部12の所定の領域R1及び表示部11を構成する画面上の操作領域R2を設定する。タッチ操作部12の所定の領域R1とは、操作者が操作手の一部によりタッチ操作を行うための領域である。例えば、タッチ操作部12の所定の領域R1は、タッチパッド121の一部又は全体の領域である。表示部11を構成する画面上の操作領域R2とは、画面上に重畳表示された操作者の操作手が仮想的に操作可能な画面上の領域である。例えば、表示部11を構成する画面上の操作領域R2は、当該画面の一部又は全体の領域である。
The
図5(a)に示すとおり、タッチ操作部12の所定の領域R1は、タッチ操作部12全体に操作者の操作手が重畳するように、タッチ操作部12の奥側に設定されるのが好適である。タッチ操作部12の奥側とは、例えば、タッチ操作部12を構成するタッチパッド121の奥側である。すなわち、図4及び図5に示すとおり、タッチ操作部12の奥側とは、操作者の腕及び手首をアームレスト及びパームレストにそれぞれ配置したときに、手首から最も離れるタッチパッド121上の領域である。
As shown in FIG. 5A, the predetermined region R <b> 1 of the
タッチ操作部12の所定の領域R1は、これに限定されず、上述のとおり、タッチパッド121上の任意の一部の領域であってもよいし、全体領域であってもよい。タッチ操作部12の所定の領域R1がタッチパッド121上の任意の一部の領域である場合、所定の領域R1以外のタッチパッド121上の領域は、タッチ操作に対して反応しないように構成されてもよい。
The predetermined region R1 of the
一方で、表示部11を構成する画面上の操作領域R2は、タッチパッド121の奥側に上記の所定の領域R1が設定されたとき、対応するように、画面の上部に設定される。すなわち、タッチパッド121の奥側及び手前側が、画面の上部及び下部にそれぞれ対応する。このように各々を対応させるのが最も直感的であるが、タッチパッド121と、表示部11を構成する画面との対応関係はこれに限定されない。例えば、上記の対応関係を逆にして、タッチパッド121の手前側及び奥側が、画面の上部及び下部にそれぞれ対応してもよい。この場合、タッチ操作部12全体に操作者の操作手を重畳させるために、タッチ操作部12の奥側の所定の領域R1に対応させて、表示部11を構成する画面上の操作領域R2は、その下部に設定されてもよい。
On the other hand, the operation area R2 on the screen constituting the
制御部14は、設定したタッチ操作部12の所定の領域R1内の位置座標と、表示部11を構成する画面上の操作領域R2内の位置座標とを対応させる。例えば、タッチ操作部12の所定の領域R1が、タッチパッド121の一部又は全体の四角の領域であり、画面上の操作領域R2が、当該画面の一部又は全体の四角の領域である場合を考える。この場合、制御部14は、所定の領域R1の4つの頂点と操作領域R2の4つの頂点とをそれぞれ対応させる。制御部14は、4つの頂点の位置座標の対応関係を識別することで、各頂点を結ぶ四角の領域内に位置する各点の位置座標の対応関係を決定することができる。
The
このような処理は、例えば、車載用情報処理システム10が車両に搭載された初期の段階でキャリブレーションとして実行されてもよいし、随時実行されてもよい。
Such processing may be executed as calibration at an initial stage when the in-vehicle
図6は、車載用情報処理システム10が行う画像処理の様子を示した模式図である。図6(a)は、タッチ操作部12上でタッチ操作を行っている操作者の操作手の様子を示す。図6(b)は、表示部11を構成する画面上に重畳表示させた操作者の操作手の様子を示す。
FIG. 6 is a schematic diagram illustrating a state of image processing performed by the in-vehicle
制御部14は、カメラによって撮像された画像情報を、撮像部13から取得する。図6の領域R3により示すとおり、撮像された画像は、タッチ操作部12でタッチ操作を行う操作者の操作手の少なくとも一部と、タッチ操作部12、特にタッチパッド121とを含む。すなわち、撮像部13は、タッチ操作部12と操作者の操作手との位置関係を撮像する。加えて、上述のとおり、制御部14は、所定の領域R1内の位置座標と操作領域R2内の位置座標とを対応させるので、タッチ操作部12における操作者の操作手の位置と対応するように、当該操作手の少なくとも一部を画面上に重畳表示させることが可能である。
The
制御部14は、表示部11に操作者の操作手を重畳表示させるとき、上記の画像に基づいて、操作者の操作手の一部又は全体を抽出する画像処理を行う。すなわち、制御部14は、操作者の操作手の輪郭よりも外部の背景等の画像情報を除去する。なお、タッチパッド121の周囲を黒色の縁により囲むことで、制御部14は、撮像された画像に基づいて容易に操作者の操作手を抽出することができる。
When the operator's operator's hand is superimposed and displayed on the
さらに、制御部14は、撮像された画像が白黒画像の場合、画像処理によって操作手部分を着色してもよいし、着色しなくてもよい。表示部11に表示される操作者の操作手のリアリティをより向上させるためには、制御部14は、画像処理により着色するのが好適である。
Further, when the captured image is a black and white image, the
一方で、制御部14は、撮像された画像がカラー画像の場合、操作者の操作手の実際の色彩及び明暗などに合わせて、画面上にそのまま重畳表示させるのが好適である。制御部14は、これに限定されず、背後の表示内容をより容易に視認可能とするために、操作手部分の色彩及び明暗などを排除して、代わりに例えば所定の一色を付す画像処理を行ってもよい。また、制御部14は、操作手部分の色彩及び明暗などを排除して、操作手部分を完全に無色透明とする画像処理を行ってもよい。この場合、制御部14は、操作手の輪郭近傍の部位のみを画面上に表示させる。
On the other hand, when the captured image is a color image, it is preferable that the
以下では、撮像部13によって撮像された画像はカラー画像であり、制御部14は、操作者の操作手の実際の色彩及び明暗などに合わせて、画面上にそのまま重畳表示させるものとして説明する。すなわち、制御部14は、色彩及び明暗などに関する画像処理を行う必要はないものとして説明する。
In the following description, it is assumed that the image captured by the
制御部14は、撮像された画像中のタッチ操作部12の所定の領域R1と、表示部11を構成する画面上の操作領域R2との間の大きさの比率に基づいて、操作者の操作手の表示倍率を決定する。例えば、タッチ操作部12の所定の領域R1が、タッチパッド121の一部又は全体の四角の領域であり、画面上の操作領域R2が、当該画面の一部又は全体の四角の領域である場合を考える。この場合、制御部14は、タッチ操作部12の所定の領域R1の各辺の長さと、画面上の操作領域R2の対応する各辺の長さとの比率をそれぞれ算出する。制御部14は、当該比率に基づいて、表示部11に重畳表示させる操作者の操作手の表示倍率を決定する。
Based on the ratio of the size between the predetermined area R1 of the
制御部14は、決定した表示倍率に基づいて、撮像された操作者の操作手を、拡大若しくは縮小した状態、又はそのままの状態で表示部11に重畳表示させる。
Based on the determined display magnification, the
制御部14は、操作者の操作手の表示倍率を上記の比率と同一としてもよいし、上記の比率に基づく異なる値としてもよい。また、表示倍率の決定処理は、例えば、車載用情報処理システム10が車両に搭載された初期の段階で上述のキャリブレーションと同時に実行されてもよいし、随時実行されてもよい。制御部14は、表示倍率を一度決定すると、その倍率を固定してもよいし、状況に応じて可変としてもよい。例えば、制御部14は、昼間と夜間とで操作者の操作手の表示倍率を変えてもよいし、操作者の設定により表示倍率を適宜変えてもよい。
The
例えば、表示部11が複数の画面により構成される場合、制御部14は、各々の画面の操作領域R2の大きさに基づいて、重畳表示させる操作者の操作手の表示倍率をそれぞれ変えてもよい。これに限定されず、制御部14は、各々の画面の操作領域R2の大きさに基づいて、例えば、その平均値を導出し、当該平均値に基づいて、重畳表示させる操作者の操作手の表示倍率を一定にしてもよい。
For example, when the
制御部14は、画面上の操作領域R2の大きさのみならず、画面上に表示する内容に応じて、操作者の操作手の表示倍率を変化させてもよい。例えば、表示部11が地図又は機能項目などを表示して、操作者が各々を操作する場合、制御部14は、操作者が操作しやすいようにその操作手の表示倍率を通常よりも低下させて、表示部11に重畳表示させてもよい。
The
また、制御部14は、例えば、操作手の大きさの異なる操作者間で、表示部11に重畳表示される操作手の大きさを一致させるために、操作者ごとに表示倍率を変えてもよい。一方で、制御部14は、操作手の大きさの異なる操作者間で、表示部11に重畳表示される操作手の表示倍率を一定にして、現実の操作者の操作手の大きさに合わせて重畳表示させてもよい。
In addition, the
制御部14は、撮像部13により撮像された画像に基づいて、所定の時間内で画像処理を行うのが好適である。所定の時間とは、操作者の実際の操作手による操作のタイミングと、画面上に重畳表示させた操作者の操作手の動きのタイミングとの間の時間遅れであって、操作者が意識しない程度の時間遅れを意味する。すなわち、制御部14は、操作者の反応速度及び認知能力などによって操作者が操作に違和感を感じる時間遅れよりも十分に短い時間内で画像処理を完結するのが好適である。例えば、制御部14は、上述した、撮像された操作者の操作手の抽出及び表示倍率の調整のみに画像処理を限定するのが好適である。
The
すなわち、操作者の操作手によるタッチ操作が検出されるタッチ操作部12の所定の領域R1内の位置座標は、撮像部13による撮像画像の画像処理により識別されるのではなく、上述したとおり、タッチ操作部12、特にタッチパッド121からの検出情報に基づいて識別されるのが好適である。
That is, the position coordinates in the predetermined region R1 of the
制御部14は、上記のように2つの画像処理を行うものとして説明するが、これに限定されず、所定の時間内であれば、3つ以上の画像処理を行ってもよい。この場合、例えば、操作者の操作手によるタッチ操作が検出されるタッチ操作部12の所定の領域R1内の位置座標は、撮像部13による撮像画像の画像処理により識別されてもよい。
Although the
制御部14は、上記の画像処理を行うにあたり、タッチ操作部12の所定の領域R1及び表示部11を構成する画面上の操作領域R2に関する情報を、記憶部15より参照する。すなわち、制御部14は、検出情報に対応させた、タッチパッド121の所定の領域R1内の位置座標に関する情報を参照する。制御部14は、表示部11を構成する各画面の操作領域R2内の位置座標に関する情報を参照する。制御部14は、キャリブレーションなどにより決定された、重畳表示させる操作者の操作手の表示倍率に関する情報を参照する。
When performing the above-described image processing, the
以下では、図7及び図8を参照して、操作者が車載用情報処理システム10を用いて行う操作の一例を詳細に説明する。
Below, with reference to FIG.7 and FIG.8, an example of operation which an operator performs using the vehicle-mounted
図7は、表示部11を構成する画面に表示される機能項目とタッチパッド121との対応関係を例示した模式図である。制御部14は、画面上の操作領域R2内で少なくとも1つのエリアを定めて、操作者が車両に関する情報を制御するための少なくとも1つの機能項目を、エリアごとに対応させて画面上に表示させる。例えば、制御部14は、その画面の上部に設定された操作領域R2をさらに7つのエリアR21、R22、R23、R24、R25、R26、及びR27に分けて、「APPS」、「TEL」、「A/C」、「NAVI」、「AUDIO」、「HOME」、及び「RETURN」の機能項目をそれぞれのエリアに対応させて表示させる。7つのエリアR21乃至R27は、タッチ操作部12の所定の領域R1中のエリアR11、R12、R13、R14、R15、R16、及びR17にそれぞれ対応する。
FIG. 7 is a schematic view illustrating the correspondence between the function items displayed on the screen configuring the
制御部14が分けるエリアの数は7つに限定されず、少なくとも1つのエリアが定められていればよい。また、各エリアに表示させる機能項目は、上記に限定されず、車両に関する情報を制御するための任意の項目であってよい。各機能項目の表示方法は、図7に示した文字による表示に限定されず、例えば、矢印などのアイコンによる表示など、操作者が視認可能な任意の表示方法であってよい。
The number of areas divided by the
操作者は、例えば、カーナビゲーションを起動したいときは、エリアR14でタッチ操作を行う。タッチパッド121が操作者の操作手の一部による接触をエリアR14で検出した場合、制御部14は、エリアR24に表示された「NAVI」の項目をハイライトさせる。この時、制御部14は、撮像部13により撮像された画像に基づいて、操作者の操作手を対応する位置に重畳表示させる。
For example, when the operator wants to activate car navigation, the operator performs a touch operation in the area R14. When the
続いて、操作者の操作手の一部によるタッチパッド121の押込みによりタクトスイッチ122がオンになった場合、制御部14は、エリアR24に表示された「NAVI」の項目の選択を確定させる。この時、制御部14は、エリアR14に接触している操作者の操作手の一部、例えば人差し指の押込みに合わせて、同様の動きを画面上で表示させる。
Subsequently, when the
同様に、操作者がエリアR11でタッチ操作を行うと、制御部14は、エリアR21に表示された「APPS」に関する処理を行う。操作者がエリアR12でタッチ操作を行うと、制御部14は、エリアR22に表示された「TEL」に関する処理を行う。操作者がエリアR13でタッチ操作を行うと、制御部14は、エリアR23に表示された「A/C」に関する処理を行う。操作者がエリアR15でタッチ操作を行うと、制御部14は、エリアR25に表示された「AUDIO」に関する処理を行う。操作者がエリアR16でタッチ操作を行うと、制御部14は、エリアR26に表示された「HOME」に関する処理を行う。操作者がエリアR17でタッチ操作を行うと、制御部14は、エリアR27に表示された「RETURN」に関する処理を行う。
Similarly, when the operator performs a touch operation in the area R11, the
図7では、制御部14は、操作領域R2内に定められたエリアごとに各機能項目を対応させて表示させるものとして説明したが、これに限定されない。図8に示すとおり、制御部14は、操作者の操作手の各部にそれぞれ機能を割り当てて、タッチ操作部12における各部の動作に基づいて、画面上で各種機能を選択実行させてもよい。この場合、制御部14は、各種機能を選択実行させるためにエリアごとに各機能項目を表示させる必要はない。
In FIG. 7, the
図8は、画面上に重畳表示された操作者の操作手が仮想的に行う操作の様子を例示した模式図である。制御部14は、画面上に各機能項目を表示させる代わりに、操作者の操作手の各部、例えば3本の指それぞれに各種機能を割り当てる。より具体的には、制御部14は、操作者の操作手の親指、人差し指、及び中指に、「RETURN」、「NAVI」、及び「HOME」の機能をそれぞれ割り当てる。各種機能を割り当てる指の種類及び本数は上記に限定されず、任意の本数の任意の指に、任意の機能が割り当てられてもよい。
FIG. 8 is a schematic view illustrating an operation that is virtually performed by the operator's operator superimposed and displayed on the screen. Instead of displaying each function item on the screen, the
例えば、操作者が人差し指をタッチパッド121に接触させた場合、制御部14は、タッチパッド121上の接触に関する検出信号を、タッチ操作部12から取得する。この時、制御部14は、撮像部13から取得した撮像画像により、タッチパッド121に接触している指の種類を識別する。すなわち、制御部14は、タッチ操作部12から取得した検出情報に基づいて、タッチパッド121上の接触の位置座標を識別し、撮像部13から取得した画像情報に基づいて、接触している指の種類を識別する。
For example, when the operator causes the index finger to contact the
制御部14は、操作者の操作手による接触を識別した場合、画面上に任意の合図を表示させてもよい。制御部14は、操作者の操作手による接触を識別しない場合、画面上に当該合図を表示させない。例えば、制御部14は、前者の場合、画面上に重畳表示された操作者の人差し指の近傍に「NAVI」という項目を文字で表示させてもよいし、所定のアイコンで表示させてもよい。制御部14は、さらに、表示した項目をハイライトさせてもよい。また、制御部14は、操作者の人差し指による接触の識別を操作者に視覚情報としてフィードバックするために、人差し指の周囲をサークル状のポインタなどで囲むように表示させてもよい。以上により、操作者は、どの指がタッチパッド121に接触しているかを、視覚情報としても容易に認識することができる。
The
続いて、操作者がタッチパッド121を押込み、タクトスイッチ122がオンになった場合、制御部14は、操作者の人差し指の近傍に表示された「NAVI」の項目の選択を確定させる。この時、制御部14は、タッチパッド121上の対応する位置に接触している操作者の人差し指の押込みに合わせて、同様の動きを画面上で表示する。
Subsequently, when the operator depresses the
同様に、操作者が親指でタッチ操作を行うと、制御部14は、「RETURN」に関する処理を行う。操作者が中指でタッチ操作を行うと、制御部14は、「HOME」に関する処理を行う。
Similarly, when the operator performs a touch operation with the thumb, the
例えば、操作者が親指、人差し指、及び中指を同時にタッチパッド121に接触させた場合、制御部14は、上記の全ての項目を画面上に同時に表示してもよい。すなわち、制御部14は、画面上に重畳表示された操作者の親指、人差し指、及び中指の近傍に、「RETURN」、「NAVI」、及び「HOME」という項目をそれぞれ文字又はアイコンで同時に表示させてもよい。制御部14は、さらに、表示した項目をそれぞれハイライトさせてもよい。また、制御部14は、操作者の各指による接触の識別を操作者に視覚情報としてフィードバックするために、各指の周囲をサークル状のポインタなどでそれぞれ囲むように表示させてもよい。続いて、操作者が特定の指でタッチパッド121を押込むと、制御部14は、その指に割り当てられた機能の選択を確定させる。
For example, when the operator causes the thumb, index finger, and middle finger to touch the
上記の場合、制御部14は、例えば、撮像部13によって撮像された画像情報に基づいて、押込んだ指を識別してもよい。また、より精度良く押込んだ指を識別するために、制御部14は、例えば、タッチパッド121の直下に配置された複数のタクトスイッチ122からの検出信号に基づいて、押込んだ指を識別してもよい。すなわち、制御部14は、操作者が各指を同時にタッチパッド121に接触させた時点で、それぞれの位置座標及び指の種類を識別する。その後、制御部14は、タクトスイッチ122によりタッチパッド121上のどの位置で押圧があったかを識別する。これにより、制御部14は、どの指の機能の選択を確定させるかを識別する。
In the above case, the
図9は、車載用情報処理システム10の動作の一例を示すフローチャートである。
FIG. 9 is a flowchart showing an example of the operation of the in-vehicle
初めに、制御部14は、キャリブレーションを行う。すなわち、制御部14は、設定されたタッチ操作部12の所定の領域R1内の位置座標と、表示部11を構成する画面上の操作領域R2内の位置座標とを対応させる(ステップS10)。
First, the
続いて、制御部14は、キャリブレーションなどによって、表示部11に重畳表示させる操作者の操作手の表示倍率を決定する(ステップS11)。
Subsequently, the
次に、制御部14は、撮像部13により撮像された画像に基づいて、タッチ操作部12上に操作者の操作手が重畳しているかを判別する(ステップS12)。
Next, the
制御部14は、タッチ操作部12上に操作者の操作手が重畳していると判別した場合、ステップS13に進む。制御部14は、タッチ操作部12上に操作者の操作手が重畳していないと判別した場合、再度ステップS12に戻り、操作者の操作手が重畳するまで待機する。
When it is determined that the operator's operating hand is superimposed on the
制御部14は、タッチ操作部12上に操作者の操作手が重畳していると判別した場合、操作者の操作手の一部又は全体を抽出する画像処理を行う(ステップS13)。
When it is determined that the operator's operator's hand is superimposed on the
続いて、制御部14は、ステップS11で決定された表示倍率に基づいて、撮像された操作者の操作手を重畳表示させる(ステップS14)。
Subsequently, the
続いて、制御部14は、タッチ操作部12からタッチ操作に関する検出情報を取得したかを判別する(ステップS15)。
Subsequently, the
制御部14は、検出情報を取得した場合、ステップS16に進む。制御部14は、検出情報を取得しない場合、再度ステップS15に戻り、検出情報を取得するまで待機する。
When acquiring the detection information, the
制御部14は、検出情報を取得した場合、識別したタッチ操作部12の所定の領域R1内の位置座標に対応する機能項目をハイライトさせる(ステップS16)。
When acquiring the detection information, the
続いて、制御部14は、タクトスイッチ122がオン状態の信号をタッチ操作部12より取得したかを判別する(ステップS17)。
Subsequently, the
制御部14は、オン状態の信号を取得した場合、ステップS18に進む。制御部14は、オン状態の信号を取得しない場合、ステップS15に戻り、検出情報を取得したかを再度判別する。
When the
制御部14は、オン状態の信号を取得した場合、ステップS16でハイライトさせた機能項目の選択を確定させる(ステップS18)。
When acquiring the ON state signal, the
その後、フローは終了する。 Thereafter, the flow ends.
以上により、本実施形態に係る車載用情報処理システム10は、表示部11に表示された操作者の操作手が仮想的に画面上で情報を操作するので、操作者に対して直感的な操作を可能とする。すなわち、操作者は、実際の感覚により近い状態で画面内にアクセスできる。また、操作者は、操作手の実際の位置と画面上の位置関係とを直感的に認識できる。従って、車載用情報処理システム10は、ポインタなどを表示させる従来の装置と比べて、操作者が画面を注視する時間を低減させることが可能である。
As described above, in the in-vehicle
車載用情報処理システム10は、画像処理を行う時間を限定するので、最小限の遅延により、操作者の操作手を重畳表示させることが可能である。すなわち、車載用情報処理システム10は、実際の操作手と画面上に重畳表示された操作手との間で、時間的な動きのズレを低減することができる。これにより、操作者は、より違和感なく画面上に表示される情報を操作可能である。
Since the in-vehicle
車載用情報処理システム10は、撮像部13により撮像された操作者の操作手を抽出する画像処理を行うので、画面上で操作者の操作手を忠実に重畳表示させることが可能である。これにより、操作者は、画面上に重畳表示された操作手を、自身の手であると直感的に認識することができる。
Since the in-vehicle
車載用情報処理システム10は、撮像部13により撮像された操作者の操作手の表示倍率を変更する画像処理を行うので、画面に合わせた最適な大きさで操作者の操作手を重畳表示させることが可能である。これにより、操作者は、画面上に重畳表示されている操作手にリアリティを感じつつ、その背後に表示された表示内容を容易に視認可能である。
The in-vehicle
車載用情報処理システム10は、タッチ操作が検出される所定の領域R1内の位置座標を画像処理により識別する場合と比べて、最小限の遅延により、操作者の操作手を重畳表示させることが可能である。また、車載用情報処理システム10は、撮像部13により撮像された画像に基づいて間接的に位置座標を識別するのではなく、タッチ操作部12により直接識別するので、精度良く位置座標を識別することができる。すなわち、車載用情報処理システム10は、タッチ操作部12により操作手が実際に接触している位置を検出するので、操作者が画面上に表示された機能項目などを選択する際に、誤動作を引き起こす可能性が低い。
The in-vehicle
車載用情報処理システム10では、撮像部13が操作者の操作手全体を撮像することで、操作者は、画面上に重畳表示された操作手が自身の手であることを容易に認識できる。さらに、操作者は、操作手のどの部分を動かしているのかを、画面上の表示に基づいて容易に認識できる。また、操作者は、実際の操作手の位置と、画面上の位置との関係を正確に認識するので、操作手の移動量及び移動可能な画面上の領域を容易に把握できる。
In the in-vehicle
車載用情報処理システム10は、撮像部13により操作者の操作手全体を撮像することで、タッチパッド121上の操作者の操作手を精度良く識別することが可能である。すなわち、車載用情報処理システム10は、操作者の操作手を人の手として精度良く認識することが可能である。さらに、車載用情報処理システム10は、操作者の操作手の各部の識別をより精度良く行うことが可能である。すなわち、車載用情報処理システム10は、撮像された画像中の指がどの指に対応するかを精度良く識別することが可能である。また、車載用情報処理システム10は、操作手全体を撮像することで、操作手全体の大きさ、操作手全体に占める各部の大きさの割合などを精度良く識別することが可能である。これにより、車載用情報処理システム10は、画面中での操作者の操作手の移動量、移動可能な画面上の領域を、タッチパッド121上の実際の操作手の動きと対応させて精度良く識別することが可能である。
The in-vehicle
車載用情報処理システム10は、タッチパッド121の奥側に所定の領域R1を設定し、画面上の上部に操作領域R2を設定することで、操作者は、必然的にタッチ操作部12全体に自身の操作手を重畳させることになる。この時、車載用情報処理システム10は、撮像部13により、必然的に操作者の操作手全体を撮像可能である。なお、所定の領域R1以外のタッチパッド121上の領域をタッチ操作に対して無反応とすることで、操作者の意識は所定の領域R1により集中することになる。この時、車載用情報処理システム10は、より確実に操作者の操作手全体を撮像可能である。
The in-vehicle
車載用情報処理システム10は、操作領域R2内に定められたエリアごとに各機能項目を対応させて表示させるので、操作者は、選択したい機能項目を容易に視認可能である。換言すると、操作者は、所定の機能項目を選択する場合に、タッチ操作部12上のどのエリアでタッチ操作を行うべきかを直感的に認識可能である。
The in-vehicle
一方で、車載用情報処理システム10は、操作者の操作手の各部にそれぞれ機能を割り当てる場合、画面上の任意の場所で、各種機能を選択実行可能である。すなわち、車載用情報処理システム10は、タッチ操作において、操作者の動作範囲を最小限に抑えることが可能であり、操作者は、容易にタッチ操作を行うことができる。
On the other hand, the in-vehicle
車載用情報処理システム10は、操作者が接触により選択した項目をハイライトさせることで、どの指がタッチパッド121に接触しているかを、視覚情報としても明瞭に認識することができる。また、操作者は、重畳表示された操作手が画面上のどの位置で接触しているのか、又はどの項目が選択されているのかを容易に視認可能である。
The in-vehicle
車載用情報処理システム10は、タクトスイッチ122がオンになるときに操作者に対してクリック感を与えるので、操作者は、自身の動作による触感的なフィードバックを得ることができ、より直感的な操作が可能である。換言すると、タクトスイッチ122が選択の確定に用いられることで、操作者は、自然な動作で選択した項目を確定させることができる。加えて、操作者は、指に働く反力によって、画面上に重畳表示された操作手に対してよりリアリティを感じる。すなわち、操作者は、自身の実際の操作手があたかも直接画面に触れているような錯覚を覚えやすくなる。
The in-vehicle
車載用情報処理システム10は、重畳表示させる操作者の操作手を半透過にするので、リアリティを確保しつつ、操作者は、画面上に表示される情報を容易に視認可能である。すなわち、操作者は、より直感的に画面上に表示される情報を操作可能である。
The in-vehicle
車載用情報処理システム10は、タッチ操作部12の上方に撮像部13を設置することで、操作者の操作手全体をより容易に撮像可能である。
The in-vehicle
本発明は、その精神又はその本質的な特徴から離れることなく、上述した実施形態以外の他の所定の形態で実現できることは当業者にとって明白である。従って、先の記述は例示的なものであり、これに限定されるものではない。発明の範囲は、先の記述によってではなく、付加した請求項によって定義される。あらゆる変更のうちその均等の範囲内にあるいくつかの変更は、その中に包含されるものとする。 It will be apparent to those skilled in the art that the present invention can be realized in other predetermined forms other than the above-described embodiments without departing from the spirit or essential characteristics thereof. Accordingly, the above description is illustrative and not restrictive. The scope of the invention is defined by the appended claims rather than by the foregoing description. Some of all changes that fall within the equivalent scope shall be included therein.
10 車載用情報処理システム
11 表示部
12 タッチ操作部
121 タッチパッド
122 タクトスイッチ
13 撮像部
14 制御部
15 記憶部
R1 所定の領域
R11、R12、R13、R14、R15、R16、R17 エリア
R2 操作領域
R21、R22、R23、R24、R25、R26、R27 エリア
R3 領域
DESCRIPTION OF
Claims (5)
操作者の操作手による接触を検出するタッチ操作部と、
前記操作手の少なくとも一部と、前記タッチ操作部とを撮像する撮像部と、
前記画面上の操作領域内の位置座標と、前記タッチ操作部の所定の領域内の位置座標とを対応させ、前記撮像部により撮像された画像に基づいて所定の時間内で画像処理を行い、前記操作手の少なくとも一部を前記画面上に重畳表示させる制御部と、を備える、
車載用情報処理システム。 A display unit having at least one screen;
A touch operation unit that detects contact by an operator's operator;
An imaging unit that images at least a part of the operator and the touch operation unit;
Corresponding the position coordinates in the operation area on the screen and the position coordinates in the predetermined area of the touch operation unit, and performing image processing within a predetermined time based on the image captured by the imaging unit, A control unit that superimposes and displays at least a part of the operating hand on the screen,
In-vehicle information processing system.
前記制御部は、前記タッチ操作部における前記操作手の位置と対応するように、当該操作手の少なくとも一部を前記画面上に重畳表示させる、
請求項1に記載の車載用情報処理システム。 The imaging unit images a positional relationship between the touch operation unit and the operator,
The control unit causes at least a part of the operation hand to be superimposed on the screen so as to correspond to the position of the operation hand in the touch operation unit.
The in-vehicle information processing system according to claim 1.
請求項1又は2に記載の車載用情報処理システム。 The control unit performs image processing for extracting at least a part of the operating hand based on the image captured by the imaging unit.
The in-vehicle information processing system according to claim 1 or 2.
請求項1乃至3のいずれか一項に記載の車載用情報処理システム。 The control unit performs image processing for changing a display magnification of the operator based on a ratio of a size between the predetermined region of the touch operation unit and the operation region on the screen.
The in-vehicle information processing system according to any one of claims 1 to 3.
請求項1乃至4のいずれか一項に記載の車載用情報処理システム。 The control unit identifies position coordinates in the predetermined area of the touch operation unit where contact by the operator is detected based on detection information from the touch operation unit.
The in-vehicle information processing system according to any one of claims 1 to 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016076084A JP2017187922A (en) | 2016-04-05 | 2016-04-05 | In-vehicle information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016076084A JP2017187922A (en) | 2016-04-05 | 2016-04-05 | In-vehicle information processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017187922A true JP2017187922A (en) | 2017-10-12 |
Family
ID=60045584
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016076084A Pending JP2017187922A (en) | 2016-04-05 | 2016-04-05 | In-vehicle information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017187922A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110543233A (en) * | 2018-05-29 | 2019-12-06 | 富士施乐株式会社 | Information processing apparatus and non-transitory computer readable medium |
-
2016
- 2016-04-05 JP JP2016076084A patent/JP2017187922A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110543233A (en) * | 2018-05-29 | 2019-12-06 | 富士施乐株式会社 | Information processing apparatus and non-transitory computer readable medium |
CN110543233B (en) * | 2018-05-29 | 2024-06-07 | 富士胶片商业创新有限公司 | Information processing apparatus and non-transitory computer readable medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110045825B (en) | Gesture recognition system for vehicle interaction control | |
US9604542B2 (en) | I/O device for a vehicle and method for interacting with an I/O device | |
JP4351599B2 (en) | Input device | |
KR20110076921A (en) | Display and control system in a motor vehicle having user-adjustable representation of displayed objects, and method for operating such a display and control system | |
CN108108042B (en) | Display device for vehicle and control method thereof | |
US11119576B2 (en) | User interface and method for contactlessly operating a hardware operating element in a 3-D gesture mode | |
JP5858059B2 (en) | Input device | |
JP2019175449A (en) | Information processing apparatus, information processing system, movable body, information processing method, and program | |
CN107656659A (en) | Input system, detection means, control device, storage medium and method | |
JP2018195134A (en) | On-vehicle information processing system | |
JP2018136616A (en) | Display operation system | |
JP2017197015A (en) | On-board information processing system | |
WO2017188098A1 (en) | Vehicle-mounted information processing system | |
US11221735B2 (en) | Vehicular control unit | |
JP2018010472A (en) | In-vehicle electronic equipment operation device and in-vehicle electronic equipment operation method | |
JP6739864B2 (en) | In-vehicle information processing system | |
KR101422060B1 (en) | Information display apparatus and method for vehicle using touch-pad, and information input module thereof | |
JP2017187922A (en) | In-vehicle information processing system | |
JP2009184551A (en) | On-vehicle equipment input device | |
JP7529380B2 (en) | Vehicle operation control device | |
WO2019163390A1 (en) | Menu display control device for vehicles, vehicle-mounted equipment operation system, and gui program | |
JP2017199203A (en) | Vehicle-mounted information processing system | |
JP7255584B2 (en) | VEHICLE MENU DISPLAY CONTROL DEVICE, VEHICLE DEVICE OPERATION SYSTEM, AND GUI PROGRAM | |
JP2018162023A (en) | Operation device | |
JP2018122827A (en) | On-vehicle information input device and on-vehicle information input system |