JP2013218391A - 操作入力装置、操作入力方法、及び、操作入力プログラム - Google Patents

操作入力装置、操作入力方法、及び、操作入力プログラム Download PDF

Info

Publication number
JP2013218391A
JP2013218391A JP2012086075A JP2012086075A JP2013218391A JP 2013218391 A JP2013218391 A JP 2013218391A JP 2012086075 A JP2012086075 A JP 2012086075A JP 2012086075 A JP2012086075 A JP 2012086075A JP 2013218391 A JP2013218391 A JP 2013218391A
Authority
JP
Japan
Prior art keywords
attribute
article
state
operation input
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012086075A
Other languages
English (en)
Inventor
Makoto Kurahashi
誠 倉橋
Yoichi Sato
洋一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, Pioneer Electronic Corp filed Critical University of Tokyo NUC
Priority to JP2012086075A priority Critical patent/JP2013218391A/ja
Publication of JP2013218391A publication Critical patent/JP2013218391A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】車両の運転に影響を与えることなく、単純なアクションにより入力が可能な操作入力装置を提供する。
【解決手段】操作入力装置は、車両などの移動体に搭載される装置に対して操作入力を行う。移動体に搭載される装置は、例えばカーナビゲーション装置やスマートフォンなどがあげられる。カメラは運転席付近の画像を撮影し、その撮影画像から、操作物の状態が検出される。操作物は、例えば運転者の手、指などがあげられる。好適な例では、操作物の状態は、操作物の形状、姿勢、位置、動きのうちの少なくとも1つを含む。そして、予め決定されたルールに従い、操作物の状態の変化に基づいて、使用者が意図する操作が判定される。そして、決定された操作に基づいて、移動体に搭載される装置が動作する。
【選択図】図1

Description

本発明は、カメラで撮影した画像中における操作物の状態の変化を利用して、装置に対する操作を入力する手法に関する。
装置に対して操作入力を行うインターフェースとして各種の手法が提案されている。
特許文献1は、空中において指のような操作物を検出し、その検出領域での位置と、表示面での位置を対応付け、表示面に対する位置入力ができるようにしている。具体的には、ディスプレイ面に対応させる空間を設定し、赤外線走査により、その空間に入れられた指示物を検知する。その検出位置とディスプレイ面上の位置を対応付けたり(その位置にカーソル表示をする)、その位置での操作を受け付けたりする(奥行き方向に操作物を押し込む操作を検出)。また、それらのカーソル移動や押し込む操作により、HUD(Head Up Display)に表示したメニューを操作する例を示している。
特許文献2は、操作者がタッチパネルを触ると、その様子が画面に表示される点を特徴としている。具体的には、操作面を有し、操作面に接触したユーザの手領域を検出し、その領域に基づいて手形状モデルを変形させる。たとえば、操作面に指先が2箇所触れているとすれば、その時の手全体の姿勢が「チョキ」のようなもので、どの位置・向きであるかを推定する。接触領域情報と、変形させた手形状モデルから生成した画像を表示部に表示したり、接触領域情報から、ユーザ操作を検出したりする。
特許文献3は、HUDに表示された虚像を選択するために、視線あるいは、目や手の検出を利用するものであり、虚像に対して直接、見たり、指差したりすることで選択が可能である。具体的には、HUDで表示された虚像の中からいずれかを選択するために、操作者の視線検出を行い、視線上、あるいはその近傍の虚像を選択することを述べている。これにより、注視により対象を選択することができる。あるいは、操作者の目と、手(指)を検出し、それらを結ぶ線によって、虚像を選択することも述べている。
特許文献4は、車両のハンドルを利用した操作入力装置を記載している。具体的には、ハンドルのリング部に所定間隔で圧力センサを複数配置し、リング部を握る指の配置を検出できるようにする。車載機器などを操作するメニューを表示し、ハンドル上の指の位置などに応じてメニューを選択できるようにする。
特許文献5は、車両のステアリングホイールを利用した操作入力装置を記載している。具体的には、ステアリングホイールの車両前側に表示装置を設け、ステアリングホイールと表示装置の間にタッチリングを設ける。表示装置には複数の選択肢を表示し、タッチリングは、表示装置の選択肢に略相似状に複数の操作領域を設定する。操作者の、タッチリングへの指の接触位置から、いずれの操作領域に該当しているかを判定し、選択操作を決定する。タッチリングは、ステアリングホイールの形状に沿った略円弧状で、操作者の視線上で、表示装置の画面上の選択肢と重畳される位置に設置されている。さらに、ステアリングホイールと表示装置を重ねて設置し、ステアリングホイール上での選択領域と重なるように、選択肢を表示することも述べている。
特開平8−202480号公報 特許第4351599号公報 特開2005−138755号公報 特開2003−095038号公報 特開2006−117169号公報
特許文献1及び3に記載の手法は、空中で操作するため操作を安定させることが難しく、操作者が疲労するという問題があり、また、操作のために気をとられる危険がある。特許文献2は、扱いやすさの点で工夫されているとはいえ、画面上で対象を選択するなどの操作が必要であり、操作に負担がある。
一方、特許文献4及び5は車両のステアリングを利用するものであるが、ステアリング付近にセンサやタッチリングを設け、利用者による入力を検出する構成となっている。このため、利用者はセンサが検出できる程度の力/圧力で入力を行う必要があり、その力によりステアリングが回転してしまうなどの不具合が生じる可能性がある。
本発明の解決しようとする課題としては、上記のものが一例として挙げられる。本発明は、車両の運転に影響を与えることなく、単純なアクションにより入力が可能な操作入力装置を提供することを目的とする。
請求項1に記載の発明は、移動体に搭載される装置に対して操作入力を行う操作入力装置であって、前記移動体の運転席付近を撮影するカメラと、前記カメラにより撮影された撮影画像から、操作物の状態を検出する検出手段と、予め決定されたルールに従い、前記操作物の状態の変化に基づいて、使用者が意図する操作を判定する操作判定手段と、決定された操作に基づいて、前記移動体に搭載される装置を動作させる装置制御手段と、を備えることを特徴とする。
請求項10に記載の発明は、移動体に搭載される装置に対して操作入力を行う操作入力装置によって実行される操作入力方法であって、前記移動体の運転席付近を撮影するカメラにより撮影された撮影画像から、操作物の状態を検出する検出工程と、予め決定されたルールに従い、前記操作物の状態の変化に基づいて、使用者が意図する操作を判定する操作判定工程と、決定された操作に基づいて、前記移動体に搭載される装置を動作させる装置制御工程と、を備えることを特徴とする。
請求項11に記載の発明は、コンピュータを備え、移動体に搭載される装置に対して操作入力を行う操作入力装置により実行される操作入力プログラムであって、前記移動体の運転席付近を撮影するカメラにより撮影された撮影画像から、操作物の状態を検出する検出手段と、予め決定されたルールに従い、前記操作物の状態の変化に基づいて、使用者が意図する操作を判定する操作判定手段と、決定された操作に基づいて、前記移動体に搭載される装置を動作させる装置制御手段、として前記コンピュータを機能させることを特徴とする。
本発明の操作入力装置を適用したナビゲーション装置の構成を示す。 カメラの設置状態を模式的に示す。 カメラによる撮影画像及び操作領域の例を示す。 周辺施設検索サービスにおける操作入力の例を示す。 案内ルート情報表示サービスにおける操作入力の例を示す。 地図上からの選択サービスにおける操作入力の例を示す。 地図上からの選択サービスにおける操作入力の他の例を示す。 実施例における操作入力処理のフローチャートである。
本発明の好適な実施形態では、移動体に搭載される装置に対して操作入力を行う操作入力装置は、前記移動体の運転席付近を撮影するカメラと、前記カメラにより撮影された撮影画像から、操作物の状態を検出する検出手段と、予め決定されたルールに従い、前記操作物の状態の変化に基づいて、使用者が意図する操作を判定する操作判定手段と、決定された操作に基づいて、前記移動体に搭載される装置を動作させる装置制御手段と、を備える。
上記の操作入力装置は、車両などの移動体に搭載される装置に対して操作入力を行う。移動体に搭載される装置は、例えばカーナビゲーション装置やスマートフォンなどがあげられる。カメラは運転席付近の画像を撮影し、その撮影画像から、操作物の状態が検出される。操作物は、例えば運転者の手、指などがあげられる。好適な例では、操作物の状態は、操作物の形状、姿勢、位置、動きのうちの少なくとも1つを含む。そして、予め決定されたルールに従い、操作物の状態の変化に基づいて、使用者が意図する操作が判定される。そして、決定された操作に基づいて、移動体に搭載される装置が動作する。
上記の操作入力装置の一態様では、前記検出手段は、前記撮影画像に含まれる実体物に基づいて予め決定された操作領域に対する前記操作物の状態を検出し、前記操作判定手段は、前記操作領域における前記操作物の状態の変化に基づいて、前記使用者が意図する操作を判定する。この態様では、実態物に基づいて決定された操作領域を基準にして操作物の状態が検出される。好適な例では、移動体は車両であり、実体物は当該車両のダッシュボード、ステアリング、レバーのうちの少なくとも1つを含む。
上記の操作入力装置の他の一態様では、前記装置制御手段は、入力された複数の属性に基づいて前記移動体に搭載される装置を動作させ、前記操作判定手段は、各属性について、当該属性を選択する選択操作と、前記選択操作により選択された属性を決定する決定操作とを判定する。この態様では、選択操作と決定操作の組み合わせにより、複数の属性が決定され、その属性に基づいて操作が判定される。好適な例では、選択操作及び決定操作は、1次元的なジェスチャ操作である。
上記の操作入力装置の1つの例では、前記操作判定手段は、前記操作物による一方向への入力をある属性の選択操作と判定し、前記操作物による前記一方向とは逆方向への入力を当該属性の決定操作と判定する。他の例では、前記操作判定手段は、前記操作物によるある種類の操作を選択操作と判定し、前記ある種類の操作と異なる種類の操作への切り替えを決定操作と判定する。
上記の操作入力装置の他の一態様では、前記実体物には特定の位置に目印が設けられており、前記実体物自体が動いている間は、前記操作判定手段は操作の判定を行わない。この態様では、実体物が動いている間は、移動体の運転などが行われている可能性があるので、操作の判定を行わない。
本発明の他の好適な実施形態では、移動体に搭載される装置に対して操作入力を行う操作入力装置によって実行される操作入力方法は、前記移動体の運転席付近を撮影するカメラにより撮影された撮影画像から、操作物の状態を検出する検出工程と、予め決定されたルールに従い、前記操作物の状態の変化に基づいて、使用者が意図する操作を判定する操作判定工程と、決定された操作に基づいて、前記移動体に搭載される装置を動作させる装置制御工程と、を備えることを特徴とする。この方法によっても、カメラの撮影範囲内で操作物の状態の変化を利用して操作入力が可能となる。
本発明の他の好適な実施形態は、コンピュータを備え、移動体に搭載される装置に対して操作入力を行う操作入力装置により実行される操作入力プログラムであって、前記移動体の運転席付近を撮影するカメラにより撮影された撮影画像から、操作物の状態を検出する検出手段と、予め決定されたルールに従い、前記操作物の状態の変化に基づいて、使用者が意図する操作を判定する操作判定手段と、決定された操作に基づいて、前記移動体に搭載される装置を動作させる装置制御手段、として前記コンピュータを機能させる。このプログラムをコンピュータ上で実行することにより、上記の操作入力装置を実現することができる。このプログラムは、記憶媒体に記憶して取り扱うことができる。
以下、図面を参照して本発明の好適な実施例について説明する。なお、以下の実施例は、本発明の操作入力装置をカーナビゲーション装置(以下、単に「ナビゲーション装置」と呼ぶ。)に適用したものである。
[装置構成]
図1は、本発明の操作入力装置を適用したナビゲーション装置の構成を示す。ナビゲーション装置は、カメラ10と、操作検出部20と、操作判定部22と、表示装置24と、サービス部26とを備える。
カメラ10は、使用者(自動車の運転者)が、運転操作する手元の周辺を撮影する位置に固定して設置される。図2にカメラ10の設置状態を模式的に示す。図2(A)は、運転者が運転席14に座ってハンドル12を握っている状態を側方から見た図であり、図2(B)は運転者が運転席14に座っていない状態を車両の上方から見た図である。
カメラ10の設置場所は、運転席14の頭上の正面前方のサンバイザーの付近とする。これにより、カメラ10は、運転席付近のダッシュボード11、ハンドル(ステアリング)12、左右のレバー16(図1を参照)などを含む領域を撮影し、その撮影画像を操作検出部20へ出力する。車両の運転中、運転者はハンドル12を操作するため、運転者の手や指なども撮影画像に含まれることになる。
本実施例では、カメラ10は、距離計測カメラ等の特殊なものではなく、通常のカメラとする。ただし、カメラ10には通常は設けられていることが多い赤外線カットフィルタを設けない。また、カメラ10の近傍に補助光の赤外線照射装置を設けて、夜間はハンドル12の付近に赤外線を照射する。これにより、夜間でも使用者の手元周辺をカメラ10で撮影できるようにする。
なお、カメラ10としては、距離計測用カメラや、通常カメラをステレオで利用してもよい。その場合には、奥行き方向への距離などを取得できるため、立体的な操作が可能になるなどの利点がある。
表示装置24は、使用者に情報を提示するためのものであり、使用者の前方の見やすく、運転の妨げとならない位置に設置される。表示装置24は、例えばHUDとしてもよく、通常の液晶ディスプレイとしてもよい。表示装置24の設置位置は、使用者が無理なく見ることができる位置であれば、特定の場所に限定されない。
操作検出部20は、カメラ10で撮影した撮影画像を解析し、操作を行う手などの操作物を検出する部分である。後述するように、本実施例では、使用者の手や指などの動作をカメラ10で撮影し、それを分析することによりナビゲーション装置に対する操作入力を行う。操作入力に使用される、使用者の手、指などを「操作物」と呼ぶ。また、操作入力時に手や指などを用いて行われる動作、即ち、操作物の状態の変化を「ジェスチャ」とも呼ぶ。操作検出部20は1次元的なジェスチャ操作を検出する。また、「操作物の状態」とは、操作物の形状、姿勢、位置、動きなどを指す。
操作物の状態の検出は、あらかじめ決められた「操作領域」を基準にして行う。「操作領域」とは、カメラ10による撮影画像中で、実物体をよりどころとして予め設定された領域である。ここで、「実体物」とは、車両の運転席付近に存在する物体であり、ダッシュボード11、ハンドル12、レバー16などを含む。
カメラ10による撮影画像の例を図3(A)に示し、その場合の操作領域の例を図3(B)に示す。図3(B)の例では、ハンドル12の上側の部分が操作領域1に設定され、ダッシュボード14の上部が操作領域2に設定され、左右のレバー16がそれぞれ操作領域3a、3bに設定されている。
操作領域の設定は、前処理として事前に行われる。例えば、運転者がいない状態で図3(A)に示すような車両のハンドル12の付近の画像を撮影し、画像認識処理によりハンドル12、レバー16などに対応する形状を検出して、その領域を操作領域に設定することができる。また、撮影画像を使用者に提示し、使用者が撮影画像中のダッシュボード11、ハンドル12、レバー16などの特定の領域を指定し、その領域を操作領域に設定するようにしてもよい。
操作検出部20による操作物の検出は、たとえば次のような項目に対して行う。
・操作領域を触っている指の本数
・操作領域に対する指や手の位置、向き
・操作領域付近における「親指と人差し指などで丸を作っている」等の特殊な形状
・上記のような検出を連続して行うことにより検出される、操作領域に対する手や指の移動の軌跡
操作検出部20による操作物の検出は以下のように行われる。まず、例えば、図3(A)に示すような、操作物が存在しない状態であらかじめ取得した撮影画像(以下、「基準画像」とも呼ぶ。)と、操作物が存在する状態の撮影画像とを画像処理により比較し、基準画像に対して、輝度値や輝度値勾配パターンなどが異なる領域を抽出する。次に、抽出された領域中に含まれ、操作物(手や指)と類似した形状を有する部分を操作物と推定する。次に、その操作物の操作領域に対する位置関係、操作物の移動の有無、移動の方向などを検出する。そして、操作検出部20は、これらの検出結果を操作制御部22に出力する。
なお、操作領域のよりどころとなる実物体に対して、操作物の検出、判定をしやすくするため、あるいは操作者が操作をする際の目印とするために細工を行ってもよい。たとえば、次のようなものである。
・ハンドル表面を、赤外線(補助光)を反射しない素材で覆う。
・ハンドル表面に、操作者に目印となるような突起部、あるいは、見た目や手触りが異なる部分を設ける。
・ハンドル表面の目印を、発光物や反射素材のような、映像による検出の手がかりとなるような素材で作る。
また、上記のような目印を利用して、たとえばハンドルが定位置からずれている(回転している)ことを検出し、ハンドルが回転している間は、運転操作中であると推定して操作検出部20による操作物の検出を行わないようにしてもよい。
また、ハンドルにつけた目印を基準として、操作物検出の位置を扱うようにしてもよい。たとえば、目印の真上に指がある場合に、画面の中央を指差しているように対応付ける、といったものである。
操作判定部22は、操作検出部22が検出した操作物の状態から、操作のための解釈を行う部分である。具体的に、操作判定部22は、たとえば、次のような項目を判定する。
・操作領域(たとえばハンドル)上の特定の場所を、特定の手形状(たとえば、指1本を立てた状態、指2本を立てた状態)で、新たに触ったこと、触っていた状態から手を離したこと、触っている状態が継続していること。さらに、そのような特定の手形状の状態を判定した場合に、たとえば、指を1本立てた時の指の向き、指を2本立てた時の指の間の角度といった特徴値を算出する。
・操作領域上の特定の場所で、特定のアクション(たとえば「たたくアクション」、すなわちハンドルを一度触ってすぐ離れるアクション)をしたこと。
・操作領域上を、指を指して触りながら、なぞる動作をしたこと。さらに、そのときのなぞった範囲、方向、速度なども算出する。
そして、操作判定部22は、これらの判定結果を、サービス部26に出力する。
サービス部26は、使用者に対して、ナビゲーション装置としてのサービスを提供する。ここでは、例えば「道案内」、「地図表示」、「周辺施設検索」といった機能を「サービス」と呼ぶ。
サービス部26は、各サービスに対して使用者が操作を行うためのユーザインタフェースを備える。それは、メニュー機構を備え、操作判定部22が解釈した操作によってメニュー操作(画面からの選択、画面遷移など)を行い、メニュー操作の結果から、サービスの動作を制御する。
[サービスの例]
以下に、具体的なサービスと、その場合の操作入力の例を説明する。
(周辺施設検索)
周辺施設検索は、車両がナビゲーション装置の道案内に従って走行しているときに利用できる。
周辺施設検索は、自車の現在位置から、その先の案内ルートに沿って存在する施設の情報を使用者にメニューで提示する。メニューでは、施設の種類ごとに、案内ルート上での順序で施設を並べて提示する。また、各施設の簡単な情報も表示する。メニューを操作し、使用者が施設を選択すると、その施設を案内ルート中の立ち寄り地として設定することができる。
たとえば、施設の種類には「コンビニ」、「ガソリンスタンド」、「駐車場」、「トイレ」といったものがある。そして、それぞれの種類に対して、たとえば「コンビニ」であれば、現在位置から目的地へ向かう案内ルートに沿って、近いほうから数軒のコンビニの情報を提示する。提示される情報は、店名、営業時間、駐車場の収容台数、トイレやATMの有無などである。コンビニ以外の種類の施設に関しても同様である。自車の走行にしたがって、この情報は更新される。
次に、周辺施設検索の操作入力について詳しく説明する。以下に説明する周辺施設検索の操作入力において、使用者の操作は2つの属性を選択し、決定することにより行われる。第1の属性は施設の種類であり、第2の属性は施設自体である。まず、使用者は、施設の種類が複数表示された中から施設の種類を1つ選択し決定する。この操作を「第1属性の入力」と呼ぶ。本例では、予め決定されたルールにより、複数の施設の種類から1つを選択する操作は「操作領域1を指2本で左側にこするジェスチャ」とする。なお、このジェスチャは、メニュー起動のためにハンドル上部を触った状態で指をハンドルから離すことなく行うものとする。また、こうして選択中の移設の種類を決定する操作は「操作領域1を指2本で右側にこする(つまり、こする方向を逆にする)ジェスチャ」とする。上記の選択操作及び決定操作により、第1属性の入力が完了する。なお、「操作領域」は図3(A)に示すものと同様とする。
第1属性の入力が完了し、施設の種類が1つ決定されると、決定された施設の種類に含まれる複数の施設が案内ルート順に表示装置24の画面に表示される。使用者は、表示された複数の施設の中から1つの施設を選択する。複数の施設から1つの施設を選択する操作は「操作領域1を指2本で左右にこするジェスチャ」とする。また、選択中の施設を決定する操作は「操作領域1を指1本で触るジェスチャ」とする。上記の選択操作及び決定操作により、第2属性の入力が完了する。
以下、図4を参照して、周辺施設検索における操作を説明する。図4は、左側に使用者による操作イメージを示し、右側に表示装置24の画面イメージを示している。
まず、操作を開始する前提として、サービス部26が「道案内」のサービスを実行し、表示装置24の画面に案内ルートを表示しているものとする。図4には図示していないが、表示装置24の画面では、出発地から目的地に向かって地図上にルートが引かれ、ルート上に存在する自車の周辺地図が表示され、その上に自車の現在位置が表示される。
ここで、ナビゲーション装置は、使用者による周辺施設検索メニューを起動する操作を検出すると、周辺施設検索メニューを起動し、施設の種類を選択する画面を表示する。図4に示すように、表示装置24の画面には、周辺施設の種類を示す施設種類アイコン(「コンビニ」、「ガソリンスタンド」、「駐車場」)を横に並べたメニューが表示される。なお、施設種類アイコンがやや円弧状に並んでいるのは、ハンドル12上でこすって操作することを暗示するためである。
次に、ナビゲーション装置は、施設の種類を選択する操作を受け付ける。これは、第1属性の選択操作に相当する。具体的に、使用者が「操作領域1を指2本で左側にこするジェスチャ」を行うと、画面に表示された施設種類アイコンが左に移動する。表示装置24の画面では、画面中央にカーソル31があり、カーソル31が重なっている施設種類アイコンが「選択中」となる。
施設の種類を選択する操作の受け付け中に、もし使用者の手が操作領域1から外されれば、直ちに又は数秒の時間をおいて、ナビゲーション装置は周辺施設検索メニューを終了して道案内の通常表示に戻る。
一方、施設の種類を選択する操作の受け付け中に、施設の種類を決定する操作として、「操作領域1を指2本で右側にこするジェスチャ」を検出すると、ナビゲーション装置は、施設の種類をその時点で「選択中」であるものに決定する。これは、第1属性の決定操作に相当する。そして、ナビゲーション装置は、その種類に含まれる複数の施設の中から1つの施設を選択するための画面、即ち第2属性入力のための画面に移行する。
施設を選択するための画面では、図4に示すように、複数の施設アイコンを横に並べたメニューが画面に表示される。なお、図4の例では、施設の種類として「コンビニ」が決定されたため、複数のコンビニのアイコンが並べて表示されている。また、第1属性の入力で選択したものが何であるかが分かるように、第1属性として決定された施設の種類名(即ち「コンビニ」)も表示される。
次に、ナビゲーション装置は、施設を選択する操作を受け付ける。これは、第2属性の選択操作に相当する。具体的に、使用者が「操作領域1を指2本で左右にこするジェスチャ」を行うと、画面に表示された施設アイコンが左右に動く。画面中央にカーソル31があり、そこに重なったものが「選択中」となる。
施設を選択する操作の受け付け中に、施設を決定する操作として「操作領域1を指1本で触るジェスチャ」を検出すると、ナビゲーション装置は、施設をそのときに「選択中」のものに決定する。これは、第2属性の決定操作に相当する。これにより、第1属性、第2属性の両方が決定したので、使用者による施設の選択が完了したことになる。よって、サービス部26は道案内サービスにおいてその施設を立ち寄り地に設定する。
このように、上記の例では、ハンドル上部を指2本でさわってこする操作を基本とし、こする方向を反転させることにより次の属性の選択に移行する。第1属性の決定操作を「こする方向を逆にする」のではなく、第2属性の入力時のように「指1本で触る」という全く別のジェスチャにすることもできる。それにより、第1属性を「左側にしか」選択操作ができないという制約が解消される。但し、この例では、第1属性の決定操作は簡単に済ませられるべきと思われることから、操作を連続的に行えることを重視して、第1属性の決定動作を「こする方向を逆にする」ものとした。なお、第2属性の選択操作を行う際は、使用者は施設情報を見比べたいであろうと思われるため、左右両方向に第2属性の選択操作ができるようにし、第2属性の決定操作は「指1本で触る」という連続性を損なう形の決定操作とした。
なお、上記の例では「前に戻る」ための操作を用意していない。たとえば、第1属性の入力から第2属性の入力に移行した直後に、第1属性の選択操作を誤ったことに使用者が気づいた場合でも、使用者は第1属性の選択に戻ることができない。よって、使用者は、ハンドル12から一旦手を外して周辺施設検索メニューを終了させ、再び周辺施設検索メニューを起動して第1属性の選択操作からをやり直すことになる。しかしながら、本例では、メニューの起動や第1属性の決定操作から第2属性の選択操作への移行はスムーズにできるため、特に「前の選択に戻る」ためのジェスチャを設ける必要はないと考えられる。これにより、インターフェースを簡素にすることができる。
(案内ルート情報表示)
案内ルート情報表示は、ナビゲーション装置の道案内に従って走行しているときに利用できる。具体的には、自車の現在位置から、その先の案内ルートに沿った地図情報(交差点のレーン情報なども含む)や、案内ルート情報(曲がる交差点がどこであるか)、ライブ情報(道路の渋滞情報、他の利用者が投稿した情報など)を、使用者に地図上で提示する。メニューを操作し、使用者が情報を選択すると、その情報を詳細表示したりすることができる。
前述の周辺施設検索の場合と同様に、地図上に、案内ルートに沿って、その地点に関連付けられた様々な種類の情報が存在しているものとする。この例では、地図上で、第1属性の入力として、情報を見たい地点を選択し、次に第2属性の入力として、その地点周辺の情報の中から1つを選択する、という操作を考える。たとえば、地図を見ながら「数キロ先に渋滞があり、その手前にコンビニが何軒かある」ことを知り、次に、立ち寄るコンビニを選ぶために、店の詳しい情報を見る、といった状況である。
図5を参照して、案内ルート情報表示の動作を説明する。図5は、左側に使用者による操作イメージを示し、右側に表示装置24の画面イメージを示している。
具体的な操作としては、図5に示すように、使用者はまず地図をスクロールさせ、地図上に簡易表示される情報を見ながら、詳しい情報を知りたい地点を選択し、次に、その地点周辺の情報を選択する、という形になる。
本例では、操作領域1(ハンドル12)と操作領域2(ダッシュボード11)を使用する。また、第1属性の入力として、地図上の情報を見たい地点を選択する選択操作は「操作領域1を指2本で左右にこするジェスチャ」とし、選択した地点を決定する決定操作は「操作領域1に触れている指を離し、操作領域2を指2本で触るジェスチャ」とする。また、第2属性の入力として、選択した地点周辺の情報を選択する選択操作は「操作領域2で指2本を左右にこするジェスチャ」とし、選択した情報を決定する決定操作は「操作領域2を指1本で触るジェスチャ」とする。
図5に示すように、通常時は、表示装置24は、地図上にルートが描かれた道案内画像を表示している。案内ルート情報表示を起動する操作を検出すると、ナビゲーション装置は、第1属性の選択操作として地点の選択状態に移行する。
第1属性の選択操作の受け付け状態では、ナビゲーション装置は、表示装置24の画面上で案内ルートに沿って地図を1次元的にスクロール表示する。地図をスクロールさせて地点を選択する操作として、使用者が操作領域1を指2本で左にこすると、画面に表示された地図が案内ルートに沿って進行方向(目的地の方向)にスクロールする。この場合、あたかも自車が先に進むように地図の向きを変えながらスクロールしてもよいし、現在位置との位置関係が分かりやすいように地図の向きを変えずにスクロールしてもよい。また、使用者が操作領域1を指2本で右にこすれば、地図は後方(自車がこれまで走行してきた方向)にスクロールする。さらに、使用者が操作領域1に触れている2本指の間隔を広げると地図を詳細表示とし、2本指の間隔を狭くすると、地図を広域表示としてもよい。また、指を広げている時と、狭めている時で、指の移動に対してスクロール幅を変えるようにしてもよい。
地点の選択操作の受け付け時に、使用者が操作領域1から手を離すと、ナビゲーション装置は案内ルート情報表示メニューを終了して道案内サービスの通常画面に戻る。ただし、上記の「周辺施設検索」とは異なり、2本指を操作領域1から離しても、すぐには通常表示に戻らず、第1属性の決定操作を検出するか、操作領域1から一定時間以上指を離した状態が継続したことを検出するまで、第1属性の決定操作を継続して受け付ける。
次に、地点を決定する操作として「操作領域1に触れている指を離し、操作領域2を指2本で触るジェスチャ」を検出すると、ナビゲーション装置は、そのときに表示している地点(画面中央)を選択し、第2属性の入力に移行する。
第2属性の入力状態では、表示装置24の画面には、先に選択した地点周辺の情報が複数の情報アイコンとして表示されている。カーソル31と重なっている情報アイコンが選択中となっている。情報を選択する選択操作として、使用者が「操作領域2で指2本を左右にこする」ジェスチャを行うと、ナビゲーション装置は、複数の情報アイコンを左右に移動させる。次に、情報を決定する決定操作として、使用者が「操作領域2を指1本で触る」ジェスチャを行うと、ナビゲーション装置は、使用者に提示する情報をそのときに選択中となっている情報に決定する。こうして、第1属性として地点が選択、決定され、第2属性としてその地点周辺の情報が選択、決定される。
こうして、1つの情報が決定されると、ナビゲーション装置は、その情報に対してアクションを起こす。アクションは、情報の種類によって決められている。情報の種類としては、たとえば店舗や施設の情報、曲がる交差点や渋滞情報など道路に関する情報、他のユーザによってサーバに登録された、その地点の写真、などがある。ここでは、店舗や施設の情報が選択、決定されれば、そこが立ち寄り地に設定される。また、道路情報が選択、決定されればそれが詳細表示され、写真が選択、決定されれば、その写真が表示される。こうして、案内ルート情報表示は終了する。
(地図上からの選択)
これは、2次元的に表示された地図の上から、任意の地点・あるいは地図上に配置されたアイテムを選択可能とするサービスである。ここでは、表示装置24の画面に表示された地図をxyの平面として考え、第1属性をy値、第2属性をx値とする。使用者の操作は、まず、第1属性の入力として地図上でy軸上の位置を選択し、次に第2属性の入力として地図上でx軸上の位置を選択する。
本例では、第1属性の選択操作としてy値を選択する操作を「操作領域1を指2本で左側にこするジェスチャ」とし、第1属性の決定操作を「操作領域1に触れている2本指を右側に動かすジェスチャ」とする。また、第2属性の選択操作としてx値を選択する操作を「操作領域1を指2本で右側にこするジェスチャ」とし、第2属性の決定操作を「操作領域1を指1本で触れるジェスチャ」とする。
図6を参照して、地図上からの選択の動作を説明する。図6は、左側に使用者による操作イメージを示し、右側に表示装置24の画面イメージを示している。
まず、第1属性を選択し、第1属性を決定したら第2属性の選択に移行し、第2属性を決定することにより1つの地点を決定するという流れは、上記の例と同様である。
通常時は、ナビゲーション装置は、表示装置24の画面において、地図上にルートが描かれた案内ルートを表示している。地図上からの選択サービスを起動する操作を検出すると、ナビゲーション装置は第1属性(y値)の入力受け付け状態に移行する。
第1属性の選択操作として、「操作領域1を指2本で左側にこするジェスチャ」が検出されると、ナビゲーション装置は、y値を画面下方向に変動させる。画面には、現在選択中のy値を表す横長のカーソル32が表示されていて、ずらす操作に応じてカーソルが下に移動する。利用者が操作領域1に触れている2本指の間隔を広げると、地図を広域表示とし、2本指の間隔を狭くすると、地図を詳細表示としてもよい。また、指の間隔を広げた時と狭めた時で、指の移動に対するスクロール幅を変えてもよい。
第1属性を決定する操作として、「操作領域1に触れている2本指を右側に動かすジェスチャ」を検出すると、ナビゲーション装置は、y値をそのときにカーソルが表示されているy値に決定し、第2属性の入力に移行する。
第2属性を入力する状態では、画面には、先に選択したy値に相当する位置にカーソル32が表示されている。使用者は、そのカーソル32上で小さなカーソル33を移動させてx値を設定する。具体的には、使用者は、第2属性の選択操作として「操作領域1を指2本で右側にこするジェスチャ」を行う。これを検出すると、ナビゲーション装置は、x値を画面右方向に変動させる。そして、第2属性の決定操作として、「操作領域1を指1本で触れるジェスチャ」が検出されると、ナビゲーション装置は、最終的にカーソル33の地点を選択する。
なお、上記、y値、x値の2つの属性値を順次入力する前に、地図をスクロールさせるステップを入れてもよい。つまり、第1属性として「地図の表示位置(案内ルート上の1次元)」を選択決定し、第2属性として「選んだ表示位置の中でのy値」を選択、決定し、第3属性として「x値」を選択、決定してもよい。
この場合の動作は次のようになる。図7に示すように、通常の道案内サービスの画面表示の状態から、たとえば使用者が操作領域1を指2本で触ると地図上からの選択サービスが起動し、指2本を左に動かすことにより、地図が現在位置を中心とした状態から、案内ルートに沿って前方(目的地方向)にスクロールしていく。ルートの向きによって地図を回転させたり、指の幅を広げたりすることにより縮尺が変更できたりすることは、上記の例と同様である。
次に、第2属性に移行する操作により、第2属性(選んだ表示位置の中でのy値)の選択に移行する。その操作は、「操作領域1で指2本を右に動かす」というものである。以降、指2本を右に動かす操作でy値を決定し、指2本を左に動かす操作で、第3属性であるx値を決定する。もちろん、左右の動作が逆であってもかまわない。
なお、これらの例では、第1属性の入力から第2属性の入力への移行、及び、第2属性の入力から第3属性の入力への移行のスムーズさを重視して、ある属性の選択操作は一方向にしかできず、逆方向に動いたら次の属性の選択操作に移行するという構成にしている。しかし、各属性をじっくり選ぶことを重視する場合は、先の例のように、別な操作領域を利用することによって操作する属性を移行させるようにしてもよい。あるいは、操作領域1に触れる指の本数を変える等のジェスチャを検出した場合に、次の属性の入力に移行するようにしてもよい。
なお、2次元の地図上からx値・y値を選択するときのカーソルの動きは、連続的なものに限らず、たとえば、地図上に配置されたアイコンに合わせて、離散的に動くようにしてもよい。
[操作入力処理]
次に、本実施例による操作入力処理について説明する。図8は、操作入力処理のフローチャートである。なお、この処理は、コンピュータを備えるナビゲーション装置が、予め用意されたプログラムを実行し、図1に示す操作検出部20、操作判定部22、サービス部26などとして機能することにより実現される。なお、この処理は、前述の周辺施設検索サービス、案内ルート情報表示サービス及び地図上からの選択サービスなどにおける処理を一般化したものである。
まず、ナビゲーション装置は、道案内サービスを実行する(ステップS10)。即ち、ナビゲーション装置は、使用者が設定した目的地までの案内ルートを算出し、表示装置24に表示された地図上に案内ルートを示すなどして、道案内を行う。
次に、ナビゲーション装置は、使用者によりメニュー起動の操作が行われたか否かを判定する(ステップS11)。なお、各メニュー起動の操作は予め決定されており、使用者の指、手などの操作物の状態変化に対応付けられている。ナビゲーション装置は、操作領域における操作物の状態の変化を検出し、検出された操作物の状態の変化が、予め決定されたメニュー起動の操作であるか否かを判定する。メニュー起動の操作が検出された場合(ステップS11;Yes)、ナビゲーション装置はそのメニューを起動する(ステップS12)。この際、ナビゲーション装置は、属性のカウンタ「n」を1にセットする。
次に、ナビゲーション装置は第n属性の選択操作を受け付け(ステップS13)、メニュー操作の終了条件が具備されたか否かを判定する(ステップS14)。メニュー操作の終了条件とは、例えば、第1及び第2の属性が決定されたこと、などであり、サービスの内容に応じて予め決定されている。
メニュー操作の終了条件が具備された場合(ステップS14;Yes)、処理はステップS20へ進む。一方、メニュー操作の終了条件が具備されていない場合(ステップS14;No)、ナビゲーション装置は第n属性の決定操作が検出されたか否かを判定する(ステップS15)。第n属性の決定操作が検出されない場合(ステップS15;No)、処理はステップS13へ戻る。一方、第n属性の決定操作が検出された場合(ステップS15;Yes)、ナビゲーション装置は第n属性を決定し(ステップS16)、必要な全ての属性が決定されたか否かを判定する(ステップS17)。
全ての属性が決定されていない場合(ステップS17;No)、ナビゲーション装置は属性のカウンタ「n」を1増加し(ステップS18)、ステップS13へ戻る。こうして、対象となっているサービスに必要な全ての属性が決定されるまで、第n属性の選択操作及び決定操作が繰り返される。
一方、全ての属性が決定された場合(ステップS17;Yes)、ナビゲーション装置のサービス部26は対応するサービスを実行する(ステップS19)。そのサービスが終了すると、ナビゲーション装置は、道案内サービスの通常動作状態に復帰し(ステップS20)、処理は終了する。
[実施例の特徴]
上記のように、本実施例では、複数の属性をもつ対象からの選択を行うにあたり、1次元的な選択操作と決定操作により、第1属性の入力、第2属性の入力、...と連続的に操作を行う。具体的には、選択操作の入力方向を逆にすることや、複数の操作領域の間を移動すること、操作物である手の形状を変えること、などを決定操作とし、入力属性の間を移行することとした。
これにより、第n属性の入力から第(n+1)属性の入力への移行は、指を動かす方向や操作領域の使い分けなどにより、簡単に行うことが可能である。また、操作の開始、終了、中断などは、操作領域に手を入れる、操作領域から手を外すなどにより簡単にできるようにしている。さらに、「手順を戻る」操作を排除している。これらにより、インターフェース全体が簡素なものとなっている。
また、操作の入力にはジェスチャを用い、ジェスチャは実物体を基準に設定した操作領域に基づいて検出されることとした。即ち、複数の属性をもつ対象からの選択を行うための選択操作及び決定操作はいずれも1次元的なジェスチャ操作とされる。これにより、使用者は、空中で操作する必要がなく操作を安定して行うことができる、目標とするものがあることから位置入力をしやすい、操作領域のスケールの自由度が高いため広い範囲を設定することができ、こまごまとした操作を行う必要がない、などの利点がある。
[変形例]
上記の実施例において、表示装置24の設置位置は特に制限しないが、操作領域との間で位置あわせを行ってもよい。たとえば、HUDのコンバイナ(HUDではなく、通常の液晶ディスプレイを使うならディスプレイそのもの)と、カメラとの位置関係を予め取得しておく。即ち、カメラに映る範囲に表示装置24を設置し、カメラの画像内における表示装置24の位置を検出しておく。こうすれば、たとえば、使用者が操作領域内の特定の位置を指差すようなジェスチャをした場合に、表示装置の表示領域中のどの部分を指差しているかを決定することができる。よって、使用者は表示装置に表示物を直接又は間接に指差したりする操作が可能となる。
産業上の利用分野
本発明は、ナビゲーション装置、スマートフォン、カーAV機器、カーエアコン、ドアロック装置、その他の車載装置など、移動体に搭載される装置の操作入力に利用することができる。
10 カメラ
11 ダッシュボード
12 ハンドル(ステアリング)
16 レバー
20 操作検出部
22 操作判定部
24 表示装置
26 サービス部

Claims (12)

  1. 移動体に搭載される装置に対して操作入力を行う操作入力装置であって、
    前記移動体の運転席付近を撮影するカメラと、
    前記カメラにより撮影された撮影画像から、操作物の状態を検出する検出手段と、
    予め決定されたルールに従い、前記操作物の状態の変化に基づいて、使用者が意図する操作を判定する操作判定手段と、
    決定された操作に基づいて、前記移動体に搭載される装置を動作させる装置制御手段と、を備えることを特徴とする操作入力装置。
  2. 前記操作物の状態は、前記操作物の形状、姿勢、位置、動きのうちの少なくとも1つを含むことを特徴とする請求項1に記載の操作入力装置。
  3. 前記検出手段は、前記撮影画像に含まれる実体物に基づいて予め決定された操作領域に対する前記操作物の状態を検出し、
    前記操作判定手段は、前記操作領域における前記操作物の状態の変化に基づいて、前記使用者が意図する操作を判定することを特徴とする請求項1又は2に記載の操作入力装置。
  4. 前記移動体は車両であり、前記実体物は当該車両のダッシュボード、ステアリング、レバーのうちの少なくとも1つを含むことを特徴とする請求項3に記載の操作入力装置。
  5. 前記装置制御手段は、入力された複数の属性に基づいて前記移動体に搭載される装置を動作させ、
    前記操作判定手段は、各属性について、当該属性を選択する選択操作と、前記選択操作により選択された属性を決定する決定操作とを判定することを特徴とする請求項1乃至4のいずれか一項に記載の操作入力装置。
  6. 前記選択操作及び前記決定操作は、1次元的なジェスチャ操作であることを特徴とする請求項5に記載の操作入力装置。
  7. 前記操作判定手段は、前記操作物による一方向への入力をある属性の選択操作と判定し、前記操作物による前記一方向とは逆方向への入力を当該属性の決定操作と判定することを特徴とする請求項5に記載の操作入力装置。
  8. 前記操作判定手段は、前記操作物によるある種類の操作を選択操作と判定し、前記ある種類の操作と異なる種類の操作への切り替えを決定操作と判定することを特徴とする請求項5に記載の操作入力装置。
  9. 前記実物体には特定の位置に目印が設けられており、前記実物体自体が動いている間は、前記操作判定手段は操作の判定を行わないことを特徴とする請求項1乃至8のいずれか一項に記載の操作入力装置。
  10. 移動体に搭載される装置に対して操作入力を行う操作入力装置によって実行される操作入力方法であって、
    前記移動体の運転席付近を撮影するカメラにより撮影された撮影画像から、操作物の状態を検出する検出工程と、
    予め決定されたルールに従い、前記操作物の状態の変化に基づいて、使用者が意図する操作を判定する操作判定工程と、
    決定された操作に基づいて、前記移動体に搭載される装置を動作させる装置制御工程と、を備えることを特徴とする操作入力方法。
  11. コンピュータを備え、移動体に搭載される装置に対して操作入力を行う操作入力装置により実行される操作入力プログラムであって、
    前記移動体の運転席付近を撮影するカメラにより撮影された撮影画像から、操作物の状態を検出する検出手段と、
    予め決定されたルールに従い、前記操作物の状態の変化に基づいて、使用者が意図する操作を判定する操作判定手段と、
    決定された操作に基づいて、前記移動体に搭載される装置を動作させる装置制御手段、として前記コンピュータを機能させることを特徴とする操作入力プログラム。
  12. 請求項11に記載の操作入力プログラムを記憶した記憶媒体。
JP2012086075A 2012-04-05 2012-04-05 操作入力装置、操作入力方法、及び、操作入力プログラム Pending JP2013218391A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012086075A JP2013218391A (ja) 2012-04-05 2012-04-05 操作入力装置、操作入力方法、及び、操作入力プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012086075A JP2013218391A (ja) 2012-04-05 2012-04-05 操作入力装置、操作入力方法、及び、操作入力プログラム

Publications (1)

Publication Number Publication Date
JP2013218391A true JP2013218391A (ja) 2013-10-24

Family

ID=49590444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012086075A Pending JP2013218391A (ja) 2012-04-05 2012-04-05 操作入力装置、操作入力方法、及び、操作入力プログラム

Country Status (1)

Country Link
JP (1) JP2013218391A (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014126879A (ja) * 2012-12-25 2014-07-07 Alpine Electronics Inc ジェスチャ認識装置
JP2016052861A (ja) * 2014-09-04 2016-04-14 三菱自動車工業株式会社 車載機器操作装置
JP2016088281A (ja) * 2014-11-05 2016-05-23 三菱自動車工業株式会社 操作入力装置
JP2016088513A (ja) * 2014-11-07 2016-05-23 ビステオン グローバル テクノロジーズ インコーポレイテッド 自動車における情報伝送のためのシステム
JP2016155407A (ja) * 2015-02-23 2016-09-01 株式会社東海理化電機製作所 ジェスチャ判定装置
JP2016157171A (ja) * 2015-02-23 2016-09-01 株式会社東海理化電機製作所 ジェスチャ判定装置
US9448641B2 (en) 2014-05-21 2016-09-20 Denso Corporation Gesture input apparatus
WO2016203715A1 (ja) * 2015-06-17 2016-12-22 株式会社デンソー 車両用情報処理装置、車両用情報処理システム、および車両用情報処理プログラム
US9939912B2 (en) 2014-03-05 2018-04-10 Denso Corporation Detection device and gesture input device
CN108693981A (zh) * 2017-03-30 2018-10-23 株式会社斯巴鲁 车辆用输入装置
CN108698625A (zh) * 2016-02-18 2018-10-23 法国大陆汽车公司 驾驶方向盘的位置的光学检测
JP2018167822A (ja) * 2017-03-30 2018-11-01 株式会社Subaru 車両用入力装置
JP6439953B1 (ja) * 2018-03-11 2018-12-19 求 藤川 判定装置、判定装置の制御方法
US10180729B2 (en) 2014-10-06 2019-01-15 Hyundai Motor Company Human machine interface apparatus for vehicle and methods of controlling the same
KR20190113917A (ko) * 2017-02-27 2019-10-08 후아웨이 테크놀러지 컴퍼니 리미티드 차량탑재 시스템을 제어하기 위한 방법 및 장치
KR20200016355A (ko) 2017-06-14 2020-02-14 유하미카쿠토 가부시키가이샤 포도 같은 식감을 가지는 과자
CN110997390A (zh) * 2017-06-21 2020-04-10 Smr专利有限公司 用于运行机动车的显示装置的方法以及机动车
US20200180435A1 (en) * 2018-12-10 2020-06-11 Volkswagen Ag Method for providing a user interface and user interface of a transportation vehicle
US20220171465A1 (en) * 2020-12-02 2022-06-02 Wenshu LUO Methods and devices for hand-on-wheel gesture interaction for controls

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014126879A (ja) * 2012-12-25 2014-07-07 Alpine Electronics Inc ジェスチャ認識装置
US9939912B2 (en) 2014-03-05 2018-04-10 Denso Corporation Detection device and gesture input device
US9448641B2 (en) 2014-05-21 2016-09-20 Denso Corporation Gesture input apparatus
JP2016052861A (ja) * 2014-09-04 2016-04-14 三菱自動車工業株式会社 車載機器操作装置
US10180729B2 (en) 2014-10-06 2019-01-15 Hyundai Motor Company Human machine interface apparatus for vehicle and methods of controlling the same
JP2016088281A (ja) * 2014-11-05 2016-05-23 三菱自動車工業株式会社 操作入力装置
JP2016088513A (ja) * 2014-11-07 2016-05-23 ビステオン グローバル テクノロジーズ インコーポレイテッド 自動車における情報伝送のためのシステム
JP2016155407A (ja) * 2015-02-23 2016-09-01 株式会社東海理化電機製作所 ジェスチャ判定装置
JP2016157171A (ja) * 2015-02-23 2016-09-01 株式会社東海理化電機製作所 ジェスチャ判定装置
WO2016203715A1 (ja) * 2015-06-17 2016-12-22 株式会社デンソー 車両用情報処理装置、車両用情報処理システム、および車両用情報処理プログラム
JP2017007409A (ja) * 2015-06-17 2017-01-12 株式会社日本自動車部品総合研究所 車両用情報処理装置、車両用情報処理システム、および車両用情報処理プログラム
US10647352B2 (en) * 2016-02-18 2020-05-12 Continental Automotive France Optical detection of the position of the steering wheel
CN108698625A (zh) * 2016-02-18 2018-10-23 法国大陆汽车公司 驾驶方向盘的位置的光学检测
US20190054954A1 (en) * 2016-02-18 2019-02-21 Continental Automotive France Optical detection of the position of the steering wheel
KR20190113917A (ko) * 2017-02-27 2019-10-08 후아웨이 테크놀러지 컴퍼니 리미티드 차량탑재 시스템을 제어하기 위한 방법 및 장치
US10884510B2 (en) 2017-02-27 2021-01-05 Huawei Technologies Co., Ltd. Method and apparatus for controlling onboard system
US11847265B2 (en) 2017-02-27 2023-12-19 Huawei Technologies Co., Ltd. Method and apparatus for controlling onboard system
EP3570140A4 (en) * 2017-02-27 2020-01-01 Huawei Technologies Co., Ltd. CONTROL METHOD AND DEVICE FOR A VEHICLE MOUNTED SYSTEM
US11275449B2 (en) 2017-02-27 2022-03-15 Huawei Technoloies Co., Ltd. Method and apparatus for controlling onboard system
JP2020509489A (ja) * 2017-02-27 2020-03-26 華為技術有限公司Huawei Technologies Co.,Ltd. 機載システムを制御する方法及び装置
KR102288115B1 (ko) * 2017-02-27 2021-08-11 후아웨이 테크놀러지 컴퍼니 리미티드 차량탑재 시스템을 제어하기 위한 방법 및 장치
CN108693981A (zh) * 2017-03-30 2018-10-23 株式会社斯巴鲁 车辆用输入装置
JP7043240B2 (ja) 2017-03-30 2022-03-29 株式会社Subaru 車両用入力装置
CN108693981B (zh) * 2017-03-30 2023-09-12 株式会社斯巴鲁 车辆用输入装置
JP2018167822A (ja) * 2017-03-30 2018-11-01 株式会社Subaru 車両用入力装置
KR20200016355A (ko) 2017-06-14 2020-02-14 유하미카쿠토 가부시키가이샤 포도 같은 식감을 가지는 과자
US11582984B2 (en) 2017-06-14 2023-02-21 Uha Mikakuto Co., Ltd. Confectionery having grape-like mouthfeel
CN110997390A (zh) * 2017-06-21 2020-04-10 Smr专利有限公司 用于运行机动车的显示装置的方法以及机动车
JP6439953B1 (ja) * 2018-03-11 2018-12-19 求 藤川 判定装置、判定装置の制御方法
US20200180435A1 (en) * 2018-12-10 2020-06-11 Volkswagen Ag Method for providing a user interface and user interface of a transportation vehicle
US11827095B2 (en) * 2018-12-10 2023-11-28 Volkswagen Ag Method for providing a user interface and user interface of a transportation vehicle
US20220171465A1 (en) * 2020-12-02 2022-06-02 Wenshu LUO Methods and devices for hand-on-wheel gesture interaction for controls
US11507194B2 (en) * 2020-12-02 2022-11-22 Huawei Technologies Co., Ltd. Methods and devices for hand-on-wheel gesture interaction for controls

Similar Documents

Publication Publication Date Title
JP2013218391A (ja) 操作入力装置、操作入力方法、及び、操作入力プログラム
US8284168B2 (en) User interface device
US10654489B2 (en) Vehicular human machine interfaces
JP5777745B2 (ja) 表示入力装置及びナビゲーションシステム
US9910506B2 (en) Method for interacting with an object displayed on data eyeglasses
US9251722B2 (en) Map information display device, map information display method and program
US20150066360A1 (en) Dashboard display navigation
US20150066356A1 (en) Navigation search area refinement
US9802484B2 (en) Method and display device for transitioning display information
JP2008180786A (ja) ナビゲーションシステムおよびナビゲーション装置
JP6221265B2 (ja) タッチパネル操作装置及びタッチパネル操作装置における操作イベント判定方法
Lauber et al. What you see is what you touch: Visualizing touch screen interaction in the head-up display
JP2018195134A (ja) 車載用情報処理システム
CN107408356B (zh) 地图显示控制装置及地图的自动滚动方法
US8731824B1 (en) Navigation control for a touch screen user interface
WO2015083267A1 (ja) 表示制御装置及び表示制御方法
JP2010204781A (ja) 入力装置
CN107408355B (zh) 地图显示控制装置及地图滚动的操作触感控制方法
JP2017197015A (ja) 車載用情報処理システム
WO2017188098A1 (ja) 車載用情報処理システム
JP2018128968A (ja) 車両用入力装置、及び、車両用入力装置の制御方法
US20150345982A1 (en) Method for moving image contents displayed on a display device of a vehicle, operator control and display device for a vehicle and computer program product
JP2018010584A (ja) 操作支援装置及びコンピュータプログラム
KR20140119439A (ko) 터치 스크린을 이용한 지도 표시 장치 및 그 제공방법
JP5870689B2 (ja) 操作入力システム