JP2011133942A - ユーザインターフェイス装置及びコンピュータプログラム - Google Patents

ユーザインターフェイス装置及びコンピュータプログラム Download PDF

Info

Publication number
JP2011133942A
JP2011133942A JP2009290197A JP2009290197A JP2011133942A JP 2011133942 A JP2011133942 A JP 2011133942A JP 2009290197 A JP2009290197 A JP 2009290197A JP 2009290197 A JP2009290197 A JP 2009290197A JP 2011133942 A JP2011133942 A JP 2011133942A
Authority
JP
Japan
Prior art keywords
display
image
menu
user
fingertip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009290197A
Other languages
English (en)
Other versions
JP5413593B2 (ja
Inventor
Makoto Kurahashi
誠 倉橋
Yoichi Sato
洋一 佐藤
Takahiro Okabe
孝弘 岡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, Pioneer Electronic Corp filed Critical University of Tokyo NUC
Priority to JP2009290197A priority Critical patent/JP5413593B2/ja
Publication of JP2011133942A publication Critical patent/JP2011133942A/ja
Application granted granted Critical
Publication of JP5413593B2 publication Critical patent/JP5413593B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの状況に応じた適切な動作を行うことができるユーザインターフェイス装置を提供する。
【解決手段】ユーザインターフェイス装置(1)は、ディスプレイ(110)に表示される表示画像を出力可能な画像出力手段(138)と、ディスプレイの周辺の周辺画像を撮像する撮像手段(121、122)と、撮像された周辺画像に基づいて、ユーザの指の状態を解析する解析手段(132)と、解析された指の状態に基づいて、ユーザの操作意図を推測する推測手段(134)と、ユーザの指先がディスプレイの表面に触れる前に、推測された操作意図に応じて、表示画像を変更するように画像出力手段を制御する制御手段(134、136、137)とを備える。
【選択図】図9

Description

本発明は、ユーザインターフェイス装置及びコンピュータプログラムに関し、特に、ユーザの指先がタッチパネルに触れていなくても、指先の動きに応じて該タッチパネル上に表示される画面を変更するユーザインターフェイス装置及びコンピュータプログラムの技術分野に関する。
この種の装置として、例えば、タッチパネルに指が接近した際に、発光ダイオードとフォトダイオードとによって、指がタッチパネルに触れる前に、該タッチパネルに対する指の位置を検出し、該検出された位置に対応する表示パネル上の表示項目に関する情報を、音声又は表示によって提供する装置が提案されている(特許文献1参照)。
或いは、アクションが定義された表示オブジェクトを含む動画の再生中に、表示オブジェクトの選択操作の発生を、カーソルの移動操作の開始やタッチパネルへの手の接近より予測して、再生状態を一時停止又はスロー再生に切り替える装置が提案されている(特許文献2参照)。
或いは、カメラが撮影した画像に基づいて、指先のディスプレイに対する3次元座標を算出し、該算出された3次元座標をディスプレイ画面上の2次元座標と対応付け、該対応付けられたディスプレイ画面上の2次元座標と、指先及びディスプレイ画面間の距離とに応じて、現在表示している画像の下位階層の画像をディスプレイ画面上に表示する装置が提案されている(特許文献3参照)。
特開2005−122450号公報 特開2008−250654号公報 特開2008−210348号公報
しかしながら、上述の背景技術によれば、例えばタッチパネルに対する指の速度や経路等は考慮されていない。すると、例えばユーザがタッチパネル上に表示された項目の選択を迷っている場合に、ユーザが意図しない項目が選択されてしまう可能性があるという技術的問題点がある。
本発明は、例えば上記問題点に鑑みてなされたものであり、ユーザの状況に応じた適切な動作を行うことができるユーザインターフェイス装置及びコンピュータプログラムを提供することを課題とする。
本発明のユーザインターフェイス装置は、上記課題を解決するために、ディスプレイに表示される表示画像を出力可能な画像出力手段と、前記ディスプレイの周辺の周辺画像を撮像する撮像手段と、前記撮像された周辺画像に基づいて、ユーザの指の状態を解析する解析手段と、前記解析された指の状態に基づいて、前記ユーザの操作意図を推測する推測手段と、前記ユーザの指先が前記ディスプレイの表面に触れる前に、前記推測された操作意図に応じて、前記表示画像を変更するように前記画像出力手段を制御する制御手段とを備える。
本発明のユーザインターフェイス装置によれば、例えばメモリ、プロセッサ等を備えてなる画像出力手段は、例えば液晶モニタ等のディスプレイに表示される表示画像を出力可能である。表示画像は、例えば、複数の選択肢を有するメニュー画像、地図画像等である。尚、ディスプレイとして、公知のタッチパネルを用いてもよい。
例えば一又は複数のカメラを備えてなる撮像手段は、ディスプレイの周辺の周辺画像を撮像する。カメラは、光学カメラに限らず、例えば赤外線カメラや距離画像カメラ等であってよい。
尚、撮像手段が撮像する範囲は、実験的若しくは経験的に、又はシミュレーションによって、例えば、ディスプレイ上に表示された表示画面に対し何らかの操作を行うユーザが指を動かす範囲を求め、該求められた範囲を包含するような範囲として設定すればよい。
例えばメモリ、プロセッサ等を備えてなる解析手段は、撮像された周辺画像に基づいて、ユーザの指の状態を解析する。ここで、「指の状態」は、例えば指先の3次元座標や、指先とディスプレイとの間の距離等の位置情報に限らず、例えば指の本数や、ディスプレイに対する指の角度等の形状情報も意味してよい。
例えばメモリ、プロセッサ等を備えてなる推測手段は、解析された指の状態に基づいて、ユーザの操作意図を推測する。具体的には例えば、推測手段は、一時点における指先の3次元座標に基づいて、或いは、時間的に連続する複数の時点の各々における指先の3次元座標から指先の継時的な変化を求め、該求められた継時的な変化に基づいて、ユーザの操作意図を推測する。
より具体的には例えば、ディスプレイ上にメニュー画像が表示されている際に、指先の3次元座標と対応するディスプレイ上の2次元座標(即ち、指先の位置をディスプレイ上に投影した場合のディスプレイ上における位置)がほとんど変化せずに、指先とディスプレイとの間の距離が短くなっている場合、推測手段は、ユーザの操作意図を「選択」と推測する。或いは、指先の3次元座標が所定期間ほとんど変化しない場合、推測手段は、ユーザの操作意図を「思案中」と推測する。
例えばメモリ、プロセッサ等を備えてなる制御手段は、ユーザの指先がディスプレイの表面に触れる前に、推測された操作意図に応じて、表示画像を変更するように画像出力手段を制御する。具体的には例えば、「選択」と推定された場合、制御手段は、ディスプレイ上における指先の2次元座標に対応する選択肢に関連する画像に変更するように、又はディスプレイ上における指先の2次元座標に対応する選択肢の下位の選択肢を展開するように、画像出力手段を制御する。或いは、「思案中」と推定された場合、制御手段は、ヘルプ画面に変更するように、又は比較的簡易なメニュー画像に変更するように、画像出力手段を制御する。
以上の結果、本発明のユーザインターフェイス装置によれば、ユーザの状況に応じた適切な動作を行うことができる。特に、推定手段が、ユーザの指先の継時的な変化に基づいて、ユーザの操作意図を推定可能であるので、例えば「画面のスクロール」等の選択以外の操作を、指の状態に対応付けることができ、ユーザの負担を軽減することができる。
本発明のユーザインターフェイス装置の一態様では、前記推測手段は、前記解析された指の状態に基づいて、前記指の状態の継時的な変化を取得する継時変化取得手段を有する。
この態様によれば、例えばメモリ、プロセッサ等を備えてなる継時変化取得手段は、解析された指の状態に基づいて、指の状態の継時的な変化を取得する。これにより、比較的容易にして、ユーザの操作意図を推測することができ、実用上非常に有利である。尚、「指の状態の継時的な変化」は、指先の位置や指の形状の継時的な変化に限らず、例えば指先の移動速度等も意味してよい。
推測手段が継時変化取得手段を有する態様では、複数の階層を有するメニューデータである階層メニューデータが予め格納されている記憶手段を更に備え、前記表示画像は、前記階層メニューデータに含まれる一の階層のメニューデータに対応するメニュー画像であり、前記推測手段は、前記取得された継時的な変化が前記指先及び前記ディスプレイ間の距離の縮小であることを条件に、前記操作意図を「下位階層のメニュー画像の表示」であると推測し、前記取得された継時的な変化が前記距離の拡大であることを条件に、前記操作意図を「上位階層のメニュー画像の表示」であると推測してよい。
このように構成すれば、ユーザの指先がディスプレイの表面に触れる前に、複数回表示画面を変更することができる。この結果、ユーザの操作負担を軽減することができると共に、操作効率を向上させることができる。
推測手段が継時変化取得手段を有する態様では、前記推定手段は、前記取得された継時的な変化が前記指先の滞留であることを条件に、前記操作意思を「思案中」であると推測してよい。
このように構成すれば、例えばユーザに操作を促すような何らかの処理を実行することができ、実用上非常に有利である。尚「滞留」であるか否かは、例えば、ユーザの指先が所定の範囲内に留まっており、且つ指先の移動速度が所定値より小さいか否かを判定することによって、判定すればよい。
この態様では、前記制御手段は、前記推測手段により前記操作意思が「思案中」であると推測された場合、前記表示画像を、前記表示画像に係るヘルプ画像に変更するように前記画像出力手段を制御してよい。
このように構成すれば、ユーザが比較的容易にして当該ユーザインターフェイス装置を操作することができ、実用上非常に有利である。
本発明のユーザインターフェイス装置の他の態様では、前記解析手段は、前記指先の3次元座標を算出する3次元座標算出手段と、前記算出された3次元座標を、前記算出された3次元座標と対応する前記ディスプレイ上の2次元座標と、前記指先及び前記ディスプレイ間の距離とに変換する変換手段とを有する。
この態様によれば、例えばメモリ、プロセッサ等を備えてなる3次元座標算出手段は、指先の3次元座標を算出する。例えばメモリ、プロセッサ等を備えてなる変換手段は、算出された3次元座標を、該算出された3次元座標と対応するディスプレイ上の2次元座標と、指先及びディスプレイ間の距離と、に変換する。このため、比較的容易にして、ユーザの指が指し示すディスプレイ上の位置を特定することができると共に、ユーザの指先及びディスプレイ間の距離を特定することができる。
本発明のコンピュータプログラムは、上記課題を解決するために、コンピュータを、ディスプレイに表示される表示画像を出力可能な画像出力手段と、前記ディスプレイの周辺の周辺画像を撮像する撮像手段と、前記撮像された周辺画像に基づいて、ユーザの指の状態を解析する解析手段と、前記解析された指の状態に基づいて、前記ユーザの操作意図を推測する推測手段と、前記ユーザの指先が前記ディスプレイの表面に触れる前に、前記推測された操作意図に応じて、前記表示画像を変更するように前記画像出力手段を制御する制御手段と、として機能させる。
本発明のコンピュータプログラムによれば、当該コンピュータプログラムを格納するCD−ROM(Compact Disc Read Only Memory)、DVD−ROM(DVD Read Only Memory)等の記録媒体から、当該コンピュータプログラムを、ユーザインターフェイス装置に備えられたコンピュータに読み込んで実行させれば、或いは、当該コンピュータプログラムを、通信手段を介してダウンロードさせた後に実行させれば、上述した本発明のユーザインターフェイス装置を比較的容易にして実現できる。これにより、上述した本発明のユーザインターフェイス装置の場合と同様に、ユーザの状況に応じた適切な動作を行うことができる。
本発明の作用及び他の利得は次に説明する実施するための形態から明らかにされる。
本発明の実施形態に係るユーザインターフェイス装置の構成を示すブロック図である。 本発明の実施形態に係るディスプレイ及びカメラの位置関係の一例を示す斜視図である。 本発明の実施形態に係るユーザインターフェイス装置を、ユーザが操作する様子を示す図である。 本発明の実施形態に係るカメラにより撮像された画像の一例である。 本発明の実施形態に係る画像解析処理を示すフローチャートである。 本発明の実施形態に係る階層メニューデータの概念を示す概念図である。 本発明の実施形態に係るディスプレイ上に表示される通常メニュー画像の一例である。 本発明の実施形態に係るディスプレイ上に表示されるクイックメニュー画像の一例である。 本発明の実施形態に係る画面出力処理を示すフローチャートである。 本発明の実施形態に係る推測処理を示すフローチャートである。 本発明の実施形態に係るメニュー状態遷移処理を示すフローチャートである。
以下、本発明に係るユーザインターフェイス装置の実施形態を、図1乃至図11に基づいて説明する。尚、本実施形態では、本発明に係るユーザインターフェイス装置の一例として、例えば自動車等の車両に搭載されるユーザインターフェイス装置を挙げる。
先ず、本実施形態に係るユーザインターフェイス装置の構成について、図1を参照して説明する。図1は、本実施形態に係るユーザインターフェイス装置の構成を示すブロック図である。
図1において、ユーザインターフェイス装置1は、ディスプレイ110、カメラ121及び122、並びにコンピュータ130を備えて構成されている。
ディスプレイ110は、タッチパネルを有している。該ディスプレイ110の画面の大きさは、例えば横15cm×縦10cmである。
カメラ121及び122は、ディスプレイ110の画面やディスプレイ110の周囲を撮影できるように設置されている。図2に示すように、カメラ121及び122は、ディスプレイ110の画面の下方に、カメラ121及び122各々のレンズが真上を向くように設置されている。また、ディスプレイ110の真正面から平面的に見た場合に、カメラ121及び122各々のレンズの中心を結ぶ線分の垂直二等分線が、ディスプレイ110の中心を通るように、カメラ121及び122が設置されている。尚、図2は、本実施形態に係るディスプレイ及びカメラの位置関係の一例を示す斜視図である。
カメラ121及び122は、例えばディスプレイ110の手前6cmの位置に設置されている。ディスプレイ110の真正面から平面的に見た場合に、カメラ121及び122各々のレンズと、ディスプレイ110の画面の下端との間の距離は、例えば10cmである。カメラ121及び122各々のレンズの中心を結ぶ線分の長さは、例えば5cmである。
カメラ121及び122各々の画角は、例えば水平方向が90度、垂直方向が60度である。このため、カメラ121及び122は、ディスプレイ110の手前の縦(x方向)10cm×横(y方向)15cm×奥行き(z方向)12cmの範囲を、少なくとも認識可能である。また、カメラ121及び122は、例えば640ピクセル×480ピクセルの画像を30fps(frame per second)で撮像可能である。
例えば図3に示すように、ユーザが指をディスプレイ110に接近させた場合、カメラ121は画像201(図4参照)を撮像し、カメラ122は画像202(図4参照)を撮像する。尚、図3は、本実施形態に係るユーザインターフェイス装置を、ユーザが操作する様子を示す図であり、図4は、本実施形態に係るカメラにより撮像された画像の一例である。
コンピュータ130は、カメラインターフェイス(I/F)131、画像解析部132、メニュー部133、推測部134、入力インターフェイス(I/F)135、制御部136、サービス部137、画面生成部138及び画面出力インターフェイス139を備えて構成されている。
カメラインターフェイス131は、コンピュータ130に、カメラ121及び122を接続するためのインターフェイスである。カメラインターフェイス131を介して、カメラ121及び122により撮像された画像がコンピュータ130に取り込まれる。
画像解析部132は、カメラインターフェイス131を介して取り込まれた画像を解析する。具体的には、画像解析部132は、取り込まれた画像に基づいて、ディスプレイ110に接近する、例えばユーザの指等の物体を検出し、該検出された物体のディスプレイ110に対する位置や、例えば指の立て方等の形状の特徴を算出する。
ここで、画像解析部132の動作について、図5のフローチャートを参照して説明を加える。
図5において、先ず、画像解析部132は、カメラ121により撮像された画像、及びカメラ122により撮像された画像に対し、ディスプレイ110に接近する物体の領域を前景として抽出する。続いて、画像解析部132は、前景とそれ以外の部分とを区分する二値の画像(以降、適宜“前景画像”と称する)を生成する(ステップS101)。尚、前景の抽出方法には、例えば、公知の背景差分による方法や肌色領域検出による方法を用いればよい。
次に、画像解析部132は、前景画像から、指先と推定される形状である特徴点を検出する(ステップS102)。尚、特徴点の検出方法には、例えば円形のテンプレートを予め用意しておき、前景画像において該テンプレートとの類似度が所定値以上である点を全て検出する方法を用いればよい。
次に、画像解析部132は、前景画像から検出した各特徴点の、ディスプレイ110に対する位置を求める(ステップS103)。具体的には、画像解析部132は、先ず、各特徴点の、カメラ121及び122に対する座標を、前景画像における各特徴点の座標と、カメラ121により撮像された画像、及びカメラ122により撮像された画像間における視差と、から3次元的に(即ち、3次元座標)を求める。尚、カメラ121及び122とディスプレイ110との配置は予めキャリブレーションされている。
続いて、画像解析部132は、求められたカメラ121及び122に対する特徴点の座標を、カメラ121及び122とディスプレイ110との配置のキャリブレーションの際に求められた変換行列を用いて、ディスプレイ110に対する座標に変換する(即ち、3次元座標の原点位置をディスプレイ110上の一点に変換する)。これにより、各特徴点の座標が、「ディスプレイ110上における位置(即ち、2次元座標)」と「ディスプレイ110と特徴点との間の距離」と、として表わされることとなる。
次に、画像解析部132は、検出された特徴点のうち、例えばディスプレイ110に最も近い特徴点を代表点として決定する(ステップS104)。ここで、決定された代表点の座標は、ディスプレイ110の画面の縦、横を夫々x軸、y軸とし、ディスプレイ110の画面に垂直な方向をz軸とした(図2参照)3次元座標で表わされる。
次に、画像解析部132は、前景画像から指の形状の特徴を求める形状解析処理を実行する(ステップS105)。該形状解析処理において求められる特徴は、例えばユーザが立てている指の本数や、ディスプレイ110に対する指の傾き等である。
この形状解析処理として、例えば次のような公知の方法を用いることができる。即ち、先ず、ディスプレイ110の周辺における指の見た目の太さに応じて予め決定された縮退及び/又は膨張を行う範囲内で、前景画像が縮退及び/又は膨張される。続いて、縮退及び/又は膨張された前景画像と、元の前景画像との差分画像を求め、該求められた差分画像における所定以上の大きさの塊が、指領域候補として検出される。続いて、指候補領域のうち、上記ステップS102の処理において検出された特徴点が含まれている指候補領域が指領域として検出され、該検出された指領域の個数が、ユーザが立てている指の本数として検出される。更に、各指領域のモーメントが計算され、指領域のディスプレイ110に対する角度が求められる。尚、ユーザが立てている指の本数が2本以上である場合、更に、各指の角度に基づいて、各指の間の角度が夫々求められる。
上述した処理の結果は、推測部134に送信される。
再び図1に戻り、メニュー部133は、図6に示すような複数の階層からなるメニューデータを保持している。図6は、本実施形態に係る階層メニューデータの概念を示す概念図である。尚、図6における符号311〜313、321〜323及び331〜338の各々は、一つのメニュー画像(即ち、メニュー表示状態)を示している。他方、図6における符号301は、メニュー非表示状態を示している。該メニュー非表示状態の場合、ディスプレイ110には、メニュー画像は表示されない。
また、メニュー部133は、複数の階層からなるメニューデータに加え、後述するクイックメニューデータ(図示せず)を保持している。クイックメニューデータと区別するため、複数の階層からなるメニューデータを、以下適宜「通常メニューデータ」と称する。
図6に示すように、通常メニューデータは、3層構造になっている。メニュー画像が階層間において実線で結ばれているものは、上位階層のメニュー画像に含まれるメニュー項目に、下位階層のメニュー画像が対応していることを示している。例えば、第2階層のメニュー画像321に含まれるメニュー項目3211〜3218の各々は、第3階層のメニュー画像331〜338に夫々対応している。
尚、同一階層のメニュー画像間では、2次元的な位置関係が定義されている。該位置関係は、上位階層のメニュー画像において、メニュー画像が対応付けられているメニュー項目が表示される位置関係と一致していることが望ましい。
ここで、通常メニューデータの具体例について説明する。
メニュー画像311が「カーナビの行き先決定メニュー」に係るメニュー画像であるとすると、メニュー画像311には、メニュー項目として、例えば「東京都」、「神奈川県」、「埼玉県」等が含まれる。
第2階層では、例えば、メニュー画像321が「東京都」に係るメニュー画像であり、メニュー画像322が「神奈川県」に係るメニュー画像であり、メニュー画像323が「埼玉県」に係るメニュー画像である。ここで、メニュー画像311において、「東京都」と「神奈川県」とが隣り合っている場合には、第2階層におけるメニュー画像間の位置関係も、メニュー画像321(即ち、「東京都」に係るメニュー画像)と、メニュー画像322(即ち、「神奈川県」に係るメニュー画像)とのように隣り合っている。
メニュー画像321には、メニュー項目として、例えば「千代田区」、「中央区」、「港区」等が含まれる。メニュー画像321に含まれる各メニュー項目3211〜3218に夫々対応する、第3階層におけるメニュー画像331〜338には、メニュー項目として、例えば各区に存在する具体的な施設(例えば、ガソリンスタンド、交番、コンビニエンスストア、レストラン等)が含まれる。
メニュー画像312が「再生する曲選択のメニュー」に係るメニュー画像であるとすると、メニュー画像312には、メニュー項目として、例えばアーティスト名が含まれる。一のアーティスト名に係るメニュー項目に対応する、第2階層におけるメニュー画像(図示せず)には、メニュー項目として、例えば該一のアーティスト名に対応するアルバム情報が含まれる。一のアルバム情報に係るメニュー項目に対応する、第3階層におけるメニュー画像(図示せず)には、メニュー項目として、例えば該一のアルバム情報に対応する楽曲が含まれる。
ディスプレイ110に表示される、通常メニューデータに係るメニュー画像は、例えば図7のようである。図7は、本実施形態に係るディスプレイ上に表示される通常メニュー画像の一例である。
図7に示すように、メニュー画像400には、複数のメニュー項目410と、メニュー項目を上下左右にスクロール可能であることを示す記号421〜424とが含まれている。一つのメニュー画像に一度に表示可能なメニュー項目数(ここでは8個)を超えたメニュー項目を含んでいる場合には、メニュー項目をスクロールすることによって、メニュー項目の表示を切り替えることができる。
各メニュー項目410は、上述の如く、例えば項目名(漢字、仮名、外国語表記)、ピクトグラム、説明文、その他の情報等の一又は複数の情報を含んでいる。その他の情報は、メニュー項目により異なっている。具体的には例えば、メニュー項目が「施設」であるとすると、その他の情報には、施設のカテゴリ、営業時間、連絡先、駐車場やトイレ等の設備の情報、客の評判等が含まれる。或いは、メニュー項目が「楽曲」であるとすると、その他の情報には、ジャンル、アーティスト名、演奏時間、発表年等が含まれる。
尚、メニュー画像400に表示されるカーソルの位置は、上述した画像解析部132により求められたユーザの指のディスプレイ110上における位置に対応している。
次に、ディスプレイ110に表示されるクイックメニューデータに係るメニュー画像について、図8を参照して説明する。図8は、本実施形態に係るディスプレイ上に表示されるクイックメニュー画像の一例である。
図8において、クイックメニュー画像500には、メニュー項目として、例えば「最寄りのコンビニに寄る」、「最寄りの駐車場を探す」、「オーディオをミュートにする」等の、ユーザが突発的に行いたいと推測される項目が含まれる。或いは、当該ユーザインターフェイス装置1が搭載されている車両の現在位置や走行している方向、時間帯、ユーザの評価、移動目的等から、動的にメニュー項目を構成できるようにしてもよい。
図8に示すように、クイックメニュー画像500は、図7に示したメニュー画像400に比べて、選択可能なメニュー項目が少なく、ユーザがメニュー項目の選択を比較的容易に行うことができる。
再び図1に戻り、推測部134は、画像解析部132により算出された指等の位置や、形状情報を利用して、ユーザが行おうとしている操作(即ち、ユーザの操作意図)を推測し、該推測された操作に沿って、メニュー部133が保持するメニューデータに基づいて、適切なメニュー画像を選択したり、表示方法を切り替えたりすることによって、適切な表示画像を生成する。
推測部134は、更に、画像解析部132により算出された指等の位置や、形状情報を利用して、後述するサービス部137に命令を送ることもできる。
入力インターフェイス135は、ユーザからの操作を受け付ける。タッチパネルを備えるディスプレイ110に、ユーザの指が触れると、入力インターフェイス135に対し、タッチパネルから信号が送られる。
制御部136は、ユーザによるタッチパネルの操作を示す信号を、入力インターフェイス135を介して受信すると、受信した際に、推測部134により生成されディスプレイ110上に表示されているメニューを参照して、タッチパネルのユーザの指が触れた位置に対応する命令を、後述するサービス部137に対し送信する。
具体的には例えば、ディスプレイ110上に、「行き先設定メニュー」に係るメニュー画像が表示されている際に、タッチパネルの操作を示す信号を受信した制御部135は、タッチパネルのユーザの指が触れた位置に対応する位置に表示されている施設への道案内の開始を示す命令を、サービス部137に対し送信する。
サービス部137は、例えばナビゲーションサービスに係る機能と、オーディオサービスに係る機能とを有している。ナビゲーションサービスに係る機能には、例えば、(i)GPS(Global Positioning System)を利用して、当該ユーザインターフェイス装置1が搭載されている車両の現在位置を取得すること、(ii)目的地が設定された際に地図情報を参照して目的地までの経路を算出すること、(iii)算出された経路と車両の位置を重畳した地図画像を生成すること、(iv)車両が交差点等に近づいた際に経路案内情報を出力すること、等が含まれる。
オーディオサービスに係る機能には、例えば、ユーザにより楽曲が選択された際に該選択された楽曲に対応する楽曲データを選択して再生すること等が含まれる。尚、GPS等のデバイスや、地図データ及び楽曲データ等は、当該ユーザインターフェイス装置1に搭載又は格納されているが、ここでは図示及び説明を省略する。
画面生成部138は、推測部134により生成されたインターフェイス(例えば、メニュー画像)と、サービス部137により生成された画像(例えば、現在位置周辺の地図画像)とを合成して、ディスプレイ110上に表示される表示画像を生成する。生成された表示画像は、画面出力インターフェイス139を介して、ディスプレイ110に送信される。
尚、本実施形態に係る「カメラ121及び122」、「メニュー部133」並びに「画面生成部138」は、夫々、本発明に係る「撮像手段」、「記憶手段」及び「画像出力手段」の一例である。本実施形態に係る「画像解析部132」は、本発明に係る「解析手段」、「3次元座標算出手段」及び「変換手段」の一例である。本実施形態に係る「推測部134」は、本発明に係る「推測手段」及び「継時変化取得手段」の一例である。本実施形態に係る「推測部134」、「制御部136」及び「サービス部137」は、本発明に係る「制御手段」の一例である。
次に、以上のように構成されたユーザインターフェイス装置1の全体の動作について、図9のフローチャートを参照して説明する。
図9において、先ず、カメラ121及び122は、ディスプレイ110の表面を含む、該ディスプレイ110の周辺の画像を撮像する。該撮像された画像は、カメラインターフェイス131を介して、画像解析部132に送信される(ステップS201)。
次に、画像解析部132は、送信された画像に基づいて、上述した所定の解析処理を行う(ステップS202)。次に、推測部134は、画像解析部132による解析結果に基づいて、所定の推測処理を行う(ステップS203)。
ここで、推測部134が実行する所定の推測処理について、図10及び図11のフローチャートを参照して説明する。尚、所定の推測処理は、画像解析部132が解析結果を出力する度に実行される。
図10において、先ず、推測部134は、指先が検出されているか否かを判定する(ステップS301)。指先が検出されていないと判定された場合(ステップS301:No)、推測部134は、後述するステップS309の処理が実行する。他方、指先が検出されていると判定された場合(ステップS301:Yes)、推測部134は、ディスプレイ110の画面上に表示されるカーソルの位置を決定する(ステップS302)。カーソルの位置は、上述の如く、画像解析部132により求められたユーザの指のディスプレイ110上における位置に対応している。
次に、推測部134は、所定のジェスチャが行われているか否かを判定する(ステップS303)。ここで、所定のジェスチャが行われているか否かは、例えば、推測部134が保持する画像解析部132により検出された指領域の履歴を参照し、過去の所定期間、指領域を検出し続けており、且つ、指のディスプレイ110に対する角度が所定値以上の範囲で、増減を繰り返しているか否かを判定することによって(具体的には例えば、3秒以上指領域を検出し続けており、且つ、指のディスプレイ110に対する角度が45度以上の範囲で、増減を3回以上繰り返しているか否かを判定することによって)、判定すればよい。
所定のジェスチャが行われていると判定された場合(ステップS303:Yes)、推測部134は、更に、指のディスプレイ110に対する角度の、ディスプレイ110の右から左への角度変化と、ディスプレイ110の左から右への角度変化とのどちらが速い速度で行われているかを判定する。ディスプレイ110の右から左への角度変化のほうが速いと判定された場合、推測部134は、サービス部137に対し、オーディオの音量の減少を示す命令を送信する。他方、ディスプレイ110の左から右への角度変化のほうが速いと判定された場合、推測部134は、サービス部137に対し、オーディオの音量の増加を示す命令を送信する(ステップS304)。
次に、推測部134は、メニュー画像の表示状態を非表示にして(ステップS305)、処理を終了する。
ステップS303の処理において、所定のジェスチャが行われていないと判定された場合(ステップS303:No)、推測部134は、メニュー画像の表示状態が表示中であるか否かを判定する(ステップS306)。メニュー画像の表示状態が表示中でない(即ち、非表示である)と判定された場合(ステップS306:No)、推測部134は、後述するステップS400の処理を実行する。他方、メニュー画像の表示状態が表示中であると判定された場合(ステップS306:Yes)、推測部134は、滞留判定を実行する(ステップS307)。
ここで、滞留判定は、例えば、推測部134が保持する画像解析部132により検出された指領域の履歴を参照し、所定時間前から現在までの間の指先の位置が、所定の大きさの縦・横・奥行きの枠の中におさまっており、且つ、指先の速度が所定の値を超えていないか否かにより行われる。具体的には例えば、滞留判定は、5秒前から現在までの間の指先の位置が、縦・横・奥行きの各々が3cmの範囲内におさまっており、且つ、指先の速度が1cm/frame(即ち、一つ前のフレームから現在のフレームまでの間で、指先が1cm移動する速度)を超えていないか否かにより行われる。
或いは、滞留判定は、例えば、メニュー画像の状態と関連付けて行われてもよい。具体的には例えば、過去の所定時間内(例えば、5秒以内)にメニュー画像の切り替えがなかった場合に滞留と判定してよい。加えて、ディスプレイ110の画面に表示されているカーソルの位置が、表示されているメニュー項目間の一点から移動しない時間が所定時間以上(例えば、5秒以上)連続した場合に滞留と判定してよい。
滞留であると判定された場合、推測部134は、例えば、ユーザの操作意思は思案中であると推測し、ヘルプ表示をONにして、表示されているメニュー画像の、カーソルが重なっているメニュー項目に係る説明文を、メニュー画像上の適切な位置(例えば、カーソル周辺を隠さないような位置)に表示する。或いは、滞留であると判定された場合、推測部134は、ヘルプ表示をONにして、表示されているメニュー画像に係る説明文を、メニュー画像上の適切な位置に表示する。他方、滞留でないと判定された場合、推測部134は、ヘルプ表示をOFFにする。
次に、推測部134は、形状判定を実行する(ステップS308)。ここで、形状判定は、画像解析部132により求められた指の形状の特徴が、特定の形状をしているか否かを判定することにより行われる。具体的には例えば、形状判定は、推測部134が、ユーザが立てている指の本数が2本であるか否か、或いは、ユーザが立てている指の本数が2本である場合に、2本の指が互いになす角が所定の角度(例えば、45度)を超えているか否か、を判定することにより行われる。
指の形状の特徴が特定の形状をしていると判定された場合、推測部134は、メニュー画像の表示方法を切り替える。具体的には例えば、推測部134は、メニュー項目の表示を「漢字」、「仮名」、「ピクトグラム」及び「外国語」の相互間で切り替える。また、指の形状の特徴が特定の形状をしていると判定された場合、推測部134が、2本の指が互いになす角が大きくなるほど、カーソルが重なっているメニュー項目を大きく表示するようにしてもよい。
次に、特定形状判定結果にかかわらず(即ち、ステップS308の処理の結果にかかわらず)、遷移処理に進む。推測部134は、メニュー画像の状態遷移に係る処理を実行する(ステップS400)。メニュー画像の状態遷移に係る処理では、指の動き等から(厳密には、推測部134が保持する画像解析部132により検出された指領域の履歴)から、メニュー画像の切り替え判定を行う。
ここで、メニュー画像の状態遷移に係る処理について、図11のフローチャートを参照して説明する。
図11において、推測部134は、先ず、メニュー画像の表示状態が「一時表示OFF」であるか否かを判定する(ステップS401)。「一時表示OFF」であると判定された場合(ステップS401:Yes)、推測部134は、表示再開判定を実行する(ステップS402)。
ここで、表示再開判定は、メニュー画像の表示状態が「一時表示OFF」に遷移したときの閾値を超えて、画像解析部132により検出された指先点(即ち、指先に対応する特徴点)がディスプレイ110に接近したか否かを判定することにより行われる。閾値を超えて接近していないと判定された場合、推測部134は、「一時表示OFF」を維持して、処理を終了する。他方、閾値を超えて接近したと判定された場合、推測部134は、「一時表示OFF」を解除して、以前表示されていたメニュー画像を表示するように画面生成部138を制御して、例えば後述するステップS405の処理を実行する。
ステップS401の処理において、「一時表示OFF」でないと判定された場合(ステップS401:No)、推測部134は、メニュー画像が表示中であるか否かを判定する(ステップS403)。メニュー画像が表示されていないと判定された場合(ステップS403:No)、推測部134は、メニュー画像起動判定を実行する(ステップS404)。
ここで、メニュー画像起動判定は、次のように実行される。即ち、推測部134が保持する画像解析部132により検出された指先点の履歴を参照し、現在の一つ前の時点と、現在との間で、指先点が閾値Th1(例えば、7cm)を超えて画面に接近し、且つ、接近速度が所定の速度(例えば、5cm/frame)を超えているか否かが判定される。該条件に合致すると判定された場合、メニュー画面の表示状態が「クイックメニュー」とされ、図8に示したような、クイックメニュー画像500を表示する状態となる。尚、閾値Th1は、カメラ121及び122が撮像可能な範囲内に十分入るような値として設定されている。
上記条件に合致しないと判定された場合、推測部134が保持する画像解析部132により検出された指先点の履歴を参照し、現在の一つ前の時点と、現在との間で、指先点が閾値Th1を超えて画面に接近したか否かが判定される。該条件に合致すると判定された場合、メニュー画像の表示状態が「第1階層」とされる。この場合、現在の指の形状に応じて、表示されるメニュー画像が変更される。具体的には例えば、ユーザが立てている指が1本の場合、メニュー画像311(図6参照)が表示され、ユーザが立てている指が2本の場合、メニュー画像312(図6参照)が表示される。上記条件に合致しないと判定された場合、推測部134は、処理を終了する。
ステップS403の処理において、メニュー画像が表示されていると判定された場合(ステップS403:Yes)、推測部134は、通常メニューデータに係るメニュー画像(以下、適宜“通常メニュー画像”と称する)が表示されているか否かを判定する(ステップS405)。通常メニュー画像が表示されていないと判定された場合(ステップS405:No)、推測部134は、後述するステップS414の処理を実行する。
他方、通常メニュー画像が表示されていると判定された場合(ステップS405:Yes)、推測部134は、指先が横方向に遷移しているか否かを判定する(ステップS406)。具体的には、推測部134は、推測部134が保持する画像解析部132により検出された指先点の履歴を参照し、現在の一つ前の時点の指先の位置と、現在の指先の位置を結ぶ直線を延長し、該延長された直線とディスプレイ110の平面と交差する点が、ディスプレイ110の表示範囲から上下左右のいずれかに外れており、且つ、現在の一つ前の時点から現在まで、指先が所定の速度(例えば、5cm/frame)を超える速度でディスプレイ110に接近しているか否かを判定する。
上記条件に合致すると判定された場合(ステップS406:Yes)、推測部134は、ユーザの操作意思はメニューの遷移であると推測し、表示されている通常メニュー画像を、該通常メニュー画像と、指先が移動した方向において隣接する、同一階層の通常メニュー画像に変更して(ステップS407)、処理を終了する。他方、上記条件に合致しないと判定された場合(ステップS406:No)、推測部134は、通常メニュー画像をスクロールさせるか否かを判定する(ステップS408)。
具体的には、推測部134は、推測部134が保持する画像解析部132により検出された指先点の履歴を参照し、現在の一つ前の時点から現在まで、所定の速度(例えば、5cm/frame)を超えて、且つ、上下左右のいずれかの方向に指先が移動しているか否かを判定する。該条件に合致する場合(ステップS408:Yes)、推測部134は、ユーザの操作意思はメニュー画面のスクロールであると推測し、指先の移動している方向に向けて、表示されている通常メニュー画像をスクロールさせ(ステップS409)、処理を終了する。
他方、上記条件に合致しないと判定された場合(ステップs408:No)、推測部134は、推測部134が保持する画像解析部132により検出された指先点の履歴を参照し、現在の一つ前の時点と、現在との間で、指先点が閾値を超えて、ディスプレイ110に接近したか否かを判定する(ステップS410)。尚、閾値は、表示されている通常メニュー画像が「第1階層」である場合、閾値Th2(例えば、5cm)であり、表示されている通常メニュー画像が「第2階層」である場合、閾値Th3(例えば、3cm)であり、表示されている通常メニュー画像が「第3階層」である場合、0である。
上記条件に合致すると判定された場合(ステップS410:Yes)、推測部134は、ユーザの操作意思は下位階層のメニュー画像の表示であると推測し、通常メニュー画像の表示状態を、現在の状態から一つ下位の状態に遷移させ(ステップS411)、処理を終了する。即ち、推測部134は、表示されている通常メニュー画像が「第1階層」である場合、「第2階層」に遷移させ、表示されている通常メニュー画像が「第2階層」である場合、「第3階層」に遷移させる。
この際、推測部134は、指先の移動方向に応じて、下位階層のどの画面に遷移するかを決定する。具体的には、現在の一つ前の時点での指先位置と、現在の指先位置を結ぶ直線を延長し、該延長された直線とディスプレイ110の平面とが交差する点が、表示中のメニュー項目の中で、重なっているか、最も距離が近いものに関連づけられた、下位階層の画面に遷移する。
他方、上記条件に合致しないと判定された場合(ステップS410:No)、推測部134は、推測部134が保持する画像解析部132により検出された指先点の履歴を参照し、現在の一つ前の時点と、現在との間で、指先点が閾値を超えてディスプレイ110から遠ざかり、且つ、現在の一つ前の時点と、現在との間における指先のディスプレイ110から遠ざかる移動速度が所定値(例えば、5cm/frame)を超えているか否かを判定する(ステップS412)。
尚、閾値は、表示されている通常メニュー画像が「第1階層」である場合、閾値Th1(例えば、7cm)であり、表示されている通常メニュー画像が「第2階層」である場合、閾値Th2(例えば、5cm)であり、表示されている通常メニュー画像が「第3階層」である場合、閾値Th3(例えば、3cm)である。
上記条件に合致すると判定された場合(ステップS412:Yes)、推測部134は、ユーザの操作意思はメニュー画像の一時OFFであると推測し、表示されている通常メニュー画像と閾値とを記憶して、メニュー画像の表示状態を「一時表示OFF」として、処理を終了する。他方、上記条件に合致しないと判定された場合(ステップS412:No)、推測部134は、推測部134が保持する画像解析部132により検出された指先点の履歴を参照し、現在の一つ前の時点と、現在との間で、指先点が閾値を超えてディスプレイ110から遠ざかったか否かを判定する(ステップS414)。
尚、閾値は、表示されている通常メニュー画像が「第1階層」である場合、閾値Th1(例えば、7cm)であり、表示されている通常メニュー画像が「第2階層」である場合、閾値Th2(例えば、5cm)であり、表示されている通常メニュー画像が「第3階層」である場合、閾値Th3(例えば、3cm)である。
上記条件に合致すると判定された場合(ステップS414:Yes)、推測部134は、ユーザの操作意思は上位階層のメニュー画像の表示であると推測し、表示されている通常メニュー画像が「第2階層」又は「第3階層」であることを条件に、現在の状態から一つ上位の状態に遷移させ、表示されている通常メニュー画像が「第1階層」であることを条件に、現在の状態を「非表示」状態に遷移させ(ステップS415)、処理を終了する。他方、上記条件に合致しないと判定された場合(ステップS414:No)、推測部134は、現在の状態を維持して(ステップS416)、処理を終了する。
再び図10に戻り、推測部134は、上述したメニュー画像の状態遷移に係る処理の結果に応じて、ディスプレイ110に表示されるメニュー画像を生成して(ステップS309)、処理を終了する。尚、カーソルが重なっているメニュー項目を強調表示するようにしてもよい。
再び図9に戻り、制御部136は、ユーザによるタッチパネルの操作を示す信号を、入力インターフェイス135を介して受信すると、受信した際に、推測部134により生成されディスプレイ110上に表示されているメニューを参照して、タッチパネルのユーザの指が触れた位置に対応する命令を、後述するサービス部137に対し送信し、メニュー画像の表示状態を「非表示」とする(ステップS204)。
次に、画面生成部138は、推測部134により生成されたメニュー画像と、サービス部137により生成された画像とを合成して、ディスプレイ110上に表示される表示画像を生成し、画面出力インターフェイス139を介して、ディスプレイ110に送信する(ステップS205)。
本発明は、上述した実施形態に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴うユーザインターフェイス装置及びコンピュータプログラムもまた本発明の技術的範囲に含まれるものである。
1…ユーザインターフェイス装置、110…ディスプレイ、121、122…カメラ、130…コンピュータ、131…カメラインターフェイス、132…画像解析部、133…メニュー部、134…推測部、135…入力インターフェイス、136…制御部、137…サービス部、138…画面生成部、139…画面出力

Claims (7)

  1. ディスプレイに表示される表示画像を出力可能な画像出力手段と、
    前記ディスプレイの周辺の周辺画像を撮像する撮像手段と、
    前記撮像された周辺画像に基づいて、ユーザの指の状態を解析する解析手段と、
    前記解析された指の状態に基づいて、前記ユーザの操作意図を推測する推測手段と、
    前記ユーザの指先が前記ディスプレイの表面に触れる前に、前記推測された操作意図に応じて、前記表示画像を変更するように前記画像出力手段を制御する制御手段と
    を備えることを特徴とするユーザインターフェイス装置。
  2. 前記推測手段は、前記解析された指の状態に基づいて、前記指の状態の継時的な変化を取得する継時変化取得手段を有することを特徴とする請求項1に記載のユーザインターフェイス装置。
  3. 複数の階層を有するメニューデータである階層メニューデータが予め格納されている記憶手段を更に備え、
    前記表示画像は、前記階層メニューデータに含まれる一の階層のメニューデータに対応するメニュー画像であり、
    前記推測手段は、前記取得された継時的な変化が前記指先及び前記ディスプレイ間の距離の縮小であることを条件に、前記操作意図を下位階層のメニュー画像の表示であると推測し、前記取得された継時的な変化が前記距離の拡大であることを条件に、前記操作意図を上位階層のメニュー画像の表示であると推測する
    ことを特徴とする請求項2に記載のユーザインターフェイス装置。
  4. 前記推定手段は、前記取得された継時的な変化が前記指先の滞留であることを条件に、前記操作意思を思案中であると推測することを特徴とする請求項2又は3に記載のユーザインターフェイス装置。
  5. 前記制御手段は、前記推測手段により前記操作意思が思案中であると推測された場合、前記表示画像を、前記表示画像に係るヘルプ画像に変更するように前記画像出力手段を制御することを特徴とする請求項4に記載のユーザインターフェイス装置。
  6. 前記解析手段は、
    前記指先の3次元座標を算出する3次元座標算出手段と、
    前記算出された3次元座標を、前記算出された3次元座標と対応する前記ディスプレイ上の2次元座標と、前記指先及び前記ディスプレイ間の距離とに変換する変換手段と
    を有することを特徴とする請求項1乃至5のいずれか一項に記載のユーザインターフェイス装置。
  7. コンピュータを、
    ディスプレイに表示される表示画像を出力可能な画像出力手段と、
    前記ディスプレイの周辺の周辺画像を撮像する撮像手段と、
    前記撮像された周辺画像に基づいて、ユーザの指の状態を解析する解析手段と、
    前記解析された指の状態に基づいて、前記ユーザの操作意図を推測する推測手段と、
    前記ユーザの指先が前記ディスプレイの表面に触れる前に、前記推測された操作意図に応じて、前記表示画像を変更するように前記画像出力手段を制御する制御手段と、
    として機能させることを特徴とするコンピュータプログラム。
JP2009290197A 2009-12-22 2009-12-22 ユーザインターフェイス装置及びコンピュータプログラム Active JP5413593B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009290197A JP5413593B2 (ja) 2009-12-22 2009-12-22 ユーザインターフェイス装置及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009290197A JP5413593B2 (ja) 2009-12-22 2009-12-22 ユーザインターフェイス装置及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2011133942A true JP2011133942A (ja) 2011-07-07
JP5413593B2 JP5413593B2 (ja) 2014-02-12

Family

ID=44346644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009290197A Active JP5413593B2 (ja) 2009-12-22 2009-12-22 ユーザインターフェイス装置及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP5413593B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013171490A (ja) * 2012-02-22 2013-09-02 Tokyo Denki Univ タッチ位置入力装置及びタッチ位置入力方法
US8917552B2 (en) 2012-06-18 2014-12-23 Kabushiki Kaisha Toshiba Nonvolatile semiconductor storage device
US9136007B2 (en) 2013-03-21 2015-09-15 Kabushiki Kaisha Toshiba Semiconductor memory device storing management data redundantly in different pages

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002311936A (ja) * 2001-04-18 2002-10-25 Toshiba Tec Corp 電子機器
JP2003044223A (ja) * 2001-07-30 2003-02-14 Pfu Ltd タッチ入力機構を備えた表示装置およびその制御方法ならびにその制御プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002311936A (ja) * 2001-04-18 2002-10-25 Toshiba Tec Corp 電子機器
JP2003044223A (ja) * 2001-07-30 2003-02-14 Pfu Ltd タッチ入力機構を備えた表示装置およびその制御方法ならびにその制御プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013171490A (ja) * 2012-02-22 2013-09-02 Tokyo Denki Univ タッチ位置入力装置及びタッチ位置入力方法
US8917552B2 (en) 2012-06-18 2014-12-23 Kabushiki Kaisha Toshiba Nonvolatile semiconductor storage device
US9136007B2 (en) 2013-03-21 2015-09-15 Kabushiki Kaisha Toshiba Semiconductor memory device storing management data redundantly in different pages
US9627077B2 (en) 2013-03-21 2017-04-18 Kabushiki Kaisha Toshiba Semiconductor memory device storing management data redundantly in different pages

Also Published As

Publication number Publication date
JP5413593B2 (ja) 2014-02-12

Similar Documents

Publication Publication Date Title
US10718627B2 (en) Mapping application search function
CN105229582B (zh) 基于近距离传感器和图像传感器的手势检测
US10372319B2 (en) Method, apparatus and computer program product for enabling scrubbing of a media file
US8972174B2 (en) Method for providing navigation information, machine-readable storage medium, mobile terminal, and server
KR100982768B1 (ko) 단말기의 각도에 따라 서로 다른 영상 정보를 제공하기 위한 방법, 단말기 및 컴퓨터 판독 가능한 기록 매체
WO2014188565A1 (ja) 表示制御装置
KR20170046675A (ko) 경로 중단이 감소된 내비게이션 검색 결과의 제공 기법
US10203837B2 (en) Multi-depth-interval refocusing method and apparatus and electronic device
JP6429886B2 (ja) 触感制御システムおよび触感制御方法
US20130093860A1 (en) 3dimension stereoscopic display device
US20230129821A1 (en) Navigation Application with Novel Declutter Mode
TWI534656B (zh) 辨識裝置、智慧裝置以及資訊提供方法
JP2008180786A (ja) ナビゲーションシステムおよびナビゲーション装置
JP2012022632A (ja) 情報処理装置およびその制御方法
JP2007280316A (ja) タッチパネル入力装置
JP5413593B2 (ja) ユーザインターフェイス装置及びコンピュータプログラム
KR101296599B1 (ko) 영상 데이터를 디스플레이 하는 방법 및 장치
JP2003344054A (ja) ナビゲーション装置、地図表示装置、プログラム
JP5453069B2 (ja) 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体
JP5080409B2 (ja) 情報端末装置
JP6956376B2 (ja) 表示制御システム、表示システム、表示制御方法、プログラム、及び移動体
KR101522340B1 (ko) 객체 감지를 이용하는 인터랙티브 다중 레이어 표시 장치, 인터랙티브 다중 레이어 표시 방법 및 그 기록매체
CN115695947A (zh) 查找视频的方法、装置、设备及存储介质
WO2017168988A1 (ja) 表示処理装置、及び表示処理プログラム
JP2011117742A (ja) 情報処理装置、入力方法、入力プログラムおよび記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20121211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131029

R150 Certificate of patent or registration of utility model

Ref document number: 5413593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250