JP7338184B2 - 情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7338184B2
JP7338184B2 JP2019052961A JP2019052961A JP7338184B2 JP 7338184 B2 JP7338184 B2 JP 7338184B2 JP 2019052961 A JP2019052961 A JP 2019052961A JP 2019052961 A JP2019052961 A JP 2019052961A JP 7338184 B2 JP7338184 B2 JP 7338184B2
Authority
JP
Japan
Prior art keywords
user
screen
information processing
input device
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019052961A
Other languages
English (en)
Other versions
JP2019175449A (ja
Inventor
友規 鈴木
賢一郎 齊所
紘史 山口
真人 草▲なぎ▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to PCT/JP2019/013266 priority Critical patent/WO2019189403A1/en
Priority to US16/979,012 priority patent/US20210055790A1/en
Priority to EP19717376.8A priority patent/EP3776159A1/en
Publication of JP2019175449A publication Critical patent/JP2019175449A/ja
Application granted granted Critical
Publication of JP7338184B2 publication Critical patent/JP7338184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Description

本発明は、情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラムに関する。
従来、様々な電子機器において、ユーザからの操作を受け付ける手段として、スイッチ、ボタン、ダイヤル、タッチパネル、及びタッチパッド等の様々なマンマシンインターフェースが用いられている。また、ユーザの視線を用いて操作を行わせる技術も知られている(例えば、特許文献1を参照)。
しかしながら、従来技術では、一度に一つの操作のみを行うため、操作が比較的容易ではないという問題がある。そこで、比較的容易に操作を行わせることができる技術を提供することを目的とする。
情報処理装置において、ユーザによる選択可能な項目を有する画面を表示装置に表示させる情報処理装置であって、第1の画面を表示している際に前記ユーザによる入力装置に対する所定の動作を検知すると、前記第1の画面における前記ユーザに見られている位置に基づく第2の画面を表示させる表示制御部と、前記ユーザによる前記入力装置に対する操作に基づき、前記第2の画面において入力を受け付ける受付部と、を備え、前記所定の動作は、前記ユーザの体の少なくとも一部を前記入力装置に近づける動作である。
開示の技術によれば、比較的容易に操作を行えるようにすることができる。
一実施形態に係る情報処理システムのシステム構成の一例を示す図である。 一実施形態に係る情報処理システムの配置例(その一)について説明する図である。 一実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。 一実施形態に係る情報処理装置の機能ブロックの一例を示す図である。 一実施形態に係る情報処理装置による操作支援処理の一例を示すフローチャートである。 第一の実施形態に係る情報処理装置による操作支援処理の一例を示すフローチャートである。 第一の実施形態に係る表示画面の一例について説明する図である。 第一の実施形態に係る表示画面の一例について説明する図である。 第一の実施形態に係る表示画面の一例について説明する図である。 第二の実施形態に係る表示画面の一例について説明する図である。 第二の実施形態に係る表示画面の一例について説明する図である。 第二の実施形態に係る表示画面の一例について説明する図である。 第二の実施形態に係る表示画面の一例について説明する図である。 一実施形態に係る情報処理システムのシステム構成の一例を示す図である。 一実施形態に係る情報処理システム1の配置例(その二)について説明する図である。 実施形態に係るHUDのハードウェア構成の一例を示す図である。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
<システム構成>
まず、本実施形態に係る情報処理システム1のシステム構成について、図1を用いて説明する。図1は、実施形態に係る情報処理システム1のシステム構成の一例を示す図である。
図1に示すように、実施形態に係る情報処理システム1は、情報処理装置10、表示装置20、視線センサ30(「第1センサ」の一例。)、入力装置40、及び動作センサ50(「第2センサ」の一例。)を有する。情報処理装置10と、表示装置20、視線センサ30、入力装置40、及び動作センサ50とは、例えば、ケーブル等により接続されてもよい。また、情報処理装置10、表示装置20、視線センサ30、入力装置40、及び動作センサ50のうちの複数の装置を、同一の筐体に収容すること等により、一体の装置として構成してもよい。例えば、タッチパネルである入力装置40と、表示装置20とを一体の装置として構成してもよい。
情報処理装置10は、例えば、車載機器、ノート型またはデスクトップ型のパーソナルコンピュータ、テレビ、及び携帯型または据え置き型のゲーム機等の情報処理装置(電子機器、電子装置)である。情報処理装置10は、ユーザにより選択可能な複数の項目を含むメニュー画面を表示装置20に表示させる。また、情報処理装置10は、ユーザの操作等に応答して、所定の処理を行う。
表示装置20は、情報処理装置10により生成された、メニュー画面等の表示画面を表示するディスプレイ(モニタ)である。
視線センサ30は、例えば、目頭に対する虹彩の位置等に基づいて、ユーザの視線を検出する小型のカメラでもよい。また、視線センサ30は、例えば、赤外線にてユーザの顔を照らし、角膜反射の位置に対する瞳孔の位置等に基づいて、ユーザの視線を検出する、赤外線LED及び赤外線カメラを有する装置でもよい。
入力装置40は、例えば、タッチパッド、タッチパネル、スイッチ、ボタン、ダイヤル、またはコントローラ等の入力装置であり、ユーザからの操作を受け付けると、当該操作の内容を情報処理装置10に送信する。
動作センサ50は、例えば、カメラ、または赤外線等を用いた深度センサ等であり、入力装置40からユーザの手等までの距離を測定することにより、ユーザが入力装置40に対して手を伸ばす等の動作を検出する。また、動作センサ50は、例えば、ユーザの腕、手のひら、指の動き等の動作を検出してもよい。
なお、以下では、情報処理システム1を、例えば、自動車、原動機付き自転車、軽車両、及び鉄道車両等の車両に搭載した例について説明する。なお、情報処理システム1は、車両、船舶、航空機、パーソナルモビリティー(Personal Mobility)及び産業用ロボット等の移動体においても適用可能であるし、移動体以外の各種機器においても適用可能である。
次に、本実施形態に係る情報処理システム1の配置例について、図2を用いて説明する。図2は、実施形態に係る情報処理システム1の配置例(その一)について説明する図である。
図2の例では、表示装置20は、搭乗者から見て車両301の進行方向等に配置されるセンターディスプレイ(センターパネル)である。視線センサ30は、搭乗者から見てハンドル302の奥側に配置されている。入力装置40は、搭乗者の手元に配置されている。動作センサ50は、入力装置40の付近に配置されている。情報処理装置10は、例えば、車両301の内部等に配置される。
<ハードウェア構成>
次に、本実施形態に係る情報処理装置10のハードウェア構成について、図3を用いて説明する。図3は、実施形態に係る情報処理装置10のハードウェア構成の一例を示す図である。
実施形態に係る情報処理装置10は、図3に示すように、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、及びインターフェース装置105等を有する。
情報処理装置10での処理を実現するプログラムは、記録媒体101によって提供される。プログラムを記録した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。なお、記録媒体101の一例としては、CD-ROM、DVDディスク、又はUSB(Universal Serial Bus)メモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置102の一例としては、HDD(Hard Disk Drive)又はフラッシュメモリ等が挙げられる。記録媒体101及び補助記憶装置102のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。
メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU(Central Processing Unit)104は、メモリ装置103に格納されたプログラムに従って情報処理装置10に係る機能を実現する。インターフェース装置105は、外部コントローラ等と通信するためのインターフェースであり、例えば、車両301のCAN(Controller Area Network)を介して、車両ナビゲーション装置、及び各種車載装置等に接続される。
<機能構成>
次に、図4を参照し、実施形態に係る情報処理装置10の機能構成について説明する。図4は、実施形態に係る情報処理装置10の機能ブロックの一例を示す図である。
情報処理装置10は、表示制御部11、取得部12、視線判定部13、動作判定部14、及び制御部15(「受付部」の一例)を有する。これら各部は、情報処理装置10にインストールされた1以上のプログラムが、情報処理装置10のCPU252に実行させる処理により実現される。
取得部12は、ユーザの目線の方向(ユーザの見ている位置)を示す情報を視線センサ30から取得する。また、取得部12は、ユーザの動作を示す情報を動作センサ50から取得する。
視線判定部13は、取得部12により視線センサ30から取得されたユーザの目線の方向を示す情報に基づいて、表示装置20の画面においてユーザに見られている位置の画素単位の座標を判定する。
動作判定部14は、取得部12により動作センサ50から取得されたユーザの動作を示す情報に基づいて、ユーザの体の少なくとも一部による所定の動作を検出する。
表示制御部11は、第1の画面を表示している際にユーザによる入力装置に対する所定の動作を検知すると、当該第1の画面におけるユーザに見られている位置に基づく第2の画面を表示させる。第2の画面は、当該第1の画面におけるユーザに見られている位置に表示されている情報に関連する詳細項目を表示する詳細画面でもよく、ユーザに見られている位置に表示されている情報の詳細な情報を表示する詳細画面でもよい。
<処理>
次に、図5を参照し、実施形態に係る情報処理装置10による操作支援処理について説明する。
図5は、実施形態に係る情報処理装置10による操作支援処理の一例を示すフローチャートである。ステップS11において、表示制御部11は、ユーザによる何らかの操作が可能な画面を表示装置20に表示させる。ステップS12において、入力装置40に対して操作が行われたか否かを判定する。操作が行われた場合(ステップS12:YES)、操作内容に応じた処理を行い(ステップS17)、処理を終了する。
操作が行われない場合(ステップS12:No)、ステップS13において、視線判定部13は、表示装置20の画面においてユーザが所定の位置を見ているか否かを判定する。視線判定部13によりユーザが所定の位置を見ていると判定された場合(ステップS13:YES)、ステップS14において、動作判定部14は、ユーザの体の少なくとも一部による入力装置40に対する所定の動作を検出したか否かを判定する。ユーザによる入力装置40に対する所定の動作を検出しない場合(ステップS14:NO)、ステップS12の処理に進む。
ユーザによる入力装置40に対する所定の動作を検出した場合(ステップS14:YES)、ステップS15において、表示制御部11は、ユーザに見られている位置に関連する詳細画面があるかどうかを判断する。詳細画面がない場合(ステップS15:NO)、ステップS12の処理に進む。詳細画面がある場合(ステップS15:YES)、ステップS16において、表示制御部11は、表示装置20に詳細画面を表示する。
後述するように、ステップS14で検出される所定の動作は毎回同じ動作でなく、詳細な画面が表示される毎に、又は画面の内容に応じて変わっても良い。詳細については後述する。
[第一の実施形態]
以降では、本発明の第一の実施形態について説明する。第一の実施形態は、階層構造のメニューを表示する形態である。本実施形態での表示制御部11の機能について説明する。
本実施形態において、表示制御部11は、例えば、ユーザにより選択可能な複数の項目を有するメニューであって、一の項目が選択されると、当該一の項目に対応付けられた複数の項目が表示される階層構造のメニューの画面を表示装置20に表示させる。
また、表示制御部11は、動作判定部14により所定の動作が検出されると、前記複数の項目のうち、視線判定部13により判定されたユーザに見られている項目に対する一階層下のメニューの画面(「詳細画面」の一例。)を表示装置20に表示させる。
制御部15は、入力装置40により、表示制御部11により表示されている当該一階層下のメニューの画面におけるユーザの操作を受け付け、当該操作に応答して所定の処理を行う。
<処理>
次に、図6乃至図7Cを参照し、実施形態に係る情報処理装置10による操作支援処理について説明する。図6は、本実施形態に係る情報処理装置10による操作支援処理の一例を示すフローチャートである。図7A乃至図7Cは、本実施形態における表示画面の一例(その一)について説明する図である。
ステップS1において、表示制御部11は、ユーザにより選択可能な複数の項目を有するメニューの画面を表示装置20に表示させる。ここで、表示制御部11は、例えば、図7Aに示すメニューの画面を表示させてもよい。図7Aの例では、表示画面601において、「音楽」ボタン602、「ナビ」ボタン603、及び「エアコン」ボタン604が表示されている。
続いて、視線判定部13は、表示装置20の画面においてユーザに見られている位置を判定する(ステップS2)。ここで、視線判定部13は、例えば、取得部12により視線センサ30から取得されたユーザの目線の方向を示す情報と、予め設定されているユーザの目の位置に対する表示装置20の位置の情報に基づいて、表示装置20の画面においてユーザに見られている位置の画素単位の座標を判定する。視線判定部13は、例えば、所定期間において、視線の滞留時間が最も多い領域を、ユーザに見られている位置と判定してもよい。
続いて、表示制御部11は、メニューの画面に表示されている複数の項目のうち、ユーザに見られている項目(オブジェクト)を判定する(ステップS3)。ここで、表示制御部11は、現在表示させているメニューの画面において、視線判定部13により判定された、表示装置20の画面においてユーザに見られている位置に表示されているボタン等のオブジェクトを判定する。
続いて、動作判定部14は、ユーザの体の少なくとも一部による、入力装置40に対する所定の動作を検出する(ステップS4)。ここで、動作判定部14は、例えば、取得部12により動作センサ50から取得されたユーザの動作を示す情報と、予め設定されている入力装置40の位置の情報に基づいて、ユーザの手(「体の少なくとも一部」の一例。)を入力装置40に近づける動作を検出する。動作判定部14は、例えば、取得部12により動作センサ50から取得されたユーザの動作を示す情報に基づいて、ユーザが人差し指を右方向に向けるジェスチャ等を当該所定の動作として検出してもよい。
続いて、表示制御部11は、ユーザに見られている項目に対応付けられた一つ下の階層のメニュー(サブメニュー)の画面を表示装置20に表示させる(ステップS5)。なお、情報処理装置10は、ステップS2乃至ステップS5の処理を連続して複数回行うことにより、階層構造のメニューにおいて、2以上下のメニューに遷移させることもできる。
ここで、例えば、図7Aに示すメニューの画面において、ユーザが「音楽」ボタン602を見ながら入力装置40に手を近づけ、入力装置40と手との距離が第1閾値未満、かつ当該第1閾値よりも小さい第2閾値以上の距離(「第1距離」の一例。)となった場合、表示制御部11は、例えば、図7Bに示すサブメニューの画面を表示させてもよい。図7Bの例では、図7Aの「音楽」の項目の一つ下の階層(「第1階層」の一例。)のメニューとして、表示画面610において、「音量」ボタン611、及び「ソース」ボタン612が表示されている。
そして、図7Bに示すメニューの画面において、ユーザが「音量」ボタン611を見ながら入力装置40にさらに手を近づけ、入力装置40と手との距離が当該第2閾値未満の距離(「第2距離」の一例。)となった場合、表示制御部11は、例えば、図7Cに示すサブメニューの画面を表示させてもよい。図7Cの例では、図7Bの「音量」の項目の一つ下の階層(「第2階層」の一例。)のメニューとして、表示画面620において、音量を調整するためのスライドバー621、音量の最小値622、及び音量の最大値623が表示されている。
これにより、例えば、ユーザが音楽の音量を調整したい場合等において、入力装置40に手を近づける等の一度の動作で、階層構造のメニューにおける所望の階層のメニューを操作するための表示画面を表示させることができる。そのため、ユーザが実際に入力装置40を操作する際には、階層構造のメニューにおいて当該所望の階層のメニューを表示させる操作を省略(ショートカット)して、直ちに所望の階層のメニューを操作可能とすることができる。
なお、表示制御部11は、所定の階層のメニューの画面を表示させている間に、動作判定部14によりユーザの所定のジェスチャが検出されると、当該所定の階層よりも一つ上の階層(元の階層)のメニューの画面を表示させてもよい。この場合、表示制御部11は、動作判定部14により指を所定の方向に向けるジェスチャが検出されると、元の階層のメニューの画面に戻すようにしてもよい。これにより、例えば、視線検出により操作対象と判定された項目が、ユーザが操作したい項目ではない場合に、比較的容易に元の階層のメニューの画面に戻ることができる。
また、表示制御部11は、所定の階層のメニューの画面を表示させている間に、当該メニューの画面をユーザが所定時間以上見ていない場合、当該所定の階層に対して一つ上の階層(元の階層)のメニューの画面を表示させてもよい。この場合、表示制御部11は、視線判定部13により表示装置20の画面をユーザが所定時間以上見ていないと判定された場合、元の階層のメニューの画面に戻すようにしてもよい。これにより、例えば、視線検出により操作対象と判定された項目が、ユーザが操作したい項目ではない等の場合に、比較的容易に元の階層のメニューの画面に戻ることができる。
続いて、制御部15は、入力装置40により、当該所定の階層よりも一階層下のメニューの画面(「詳細画面」の一例。)におけるユーザの操作を受け付ける(ステップS6)。続いて、制御部15は、当該一階層下のメニューの画面におけるオブジェクトを、当該操作に応じて処理し(ステップS7)、処理を終了する。ここで、制御部15は、例えば、入力装置40がタッチパッドの場合、ユーザによりタッチパッド上で指を滑らせる操作に応答して、音量を調整するためのスライドバー621を、音量の最小値622、及び音量の最大値623の間で移動させる。そして、スライドバー621で設定された音量にて、音楽の音を出力するように制御する。
<第一の実施形態のまとめ>
従来技術では、階層構造を有するメニューの場合、ユーザが操作したい所定の項目を表示させるために、現在表示されている項目から当該所定の項目までの階層の数だけ選択操作を繰り返す必要がある。例えば、ユーザが視線を所定時間以上留めた場合に選択する技術の場合、項目を選択する都度、所定時間以上当該項目を注視する必要があるため、ユーザにとっては操作が困難な場合がある。
上述した実施形態によれば、ユーザによる入力装置に対する所定の動作を検出すると、当該ユーザに見られている項目に対する詳細画面を表示させる。これにより、ユーザに比較的容易に操作を行えるようにすることができる。
[第二の実施形態]
以降では、本発明の第二の実施形態について説明する。第2の実施形態では、ユーザが選択し易くするために詳細画面を表示する場合について説明する。
<地図上で目的地を選択させる例>
第二の実施形態では、図8A乃至図8Dを参照し、地図上で目的地を選択させる例について説明する。図8A乃至図8Dは、第二の実施形態の表示画面の一例について説明する図である。図5のステップS12乃至ステップS16の処理において、表示制御部11は、図8Aに示すように、表示画面701において、日本の広域な地図を表示させている。
そして、表示画面701においてユーザが地図上の位置である項目702を見ながら、入力装置40に手を近づけ、入力装置40と手との距離が第3閾値未満、かつ当該第3閾値よりも小さい第4閾値以上の距離(「第1距離」の一例。)となったとする。この場合、表示制御部11は、図8Bに示す表示画面711において、図8Aに示す項目702に関連する詳細画面として、地図上の位置である項目702を地図の中心とした、図8Aよりも詳細な地図(「詳細画面」の一例。)を表示させる。なお、図8Aと図8Bでは、地図の画像が切り替わっているが、図8Aよりも詳細な地図(詳細画面)として、図8Aの地図画像の少なくとも一部を拡大した画像を表示する画面を表示させてもよい。
そして、表示画面711においてユーザが地図上の位置である項目712を見ながら、入力装置40に手をさらに近づけ、入力装置40と手との距離が当該第4閾値未満、かつ当該第4閾値よりも小さい第5閾値以上の距離(「第2距離」の一例。)となったとする。この場合、表示制御部11は、図8Cに示す表示画面721において、図8Bに示す項目712に関連する詳細画面として、地図上の位置である項目712を地図の中心とした、図8Bよりも詳細な地図を表示させる。なお、図8Bと図8Cでは、地図の画像が切り替わっているが、図8Bよりも詳細な地図(詳細画面)として、図8Bの地図画像の少なくとも一部を拡大した画像を表示する画面を表示させてもよい。
そして、表示画面721においてユーザが地図上の位置である項目722を見ながら、入力装置40に手をさらに近づけ、入力装置40と手との距離が当該第5閾値未満、かつ当該第5閾値よりも小さい第6閾値以上の距離となったとする。この場合、表示制御部11は、図8Dに示す表示画面731において、図8Cに示す項目722に関連する詳細画面として、地図上の位置である項目722を地図の中心とした、図8Cよりも詳細な地図を表示させる。なお、図8Cと図8Dでは、地図の画像が切り替わっているが、図8Cよりも詳細な地図(詳細画面)として、図8Cの地図画像の少なくとも一部を拡大した画像を表示する画面を表示させてもよい。
これにより、例えば、ユーザが目的地を設定したい場合等において、入力装置40に手を近づける等の一度の動作で、ユーザが選択しやすい詳細画面を表示させることができる。そのため、ユーザが実際に入力装置40を操作する際には、詳細画面を選択する操作を省略(ショートカット)して、直ちに詳細画面を操作可能とすることができる。
そして、制御部15は、図5のステップS12乃至ステップS17の処理において、例えば、ユーザが図8Cの表示画面721における所定の位置を見ながら、入力装置40であるタッチパッドにタッチする操作を行うと、当該所定の位置を目的地として設定し、車両301の現在位置から当該目的地までの経路案内を開始する。
<第二の実施形態のまとめ>
従来技術では、表示を拡大して操作しなければならないメニューの場合、ユーザが操作したい所定の項目を表示させるために、現在表示されている画面から当該所定の項目が選択可能になるまで表示の拡大操作を行う必要がある。例えば、ユーザが視線を所定時間以上留めた場合に選択する技術の場合、項目を選択する都度、所定時間以上当該項目を注視する必要があるため、ユーザにとっては操作が困難な場合がある。
上述した実施形態によれば、ユーザによる入力装置に対する所定の動作を検出すると、当該ユーザに見られている項目に対する詳細画面を表示させる。これにより、ユーザに比較的容易に操作を行えるようにすることができる。
<変形例>
次に、本実施形態に係る情報処理システム1の配置例(その二)について、図9A、図9Bを用いて説明する。図9Aは、実施形態に係る情報処理システムのシステム構成の一例を示す図である。図9Bは、実施形態に係る情報処理システム1の配置例(その二)について説明する図である。
図9Aの例では、情報処理システム1は、表示装置20、車室内ステレオカメラ200、及び入力装置40を有する。車室内ステレオカメラ200は、一のセンサにより視線センサ30、及び動作センサ50の機能を有するセンサの一例である。表示装置20、車室内ステレオカメラ200、情報処理装置10、及び入力装置40は、例えば、CAN(Controller Area Network)バスなどの車載ネットワークNWを介して接続されてもよい。
図9Bの例では、表示装置20は、虚像801をユーザに視認させるHUD(ヘッドアップディスプレイ)である。
≪HUDのハードウェア構成≫
次に、図10を参照し、HUDのハードウェア構成について説明する。図10は、実施形態に係るHUDのハードウェア構成の一例を示す図である。
HUDの処理部1101は、CPU(Central Processing Unit)1103と、ROM(Read Only Memory)1104と、RAM(Random Access Memory)1105と、入出力I/F(Inter/face)1106と、SSD(Solid State Drive)1107と、FPGA(Field-Programmable Gate Array)1108と、LDドライバ1109と、MEMSコントローラ1110とを有し、それぞれはバスBで相互に接続されている。
CPU1103は、ROM1104やSSD1107等の記憶装置からプログラムやデータをRAM1105上に読み出し、処理を実行することで、処理部1101全体の制御を実現する演算装置である。なお、CPU1103の有する機能の一部、又は全部を、ASIC(application specific integrated circuit)やFPGA等のハードウェアにより実現させてもよい。
ROM1104は、電源を切ってもプログラムやデータを保持することが可能な不揮発性の半導体メモリ(記憶装置)である。ROM1104には、プログラムやデータが格納されている。
RAM1105は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。RAM1105には、CPU1103が画像処理等の処理を実行するために画像データを一時保存する画像メモリが含まれている。
SSD1107は、プログラムやデータを格納している不揮発性の記憶装置である。SSD1107の代わりにHDD(Hard Disk Drive)等が設けられてもよい。
入出力I/F1106は外部機器と接続するためのインターフェースである。また、入出力I/F1106を介して、処理部1101はCANバス等の車載ネットワークに接続することができる。
FPGA1108は、CPU1103が作成した画像に基づいてLDドライバ1109を制御する。LDドライバ1109は光源部1111に電気的に接続され、光源部1111のLDを駆動することで、画像に応じたLDの発光を制御する。
FPGA1108は、画像の画素位置に応じた方向にレーザビームが偏向されるように、光偏向器1112に電気的に接続されたMEMSコントローラ1110により、光偏向器1112を動作させる。
<その他>
なお、情報処理装置10の各機能部は、1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。また、情報処理装置10の各機能部のうち少なくとも1つの機能部を、他の機能部を有する装置とは別体の装置として構成してもよい。この場合、例えば、制御部15を他の電子機器が有する構成としてもよい。また、視線判定部13、及び動作判定部14等を、クラウド上のサーバ装置等が有する構成としてもよい。すなわち、情報処理装置10には、複数の装置により構成される形態も含まれる。また、情報処理装置10の各機能部は、例えば、ASIC(Application Specific Integrated Circuit)等のハードウェアにより実現されてもよい。
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
1 情報処理システム
10 情報処理装置
11 表示制御部
12 取得部
13 視線判定部
14 動作判定部
15 制御部
20 表示装置
30 視線センサ
40 入力装置
50 動作センサ
301 車両
特開2018-105854号公報

Claims (8)

  1. ユーザによる選択可能な項目を有する画面を表示装置に表示させる情報処理装置であって、
    第1の画面を表示している際に前記ユーザによる入力装置に対する所定の動作を検知すると、前記第1の画面における前記ユーザに見られている位置に基づく第2の画面を表示させる表示制御部と、
    前記ユーザによる前記入力装置に対する操作に基づき、前記第2の画面において入力を受け付ける受付部と、
    を備え
    前記所定の動作は、前記ユーザの体の少なくとも一部を前記入力装置に近づける動作である情報処理装置。
  2. 前記表示制御部は、前記ユーザの体の少なくとも一部と前記入力装置との距離が第1距離である場合に、前記第1の画面を表示させ、
    前記ユーザの体の少なくとも一部と前記入力装置との距離が前記第1距離よりも近い第2距離である場合に、前記第2の画面を表示させる、
    請求項に記載の情報処理装置。
  3. 前記表示制御部は、
    前記第2の画面を表示させている間、前記ユーザによる所定のジェスチャに応答して、前記第1の画面を表示させる、
    請求項1又は2に記載の情報処理装置。
  4. 前記表示制御部は、
    前記第2の画面を表示させている間に、前記第2の画面を前記ユーザが所定時間以上見ていない場合、前記第1の画面を表示させる、
    請求項1乃至のいずれか一項に記載の情報処理装置。
  5. ユーザによる選択可能な項目を有する画面を表示装置に表示させる情報処理システムであって、
    少なくとも前記ユーザの見ている位置を検知する第1センサと、
    第1の画面を表示している際に、前記ユーザによる入力装置に対する所定の動作を検知すると、前記第1センサが検知した前記ユーザの見ている位置に応じた第2の画面を表示させる表示制御部と、
    前記ユーザによる前記入力装置に対する操作に基づき、前記第2の画面において入力を受け付ける受付部と、
    を有し、
    前記所定の動作は、前記ユーザの体の少なくとも一部を前記入力装置に近づける動作である情報処理システム。
  6. 請求項に記載の情報処理システムと、前記表示装置と、前記入力装置とを有する移動体。
  7. ユーザによる選択可能な項目を有する画面を表示装置に表示させる情報処理装置が、
    第1の画面を表示している際に前記ユーザによる入力装置に対する所定の動作を検知すると、前記第1の画面における前記ユーザに見られている位置に基づく第2の画面を表示させる処理と、
    前記ユーザによる前記入力装置に対する操作に基づき、前記第2の画面において入力を受け付ける処理と、
    を実行し、
    前記所定の動作は、前記ユーザの体の少なくとも一部を前記入力装置に近づける動作である情報処理方法。
  8. ユーザによる選択可能な項目を有する画面を表示装置に表示させる情報処理装置に、
    第1の画面を表示している際に前記ユーザによる入力装置に対する所定の動作を検知すると、前記第1の画面における前記ユーザに見られている位置に基づく第2の画面を表示させる処理と、
    前記ユーザによる前記入力装置に対する操作に基づき、前記第2の画面において入力を受け付ける処理と、
    を実行させ
    前記所定の動作は、前記ユーザの体の少なくとも一部を前記入力装置に近づける動作であるプログラム。
JP2019052961A 2018-03-28 2019-03-20 情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム Active JP7338184B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/013266 WO2019189403A1 (en) 2018-03-28 2019-03-27 Information processing apparatus, information processing system, information processing method, and program
US16/979,012 US20210055790A1 (en) 2018-03-28 2019-03-27 Information processing apparatus, information processing system, information processing method, and recording medium
EP19717376.8A EP3776159A1 (en) 2018-03-28 2019-03-27 Information processing apparatus, information processing system, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018063049 2018-03-28
JP2018063049 2018-03-28

Publications (2)

Publication Number Publication Date
JP2019175449A JP2019175449A (ja) 2019-10-10
JP7338184B2 true JP7338184B2 (ja) 2023-09-05

Family

ID=68167143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019052961A Active JP7338184B2 (ja) 2018-03-28 2019-03-20 情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US20210055790A1 (ja)
EP (1) EP3776159A1 (ja)
JP (1) JP7338184B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020003104T5 (de) * 2019-06-25 2022-03-17 Semiconductor Energy Laboratory Co., Ltd. Datenverarbeitungssystem und Verfahren zur Datenverarbeitung
KR20230050466A (ko) * 2020-09-25 2023-04-14 애플 인크. 사용자 인터페이스들을 내비게이팅하기 위한 방법들
JP7296069B2 (ja) * 2021-01-28 2023-06-22 独立行政法人国立高等専門学校機構 視線入力装置、および視線入力方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251658A (ja) 2008-04-01 2009-10-29 Fujifilm Corp 携帯型電子装置及びその制御方法
WO2014207828A1 (ja) 2013-06-25 2014-12-31 富士通株式会社 情報処理装置およびプログラム
US20170068322A1 (en) 2015-09-04 2017-03-09 Eyesight Mobile Technologies Ltd. Gesture recognition control device
JP2018018437A (ja) 2016-07-29 2018-02-01 富士ゼロックス株式会社 画像表示装置、画像形成装置、および、プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0958375A (ja) * 1995-08-29 1997-03-04 Mitsubishi Motors Corp 自動車用操作装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251658A (ja) 2008-04-01 2009-10-29 Fujifilm Corp 携帯型電子装置及びその制御方法
WO2014207828A1 (ja) 2013-06-25 2014-12-31 富士通株式会社 情報処理装置およびプログラム
US20170068322A1 (en) 2015-09-04 2017-03-09 Eyesight Mobile Technologies Ltd. Gesture recognition control device
JP2018018437A (ja) 2016-07-29 2018-02-01 富士ゼロックス株式会社 画像表示装置、画像形成装置、および、プログラム

Also Published As

Publication number Publication date
EP3776159A1 (en) 2021-02-17
JP2019175449A (ja) 2019-10-10
US20210055790A1 (en) 2021-02-25

Similar Documents

Publication Publication Date Title
JP5052677B2 (ja) 表示入力装置
JP7338184B2 (ja) 情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム
RU2583754C2 (ru) Устройство управления
US20140282161A1 (en) Gesture-based control systems and methods
JP6746706B2 (ja) 自動運転制御パラメータ変更装置および自動運転制御パラメータ変更方法
JP6429886B2 (ja) 触感制御システムおよび触感制御方法
WO2009128148A1 (ja) 遠隔操作装置
JP6851482B2 (ja) 操作支援装置および操作支援方法
US20180307405A1 (en) Contextual vehicle user interface
JP6844936B2 (ja) 表示制御装置
JP2006264615A (ja) 車両用表示装置
US11221735B2 (en) Vehicular control unit
JP6033465B2 (ja) 表示制御装置
JP2018195134A (ja) 車載用情報処理システム
US8731824B1 (en) Navigation control for a touch screen user interface
WO2015083264A1 (ja) 表示制御装置及び表示制御方法
JP6393604B2 (ja) 操作装置
JP6210055B2 (ja) 情報処理システム、情報処理装置、情報処理方法
JP2018128968A (ja) 車両用入力装置、及び、車両用入力装置の制御方法
JP7340150B2 (ja) 操作画像表示装置、操作画像表示システム、及び操作画像表示プログラム
WO2019189403A1 (en) Information processing apparatus, information processing system, information processing method, and program
JP6014420B2 (ja) 操作制御装置、操作制御方法、および、操作制御装置用プログラム
JP2016185720A (ja) 車両用入力システム
JP7001368B2 (ja) 操作装置
WO2020196559A1 (ja) 制御装置及び制御システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230807

R151 Written notification of patent or utility model registration

Ref document number: 7338184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151