JP6079418B2 - 入力装置および入力プログラム - Google Patents

入力装置および入力プログラム Download PDF

Info

Publication number
JP6079418B2
JP6079418B2 JP2013097910A JP2013097910A JP6079418B2 JP 6079418 B2 JP6079418 B2 JP 6079418B2 JP 2013097910 A JP2013097910 A JP 2013097910A JP 2013097910 A JP2013097910 A JP 2013097910A JP 6079418 B2 JP6079418 B2 JP 6079418B2
Authority
JP
Japan
Prior art keywords
input
candidate
line
displayed
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013097910A
Other languages
English (en)
Other versions
JP2014219812A (ja
Inventor
哲典 田口
哲典 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013097910A priority Critical patent/JP6079418B2/ja
Publication of JP2014219812A publication Critical patent/JP2014219812A/ja
Application granted granted Critical
Publication of JP6079418B2 publication Critical patent/JP6079418B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、入力装置等に関する。
利用者が電車内でつり革を持っている場合や、バッグや傘を持った状態で携帯端末を操作しようとすると、片手がふさがっているため、利用者は快適に携帯電話のタッチパネルを操作することができない。ここで、視線インターフェース等の技術を用いれば、片手がふさがっている状態でも、利用者はタッチパネルの操作を行うことができる。
従来技術では、利用者が視線インターフェースで操作を行う場合に、利用者の視線位置を検出して、入力を補助するためのガイドを表示する技術が開示されている。係る従来技術では、視線位置がガイドの表示位置から所定の範囲以内の場合には、ガイドの表示位置を固定することで、効率的にガイドの項目を選択することができる。
図7は、従来技術の一例を説明するための図である。図7に示すように、従来技術は、視線位置10aを検出し、視線位置10aに対応するガイド10bを表示させる。従来技術は、視線位置10aがガイド10bの表示位置から所定の範囲以内の場合には、ガイド10bの表示位置を固定する。利用者は、ガイド10bが表示された後、所定のタッチ操作を行うことで、ガイド10b内の項目を選択する。例えば、利用者が項目「拡大」を選択する場合には、親指10cで、タッチパネル20上のいずれかの領域で右回りの円を描くタッチ操作を行う。
特開2000−250677号公報
しかしながら、上述した従来技術では、視線インターフェースによって操作可能な項目が分かり難いという問題がある。
例えば、従来技術のように、視線位置がガイドの表示位置から所定の範囲以内の場合に、ガイドの表示位置を固定すると、ガイドの操作を視線インターフェースで選択出来ない場合であっても、利用者が視線インターフェースでの操作を試みてしまう場合があった。この問題は、視線インターフェースに限らず、画面上の位置を指定する各種の入力手段によっても同様に発生する問題である。
1つの側面では、入力手段によって操作可能な項目を分かりやすくできる入力装置および入力プログラムを提供することを目的とする。
第1の案では、入力装置は、第1の入力手段と、候補表示部と、表示制御部とを有する。第1の入力手段は、画面上の位置を指定する。候補表示部は、第1の入力手段で指定された位置に対応する入力候補の表示を行う。表示制御部は、候補表示部が表示する入力候補と、該入力候補に対応する入力手段とを関連づけた情報を格納するデータベースを基にして、候補表示部が表示する入力候補に前記第1の入力手段に対応する入力候補が存在しないか否かを判定する。表示制御部は、入力手段に対応する入力候補が存在しない場合に、第1の入力手段により指定される位置が、閾値を超えて入力候補に近接すると、入力候補を第1の入力手段により指定される位置から遠ざける。
第1の案では、入力手段によって操作可能な項目を分かりやすくできるという効果を奏する。
図1は、本実施例に係る入力装置の構成を示す機能ブロック図である。 図2は、対応テーブルのデータ構造の一例を示す図である。 図3は、本実施例に係る表示制御部の処理を説明するための図(1)である。 図4は、本実施例に係る表示制御部の処理を説明するための図(2)である。 図5は、本実施例に係る入力装置の処理手順を示すフローチャートである。 図6は、入力プログラムを実行するコンピュータの一例を示す図である。 図7は、従来技術の一例を説明するための図である。
以下に、本願の開示する入力装置および入力プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
本実施例に係る入力装置の構成について説明する。図1は、本実施例に係る入力装置の構成を示す機能ブロック図である。図1に示すように、この入力装置100は、通信部110、カメラ120、光源130、タッチパネル140、記憶部150、制御部160を有する。なお、その他の構成は、周知のタブレット端末等と同様であるため、ここでは説明を省略する。
通信部110は、ネットワークに接続して他の装置とデータ通信を実行する処理部である。例えば、通信部110は、無線通信装置に対応する。後述する制御部160は、通信部110を介して、ネットワーク上の外部装置等とデータ通信を実行する。
カメラ120は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などを用いた撮像装置である。カメラ120は、撮像範囲に含まれる被写体の画像を撮影し、撮影した被写体の画像データを、制御部160に出力する。
例えば、カメラ120は、画像を撮影するタイミングで、光源130を制御し、被写体に赤外線を照射させる。カメラ120が撮影する被写体に利用者の眼球が含まれる場合には、網膜上の光の反射がカメラ120によって捉えられ、眼球の瞳孔部分が他の部分よりも明るく写った画像が得られる。なお、上記のカメラ120は、入力装置100の出荷時から搭載されているカメラを利用しても良いし、外部接続されたデジタルカメラ等を利用しても良い。
光源130は、カメラ120の制御命令に応答して、赤外線を照射する装置である。
タッチパネル140は、表示と入力の2つの機能を備えたインターフェースである。タッチパネル140は、制御部160から出力される情報を表示する。例えば、タッチパネル140は、制御部160によって指定された位置にカーソルを表示させる。また、タッチパネル140は、タッチ操作を受け付けた場合に、触れられた画面位置の情報を制御部160に出力する。
記憶部150は、例えば、表示画面データ151、対応テーブル152を記憶する。記憶部150は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
表示画面データ151は、タッチパネル140に表示される画面の情報である。例えば、タッチパネル140にWebページの情報を表示する場合は、表示画面データ151には、Webページのソースコードが含まれる。また、表示画面データ151には、タッチパネル140に表示されるタッチパネル140上の位置と、該位置に対応する入力候補の項目とを対応付けた情報を含む。
対応テーブル152は、入力候補の項目と、該項目を選択可能な入力手段とを関連付けたテーブルである。図2は、対応テーブルのデータ構造の一例を示す図である。図2に示すように、この対応テーブル152は、入力候補の項目と、入力手段とを対応付ける。例えば、項目「項目AA」は入力手段「タッチ操作」によって選択できる旨が示される。すなわち、項目「項目AA」は、視線入力によって操作できない項目である。
制御部160は、テーブル生成部161、視線位置検出部162、タッチ検出部163、表示制御部164を有する。例えば、制御部160は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部160は、例えば、CPUやMPU(Micro Processing Unit)等の電子回路に対応する。
テーブル生成部161は、表示画面データ151を基にして、対応テーブル152を生成する処理部である。例えば、テーブル生成部161は、表示画面データ151を走査して、入力候補の項目と、該入力候補の項目に対応する入力手段との関係を判定し、判定結果を基にして、対応テーブル152を生成する。なお、予め所定の対応テーブルを、対応テーブル152として、記憶部150に記憶させておいても良い。
視線位置検出部162は、タッチパネル140上の視線位置を検出する処理部である。視線位置検出部162は、視線位置の情報を表示制御部164に出力する。例えば、視線位置検出部162は、カメラ120によって出力された被写体の画像に角膜反射法などのアルゴリズムを適用し、眼球の瞳孔の中心位置から視線の方向が指す視点の位置を検出する。係る視点の位置を、本実施例では視線位置とする。
なお、ここでは、角膜反射法を用いて視線位置を検出する場合について説明したが、他の方法を用いて視線位置を検出しても良い。例えば、入力装置100は、タッチパネル140の画面を分割し、分割した領域を見る眼の形状を学習しておき、カメラ120から入力される画像から抽出した眼の形状とテンプレートマッチングを実行することによって、視線位置を検出しても良い。また、入力装置100は、視線の位置を検出するヘッドセットを利用者に装着させ、ヘッドセットによって検出された視線の位置を取得しても良い。
タッチ検出部163は、タッチパネル140上のタッチ操作の行われた位置情報を検出する処理部である。タッチ検出部163は、タッチ操作の行われた位置情報を、表示制御部164に出力する。
表示制御部164は、表示画面データ151に対応する表示画像をタッチパネル140に表示する処理部である。表示制御部164は、候補表示部および表示制御部に対応するものである。表示制御部164は、視線位置と、表示画面データ151で定義された位置および入力候補の項目とを基にして、視線位置に対応する入力候補の項目を特定し、特定した入力候補の項目を表示する。
図3は、本実施例に係る表示制御部の処理を説明するための図(1)である。例えば、視線位置30に対応する入力候補の項目が項目40である場合には、表示制御部164は、タッチパネル140上に、項目40を表示する。
表示制御部164は、対応テーブル152を参照し、タッチパネル140上に表示した入力候補の項目が、視線入力に対応しているか否かを判定する。入力候補の項目が、視線入力に対応している場合の、表示制御部164の処理について説明する。表示制御部164は、視線位置と入力候補の項目との距離が閾値未満の間は、入力候補の項目の位置を固定する。そして、表示制御部164は、視線位置と入力候補の項目との位置が重なった場合に、入力候補の項目が選択されたと判定し、選択された項目に応じた各種の処理を実行する。
続いて、入力候補の項目が、視線入力に対応していない場合の、表示制御部164の処理について説明する。この場合には、入力候補の項目は、視線入力で操作できないことを示す。表示制御部164は、視線位置と、入力候補の項目の位置との距離が、閾値未満とならないように、入力候補の項目の位置を、視線位置から遠ざける処理を行う。
図4は、本実施例に係る表示制御部の処理を説明するための図(2)である。例えば、表示制御部164は、図4の1A,1Bに示すように、視線位置30と、入力候補の項目40との距離が所定の閾値未満とならないように、入力候補の項目40の位置を、視線位置30から遠ざける。ただし、表示制御部164は、視線位置30を基準とした領域50内で、項目40を移動させる。例えば、領域50の大きさは、利用者の中心視野に含まれる大きさに設定される。
表示制御部164は、図4の1Cに示すように、入力候補の項目40が複数の項目を含んでいる場合には、項目40を2つに分解して項目41,42とする。表示制御部164は、入力候補の各項目41,42の位置を、視線位置30から遠ざける。ただし、表示制御部164は、視線位置30を基準とした領域50内で、項目41,42を移動させる。領域50に関する説明は上記のものと同様である。
表示制御部164は、図4の1Dに示すように、入力候補の項目40が複数の項目を含んでいる場合には、各項目を個別に分解して、項目43,44,45,46とする。表示制御部164は、入力候補の各項目43〜46の位置を、視線位置30から遠ざける。ただし、表示制御部164は、視線位置30を基準とした領域50内で、項目43〜46を移動させる。領域50に関する説明は上記のものと同様である。
なお、表示制御部164は、視線位置が、入力候補の項目の位置から所定距離以上離れた状態が所定時間以上となる場合には、現在表示中の入力候補の項目をタッチパネル140上から消去する。そして、表示制御部164は、現在の視線位置に対応する入力候補の項目を再表示する。
また、表示制御部164は、タッチ検出部163からタッチ操作の行われた位置情報を取得し、位置情報に対応した各種の処理を実行する。例えば、図3において、入力候補の項目40に対応する入力手段がタッチ操作であり、入力候補の項目40に対してタッチ操作が行われた場合には、表示制御部164は、入力候補の項目40が選択されたと判定し、項目に応じた各種の処理を実行する。
次に、本実施例に係る入力装置100が入力候補の項目の位置を制御する処理手順について説明する。図5は、本実施例に係る入力装置の処理手順を示すフローチャートである。例えば、図5に示す処理は、視線位置を検出したことを契機にして処理を開始する。
図5に示すように、入力装置100は、視線位置を検出し(ステップS101)、視線位置に対応する入力候補の項目を検出する(ステップS102)。入力装置100は、入力候補の項目の表示位置を決定する(ステップS103)。
入力装置100は、入力候補の項目上に視線位置が存在するか否かを判定する(ステップS104)。入力装置100は、入力候補の項目上に視線位置が存在しない場合には(ステップS104,No)、ステップS101に移行する。
入力装置100は、入力候補の項目上に視線位置が存在する場合には(ステップS104,Yes)、入力候補の項目の位置を移動し(ステップS105)、ステップS101に移行する。入力装置100は、ステップS105において、入力候補の項目の位置との距離が、閾値未満とならないように、入力候補の項目の位置を、視線位置から遠ざける。
次に、本実施例に係る入力装置100の効果について説明する。入力装置100は、入力候補が視線入力に対応していない場合に、視線位置が閾値を超えて入力候補の項目に近接すると、入力候補をより視線位置から遠ざける制御を行う。このため、入力装置100によれば、視線インターフェースによって操作可能な項目を分かりやすくすることができる。例えば、利用者が視線インターフェースで、項目を選択しようとしても、かかる項目が視線位置から離れていくため、容易に、視線インターフェースで選択できないことを理解できる。
また、入力装置は、視線位置を基準とした中心視野の範囲に対応する領域内に入力候補の項目を表示するため、視線位置から入力候補の項目を遠ざけつつ、かかる入力候補の項目を利用者に確認させることができる。
また、入力装置100は、視線位置が入力候補から所定距離以上離れた状態が所定時間以上となる場合に、現在表示中の入力候補を画面上から消去し、視線位置に対応する入力候補を再表示する。このため、利用者の興味のない入力候補の項目が表示され続けることを防止することができる。
なお、入力装置100の表示制御部164は、入力候補の項目を透過表示しても良い。このように、表示制御部164が、入力候補の項目を透過表示することで、入力候補の項目と重なってタッチパネル140に表示される部分が見えなくなることを防止できる。
ところで、本実施例では一例として、視線入力と、入力候補の項目とが対応していない場合に、入力候補の項目を視線位置から遠ざけたがこれに限定されるものではない。例えば、ある入力手段と、入力候補の項目が対応していない場合に、係る入力手段によって指定される位置から、入力候補の項目を遠ざけてもよい。例えば、ある入力手段は、マウス、タッチ入力、傾きを利用した入力装置等であっても良い。
次に、上記の実施例に示した入力装置と同様の機能を実現する支援プログラムを実行するコンピュータの一例を説明する。図6は、入力プログラムを実行するコンピュータの一例を示す図である。
図6に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付けると共に、各種の情報を表示するタッチパネル302を有する。コンピュータ300は、記憶媒体からプログラム等を読取る読み取り装置303と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置304とカメラ305とを有する。コンピュータ300は、各種情報を一時記憶するRAM306と、記憶装置307を有する。そして、各装置301〜307は、バス307に接続される。
記憶装置307は、入力プログラム307a、候補表示プログラム307b、表示制御プログラム307cを有する。CPU301は、各プログラム307a,307b,307cを読み出してRAM306に展開する。
入力プログラム307aは、入力プロセス306aとして機能する。候補表示プログラム307bは、候補表示プロセス306bとして機能する。表示制御プログラム307cは、表示制御プロセス306cとして機能する。
例えば、入力プロセス306aは、視線位置検出部162に対応する。候補表示プロセス306bおよび表示制御プロセス306cは、表示制御部164に対応する。
なお、各プログラム307a〜307cについては、必ずしも最初から記憶装置307に記憶させておかなくてもよい。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300がこれらから各プログラム307a〜307cを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)画面上の位置を指定する第1の入力手段と、
前記第1の入力手段で指定された位置に対応する入力候補の表示を行う候補表示部と、
前記候補表示部が表示する入力候補と、該入力候補に対応する入力手段とを関連づけた情報を格納するデータベースを基にして、前記候補表示部が表示する入力候補に前記第1の入力手段に対応する入力候補が存在しない場合に、前記第1の入力手段により指定される位置が、閾値を超えて前記候補表示部が表示する入力候補に近接すると、前記候補表示部が表示する入力候補を前記第1の入力手段により指定される位置から遠ざける表示制御部と
を有することを特徴とする入力装置。
(付記2)前記第1の入力手段は、画面上の視線位置を検出し、前記候補表示部は、前記視線位置を基準とした中心視野の範囲に対応する領域内に前記入力候補を表示し、前記表示制御部は、前記候補表示部が表示する入力候補を、前記第1の入力手段が検出する視線位置から遠ざけることを特徴とする付記1に記載の入力装置。
(付記3)前記候補表示部は、前記視線位置が前記入力候補から所定距離以上離れた状態が所定時間以上となる場合に、現在表示中の入力候補を画面上から消去し、前記視線位置に対応する入力候補を再表示することを特徴とする付記2に記載の入力装置。
(付記4)前記候補表示部は、前記入力候補を透過表示することを特徴とする付記1、2または3に記載の入力装置。
(付記5)コンピュータに、
第1の入力手段により、画面上の位置の指定された位置に対応する入力候補を表示し、
前記入力候補と、該入力候補に対応する入力手段とを関連づけた情報を格納するデータベースを参照して、前記入力候補に前記第1の入力手段に対応する入力候補が存在しない場合に、前記第1の入力手段により指定される位置が、閾値を超えて前記入力候補に近接すると、前記入力候補を前記第1の入力手段により指定される位置から遠ざける
各処理を実行させることを特徴とする入力プログラム。
(付記6)前記入力候補を表示する処理は、前記視線位置を基準とした中心視野の範囲に対応する領域内に前記入力候補を表示し、前記入力候補を、前記視線位置から遠ざけることを特徴とする付記5に記載の入力プログラム。
(付記7)前記入力候補を表示する処理は、前記視線位置が前記入力候補から所定距離以上離れた状態が所定時間以上となる場合に、現在表示中の入力候補を画面上から消去し、前記視線位置に対応する入力候補を再表示することを特徴とする付記6に記載の入力プログラム。
(付記8)前記入力候補を表示する処理は、入力候補を透過表示することを特徴とする付記5、6または7に記載の入力プログラム。
100 入力装置
160 制御部
162 視線位置検出部
164 表示制御部

Claims (5)

  1. 画面上の位置を指定する第1の入力手段と、
    前記第1の入力手段で指定された位置に対応する入力候補の表示を行う候補表示部と、
    前記候補表示部が表示する入力候補と、該入力候補に対応する入力手段とを関連づけた情報を格納するデータベースを基にして、前記候補表示部が表示する入力候補に前記第1の入力手段に対応する入力候補が存在しない場合に、前記第1の入力手段により指定される位置が、閾値を超えて前記候補表示部が表示する入力候補に近接すると、前記候補表示部が表示する入力候補を前記第1の入力手段により指定される位置から遠ざける表示制御部と
    を有することを特徴とする入力装置。
  2. 前記第1の入力手段は、画面上の視線位置を検出し、前記候補表示部は、前記視線位置を基準とした中心視野の範囲に対応する領域内に前記入力候補を表示し、前記表示制御部は、前記候補表示部が表示する入力候補を、前記第1の入力手段が検出する視線位置から遠ざけることを特徴とする請求項1に記載の入力装置。
  3. 前記候補表示部は、前記視線位置が前記入力候補から所定距離以上離れた状態が所定時間以上となる場合に、現在表示中の入力候補を画面上から消去し、前記視線位置に対応する入力候補を再表示することを特徴とする請求項2に記載の入力装置。
  4. 前記候補表示部は、前記入力候補を透過表示することを特徴とする請求項1、2または3に記載の入力装置。
  5. コンピュータに、
    第1の入力手段により、画面上の位置の指定された位置に対応する入力候補を表示し、
    前記入力候補と、該入力候補に対応する入力手段とを関連づけた情報を格納するデータベースを参照して、前記入力候補に前記第1の入力手段に対応する入力候補が存在しない場合に、前記第1の入力手段により指定される位置が、閾値を超えて前記入力候補に近接すると、前記入力候補を前記第1の入力手段により指定される位置から遠ざける
    各処理を実行させることを特徴とする入力プログラム。
JP2013097910A 2013-05-07 2013-05-07 入力装置および入力プログラム Active JP6079418B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013097910A JP6079418B2 (ja) 2013-05-07 2013-05-07 入力装置および入力プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013097910A JP6079418B2 (ja) 2013-05-07 2013-05-07 入力装置および入力プログラム

Publications (2)

Publication Number Publication Date
JP2014219812A JP2014219812A (ja) 2014-11-20
JP6079418B2 true JP6079418B2 (ja) 2017-02-15

Family

ID=51938202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013097910A Active JP6079418B2 (ja) 2013-05-07 2013-05-07 入力装置および入力プログラム

Country Status (1)

Country Link
JP (1) JP6079418B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6784116B2 (ja) * 2016-09-23 2020-11-11 富士ゼロックス株式会社 情報処理装置、画像形成装置およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07110751A (ja) * 1993-10-12 1995-04-25 Toshiba Corp マルチモーダル装置
JPH09282134A (ja) * 1996-04-18 1997-10-31 Toshiba Corp コンピュータシステム
JP3753882B2 (ja) * 1999-03-02 2006-03-08 株式会社東芝 マルチモーダルインターフェース装置及びマルチモーダルインターフェース方法
JP2012190184A (ja) * 2011-03-09 2012-10-04 Sony Corp 画像処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
JP2014219812A (ja) 2014-11-20

Similar Documents

Publication Publication Date Title
JP6070833B2 (ja) 入力装置及び入力プログラム
US9952690B2 (en) Tablet device, and operation receiving method
US10591729B2 (en) Wearable device
US20190250714A1 (en) Systems and methods for triggering actions based on touch-free gesture detection
US10495878B2 (en) Mobile terminal and controlling method thereof
RU2638004C2 (ru) Устройство обработки информации, способ управления отображением и программа
US9952667B2 (en) Apparatus and method for calibration of gaze detection
KR102458344B1 (ko) 카메라의 초점을 변경하는 방법 및 장치
US10477090B2 (en) Wearable device, control method and non-transitory storage medium
JP2013242671A (ja) タブレット端末および操作受付プログラム
JP6123694B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20150234461A1 (en) Display control device, display control method and recording medium
JP2016177658A (ja) 仮想入力装置、入力方法、およびプログラム
JP6079418B2 (ja) 入力装置および入力プログラム
US10389947B2 (en) Omnidirectional camera display image changing system, omnidirectional camera display image changing method, and program
JP2017083916A (ja) ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
JP5558899B2 (ja) 情報処理装置、その処理方法及びプログラム
JP2013254406A (ja) 表示装置、表示方法及びプログラム。
US10742937B2 (en) Watching apparatus, watching method, and recording medium
JP6999822B2 (ja) 端末装置および端末装置の制御方法
JP6823988B2 (ja) 画面操作方法及び画面操作装置
JP6679430B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP2009205498A (ja) 情報提示装置、情報提示方法、情報提示プログラムおよびそのプログラムを記録した記録媒体
JP2015230496A (ja) 電子機器
JP6169462B2 (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170102

R150 Certificate of patent or registration of utility model

Ref document number: 6079418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150