WO2019176009A1 - 携帯情報端末 - Google Patents

携帯情報端末 Download PDF

Info

Publication number
WO2019176009A1
WO2019176009A1 PCT/JP2018/009956 JP2018009956W WO2019176009A1 WO 2019176009 A1 WO2019176009 A1 WO 2019176009A1 JP 2018009956 W JP2018009956 W JP 2018009956W WO 2019176009 A1 WO2019176009 A1 WO 2019176009A1
Authority
WO
WIPO (PCT)
Prior art keywords
information terminal
portable information
unit
touch
image
Prior art date
Application number
PCT/JP2018/009956
Other languages
English (en)
French (fr)
Inventor
吉澤 和彦
橋本 康宣
貞雄 鶴賀
吉田 進
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to CN201880091123.7A priority Critical patent/CN111868674A/zh
Priority to PCT/JP2018/009956 priority patent/WO2019176009A1/ja
Priority to US16/979,966 priority patent/US11301087B2/en
Priority to JP2020506020A priority patent/JP7155242B2/ja
Publication of WO2019176009A1 publication Critical patent/WO2019176009A1/ja
Priority to US17/717,263 priority patent/US11947757B2/en
Priority to JP2022160637A priority patent/JP2022188192A/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • FIG. 6 is a diagram for explaining an erroneous operation prevention process in the first embodiment.
  • the block diagram of the in-camera of a portable information terminal. 5 is a flowchart illustrating an erroneous operation prevention process according to the first embodiment. The figure explaining the detail of the process (presence / absence determination of an operation instruction
  • FIG. 6 is a diagram for explaining an erroneous operation prevention process in the first embodiment.
  • the block diagram of the in-camera of a portable information terminal. 5 is a flowchart illustrating an erroneous operation prevention process according to the first embodiment.
  • step S106 it is determined that there is no operation instruction.

Abstract

画像表示部とタッチパネル部とを有するタッチスクリーンを備え、タッチスクリーンに対するタッチ操作により指示を行う携帯情報端末であって、画像表示部にタッチ操作の対象となるオブジェクトを表示させる表示制御部と、タッチスクリーンに対してタッチ操作を行う操作指示物の映像を取得する画像入力部と、画像入力部が取得した操作指示物の映像を解析して、携帯情報端末の位置を基準とした操作指示物の相対的なブレ量を算出するブレ検出部と、を備える。表示制御部は、ブレ検出部で算出した操作指示物の相対的なブレ量に基づいて、画像表示部に表示するオブジェクトを相対的なブレ量に追従するようにずらして表示させる。これにより、揺れる車両内で携帯情報端末を使用する際のタッチ位置ずれに伴うに誤操作の発生を低減させる。

Description

携帯情報端末
 本発明は、タッチスクリーンを備えた携帯情報端末における誤操作防止技術に関する。
 スマートホンやタブレット端末等の携帯情報端末の普及が進んでいる。これらの携帯情報端末はタッチスクリーンを備えており、ユーザは、タッチスクリーンにタッチ操作を行うことで、携帯情報端末に対する所望の操作指示を与えることができる。例えば、ユーザは、タッチスクリーン上のアイコン等が表示される領域を指等でタッチすることで、タッチ位置のアイコンに関連付けられたアプリケーションを起動させることができる。
 一般的に、タッチスクリーン上におけるアイコン等のオブジェクトの表示位置と、前記オブジェクトに対してタッチ操作が行われたことを検知する操作検知領域とは、概略一致して設定される。よって、タッチした位置がオブジェクトの表示位置(操作検知領域)からずれた場合、そのタッチ操作は前記オブジェクトに対する操作指示とは判別されず、誤った操作となる。
 これに関し特許文献1には、画面上を動くオブジェクトを選択する際に、誤操作の可能性を低減する技術が開示されている。前記特許文献1によれば、「画面上に表示された表示オブジェクトごとに、前記画面上での表示オブジェクトの移動速度に応じて、入力手段による座標の入力を受け付ける反応領域を当該表示オブジェクトの表示範囲より広く設定する」ことが記載されている。
特開2012-217101号公報
 前記特許文献1では、画面上に表示したオブジェクトが動く場合を取り上げているが、画面上のオブジェクトが静止している場合にも誤操作が生じる場合がある。例えば、ユーザが電車や自動車等に乗車中に携帯情報端末を使用する場合、車両の揺れに起因して誤操作が生じる可能性がある。具体的には、ユーザが左手で携帯情報端末の筐体を把持し、右手の指(または右手で把持したタッチペン等)でタッチスクリーンに対するタッチ操作を行う場合を想定する。車両の揺れに伴い、ユーザの左手と右手は揺れることになるが、両者の揺れ具合は必ずしも一致せず、その結果、タッチスクリーン上の狙った位置とは異なる位置をタッチしてしまうことになる。即ち、揺れる車両内で携帯情報端末を操作する場合、タッチ対象が画面上で静止しているオブジェクトの場合でも、誤操作を生じる可能性がある。このような状況で生じる誤操作については、前記特許文献1では考慮されていない。
 本発明の目的は、タッチスクリーンを備えた携帯情報端末において、揺れる車両内で使用する際に発生する誤操作を低減させることである。
 前記課題を解決するため、代表的な本発明の携帯情報端末は、画像表示部とタッチパネル部とを有するタッチスクリーンを備え、前記タッチスクリーンに対するタッチ操作により指示を行うものであって、前記画像表示部にタッチ操作の対象となるオブジェクトを表示させる表示制御部と、前記タッチスクリーンに対してタッチ操作を行う操作指示物の映像を取得する画像入力部と、前記画像入力部が取得した前記操作指示物の映像を解析して、前記携帯情報端末の位置を基準とした前記操作指示物の相対的なブレ量を算出するブレ検出部と、を備え、前記ブレ検出部で算出した前記操作指示物の相対的なブレ量に基づいて、前記表示制御部は、前記画像表示部に表示するオブジェクトを前記相対的なブレ量に追従するようにずらして表示させる構成とした。
 本発明によれば、タッチスクリーンを備えた携帯情報端末を揺れる車両内で使用する場合において、誤操作が低減してユーザの使い勝手が向上する。
携帯情報端末の一例を示す外観図。 携帯情報端末で表示されるホーム画面の一例を示す図。 携帯情報端末のハードウェア構成の一例を示す図。 携帯情報端末のソフトウェア構成の一例を示す図。 携帯情報端末における誤操作発生を説明する図。 実施例1における誤操作防止処理を説明する図。 携帯情報端末のインカメラの構成図。 実施例1における誤操作防止処理を示すフローチャート。 S106の処理(操作指示物の有無判定)の詳細を説明する図。 実施例2における誤操作防止処理を説明する図。 実施例3における誤操作防止処理を説明する図。 実施例3における誤操作防止処理を示すフローチャート。 実施例4における誤操作防止のための確認画面の図。 実施例4における誤操作防止処理を示すフローチャート。 視聴用装置を介して携帯情報端末を使用する状態を示す図(実施例5)。 実施例5における誤操作防止処理を説明する図。
 以下、本発明の実施形態の例を、図面を用いて説明する。本実施例の携帯情報端末は、携帯電話やスマートホン、タブレット端末等であって良い。HMD(Head Mounted Display)等の頭部装着型情報端末であっても良い。また、スマートホンやタブレット端末等をアダプタに固定することにより頭部装着型情報端末の代替としたものであっても良い。その他、PDA(Personal Digital Assistants)、ノート型PC(Personal Computer)、電子ブックリーダ、デジタルスチルカメラ、動画撮影可能なビデオカメラ、携帯型ゲーム機等、タッチスクリーンを備えるデジタル機器であれば対象となる。以下では、主にスマートホンを例に説明する。また、以下の実施例では、ユーザはタッチスクリーンに表示されるアイコン等をタッチ操作する場合を例に説明するが、操作対象はアイコンに限らず、文字、図形、マップなど、任意のオブジェクトが対象となる。
 [携帯情報端末の外観]
  図1Aは、携帯情報端末100の一例を示す外観図である。ここでは、携帯情報端末100がスマートホンの場合について、(a)は前面(表面)図、(b)は背面(裏面)図を示す。
 (a)において、携帯情報端末100の前面には、タッチスクリーン180の他に、動作インジケータ124、第一画像入力部133、第二画像入力部134、モノラルスピーカ142、が備えられる。タッチスクリーン180は、後述するタッチパネル123と画像表示部131で構成され、ユーザがタッチ操作を行うとともに、アイコン等のオブジェクトを表示する画面である。動作インジケータ124は、LED(Light Emitting Diode)の点灯/点滅の有無により携帯情報端末100の動作状態を報知する。第一画像入力部133と第二画像入力部134は、前面側の被写体を撮影して画像信号を入力する「インカメラ」である。このうち第一画像入力部133は、携帯情報端末100に対するタッチ操作を行うユーザの指などの「操作指示物」の画像を取得するために使用される。第二画像入力部134は、ユーザの自撮り画像の取得のために使用される。
 (b)において、携帯情報端末100の背面には、タッチセンサ122、第三画像入力部135、補助光発光/赤外線測距器136、ステレオスピーカ143、が備えられる。第三画像入力部135は、背面側の被写体を撮影して画像信号を入力する「アウトカメラ」である。補助光発光/赤外線測距器136は、第三画像入力部135からの画像入力時に、光量不足を補うための補助光を発光可能である。また、補助光発光/赤外線測距器136は、赤外線を用いて対象物までの距離測定を行うことが可能である。
 携帯情報端末100の上面には、操作キー121(後述)の一つである電源キー121pが備えられる。携帯情報端末100の下面には、音声入力部145、拡張インタフェース部170(後述)の一つであるμ-USB入力部170uが備えられる。
 なお、タッチセンサ122は、携帯情報端末100の背面ではなく、側面や前面下部(タッチスクリーン180と重ならない部分)等に配置されても良い。また、タッチスクリーン180を構成するタッチパネル123がタッチセンサ122の機能を併せ持っていても良い。この場合、タッチスクリーン180上の任意の位置においてタッチセンサ122の機能(例えば、指紋認証機能)を実行することが可能である。
 [携帯情報端末のホーム画面]
  図1Bは、携帯情報端末100で表示されるホーム画面の一例を示す図である。タッチスクリーン180に表示されるホーム画面180aは、主機能アイコン表示領域180a1、一般アイコン表示領域180a2、その他情報表示領域180a3、制御キー領域180a4、通知領域180a5、で構成される。ホーム画面180aは、携帯情報端末100の電源オン後やスリープ状態の解除後や任意のアプリケーション実行中にホームキーをタッチした場合等に表示される基本画面である。
 主機能アイコン表示領域180a1は、携帯情報端末100で頻繁に使用される主要アプリケーションに関連付けられたアイコンの表示領域である。一般アイコン表示領域180a2は、その他のアプリケーションに関連付けられたアイコンの表示領域である。その他情報表示領域180a3は、時刻情報や気象情報等の一般的な情報を表示する領域である。制御キー領域180a4は、「バックキー」、「ホームキー」、「アプリ履歴キー」を表示する領域である。通知領域180a5は、電波状態やバッテリ残量等の情報が通知される領域である。
 ユーザは、ホーム画面180aから所定のアプリケーションを起動する場合、主機能アイコン表示領域180a1または一般アイコン表示領域180b2に表示されている目的のアイコン(オブジェクト)をタップ操作することで、起動指示を行うことができる。
 [携帯情報端末のハードウェア構成]
  図2Aは、携帯情報端末100のハードウェア構成の一例を示す図である。携帯情報端末100は、主制御部101、システムバス102、ROM103、RAM104、ストレージ部110、操作入力部120、画像処理部130、音声処理部140、センサ部150、通信部160、拡張インタフェース部170、を備えて構成される。
 主制御部101は、所定の動作プログラムに従って携帯情報端末100全体を制御するマイクロプロセッサユニットである。システムバス102は、主制御部101と携帯情報端末100内の各動作ブロックとの間で各種コマンドやデータの送受信を行うためのデータ通信路である。
 ROM(Read Only Memory)103は、オペレーティングシステムなどの基本動作プログラムやその他の動作プログラム(アプリケーション、以下同様)が格納されたメモリであり、例えばEEPROM(Electrically Erasable Programmable ROM)やフラッシュROMのような書き換え可能なROMが用いられる。RAM(Random Access Memory)104は基本動作プログラムやその他の動作プログラム実行時のワークエリアとなる。ROM103及びRAM104は主制御部101と一体構成であっても良い。また、ROM103は、図2Aに示したような独立構成とはせず、ストレージ部110内の一部記憶領域を使用するようにしても良い。
 ストレージ部110は、携帯情報端末100の動作プログラムや動作設定値、携帯情報端末100の正規ユーザの個人情報や認証情報等を記憶する。また、ネットワーク上からダウンロードした動作プログラムや該動作プログラムで作成した各種データ等を記憶可能である。また、ネットワーク上からダウンロードした動画や静止画や音声等のコンテンツを記憶可能である。また、カメラ機能を使用して撮影した動画や静止画等のデータを記憶可能である。ストレージ部110の一部領域を以ってROM103の機能の全部または一部を代替しても良い。また、ストレージ部110は、携帯情報端末100に外部から電源が供給されていない状態であっても記憶している情報を保持する必要がある。従って、例えば、フラッシュROMやSSD(Solid State Drive)などの半導体素子メモリ、HDD(Hard Disc Drive)などの磁気ディスクドライブ、等のデバイスが用いられる。なお、ROM103やストレージ部110に記憶された各動作プログラムは、ネットワーク上の各サーバ装置からのダウンロード処理により更新及び機能拡張することが可能である。
 操作入力部120は、携帯情報端末100に対する操作指示の入力を行う指示入力部である。操作入力部120は、ボタンスイッチ等を並べた操作キー121、静電容量の変化に基づいてユーザの手指が触れたことを検出するタッチセンサ122、画像表示部131に重ねて配置したタッチパネル123、で構成される。更に、その他の操作デバイスとして、拡張インタフェース部170に接続したキーボード、有線通信または無線通信により接続された別体の携帯端末機器、等を用いても良い。あるいは音声入力により携帯情報端末100の操作を行っても良い。なお、タッチセンサ122はセンサ部に触れた手指の指紋や掌紋を検出する機能を備える。
 画像処理部130は、画像表示部131、画像信号処理部132、第一画像入力部133、第二画像入力部134、第三画像入力部135、で構成される。画像表示部131は、例えば液晶パネル等の表示デバイスであり、画像信号処理部132で処理した画像データを表示し、携帯情報端末100のユーザに提供する。画像信号処理部132は図示を省略したビデオRAMを備え、入力した画像データに基づいて画像表示部131を駆動する。また、画像信号処理部132は、必要に応じて、符号化映像信号の復号処理、フォーマット変換処理、メニューやその他のOSD(On Screen Display)信号の重畳処理等を行う。第一画像入力部133と第二画像入力部134と第三画像入力部135は、インカメラ、アウトカメラなどの撮影ユニットであり、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等の電子デバイスを用いてレンズから入力した光を電気信号に変換し、被写体の画像データを取り込む。
 音声処理部140は、音声出力部141、音声信号処理部144、音声入力部145、で構成される。音声出力部141はスピーカであり、音声信号処理部144で処理した音声信号を携帯情報端末100のユーザに提供する。音声出力部141は、モノラルスピーカとステレオスピーカで構成される。音声信号処理部144は、必要に応じて、符号化音声信号の復号処理等を行う。音声入力部145はマイクであり、ユーザの声などを音声データに変換して入力する。
 センサ部150は、携帯情報端末100の状態を検出するための各種センサ群である。センサとして、GPS(Global Positioning System)受信部151、ジャイロセンサ152、地磁気センサ153、加速度センサ154を有し、携帯情報端末100の位置、傾き、方角、動きを検出する。その他に、照度センサ、近接センサ、気圧センサ等を備え、周囲の明るさ、周囲物の近接状況等を検出しても良い。
 通信部160は、LAN(Local Area Network)通信部161、電話網通信部162、NFC(Near Field Communication)部163、で構成される。LAN通信部161はアクセスポイント等を介してインターネット等のネットワークと接続され、ネットワーク上の各サーバ装置とデータの送受信を行う。電話網通信部162は、移動体電話通信網の基地局等との無線通信により、電話通信(通話)及びデータの送受信を行う。NFC部163は、対応するリーダ/ライタとの近接時に無線通信を行う。更に通信部160は、BlueTooth(登録商標)通信部や赤外線通信部を備えていても良い。
 拡張インタフェース部170は、携帯情報端末100の機能を拡張するためのインタフェース群であり、映像/音声インタフェース、USB(Universal Serial Bus)インタフェース、メモリインタフェース等で構成される。映像/音声インタフェースは、外部映像/音声機器との間で映像信号/音声信号の入力/出力を行う。USBインタフェースは、PCやキーボード、その他のUSB機器と接続して、データの送受信を行う。メモリインタフェースは、メモリカードやその他のメモリ媒体を接続してデータの送受信を行う。
 なお、図2Aに示した携帯情報端末100の構成例は、本実施例の動作に必須ではない構成も多数含んでおり、これらが備えられていない構成であっても本実施例の効果を損なうことはない。
 [携帯情報端末のソフトウェア構成例]
  図2Bは、携帯情報端末100のソフトウェア構成の一例を示す図である。ここには、ストレージ部110(或いはROM103、以下同様)及びRAM104におけるソフトウェアの構成を示す。ストレージ部110には、基本動作プログラム1001、状態検出プログラム1002、ブレ検出プログラム1003、表示制御プログラム1004、領域制御プログラム1005、その他の動作プログラム1009、が記憶される。また、ストレージ部110は、携帯情報端末100を識別可能な端末識別情報、携帯情報端末100のユーザを識別可能なユーザ識別情報、その他の情報を記憶する各種情報記憶領域1019を備える。
 ストレージ部110に記憶された基本動作プログラム1001はRAM104に展開され、更に主制御部101が前記展開された基本動作プログラムを実行することにより、基本動作部1101を構成する。同様に、状態検出プログラム1002とブレ検出プログラム1003と表示制御プログラム1004と領域制御プログラム1005とその他の動作プログラム1009は、それぞれRAM104に展開され、更に主制御部101が前記展開された各動作プログラムを実行することにより、状態検出部1102とブレ検出部1103と表示制御部1104と領域制御部1105とその他の動作部1109を構成する。また、RAM104は、各動作プログラム実行時に作成したデータを一時的に記憶する一時記憶領域1200を備える。
 なお、以下では動作説明を簡単にするために、主制御部101がストレージ部110に記憶された基本動作プログラム1001をRAM104に展開して実行することにより各動作ブロックの制御を行う処理を、基本動作部1101が各動作ブロックの制御を行うものとして記述する。他の動作プログラムによる他の機能ブロックの動作に関しても、同様の記述を行う。
 状態検出部1102は、センサ部150のセンサ群を用いて携帯情報端末100の動作状態(位置情報や揺れ状況など)を検出する処理を制御する。ブレ検出部1103は、第一画像入力部133から取得した画像に基づいて、携帯情報端末100に対する操作指示物(ユーザの指やタッチペンなど)の相対的なブレ量を検出する。表示制御部1104は、ブレ検出部1103で検出した操作指示物のブレ量に応じて、画像表示部131の表示制御を行う。領域制御部1105は、ブレ検出部1103で検出した操作指示物のブレ量に応じて、タッチパネル123の操作検知領域の制御を行う。
 なお、前記各動作プログラムは、製品出荷の時点で、予めストレージ部110に記憶された状態とする。あるいは、製品出荷後に、ネットワーク上の各サーバ装置からLAN通信部161または電話網通信部162等を介して取得しても良い。また、メモリカードや光ディスク等に格納された前記各動作プログラムを、拡張インタフェース部170等を介して取得しても良い。
 [誤操作防止処理]
  以下では、携帯情報端末100のタッチスクリーン180に対してタッチ操作を行う場合の、誤操作の発生と誤操作の防止処理について説明を行う。
 図3Aは、携帯情報端末100における誤操作発生を説明する図である。ユーザが電車や自動車等の車両に乗車中に携帯情報端末100を使用する場合、車両の揺れに起因して誤操作が発生する。図面上段は、ユーザが操作中の携帯情報端末100の前面(操作面)を、図面下段は携帯情報端末100の下部側面を示す図である。
 例えば、ユーザが携帯情報端末100を左手201で把持し、右手の指200でタッチ操作を行う場合を想定する。(a)に示すように、タッチスクリーン180(画像表示部131)にはアイコン類などを含む画面(ホーム画面)180aが表示されており、ユーザが指200で目的のアイコン180i1をタッチしようとする。そのとき車両の揺れがあると、(b)に示すように、携帯情報端末100を把持した左手が例えば左方向にぶれ、一方、右手の指200が例えば右方向にぶれたとする。その結果、(c)に示すように、ユーザは目的のアイコン180i1ではなく、これに隣接する他のアイコン180i2をタッチすることになり、誤操作が生じる。なお、車両の揺れに対して、携帯情報端末100のブレの方向/大きさと右手の指200のブレの方向/大きさとが一致していれば、誤操作は生じない。しかし実際には、ユーザの姿勢等によって両者のブレの方向/大きさが一致しない場合が多く、誤操作は避けられない。
 図3Bは、本実施例における誤操作防止処理を説明する図である。図3Aと同じ操作状態において、誤操作防止処理を行う場合である。(a)に示すように、前面側にある第一画像入力部(インカメラ)133は、目的のアイコン180i1をタッチしようとする指200の画像を取得する。次に(b)に示すように車両の揺れがあると、ブレ検出部1103は、第一画像入力部133が取得した指200の画像を解析して、携帯情報端末100の筐体位置を基準とした指200の位置の変化、すなわち相対的なブレ量ΔXを算出する。そして(c)に示すように、表示制御部1104は、ブレ検出部1103により算出された指200の相対的なブレ量ΔXに基づいて、これに追従するように、タッチスクリーン180に表示されるアイコン類を含む画面を所定量ΔX’だけずらして180bのように表示させる。このときのずらし量ΔX’は、ブレ量ΔXに等しくする、あるいはこれに所定の係数を乗じた量とする。当然ながら表示画面の移動に連動して、表示画面の各アイコン等に対応するタッチパネル123の操作検知領域も移動させる。この結果、ユーザは、乗車中の車両が揺れる状況においても、右手の指200で目的のアイコン180i1を正しくタッチすることが可能となる。
 なお、図3A及び図3Bでは、携帯情報端末100を把持するユーザの左手及びタッチ操作を行うユーザの右手が左右方向にぶれた場合について説明したが、前後方向や斜め方向にぶれた場合においても同様である。
 [インカメラの構成]
  図4は、携帯情報端末100が備える二つのインカメラ(第一画像入力部133及び第二画像入力部134)の構成を説明する図であり、携帯情報端末100の左側面から見た図である(つまり、操作面は図面上側となる)。
 (a)は第二画像入力部134を示し、自画撮り用インカメラとして用いる。カメラの画角は90度程度であり、一般のスマートホンの場合と同様である。
 (b)は第一画像入力部133を示し、前述の誤操作防止処理のために操作指示物(ユーザの指200など)を撮影するインカメラとして用いる。この場合、指200がタッチスクリーン180へ近接した状態でも撮影可能なように、第二画像入力部134よりも広い画角(例えば180度に近い画角)を有するように設定している。
 (c)は第一画像入力部133の別の構成を示す。画角は第二画像入力部134と同程度(90度程度)としながら、撮影方向をタッチスクリーン180側に傾けて取り付けている。これにより、タッチスクリーン180へ近接する指200の撮影が可能となる。
 なお、本実施例の携帯情報端末100においては、二つのインカメラ(第一画像入力部133及び第二画像入力部134)を備える構成としているが、これらを共通化することも可能である。その場合、図4(b)に示す広角の画角を有する第一画像入力部133のみとして、誤操作防止用と自画撮り用の双方に用いる。ただし自画撮り用の場合は、取得した撮影画像を適宜トリミングする等の画像処理を行うようにする。
 [誤操作防止処理の動作フロー]
  図5Aは、本実施例における誤操作防止処理を示すフローチャートである。以下の処理は、主に状態検出部1102とブレ検出部1103と表示制御部1104により制御される。なお、以下の誤操作防止処理を実行するか否かは、ユーザ設定等により選択可能とする。
 先ず、状態検出部1102が、センサ部150のGPS受信部151やジャイロセンサ152や加速度センサ154等から、携帯情報端末100の位置情報や傾き情報や動き情報等を取得する(S101)。次に、状態検出部1102は、S101の処理で取得した各情報に基づいて、携帯情報端末100を持つユーザが電車や自動車等の車両に乗車中であり、かつ車両の揺れが発生しているか否かの判断を行う(S102)。なお、ここで言う車両の揺れとは、単に車両が動いている状態ではなく、センサが検出する速度、または加速度が時間的に所定量以上に変化して、誤操作が生じやすくなる状態を意味する。
 S102の処理で、ユーザが車両に乗車中で、かつ車両の揺れが発生していると判断した場合は(S102:Yes)、S103の処理に進む。ユーザが車両に乗車中ではなく、あるいは乗車中であっても車両の揺れが発生していないと判断した場合は(S102:No)、S109の処理に進む。その場合は、以下に示すS103からS108までの誤操作防止処理を行わずに、通常のタッチ操作処理を行う。
 S103の処理では、ブレ検出部1103が、操作指示物(ユーザの指やタッチペンなど)を撮影する第一画像入力部(操作指示物撮影カメラ)133を起動し(S103)、タッチスクリーン180の表面側の画像を取得する(S104)。次に、ブレ検出部1103は、第一画像入力部133から取得した撮影画像を解析して、操作指示物の識別を行う(S105)。なお、識別処理向上のため、使用する操作指示物を予め登録しておくのが望ましい。S106の処理では、撮影画像の中に、操作指示物が存在するか否かを判定する。なお、この判定では、操作指示物が撮影画像の中に存在しても、ユーザがタッチ操作を行わない場合は除外する必要がある。具体的には、操作指示物がタッチスクリーン180から所定量以上離れているときは、操作指示物は存在しないと判定する。これについては、図5Bで後述する。
 S106の判定で操作指示物が存在する(識別できた)場合は(S106:Yes)、S107の処理に進む。S106の判定で操作指示物が存在しない(識別できない)場合は(S106:No)、S104の処理に戻り、再度カメラ画像の取得を行う。また、操作指示物が存在しない(識別できない)状態が所定時間以上続いた場合(S106:Time out)、S101の処理に戻る。或いは、ユーザが携帯情報端末100を操作する意思が無いものと判断して、誤操作防止処理を終了しても良い。
 S107の処理では、ブレ検出部1103が、第一画像入力部133から取得した撮影画像を解析して、携帯情報端末100の筐体の位置を基準とした操作指示物の相対的なブレ量を算出する(S107)。また、ブレ検出部1103は、前記算出した操作指示物の相対的なブレ量ΔXを表示制御部1104に送る。表示制御部1104は、ブレ検出部1103から受け取った操作指示物の相対的なブレ量ΔXに基づいて、これに追従するように、タッチスクリーン180(画像表示部131)に表示する表示画面をずらす処理を行う(S108)。このとき領域制御部1105は、表示制御部1104に連動して、表示画面の各アイコン等に対応するタッチパネル123の操作検知領域をずらす処理を行う。
 なお、表示画面のずらし量ΔX’は、S107の処理で算出した操作指示物の相対的なブレ量ΔXと略同量としても良いが、前記相対的なブレ量ΔXに所定の係数k(≦1)を掛け合わせた量だけずらすようにしても良い(ΔX’=kΔX)。例えば、係数k=0.5として、相対的なブレ量ΔXの50%程度だけ表示画面をずらしても良い。これは、タッチパネル123における各アイコンに対応する操作検知領域は所定の面積を有し、タッチ位置のわずかなずれは許容されること、また係数k<1とすることで表示画面の過敏なずらし処理をなくして、ユーザにとって操作しやすい画面となる効果がある。
 基本動作部1101は、前記S101~S108の処理を実行しつつ、タッチスクリーン180(タッチパネル123)に対する操作指示物のタッチ操作の有無の判定する(S109)。操作指示物のタッチ操作がある場合(S109:Yes)、タッチ操作に応じた各種処理を実行する(S110)。例えば、所定のアプリケーションのアイコンがタップされた場合には、該当するアプリケーションの起動を行う。S109の判定でタッチ操作が無い場合は、2通りに分岐する。S102の判定で車両乗車中(揺れ有り)と判断された場合(S109:No/乗車中)には、S104の処理に戻る。S102の判定で車両乗車中ではなく(また車両の揺れがない)と判断された場合(S109:No/乗車中以外)には、S101の処理に戻る。
 図5Bは、S106の処理(操作指示物の有無判定)の詳細を説明する図である。ここでは携帯情報端末100と操作指示物(ユーザの指200)の側面図を示し、第一画像入力部133で取得した撮影画面には、ユーザの指200が含まれている。指200とタッチスクリーン180との距離をLとすると、ユーザがタッチ操作を行う場合には、必然的に距離Lは0になるが、距離Lが大きい場合は、タッチ操作以前の操作準備状態(例えばタッチ操作する目的のアイコンが定まっていない状態や、目的のアイコンを画面内で探している状態)である。このような距離Lが大きい準備状態において前述した誤操作防止処理を実行すると、指200の動きに追従して表示画面(アイコン)が動くことになり、ユーザは目的のアイコンを選択できないという不都合を生じる。そこで、操作準備状態では前述の誤操作防止処理を行わないよう、言い換えればS106の処理で、操作指示物が存在しないものと判定するように制御する。
 具体的には、操作指示物とタッチスクリーン180との距離Lについて閾値L1を定め、L≦L1の場合は操作指示物が存在し、L>L1の場合は操作指示物が存在しないものと判定する。なお、ユーザごとに操作の仕方(タッチ操作開始位置がタッチスクリーン180に近いか、遠いか)が異なるので、この閾値L1はユーザごとに適宜設定できることが好ましい。これにより、タッチ操作の準備期間は誤操作防止処理を無効にすることで、ユーザがタッチ操作する上で不都合が生じることはない。
 以上のように実施例1によれば、揺れる車両に乗車中のユーザが携帯情報端末100を使用する場合であっても、操作指示部の相対的なブレ量に応じてこれに追従するように表示画面の位置をずらすようにしたので、タッチ操作位置のずれに伴う誤操作を防止することが可能となる。
 実施例2では、誤操作防止処理のため、表示画面の位置はそのままとしタッチ操作の検知領域をずらす処理を行う。なお、携帯情報端末100の基本的な構成は実施例1と同様であり、以下では、実施例1との相違点に関して主に説明し、共通する部分の重複する説明を省略する。
 図6は、本実施例における誤操作防止処理を説明する図である。(a)~(c)は、実施例1、図3Bの(a)~(c)に対応する。ここで、タッチスクリーン180に表示される画面を180aとし、各アイコンに対応するタッチパネル123上の操作検知領域を、破線枠123a、123bで示す。
 (a)に示すように、第一画像入力部(操作指示物撮影カメラ)133は、目的のアイコン180i1をタッチしようとする指200の画像を取得する。この状態では、各アイコンの操作検知領域123aは、表示画面180aの各アイコンの表示位置に一致している。次に(b)に示すように車両の揺れがあると、ブレ検出部1103は、第一画像入力部133が取得した指200の画像を解析して、携帯情報端末100の筐体位置を基準とした指200の位置の変化、すなわち相対的なブレ量ΔXを算出する。
 (c)においては、タッチスクリーン180に表示される画面180aはそのままとし、領域制御部1105は、ブレ検出部1103により算出された指200の相対的なブレ量ΔXに基づいて、これに追従するように、表示される各アイコンに対応するタッチパネル123上の操作検知領域を123bのように所定量ΔX’だけずらして設定する。
 例えば、アイコン180i1に対応する検知領域は、アイコン180i1の表示位置よりも右方向にずれた位置(斜線で示す)に設定する。この結果、相対ブレにより指200が目的のアイコン180i1の表示領域よりも右方向にずれた位置をタッチした場合であっても、検知領域はこれに追従して設定されているので、アイコン180i1を正しくタッチ操作したものとして検知される。
 実施例2の動作フローは、図5Aに示したフローチャートの一部を変更する。すなわち、S108の処理において、領域制御部1105は、ブレ検出部1103から受け取った操作指示物の相対的なブレ量ΔXに基づいて、表示画面の各アイコン等に対応するタッチパネル123の操作検知領域をΔX’だけずらす処理を行う。その際、操作指示物の相対的なブレ量ΔXと検知領域のずらし量ΔX’との関係は、実施例1の場合と同様に、係数k(≦1)を用いてΔX’=kΔXとすれば良い。その他の処理は、図5Aに示したフローチャートと同様である。
 以上のように実施例2によれば、揺れる車両に乗車中のユーザが携帯情報端末100を使用する場合であっても、操作指示部の相対的なブレ量に応じて操作検知領域の位置をずらすようにしたので、タッチ操作位置のずれに伴う誤操作を防止することが可能となる。
 実施例3では、誤操作防止処理のため、表示画面において各アイコンの表示間隔を広げるようにした。携帯情報端末100の基本的な構成は実施例1と同様であり、以下では、実施例1との相違点に関して主に説明する。
 図7Aは、本実施例における誤操作防止処理を説明する図である。(a)は、ユーザが車両に乗車中でなく、または乗車中であっても揺れが発生していない場合の表示画面180aの例を示す。表示制御部1104は、表示画面180a内のアイコンの表示間隔を通常の間隔(画面横方向はd1、縦方向はd2)に設定している。一方(b)は、ユーザが車両に乗車中で、かつ車両の揺れが発生している場合の表示画面180cの例を示す。表示制御部1104は、表示画面180c内のアイコンの表示間隔を広めの間隔(画面横方向はd1’、縦方向はd2’)に設定している(d1’>d1、d2’>d2)。このように、車両が揺れた場合にはアイコン間隔を広げるようにしたので、ユーザの手の位置がぶれてもタッチ操作の誤操作を低減することができる。
 ここでは、誤操作防止処理のためアイコンの間隔を広げるようにしたが、これに連動して領域制御部1105が、表示画面の各アイコンに対応するタッチパネル123の操作検知領域を拡大させる処理を行うことで、誤操作の更なる低減効果が得られる。
 図7Bは、本実施例における誤操作防止処理を示すフローチャートである。以下の処理は、主に状態検出部1102と表示制御部1104により制御される。
 先ず、状態検出部1102が、センサ部150から携帯情報端末100の位置情報や傾き情報や動き情報等を取得する(S301)。次に、状態検出部1102は、S301の処理で取得した各情報に基づいて、携帯情報端末100を持つユーザが車両に乗車中であり、かつ車両の揺れが発生しているか否かの判断を行う。(S302)。
 S302の処理で、ユーザが車両に乗車中ではなく、あるいは乗車中であっても車両の揺れが発生していないと判断した場合は(S302:No)、S303へ進む。ユーザが車両に乗車中で、かつ車両の揺れが発生していると判断した場合は(S302:Yes)、S304へ進む。
 S303の処理では、表示制御部1104は、タッチスクリーン180上に表示するアイコンの間隔を通常の間隔(d1、d2)に設定して画面表示を行う。一方S304の処理では、タッチスクリーン180上に表示するアイコンの間隔を広めの間隔(d1’、d2’)に設定して画面表示を行う。その場合領域制御部1105は、表示画面の各アイコンに対応するタッチパネル123の操作検知領域を拡大させても良い。
 基本動作部1101は、前記S301~S304の処理を実行しつつ、タッチスクリーン180(タッチパネル123)に対する操作指示物のタッチ操作の有無の確認する(S305)。操作指示物のタッチ操作がある場合(S305:Yes)、タッチ操作に応じた各種処理を実行する(S306)。操作指示物のタッチ操作が無い場合(S305:No)、S301の処理に戻る。
 上記の説明において、車両の揺れが発生したときに設定するアイコンの間隔(d1’、d2’)は1通りとしたが、車両の揺れの大きさに応じて複数通りに設定することも可能である。
 以上のように実施例3によれば、揺れる車両に乗車中のユーザが携帯情報端末100を使用する場合には、表示画面において各アイコンの表示間隔を広げて表示するようにしたので、タッチ操作位置のずれに伴う誤操作を防止することが可能となる。
 実施例4では、誤操作防止処理のため、ユーザがタッチ操作を行ったとき、そのタッチ操作が正しかったか否かの確認画面を表示するようにした。この処理は、単独でも、あるいは前記実施例1~3の処理と組み合わせても可能である。
 図8Aは、本実施例における誤操作防止のための確認画面の図である。タッチスクリーン180に対して操作指示物(ユーザの指200)のタッチ操作があった場合に、表示制御部1104は、操作確認用メッセージ180mを表示し、一旦動作を中断して、ユーザの応答を待つ。操作確認用メッセージ180mには、今行った操作が正しかった場合(正常操作)にユーザが応答する「OK」ボタンと、正しくなかった場合(誤操作)に応答する「Cancel」ボタンが表示されている。ユーザは今行ったタッチ位置から操作の正誤を判断し、いずれかのボタンを選択する。
 ユーザが「OK」ボタンを選択した場合は、今行ったタッチ操作を有効とし、タッチ操作に応じた各種処理を実行する。ユーザが「Cancel」ボタンを選択した場合は、今行ったタッチ操作を無効とし、再度ユーザのタッチ操作を受け付ける。
 図8Bは、本実施例における誤操作防止処理を示すフローチャートである。以下の処理は、主に状態検出部1102と表示制御部1104により制御される。
 先ず、状態検出部1102が、センサ部150から携帯情報端末100の位置情報や傾き情報や動き情報等を取得する(S401)。次に、状態検出部1102は、S401の処理で取得した各情報に基づいて、携帯情報端末100を持つユーザが車両に乗車中であり、かつ車両の揺れが発生しているか否かの判断を行う(S402)。
 S402の処理で、ユーザが車両に乗車中ではなく、あるいは乗車中であっても車両の揺れが発生していないと判断した場合は(S402:No)、S403へ進む。ユーザが車両に乗車中で、かつ車両の揺れが発生していると判断した場合は(S402:Yes)、S405へ進む。
 S403の処理では、基本動作部1101は、タッチスクリーン180(タッチパネル123)に対する操作指示物のタッチ操作の有無を確認する。操作指示物のタッチ操作がある場合(S403:Yes)、タッチ操作に応じた各種処理を実行する(S404)。操作指示物のタッチ操作が無い場合(S403:No)、S401の処理に戻る。
 S405の処理では、基本動作部1101は、タッチスクリーン180に対する操作指示物のタッチ操作の有無を確認する。操作指示物のタッチ操作がある場合は(S405:Yes)、前記タッチ操作が正しいか否かを確認するための操作確認用メッセージ180m(OK/Cancelボタン)を表示する(S406)。操作指示物のタッチ操作がない場合は(S405:No)、S401の処理に戻る。
 S407の処理では、前記操作確認用メッセージ180mに対するユーザの応答を受ける。ユーザがOKボタン(前記タッチ操作が正常操作)を選択した場合は(S407:OK)、前記タッチ操作に応じた各種処理を実行する(S408)。ユーザがCancelボタン(前記タッチ操作が誤操作)を選択した場合は(S407:Cancel)、S401の処理に戻る。
 以上のように実施例4によれば、揺れる車両に乗車中のユーザが携帯情報端末100を使用する場合には、ユーザの行ったタッチ操作が正しかったか否かの確認画面が表示されるので、誤操作を行った場合にはすぐに修正操作に移行でき、ユーザの使い勝手が向上する。
 なお、上記実施例では、誤操作防止のため操作確認用メッセージ180mを表示するようにしたが、代わりに、タッチ状態の継続時間の長さによりタッチ操作の正誤を判断するようにしても良い。例えば、タッチ状態の継続時間が所定時間以上なら有効、所定時間未満なら無効と判断する。あるいは、ユーザによっては有効/無効の定義を逆に設定しても良い。更には、所定時間以上タッチ状態が継続した場合のみ、前記の操作確認用メッセージを表示するようにしても良い。
 更に、ユーザが誤ったアイコンをタッチしたことに気付いた場合、その操作が確定される前に、タッチスクリーン面に指を接触させたまま目的のアイコン位置まで指をスライドさせ、目的のアイコンを選択し直す操作も可能とする。そして、その状態で前記の操作確認用メッセージの表示を行うようにする。これにより、修正動作と確認動作を連続して行うことができる。なお、タッチ操作の確定待ちの状態で指を接触したままスライドさせる場合は、アイコンの表示位置は固定しておく。また、タッチ操作の確定待ちではない状態で指を接触したままスライドさせる場合は、アイコンの表示位置を動かす、という使い分けもして良く、これにより、更に利便性が向上する。
 実施例5では、携帯情報端末100の使用形態として、ユーザの頭部に装着してVR(Virtual Reality)等の表示が可能な視聴用装置について説明する。この場合にも同様に誤操作防止処理が有効となる。
 図9Aは、視聴用装置10を介して携帯情報端末100を使用する状態を示す図である。携帯情報端末100を視聴用装置(アダプタ)10に挿入し、これをユーザ1が装着して使用する。(a)は視聴用装置10を装着したユーザ1を真上から見た上面図、(b)は視聴用装置10を装着したユーザ1を正面から見た正面図である。このような視聴用装置10を用いることで、HMD(Head Mounted Display)と同様の機能を実現できる。あるいは視聴用装置10の代わりに、携帯情報端末100が眼前に配置されるように、ユーザ1が両手または片手で携帯情報端末100を把持して使用する形態でも良い。
 視聴用装置10は、スリット部20にスマートホンやタブレット端末等の携帯情報端末100を挿入して支持する構成である。ユーザ1は、携帯情報端末100が挿入された視聴用装置10を眼前に配置し、ベルト等を用いて頭部に固定する。携帯情報端末100の表示画面(画像表示部131)は、アウトカメラである第三画像入力部135から入力した画像データ(カメラ画像)に、CG(Computer Graphics)等で作成した人工物を重畳するVR(Virtual Reality)表示やMR(Mixed Reality)表示等を行うことが可能である。また、透過型ディスプレイを備えたHMDの場合、周辺風景にCG等で作成した人工物を重畳するAR(Augmented Reality)表示等を行うことが可能である。
 携帯情報端末100の表示画面に表示された画像は、視聴用装置10の内部に配置されたレンズ部11を介してユーザ1の目に入射する。また、隔壁部12は、左右それぞれのレンズ部11を通過した画像の混合を防止する。なお、前述のスリット部20やレンズ部11や隔壁部12等は、視聴用装置10の内部構造を説明するものであり、通常時は外部に露出しない。また、通常時は、携帯情報端末100を視聴用装置10の筐体の一部が蓋のように覆い、ユーザ1の頭部の上下左右動の際にも、携帯情報端末100の落下やずれを防止する構造とすることが望ましい。また、視聴用装置10の筐体には窓13が設けられており、携帯情報端末100の背面に備えられた第三画像入力部135を露呈させる構造となる。
 図9Bは、本実施例における誤操作防止処理を説明する図であり、ユーザが携帯情報端末100を操作する状態を示す。ユーザ1は、携帯情報端末100の第三画像入力部135から入力した画像データを画像表示部131を介して視認することにより、仮想視認範囲180sを得る。また、仮想視認範囲180s内には、所定距離前方位置に仮想操作パネル180tが配置される。ユーザ1は、実体の指200にて仮想操作パネル180t内のアイコン等を操作することにより、携帯情報端末100に対して操作指示を与えることができる。
 例えば、車両に乗車中のユーザ1が、右手の指200で仮想操作パネル180t上の目的のアイコンをタッチ操作する場合を想定する。車両の揺れにより、例えばユーザの頭部が左方向にぶれることに伴い仮想操作パネル180tが左方向にぶれ、一方右手の指200は右方向にぶれることがある。その結果、仮想操作パネル180t上の目的のアイコンではなく他のアイコンをタッチしてしまい、誤操作が生じる。
 これに対し、前述の実施例1と同様の誤操作防止処理を適用することができる。携帯情報端末100の第三画像入力部(アウトカメラ)135は、仮想操作パネル180t上に対しタッチ操作しようとする指200の画像を取得する。ブレ検出部1103は、第三画像入力部135が取得した指200の画像を解析して、仮想操作パネル180tの表示位置(或いは、携帯情報端末100の筐体位置)を基準とした、指200の相対的なブレ量を算出する。更に、表示制御部1104は、前記算出した指200の相対的なブレ量ΔXに基づいて、仮想視認範囲180s内における仮想操作パネル180tの表示位置をΔX’だけずらして表示させるように制御を行う。
 その場合、図5Bで説明した操作指示物(指200)の有無判定を導入することも可能である。すなわち、携帯情報端末100から指200までの距離を補助光発光/赤外線測距器136により測定することで、仮想操作パネル180tから指200までの距離Lを算出できる。そして、距離Lが閾値以下の場合のみ誤操作防止処理を有効とすれば良い。また、本実施例の仮想操作パネル180tの場合は、視線方向も含めて3次元的に表示位置をずらしても良い。この結果、ユーザが視聴用装置10を介して携帯情報端末100を使用する場合にも、車両の揺れに伴う誤操作を防止することが可能となる。
 以上、本発明の実施形態を実施例1~5を用いて説明したが、言うまでもなく、本発明の技術を実現する構成は前記実施例に限られるものではなく、様々な変形例が考えられる。例えば、タッチスクリーン上に表示されるアイコン(オブジェクト)は静止しているものとして説明したが、アイコンが動いている場合についても本発明の誤操作防止処理を適用することが可能であり、同様の効果が得られる。また、オブジェクトはアイコンに限らず、地図などの画像を表示し、ユーザが地図上のある位置をタッチ操作で指定する場合にも有効である。
 各実施例の間では、ある実施例の構成の一部を他の実施例の構成と置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。これらは全て本発明の範疇に属するものである。また、文中や図中に現れる数値やメッセージ等もあくまでも一例であり、異なるものを用いても本発明の効果を損なうことはない。
 前述した本発明の機能等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現しても良い。また、マイクロプロセッサユニット等がそれぞれの機能等を実現するプログラムを解釈して実行することによりソフトウェアで実現しても良い。ハードウェアとソフトウェアを併用しても良い。前記ソフトウェアは、製品出荷の時点で、予め携帯情報端末100のROM103やストレージ部110等に格納された状態であっても良い。製品出荷後に、インターネット上の各種サーバ装置等から取得するものであっても良い。また、メモリカードや光ディスク等で提供される前記ソフトウェアを取得するものであっても良い。
 また、図中に示した制御線や情報線は説明上必要と考えられるものを示しており、必ずしも製品上の全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えても良い。
 10…視聴用装置、100…携帯情報端末、123…タッチパネル、123a,b…操作検知領域、131…画像表示部、133…第一画像入力部(操作指示物撮影カメラ)、134…第二画像入力部(インカメラ)、135…第三画像入力部(アウトカメラ)、150…センサ部、180…タッチスクリーン、180a,b,c…表示画面、180i…アイコン、180m…操作確認用メッセージ、180t…仮想操作パネル、200…ユーザの指(操作指示物)、1101…基本動作部、1102…状態検出部、1103…ブレ検出部、1104…表示制御部、1105…領域制御部。

Claims (7)

  1.  画像表示部とタッチパネル部とを有するタッチスクリーンを備え、前記タッチスクリーンに対するタッチ操作により指示を行う携帯情報端末であって、
     前記画像表示部にタッチ操作の対象となるオブジェクトを表示させる表示制御部と、
     前記タッチスクリーンに対してタッチ操作を行う操作指示物の映像を取得する画像入力部と、
     前記画像入力部が取得した前記操作指示物の映像を解析して、前記携帯情報端末の位置を基準とした前記操作指示物の相対的なブレ量を算出するブレ検出部と、を備え、
     前記ブレ検出部で算出した前記操作指示物の相対的なブレ量に基づいて、前記表示制御部は、前記画像表示部に表示するオブジェクトを前記相対的なブレ量に追従するようにずらして表示させることを特徴とする携帯情報端末。
  2.  請求項1に記載の携帯情報端末であって、
     前記携帯情報端末の状態を検出する状態検出部を備え、
     前記状態検出部が、前記携帯情報端末の状態が車両乗車中でなく、または車両乗車中であっても揺れが生じていないと判断した場合には、前記表示制御部は、前記画像表示部に表示するオブジェクトをずらさずに表示させることを特徴とする携帯情報端末。
  3.  請求項2に記載の携帯情報端末であって、
     前記ブレ検出部は、前記画像入力部が取得した前記操作指示物の映像から前記操作指示物と前記タッチスクリーンとの距離を測定し、該距離が閾値より大きい場合は前記操作指示物が存在しないものと判定し、前記表示制御部は、前記画像表示部に表示するオブジェクトをずらさずに表示させることを特徴とする携帯情報端末。
  4.  請求項2に記載の携帯情報端末であって、
     前記状態検出部が、前記携帯情報端末の状態が車両乗車中で、かつ揺れが生じていると判断した場合には、前記タッチスクリーンに対しタッチ操作が行われたとき、前記表示制御部は、前記画像表示部にタッチ操作が正しかったか否かの確認画面を表示させることを特徴とする携帯情報端末。
  5.  画像表示部とタッチパネル部とを有するタッチスクリーンを備え、前記タッチスクリーンに対するタッチ操作により指示を行う携帯情報端末であって、
     前記画像表示部にタッチ操作の対象となるオブジェクトを表示させる表示制御部と、
     前記タッチパネル部において、前記画像表示部に表示されるオブジェクトに対応するタッチ操作の検知領域を制御する領域制御部と、
     前記タッチスクリーンに対してタッチ操作を行う操作指示物の映像を取得する画像入力部と、
     前記画像入力部が取得した前記操作指示物の映像を解析して、前記携帯情報端末の位置を基準とした前記操作指示物の相対的なブレ量を算出するブレ検出部と、を備え、
     前記ブレ検出部で算出した前記操作指示物の相対的なブレ量に基づいて、前記領域制御部は、前記画像表示部に表示されるオブジェクトに対応するタッチ操作の検知領域を、前記相対的なブレ量に追従するようにずらして設定することを特徴とする携帯情報端末。
  6.  請求項5に記載の携帯情報端末であって、
     前記携帯情報端末の状態を検出する状態検出部を備え、
     前記状態検出部が、前記携帯情報端末の状態が車両乗車中でなく、または車両乗車中であっても揺れが生じていないと判断した場合には、前記領域制御部は、前記画像表示部に表示されるオブジェクトに対応するタッチ操作の検知領域をずらさずに設定することを特徴とする携帯情報端末。
  7.  画像表示部とタッチパネル部とを有するタッチスクリーンを備え、前記タッチスクリーンに対するタッチ操作により指示を行う携帯情報端末であって、
     前記画像表示部にタッチ操作の対象となるオブジェクトを表示させる表示制御部と、
     前記携帯情報端末の状態を検出する状態検出部を備え、
     前記状態検出部が、前記携帯情報端末の状態が車両乗車中で、かつ揺れが生じていると判断した場合には、前記表示制御部は、前記画像表示部に表示するオブジェクトの間隔を広げて表示させることを特徴とする携帯情報端末。
PCT/JP2018/009956 2018-03-14 2018-03-14 携帯情報端末 WO2019176009A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201880091123.7A CN111868674A (zh) 2018-03-14 2018-03-14 便携信息终端
PCT/JP2018/009956 WO2019176009A1 (ja) 2018-03-14 2018-03-14 携帯情報端末
US16/979,966 US11301087B2 (en) 2018-03-14 2018-03-14 Personal digital assistant
JP2020506020A JP7155242B2 (ja) 2018-03-14 2018-03-14 携帯情報端末
US17/717,263 US11947757B2 (en) 2018-03-14 2022-04-11 Personal digital assistant
JP2022160637A JP2022188192A (ja) 2018-03-14 2022-10-05 頭部装着型ディスプレイ装置、頭部装着型ディスプレイ装置の制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/009956 WO2019176009A1 (ja) 2018-03-14 2018-03-14 携帯情報端末

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/979,966 A-371-Of-International US11301087B2 (en) 2018-03-14 2018-03-14 Personal digital assistant
US17/717,263 Continuation US11947757B2 (en) 2018-03-14 2022-04-11 Personal digital assistant

Publications (1)

Publication Number Publication Date
WO2019176009A1 true WO2019176009A1 (ja) 2019-09-19

Family

ID=67907008

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/009956 WO2019176009A1 (ja) 2018-03-14 2018-03-14 携帯情報端末

Country Status (4)

Country Link
US (2) US11301087B2 (ja)
JP (2) JP7155242B2 (ja)
CN (1) CN111868674A (ja)
WO (1) WO2019176009A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022167200A (ja) * 2021-04-22 2022-11-04 株式会社豊田中央研究所 表示装置、及び表示プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112524079B (zh) * 2020-12-11 2021-09-24 珠海格力电器股份有限公司 一种风扇、风扇控制方法、装置及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2818994A1 (en) * 2013-06-26 2014-12-31 Honeywell International Inc. Touch screen and method for adjusting touch sensitive object placement thereon
JP2017199345A (ja) * 2016-02-09 2017-11-02 ザ・ボーイング・カンパニーThe Boeing Company 乱れ抵抗性タッチスクリーン

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7474335B2 (en) * 2001-01-31 2009-01-06 International Business Machines Corporation Method, apparatus and program storage device for image position stabilizer
JP2006145616A (ja) 2004-11-16 2006-06-08 Konica Minolta Photo Imaging Inc 画像表示装置、電子機器、画像表示方法
JP5205187B2 (ja) 2008-09-11 2013-06-05 株式会社エヌ・ティ・ティ・ドコモ 入力システム及び入力方法
US8957835B2 (en) 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
DE112009003647B4 (de) 2008-12-04 2015-08-20 Mitsubishi Electric Corp. Fahrzeug-montierte Informationsvorrichtung
US20110227911A1 (en) * 2010-03-22 2011-09-22 Lg Electronics Inc. Image display device and method for operating the same
US20110246944A1 (en) * 2010-04-06 2011-10-06 Google Inc. Application-independent text entry
KR101811219B1 (ko) * 2011-01-10 2017-12-22 삼성전자 주식회사 손가락 추적을 이용한 휴대 단말기 제어 방법 및 장치
US9271027B2 (en) * 2011-01-30 2016-02-23 Lg Electronics Inc. Image display apparatus and method for operating the same
EP2670154A4 (en) * 2011-01-30 2015-07-22 Lg Electronics Inc IMAGE DISPLAY DEVICE AND OPERATING METHOD THEREFOR
DE102011011802A1 (de) * 2011-02-19 2012-08-23 Volkswagen Ag Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle, insbesondere in einem Fahrzeug
US20120242587A1 (en) * 2011-03-25 2012-09-27 GM Global Technology Operations LLC Character recognition system
JP5220157B2 (ja) 2011-04-01 2013-06-26 キヤノン株式会社 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
CN103842941B (zh) * 2011-09-09 2016-12-07 泰利斯航空电子学公司 响应于所感测出的乘客比划动作而执行交通工具娱乐系统的控制
US9710048B2 (en) * 2011-10-03 2017-07-18 Google Technology Holdings LLC Method for detecting false wake conditions of a portable electronic device
JP5927867B2 (ja) 2011-11-28 2016-06-01 セイコーエプソン株式会社 表示システム、及び操作入力方法
KR101953165B1 (ko) * 2012-02-24 2019-05-22 토마스 제이. 모스카릴로 제스처 인식 디바이스들 및 방법들
JP2013237320A (ja) 2012-05-14 2013-11-28 Toshiba Alpine Automotive Technology Corp 違和感軽減表示装置およびその表示制御方法
US20130314328A1 (en) 2012-05-23 2013-11-28 Honeywell International Inc. Methods and systems for enhancing touch screen operation in a display of an aircraft
US20140035827A1 (en) 2012-07-31 2014-02-06 Elwha LLC, a liability company of the State of Delaware Touch screen display compensated for a carrier-induced motion
JP5812054B2 (ja) * 2012-08-23 2015-11-11 株式会社デンソー 操作デバイス
US20140062893A1 (en) * 2012-08-28 2014-03-06 Honeywell International Inc. System and method for reducing the probability of accidental activation of control functions on a touch screen
US9442587B2 (en) * 2012-12-04 2016-09-13 L-3 Communications Corporation Touch sensor controller responsive to environmental operating conditions
JP5855771B2 (ja) * 2013-01-09 2016-02-09 シャープ株式会社 タッチパネルシステム
US10295826B2 (en) 2013-02-19 2019-05-21 Mirama Service Inc. Shape recognition device, shape recognition program, and shape recognition method
US9041741B2 (en) * 2013-03-14 2015-05-26 Qualcomm Incorporated User interface for a head mounted display
KR20130088104A (ko) * 2013-04-09 2013-08-07 삼성전자주식회사 비접촉 방식의 인터페이스를 제공하기 위한 휴대 장치 및 방법
KR102077672B1 (ko) * 2013-04-17 2020-02-14 엘지전자 주식회사 영상표시장치 및 영상표시장치 동작방법
CN104238724B (zh) * 2013-06-09 2019-03-12 Sap欧洲公司 用于电子设备的基于动作的输入方法和系统
KR20150010432A (ko) * 2013-07-19 2015-01-28 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
JP6524589B2 (ja) 2013-08-30 2019-06-05 国立大学法人山梨大学 クリック動作検出装置,方法およびプログラム
KR20150026336A (ko) * 2013-09-02 2015-03-11 엘지전자 주식회사 웨어러블 디바이스 및 그 컨텐트 출력 방법
JP2015106915A (ja) 2013-12-02 2015-06-08 信夫 梨花 携帯機器挿入式ヘッドマウント・ディスプレイ
JP6362391B2 (ja) 2014-04-10 2018-07-25 キヤノン株式会社 情報処理端末、情報処理方法及びコンピュータプログラム
KR101561917B1 (ko) * 2014-04-10 2015-11-20 엘지전자 주식회사 차량 제어 장치 및 그 제어 방법
US10782657B2 (en) * 2014-05-27 2020-09-22 Ultrahaptics IP Two Limited Systems and methods of gestural interaction in a pervasive computing environment
JP2016005125A (ja) 2014-06-17 2016-01-12 株式会社ネクストシステム ヘッドマウント型装置及びヘッドマウント型情報表示システム
KR102297473B1 (ko) * 2014-07-15 2021-09-02 삼성전자주식회사 신체를 이용하여 터치 입력을 제공하는 장치 및 방법
US10444847B2 (en) * 2014-12-31 2019-10-15 Oath Inc. Stabilizing content display on wearable devices
KR102337216B1 (ko) * 2015-01-05 2021-12-08 삼성전자주식회사 영상 표시 장치 및 영상 표시 방법
KR102329124B1 (ko) * 2015-01-05 2021-11-19 삼성전자주식회사 영상 표시 장치 및 영상 표시 방법
JP6274134B2 (ja) 2015-03-10 2018-02-07 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
JP2016224666A (ja) 2015-05-29 2016-12-28 株式会社デンソーウェーブ 入力制御プログラム、入力装置
WO2017029915A1 (ja) 2015-08-17 2017-02-23 日本テレビ放送網株式会社 プログラム、表示装置、表示方法、放送システム及び放送方法
EP3182250B1 (en) * 2015-12-18 2019-10-30 Aptiv Technologies Limited System and method for monitoring 3d space in front of an output unit for the control of the output unit
US10176641B2 (en) * 2016-03-21 2019-01-08 Microsoft Technology Licensing, Llc Displaying three-dimensional virtual objects based on field of view
US10489978B2 (en) * 2016-07-26 2019-11-26 Rouslan Lyubomirov DIMITROV System and method for displaying computer-based content in a virtual or augmented environment
JP6323960B2 (ja) * 2016-08-02 2018-05-16 本田技研工業株式会社 入力装置
DE202017006742U1 (de) * 2016-11-15 2019-02-19 Google Llc Eingabegerät-Stabilisierungstechniken für virtuelle Realitätssysteme
US20180143693A1 (en) * 2016-11-21 2018-05-24 David J. Calabrese Virtual object manipulation
KR101983725B1 (ko) * 2017-08-03 2019-09-03 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US11163428B1 (en) * 2020-06-15 2021-11-02 Microsoft Technology Licensing, Llc Displaying a hover graphic with a dynamic time delay

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2818994A1 (en) * 2013-06-26 2014-12-31 Honeywell International Inc. Touch screen and method for adjusting touch sensitive object placement thereon
JP2017199345A (ja) * 2016-02-09 2017-11-02 ザ・ボーイング・カンパニーThe Boeing Company 乱れ抵抗性タッチスクリーン

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022167200A (ja) * 2021-04-22 2022-11-04 株式会社豊田中央研究所 表示装置、及び表示プログラム

Also Published As

Publication number Publication date
JPWO2019176009A1 (ja) 2021-02-18
US11947757B2 (en) 2024-04-02
JP2022188192A (ja) 2022-12-20
US20210011605A1 (en) 2021-01-14
US20220236854A1 (en) 2022-07-28
JP7155242B2 (ja) 2022-10-18
CN111868674A (zh) 2020-10-30
US11301087B2 (en) 2022-04-12

Similar Documents

Publication Publication Date Title
US10739985B2 (en) Computer-readable storage medium having stored thereon display control program, display control system, display control apparatus, and display control method
US11006024B2 (en) Pop-up and rotational camera and electronic device including the same
US9021385B2 (en) Computer-readable storage medium having stored thereon display control program, display control system, display control apparatus, and display control method
US20120066627A1 (en) Computer-readable storage medium having stored thereon display control program, display control system, display control apparatus, and display control method
EP3661172A1 (en) Rotation of camera for sliding phone dependent on operational mode
US20120086650A1 (en) Computer-readable storage medium having stored thereon display control program, display control system, display control apparatus, and display control method
JP2022188192A (ja) 頭部装着型ディスプレイ装置、頭部装着型ディスプレイ装置の制御方法
US9538086B2 (en) Method of performing previewing and electronic device for implementing the same
US10331229B2 (en) Mobile terminal and method for controlling the same
KR20170140702A (ko) 이동 단말기
KR20180017638A (ko) 이동단말기 및 그 제어방법
KR20160068534A (ko) 이동단말기 및 그 제어방법
KR20150141048A (ko) 이동 단말기 및 이의 제어 방법
EP3789849A1 (en) Contactless gesture control method, apparatus and storage medium
JP5510008B2 (ja) 携帯端末装置
KR101750872B1 (ko) 이동 단말기 및 그 제어방법
KR20160084208A (ko) 이동 단말기 및 그 제어 방법
KR102614026B1 (ko) 복수의 렌즈를 구비하는 전자 장치 및 그 제어 방법
JP2017167611A (ja) 端末装置、データ処理システム及びプログラム
KR20180010848A (ko) 이동 단말기 및 그 제어방법
KR20180031238A (ko) 이동 단말기 및 그 제어방법
KR20160027813A (ko) 글래스형 단말기
JP2014238750A (ja) 入力装置、そのプログラム及び画像表示システム
CN116166173A (zh) 软键盘的显示方法、装置、设备及计算机可读存储介质
KR20160004549A (ko) 이동단말기 및 그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18910050

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020506020

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18910050

Country of ref document: EP

Kind code of ref document: A1