WO2013046596A1 - 携帯型情報処理端末 - Google Patents

携帯型情報処理端末 Download PDF

Info

Publication number
WO2013046596A1
WO2013046596A1 PCT/JP2012/005929 JP2012005929W WO2013046596A1 WO 2013046596 A1 WO2013046596 A1 WO 2013046596A1 JP 2012005929 W JP2012005929 W JP 2012005929W WO 2013046596 A1 WO2013046596 A1 WO 2013046596A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
touch panel
information processing
processing terminal
display device
Prior art date
Application number
PCT/JP2012/005929
Other languages
English (en)
French (fr)
Inventor
松本 賢一
勇太 佐藤
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to EP12835441.2A priority Critical patent/EP2763010A4/en
Priority to US14/347,186 priority patent/US20140300570A1/en
Publication of WO2013046596A1 publication Critical patent/WO2013046596A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Abstract

 本発明における情報処理端末は、タッチパネル型表示装置100と、タッチパネル型表示装置に対する表示状態を制御する制御装置120と、タッチパネル型表示装置に対する特定位置を検出する位置検出手段130と、を備え、上記制御装置120は、位置検出手段130にて検出した操作者の位置とタッチパネル型表示装置上における表示データが占める表示領域との距離に応じて、当該表示データの表示状態を変化させる表示制御部121を備えた、という構成を取る。

Description

携帯型情報処理端末
 本発明は、携帯型情報処理端末にかかり、特に、タッチパネルを有する携帯型情報処理端末に関する。
 近年、タッチ式入力装置と表示装置とが一体化されたタッチパネルを備えた携帯電話機などの携帯型情報処理端末が普及している。このような携帯型情報処理端末では、入力装置が表示装置でもあるため、タッチパネル上に任意の入力キーを表示することができる。例えば、携帯型情報処理端末の略長方形状であるタッチパネルの向きが、縦向きか横向きであるかを検出し、これに合わせてキーの向きを変化させて表示させることができる。なお、関連する技術として、特許文献1の技術があり、携帯端末の使用者の顔を撮影して当該利用者の向きを検出し、それに応じて表示部の表示向きを制御する、という技術が開示されている。
特開2007-17596号公報
 ここで、上述したようにタッチ式入力装置と表示装置とが一体化されたタッチパネルを備えた携帯電話機は、机の面の上など、水平に配置して使用することがある。このような場合、使用者がタッチパネルである画面の真上から操作する場合には、画面に表示されたキーなどを視認しやすいが、画面に対して横方向つまり水平方向から使用者が操作する場合には、画面に表示されたキーなどを視認しづらく、操作性が低下する、という問題が生じる。
 このため、本発明の目的は、上述した課題である、タッチパネル型表示装置を搭載した情報処理端末の視認性及び操作性の低下、を改善することにある。
 本発明の一形態である情報処理端末は、
 タッチパネル型表示装置と、
 前記タッチパネル型表示装置に対する表示状態を制御する制御装置と、
 前記タッチパネル型表示装置に対する特定位置を検出する位置検出手段と、を備え、
 前記制御装置は、前記位置検出手段にて検出した特定位置と前記タッチパネル型表示装置上における表示データが占める表示領域との距離に応じて、当該表示データの表示状態を変化させる表示制御部を備えた、
という構成を取る。
 また、本発明の他の形態であるプログラムは、
 タッチパネル型表示装置を備えた情報処理端末に、
 前記タッチパネル型表示装置に対する特定位置を検出する位置検出手段と、
 前記タッチパネル型表示装置に対する表示状態を制御すると共に、前記位置検出手段にて検出した特定位置と前記タッチパネル型表示装置上における表示データが占める表示領域との距離に応じて、当該表示データの表示状態を変化させる表示制御部と、
を実現させるためのプログラムである。
 また、本発明の他の形態である表示制御方法は、
 タッチパネル型表示装置を備えた情報処理端末が、
 前記タッチパネル型表示装置に対する特定位置を検出し、
 検出した特定位置と前記タッチパネル型表示装置上における表示データが占める表示領域との距離に応じて、当該タッチパネル型表示装置に対する表示データの表示状態を変化させる、
という構成を取る。
 本発明は、以上のように構成されることにより、タッチパネル型表示装置を搭載した情報処理端末の操作性の向上を図ることができる。
実施形態1における携帯端末の外観を示す図である。 実施形態1における携帯端末の構成を示すブロック図である。 実施形態1における携帯端末による操作者を認識する動作を説明するための図である。 実施形態1における携帯端末による操作者を認識する動作を説明するための図である。 実施形態1における携帯端末による表示画面の表示例を示す図である。 実施形態1における携帯端末による表示画面の表示例を示す図である。 実施形態1における携帯端末の動作を示すフローチャートである。 実施形態2における携帯端末による表示画面の表示例を示す図である。 実施形態3における携帯端末による表示画面の表示例を示す図である。 実施形態4における携帯端末による表示画面の表示例を示す図である。 実施形態4における携帯端末の動作を示すフローチャートである。 実施形態5における携帯端末の外観を示す図である。 実施形態5における携帯端末による操作者を認識する動作を説明するための図である。 実施形態5における携帯端末による操作者を認識する動作を説明するための図である。 実施形態5における携帯端末の動作を示すフローチャートである。 実施形態6における携帯端末による操作者を認識する動作を説明するための図である。 実施形態6における携帯端末による表示画面の表示例を示す図である。 実施形態7における携帯端末による操作者を認識する動作を説明するための図である。 実施形態8における携帯端末における接触入力の感度設定について説明するための図である。 本発明の付記1における情報処理端末の構成を示す機能ブロック図である。
 <実施形態1>
 本発明の第1の実施形態を、図1乃至図7を参照して説明する。図1乃至図2は、本実施形態における携帯端末の構成を示す図である。図3乃至図4は、携帯端末による操作者を認識する動作を説明する図である。図5乃至図6は、携帯端末による表示画面の表示例を示す図であり、図7は、携帯端末の動作を示すフローチャートである。
 [構成]
 図1は、本発明における携帯端末1の外観を示す図であり、図1(A),(B)は、それぞれ携帯端末1の一方の面(表面)と他方の面(裏面)から見た外観を示している。また、図2は、携帯端末1の回路構成を示すブロック図である。
 図2に示すように、携帯端末1は、中央処理装置であるCPU15と、各種データを記憶する記憶装置であるFlash ROM16及びRAM17と、を備えた一般的な情報処理端末である。なお、CPU15は、後述するように、バスを介して端末内の各回路や装置と接続されている。また、上記Flash ROM16は、CPU15が実行するための各種の制御用プログラムやユーザ・データなどを格納した書き換え可能なストレージ・メモリである。また、RAM17(ランダムアクセスメモリ)は、CPU15がプログラムを実行する上で一時的に必要とされるデータを格納する作業用メモリである。
 なお、本実施形態では、携帯端末1は、いわゆるスマートフォンといった携帯電話端末である場合を例示して説明するが、本発明において携帯端末1は、PHS(Personal Handy-phone System)、PDA(Personal Data Assistance,Personal Digital Assistants:個人向け携帯型情報通信機器)、タブレット端末、パーソナルコンピュータ、ゲーム端末、電子辞書、カーナビゲーションなど、いかなる情報処理装置であってもよい。
 図1(A)に示すように、携帯端末1は、表面にタッチパネル型表示装置10を備えている。このタッチパネル型表示装置10は、例えば、静電型タッチパネルといった操作者による接触入力を受け付ける入力装置と、液晶パネルや有機ELなどの表示装置と、を備えており、表示装置の表示面がタッチパネルの入力装置を構成しているものである。
 また、携帯端末1は、図2に示すように、上記タッチパネル型表示装置10を構成する表示装置に対する表示状態を制御する表示制御部21(制御装置)を備えている。この表示制御部21は、上記CPU15に接続されており、後述するように検出された操作者に位置(特定位置)に応じて、タッチパネル型表示装置10の表示画面に表示されるアイコンなどの表示データの表示状態を制御するものである。なお、表示制御部21は、CPU15にプログラムが組み込まれることによって構築されていたり、あるいは、専用の演算装置によって構築されている。
 また、携帯端末1は、図2に示すように、上記タッチパネル型表示装置10を構成する入力装置に対する接触入力を検出する入力検出部(接触検出部)22を備えている。そして、入力検出部22は、上記CPU15に接続されており、後述するように、表示画面に表示されるアイコンなどの表示データの表示箇所に対する接触入力を検出して受け付ける。つまり、入力検出部22は、表示データの表示面積や表示範囲などの表示領域が変化すると、その表示範囲内に対して行われた接触入力を検出する機能を有する。なお、入力検出部22は、CPU15にプログラムが組み込まれることによって構築されていたり、あるいは、専用の演算装置によって構築されている。
 また、図1(A)に示すように、携帯端末1は、タッチパネル型表示装置10が設けられた一方の面に、画像を撮影するカメラセンサ部11を備えている。カメラセンサ部11は、例えば、CCDイメージセンサやCMOSセンサなどの撮像素子である。これに伴い、携帯端末1は、図2に示すように、カメラセンサ部11である撮像素子を制御する回路であるカメラ制御部10を備えている。このカメラ制御部10は、撮像した画像データをCPU15に送り、当該CPU15にて、後述するように、画像データのデータ内容から操作者の位置を、特定位置として検出する。つまり、カメラセンサ部11、カメラ制御部23、CPU15は、協働して、操作者の位置を検出する位置検出手段として機能する。なお、ここでは、撮像した画像データ内に人物が存在する場合に、かかる人物を操作者と認識してその位置を特定位置として検出するが、画像データ内から他の物体を検出して、その位置を特定位置として検出してもよい。
 また、携帯端末1は、図1(B)に示すように、タッチパネル型表示装置10が装備された面とは反対側の面に、近接センサ部12を備えている。この近接センサ部12は、物体との距離を検出するセンサであり、例えば、物体との距離が基準値以下である場合には、デスクDなどの台や壁といった平面に、携帯端末1が接しているとことを検出して、CPU15に通知する。
 さらに、携帯端末1は、内部に、3軸加速度センサ部13を備えている。この3軸加速度センサ13は、地球の引力に対する3軸方向の携帯端末1の加速度を検出することにより、携帯端末1の水平面に対する傾斜角度を検出して、CPU15に通知する。
 そして、CPU15は、上記近接センサ部12にて携帯端末1が物体と接触していることを検出し、かつ、上記3軸加速度センサ部13にて検出した携帯端末1の傾斜角度が水平状態であると判断すると、携帯端末1が所定の台の上に水平に載置されている状態にあることを検出する。つまり、近接センサ部12と、3軸加速度センサ部13と、CPU15とは、協働して、携帯端末1が水平状態であることを検出する水平状態検出手段として機能する。
 なお、本発明における水平状態とは、上述した3軸加速度センサ部13にて検出した携帯端末1の水平面に対する傾斜角度が、予め設定された範囲内(例えば、水平面に対して傾斜角度5度の範囲内)である場合も含むこととする。また、携帯端末1が水平状態であると判断する条件は、必ずしも台などの物体に載置されている必要はない。つまり、携帯端末1は、必ずしも近接センサ部12を備えていることに限定されない。また、携帯端末1が水平状態であることを検出する手段は、上述した構成にて実現することに限定されず、他の構成にて実現してもよい。
 次に、上述したカメラセンサ部11等による位置検出手段の詳細な機能について説明する。カメラセンサ部11やCPU15にて構成された位置検出手段は、カメラセンサ部11にて撮像した画像データの画像認識処理を行い、操作者がどの方向に位置するかを識別する。具体的に、本実施形態では、図3に示すように、まず携帯端末1の上端側に設けられたカメラセンサ部11にて、図3及び図4に示す符号Rに示す範囲の画像データが取得される。その後、RAM17内にてCPU15により画像データに対する画像認識処理が実行され、人物(顔)の検出処理が実行される。例えば、予め記憶された人間の顔特徴データとマッチングしたり、統計的手法によって人間の目や口などの特徴ある部分を検出する。これにより、外形が略矩形である携帯端末1のどの方向の端部側に操作者Uが位置しているか、つまり、特定位置を検出する。
 例えば、画像データが、図4(B)の撮影範囲Rに示す画像であった場合には、操作者Uの顔を下端側に検出しているため、当該操作者Uは図3に示すように携帯端末1に対して水平方向に位置し、図4(A)の下側の端部側に位置している、として検出する。なお、図4(B)の撮影範囲R内においては、操作者Uが、特定の方向の端部側に位置する場合には、各端部側であって携帯端末1の水平方向に位置すると検出し、撮影範囲R内の中央に操作者Uが位置する場合には、当該操作者Uは携帯端末1の鉛直上にいると検出する。
 なお、上述した操作者Uの位置を検出は、必ずしも撮影した画像を用いて行うことに限定されない。赤外線センサなど人物を検知できる他の構成を用いて実現してもよい。また、画像を用いずに他の構成にて、人物以外の物体を検出して、その位置を特定位置として検出してもよい。
 そして、上記表示制御部21は、上述したように、携帯端末1が水平状態に載置され、操作者Uが携帯端末1に対して水平方向の特定の方向に位置していることを検出すると、タッチパネル型表示装置10の表示画面の表示状態を変化させて表示する。具体的に、表示制御部21は、まず、操作者Uが位置する携帯端末1の特定の方向の端部側から表示画面を視認していると認識し、かかる端部側が表示画面の下側となるようタッチパネル型表示装置10に表示する表示データの表示向きを変更する。そして、表示制御部21は、さらに、検出した操作者Uの位置(特定位置)からタッチパネル型表示装置10の表示画面上における表示データが占める表示領域までの距離に応じて、表示データの表示状態を変化させる。特に、本実施形態では、操作者Uが位置する携帯端末1の特定の方向の端部から、表示画面の各表示位置における距離が長くなるにつれて、アイコンや画面全体の表示状態を変化させて表示する。
 ここで、本実施形態における表示制御部21による、表示画面に表示する表示データの表示状況を変化させたときの一例を、図5及び図6に示す。まず、図5の例では、表示制御部21は、通常の表示状態として、図5(A)に示すようにタッチパネル型表示装置10の表示画面に矩形形状のアイコン20を複数表示するよう制御する。このとき、図5(A)の下端側に表示データの下側が向くような表示向きで表示されていることとする。かかる状態から、携帯端末1がデスクDなどに載置されて水平状態となり、図5(B)に示すように、操作者Uの位置が携帯端末1に対して水平かつ特定の端部(下端)側に位置していると検出されると、まず、下端側の矢印の方向から操作者Uが見ていると判断し、かかる端部側が表示画面の下側となるようタッチパネル型表示装置10に表示するデータの表示向きを変更する。但し、図5(B)の例では、図5(A)に対して表示向きの変更はない。なお、上記では、アイコン20の形状を矩形形状と記載しているが、以降、正方形として説明を進める。但し、アイコン20の形状は、矩形形状に限定されるものではなく、例えば円形であってもよく、いかなる形状であってもよい。
 そして、さらに、表示制御部21は、図5(B)に示すように、表示画面に表示されている表示データである正方形の各アイコン20の表示形状を、携帯端末1の特定の端部からの距離が長くなるにつれて大きくなるよう台形形状に変更して表示する。つまり、通常表示の場合と比較して、個々のアイコン20については、操作者U側に位置する幅を短く、操作者Uから遠くに位置する幅を長く表示した台形形状として表示形状を変更して表示する。そして、操作者Uから遠くに位置するアイコン20ほど、台形の表示サイズを拡大して表示する。これにより、各アイコン20は、操作者Uが遠近感をより強く感じられるよう表示され、操作者Uは、より遠くに位置するアイコン20を視認しやすくなる。なお、ここでは、アイコン20の表示位置と携帯端末1の端部からの距離に応じて、アイコン20の形状を台形形状に形状変更する例を説明するが、アイコン20の表示位置に応じて、台形ではなく平行四辺形類似の形状に形状変更を行ってもよい。
 表示制御部21の具体的な処理としては、まず、操作者が位置する携帯端末1の特定の端部から各アイコン20までの距離の方向を特定し、かかる距離方向に対する各アイコン20の相対的位置を決定する。例えば、携帯端末1の特定の端部に対して、距離方向に対し最遠となる位置、最近となる位置にそれぞれ存在するアイコン20を、それぞれ、遠位にあるアイコン20、近位にあるアイコン20と判断する。なお、携帯端末1の特定の端部に対して平行的に表示されたアイコンは、いずれも距離方向に対して等しい位置にあるとみなしてもよい。そして、それぞれのアイコン20が有する特定の端部に対する相対的距離に応じて、それぞれのアイコン20に対する表示態様の変更処理を行う。この表示態様の変更処理とは、例えば、上述したように各アイコン20が台形となるよう形状変更を行い、次いで、当該各アイコン20のデータサイズの比率を、遠位から近位にかけて縮小して、あるいは、近位から遠位にかけて拡大するなど、サイズ変更を行って表示する処理である。あるいは、表示態様の変更処理では、上述した形状変更と拡大縮小処理のいずれか単独の処理のみを行ってもよい。
 なお、図5(B)のアイコン20の表示状態の変化は一例であって、別の形状に変形して表示してもよい。また、必ずしもアイコン20の大きさを変化させることに限定されず、他の実施形態にて説明するように、アイコン20に付加される画像要素を変化させてもよい。さらに、上記では、それぞれのアイコン20の形状を変化させて表示させる場合を例示したが、図6(A)に示すように、タッチパネル型表示装置10全体に表示されている表示データ20’を、図6(B)に示すように、画面全体ごと操作者Uが位置する端部側の幅が徐々に短くなるよう表示し、かかる端部側よりも反対側の端部側の幅が長くなるよう表示する、ことも可能である。つまり、上述同様に、携帯端末1の特定の端部から画面に対する距離の方向における、当該画面全体の遠位と近位との位置を決定し、画面全体が台形となるよう、当該画面全体のデータサイズの比率を、遠位から近位にかけて縮小して、あるいは、近位から遠位にかけて拡大して表示する。
 また、上述したようにアイコン20を台形等に形状変化させて表示させたことに対応して、入力検出部22は、アイコン20に対する接触入力を検出する範囲を変更する処理を行う。つまり、入力検出部22は、図5(A)に示す通常表示状態では、正方形であるアイコン20上で接触入力を検出すると、かかる接触入力を受け付けるが、図5(B)の変更表示後においては、台形であるアイコン20の形状の範囲内に対する接触入力を検出して、かかる入力を受け付ける。
 なお、上述した表示制御部21による表示状態の変更処理は、携帯端末1のタッチパネル型表示装置10が水平状態に位置していない時であっても、操作者Uの位置に応じて実行されてもよい。
 [動作]
 次に、上述した構成の携帯端末1の動作を、図7のフローチャートを参照して説明する。まず、携帯端末1の背面に配置された近接センサ12にて、近接物との距離を検出する。近接物との距離が予め設定された閾値より近い場合は、携帯端末1は近接物に接触していると判断する(ステップS1でYes)。
 次に、携帯端末1が装備する3軸加速度センサ13による検出値から、携帯端末1の設置角度を検出する。携帯端末1の設置角度が地球の重力方向と直角の角度に対して予め設定された閾値内である場合は、携帯端末1は水平に設置されていると判別する(ステップS2でYes)。
 そして、上述したように、携帯端末1が近接物に接触し、かつ、水平に設置された状態で、タッチパネル型表示装置10に対する接触入力(押下)があった場合に(ステップS3でYes)、携帯端末1の表面に設置されたカメラセンサ部11を動作させる(ステップS4)。そして、カメラセンサ部11にて取得された撮像情報は、カメラ制御部23にて2次元の画像データに変換され出力される(ステップS4)。
 その後、カメラ制御部23から出力された画像データは、RAM17に送られ、CPU15により画像認識処理を行い、操作者Uの位置が携帯端末1のどの方向に位置するかを識別する。このとき、操作者Uの位置が、撮影した画像データの中央部にあると識別された場合には、操作者Uは携帯端末1の鉛直上にいると判別する。一方、画像データ内で操作者Uが携帯端末1の特定の方向の端部に位置する場合は、操作者Uは携帯端末1の特定の方向の水平に近い位置から操作していると識別する(ステップS5でYes)。例えば、図4(B)の例では、撮影範囲Rの画像データ内における操作者Uの位置は下端側にあるため、当該操作者Uの位置は携帯端末1の下端部側であり、図4(A)に示すように、水平に置かれた携帯端末1を水平面上から矢印の方向に操作していると識別する。
 そして、上述したように識別した操作者Uの位置に基づき、タッチパネル型表示装置10の表示画面に対する表示状態を変更する(ステップS6)。例えば、図5(B)の矢印に示すように、携帯端末1の下端側に操作者Uが位置すると識別できた場合には、まず、携帯端末1の下端側が表示画面の下側となるよう表示向きを変更する。そして、図5(A)の通常表示状態と比較して、操作者U側つまり操作者Uの手前側に位置する画面表示の下側の幅方向の長さを短く、また、操作者Uよりも離れた奥側に位置する画面表示の上側の幅方向の長さを長くした台形の表示画面に変更する。これにより、操作者Uは、遠くに位置する画面表示をより見やすくなる。
 さらに、上述した画面表示処理に従って、タッチパネル型表示装置10に対する接触入力を検出する操作エリアも、上記表示エリアに対応して台形に変更する(ステップS7)。これにより、操作者Uは、画面表示に対応した操作が可能となり、操作がしやすくする。
 以上説明したように、本発明によると、携帯端末1を机上などに水平に設置された状態で、操作者Uが携帯端末1を水平方向から目視した場合であっても、表示内容に遠近感がより強く反映されて表示されるため、操作者Uは表示内容を確認しやすくなり、操作性も向上する。
 <実施形態2>
 次に、本発明の第2の実施形態を、図8を参照して説明する。図8は、本実施形態における携帯端末の表示画面の表示例を示す図である。
 本実施形態における携帯端末1は、上述した実施形態1のものとほぼ同様の構成を取っているが、表示制御部21による操作者Uの位置に応じた変更表示の方法が異なる。本実施形態における表示制御部21は、上述したように、携帯端末1が水平状態に載置され、操作者Uが携帯端末1に対して水平方向の特定の方向に位置していることを検出すると、検出した操作者Uの位置からタッチパネル型表示装置10の表示画面上における表示データの表示位置までの距離に応じて、アイコン20や画面全体の表示色の濃度や輝度を変化させて表示する。
 例えば、図5(A)で説明した通常表示状態に対して、図8(A)に示すように、携帯端末1の下端側(矢印位置)に操作者Uの位置を識別できた場合には、操作者Uから近くに位置するアイコン20の表示濃度を淡く、遠くに位置するアイコン20の表示濃度を濃く表示する。なお、各アイコン20内で、下側から上側に位置するにつれて表示濃度が濃くなるよう変化させて表示してもよく、タッチパネル型表示装置10の表示画面全体で、下側から上側に位置するにつれて表示濃度が濃くなるよう変化させて表示してもよい。また、上記とは逆に、操作者Uから近くに位置する側の表示濃度を濃く、遠くに位置する側の表示濃度を淡く表示してもよい。
 さらに、表示画面の輝度も同様に、操作者Uからの距離に応じて変化させてもよい。例えば、操作者Uから近くに位置する側の輝度を暗く、遠くに位置する側の輝度を明るく、あるいは、その逆に表示してもよい。
 また、図8(B)は、実施形態1で形状及び大きさを変形させて表示したアイコン20の表示濃度を、図8(A)と同様に操作者Uからの位置に応じて変化させて表示させたときの例である。
 このようにしても、携帯端末1を机上などに水平に設置された状態で操作者Uが携帯端末1を水平方向から目視した場合であっても、表示内容に遠近感がより強く反映されて表示されるため、操作者Uは表示内容を確認視野やすくない、操作性も向上する。
 <実施形態3>
 次に、本発明の第3の実施形態を、図9を参照して説明する。図9は、本実施形態における携帯端末の表示画面の表示例を示す図である。
 本実施形態における携帯端末1は、上述した実施形態1のものとほぼ同様の構成を取っているが、表示制御部21による操作者Uの位置に応じた変更表示の方法が異なる。本実施形態における表示制御部21は、上述したように、携帯端末1が水平状態に載置され、操作者Uが携帯端末1に対して水平方向の特定の方向に位置していることを検出すると、検出した操作者Uの位置からタッチパネル型表示装置10の表示画面上における表示データの表示領域までの距離に応じて、各アイコン20の表示領域の近傍に表示した陰影表示が占める表示領域や立体表示の高さを変化させて表示する。
 例えば、表示制御部21は、図5(A)で説明した通常表示状態に対して、図9(A)に示すように、携帯端末1の下端側(矢印位置)に操作者Uの位置を識別できた場合には、操作者Uから近くに位置するアイコン20の背後の下側に黒色の陰影表示を小さく(浅く)表示し、遠くに位置するアイコン20の背後の下側に黒色の陰影表示を大きく(深く)表示する。また、図9(B)は、実施形態1で形状及び大きさを変形させて表示したアイコン20に、図9(A)と同様に操作者Uからの位置に応じて大きさの異なる陰影表示を表示させたときの例である。
 具体的に表示制御部21は、上述した各アイコン20の表示態様の変更処理と同様に、その陰影表示の表示領域も変更させて表示する。つまり、携帯端末1の特定の端部から各アイコン20までの距離の方向を特定し、かかる距離方向に対する各アイコン20の相対的位置を決定する。例えば、携帯端末1の特定の端部に対して、距離方向に対して最遠となる位置、最近となる位置にそれぞれ存在するアイコン20を、それぞれ、遠位にあるアイコン20、近位にあるアイコン20と判断する。なお、携帯端末1の特定の端部に対し平行的に表示されたアイコンはいずれも距離方向に対して等しい位置にあるとみなしてもよい。そして、それぞれのアイコン20が有する特定の端部に対する相対的距離に応じて、それぞれのアイコン20に対する陰影表示の変更処理を行う。この陰影表示の変更処理とは、例えば、上述したように各アイコン20と同様に台形となるよう、当該各アイコン20の陰影表示のデータサイズの比率を、遠位から近位にかけて縮小して、あるいは、近位から遠位にかけて拡大するなど、陰影表示自体のサイズ変更を行って表示する処理である。
 なお、図9では、アイコン20の下側に陰影表示を行った場合を例示したが、陰影表示に替えて、アイコン20に立体的な視覚効果を発揮させる立体表示を行ってもよい。つまり、携帯端末1が水平に配置され当該端末1に対する操作者Uの位置を識別できた場合には、当該操作者Uからの距離が遠くに位置するほど高さが高く表示されるような立体表示を、アイコン20の背後の下側に付随して表示してもよい。
 このようにしても、携帯端末1を机上などに水平に設置された状態で操作者Uが携帯端末1を水平方向から目視した場合であっても、表示内容に遠近感がより強く反映されて表示されるため、操作者Uは表示内容を確認視野やすくない、操作性も向上する。
 <実施形態4>
 次に、本発明の第4の実施形態を、図10乃至図11を参照して説明する。図10は、本実施形態における携帯端末の表示画面の表示例を示す図であり、図11は、携帯端末の動作を示すフローチャートである。
 本実施形態における携帯端末1は、上述した実施形態1のものとほぼ同様の構成を取っているが、操作者Uの位置を常に検出し、変更した操作者Uの位置に応じて上述した各実施形態のように変更表示する、という点で異なる。
 上述した実施形態1では、携帯端末1が水平状態に配置されたことを検出し(図7のステップS1,S2)、タッチパネル型表示装置10に対する押下が検出された場合に(図7のステップS3))、カメラを作動させて操作者Uの位置を検出して表示制御を行っていた(図7のステップS4-S7)。これに対して、本実施形態では、携帯端末1が水平状態に配置されたことを検出すると(図11のステップS11,S12)、カメラを作動させて(図11のステップS13)、撮像した画像データ内に操作者Uが存在するかを判断する(図11のステップS14)。このとき、例えば、画像データに対する画像認識処理を行い、画像データ内に存在する顔の輪郭、目、鼻、口などのパーツを予め設定された基準に基づいて抽出することで、人物の顔の存在を検出し、操作者Uが存在することを判断する。その後は、実施形態1と同様に、携帯端末1に対する操作者Uの位置を検出して、かかる位置に対応して表示制御を行う(図11のステップS15-S17)。
 ここで、本実施形態における表示画面に表示する表示データの表示状況を変化させたときの一例を、図10を参照して説明する。まず、図10(A)に示すように、操作者Uが携帯端末1の下端側(矢印参照)に位置していることを検出した場合には、上述した実施形態1と同様に、表示画面に表示されている表示データである矩形形状の各アイコン20を、携帯端末1の特定の端部からの距離が長くなるにつれて大きくなるよう台形形状に変形して表示している。この状態で、操作者Uが携帯端末1の右端側に移動した場合には、まず、携帯端末1は、カメラセンサ部11にて常に撮影されている画像データから、操作者Uが携帯端末1の右端側に位置していることを検出する。
 すると、携帯端末1では、図10(B)の矢印に示すように、携帯端末1の右端側から操作者Uが見ていると判断し、かかる端部側が表示画面の下側となるようタッチパネル型表示装置10に表示する表示データの表示向きを変更する。つまり、図10(A)に示す表示画面の表示を、反時計回りに90度回転させて、図10(B)に示す向きに表示する。そして、この場合にも、表示画面に表示されている表示データである正方形の各アイコン20を、携帯端末1の特定の端部からの距離が長くなるにつれて大きくなるよう台形形状に変形して表示する。なお、操作者Uからの距離に応じた表示データの変更表示は、上述した各実施形態で説明したように行ってもよい。
 <実施形態5>
 次に、本発明の第5の実施形態を、図12乃至図15を参照して説明する。図12は、本実施形態における携帯端末の外観構成を示す図である。図13乃至図14は、携帯端末による操作者を認識する動作を説明する図である。図15は、携帯端末の動作を示すフローチャートである。
 本実施形態における携帯端末1は、上述した各実施形態のものとほぼ同様の構成を取っているが、図12に示すように、カメラセンサ部11aを携帯端末1の下端部に位置する側面に装備している点で異なる。このように、カメラセンサ部11aを携帯端末1の特定の側面に装備していることで、図13に示すように、携帯端末1の特定の側面方向のみが撮像範囲Rとなり、図14(B)に示すような画像データが撮影されることとなる。なお、画像データの撮影は、上述した実施形態4と同様に、携帯端末1が水平状態に配置されたことを検出すると(図15のステップS21,S22)、カメラを作動させて行われる(図15のステップS23)。
 その後は、上記実施形態4と同様に、撮像した画像データ内に操作者Uが存在するかを判断する(図15のステップS24)。このとき、例えば、画像データに対する画像認識処理を行い、画像データ内に存在する顔の輪郭、目、鼻、口などのパーツを抽出することで、人物の顔の存在を検出し、操作者Uが存在することを判断する。これにより、カメラセンサ部11aが装備されている側面方向の端部側に操作者Uが位置すると判断して、かかる位置に対応して図14(A)に示すように、表示制御を行う(図15のステップS25,S26)。なお、操作者Uからの距離に応じた表示データの変更表示は、上述した各実施形態で説明したように行ってもよい。
 ここで、上記では、カメラセンサ部11aを携帯端末1の4つの側面のうち下端に位置する側面のみに装備した場合を例示したが、他の側面に装備してもよい。あるいは、複数の側面にカメラセンサ部11aを装備してもよい。その場合には、操作者Uを検出したカメラセンサ部11aが装備されている側面を特定し、かかる側面の端部側に操作者Uが位置することとして、上述同様の表示変更を行う。
 <実施形態6>
 次に、本発明の第6の実施形態を、図16乃至図17を参照して説明する。図16は、携帯端末による操作者を認識する動作を説明する図である。図17は、携帯端末の表示画面の表示例を示す図である。
 本実施形態における携帯端末1は、上述した各実施形態のものとほぼ同様の構成を取っているが、表示制御部21による操作者Uの位置に応じた変更表示の方法が異なる。本実施形態における表示制御部21は、上述したように、携帯端末1が水平状態に載置され、操作者Uが携帯端末1に対して水平方向の特定の方向に位置していることを検出すると、操作者Uの位置からの距離に応じて表示状態を変化させると共に、当該操作者Uとタッチパネル型表示装置10の表示面に対する角度に応じても、表示状態を変化させる。
 ここで、図16に示すように、操作者の位置が、符号Uaと符号Ubとに示す位置であるとする。この場合、操作者Uaから表示データの表示位置への視線Laは、表示画面に対して角度αとなり、一方、操作者Ubから表示データの表示位置への視線Lbは、表示画面に対して角度βとなり、異なる。すると、操作者Uaの方が操作者Ubよりも表示画面に対する視線の角度が小さいため、通常は操作者Uaの方が表示データを視認しにくくなる。
 このような状況に応じて、本実施形態における携帯端末1は、まず、カメラセンサ部11にて撮像した画像データに存在する顔の輪郭、目、鼻、口などのパーツを、予め設定された基準に基づいて抽出して、操作者Ua,Ubの顔の携帯端末1に対する高さ位置を特定する。このとき、特に、操作者Ua,Ubの目の高さ位置を検出する。そして、検出した操作者Ua,Ubの高さ位置に基づいて、操作画面に対する各操作者Ua,Ubの角度を特定し、角度に応じた表示制御を行う。
 例えば、図17(A),(B)に示すように、各操作者Ua,Ubに対しては、上記実施形態2で説明したように、それぞれ操作者からの距離が長くなるほどアイコン20に付随する陰影表示を大きく表示するが、その陰影表示の大きさの変化の度合いを、操作者Ua,Ubの角度に応じて変える。つまり、表示画面上の同一位置に表示されるアイコン20に陰影表示を行う場合には、表示画面に対する角度が小さい操作者Uaに対する陰影表示(図16(A))の方が、操作者Uaよりも表示画面に対する角度が大きい操作者Ubに対する陰影表示(図16(B))よりも大きくなる表示する。これにより、操作者Uaは、表示画面に対する視線の角度が小さいが、より表示データを視認しやすくなる。
 なお、上記では、陰影表示の大きさを角度によって変更させる場合を例示したが、上述した他の実施形態のように、表示データの大きさや形状を変化させたり、表示色の濃淡などを、表示画面に対する操作者の位置の角度に応じて変えてもよい。
 <実施形態7>
 次に、本発明の第7の実施形態を、図18を参照して説明する。図18は、携帯端末による操作者を認識する動作を説明する図である。
 本実施形態における携帯端末1は、上述した各実施形態のものとほぼ同様の構成を取っているが、カメラセンサ部11にて撮像した画像データから、予め設定された特定の操作者Uの位置を特定する機能を有する点に特徴を有する。
 例えば、図18(A)の矢印U,U’に示すように、携帯端末1の下端側に操作者Uが位置し、左端側にも他の操作者U’が位置する場合には、図18(B)に示すように、カメラセンサ部11にて撮像した画像データ中に2人の操作者U,U’が存在することとなる。このような場合に、携帯端末1(位置検出手段)は、一人の操作者Uを特定する。例えば、画像データに存在する全ての顔の輪郭、目、鼻、口などのパーツを予め設定された基準に基づいて抽出して、特定のパーツや顔の輪郭の最も大きい操作者を特定する。図18(B)の場合には、下端側に位置する操作者Uを特定する。その後は、図18(A)に示すように、特定した操作者Uの位置に応じて、アイコン20の変更表示を行う。
 なお、画像データ内から一人の操作者Uを特定するルールは予め設定されているが、他のルールにより操作者Uを特定してもよい。例えば、予め設定された時間内において、最後に画像データに存在する操作者の位置を特定したり、予め顔特徴データが記憶されている特定の操作者の位置を特定するなどしてもよい。さらには、画像データ内に存在する操作者のまばたきなどの動作を検出し、かかる動作を行った操作者の位置を特定してもよい。
 <実施形態8>
 次に、本発明の第8の実施形態を、図19を参照して説明する。図19は、携帯端末による操作者を認識する動作を説明する図である。
 本実施形態における携帯端末1は、上述した各実施形態のものとほぼ同様の構成を取っているが、入力検出部22が、操作者Uの位置からタッチパネル型表示装置10の距離に応じて、当該タッチパネル型表示装置10に対する接触入力の感度を変更する機能を有する点で異なる。
 例えば、図19に示すように、携帯端末1の下端側(矢印参照)に操作者Uが位置すると検出された場合には、まず、上述したように、操作者Uの位置からの距離に応じて表示状態が変化されるが、これと共に、操作者Uの位置からの距離が遠くなるにつれて接触入力を検出する感度Sが高くなるよう設定される。なお、図19の符号Sに示す点線は、接触入力の感度Sの高さを視覚的に表したものである。
 これにより、例えば操作者Uは、タッチパネル型表示装置10の近くに位置する箇所に対しては、通常通りの押圧力でタッチパネルを押圧して入力を行うが、携帯端末1の上端付近など遠くに位置する箇所に対しては、それよりも小さい押圧力、例えば、軽く触れる程度で、入力できるようになる。
 ここで、上記実施形態3で説明したように、タッチパネル型表示装置10に表示するアイコン20に対して操作者Uの位置からの距離が遠くになるにつれて、陰影表示を大きく表示したり、立体表示の高さを高く表示したときに、上述したように、操作者Uの位置からの距離が遠くなるにつれて接触入力を検出する感度Sが高くなるよう設定するとよい。これにより、操作者10は、遠くに位置する表示データほど表示画面よりも上方に位置しているような視覚的感覚を得ると共に、かかる表示データに対する押下入力などの操作が軽い接触でできるため、視覚的感覚と操作感覚とが一致し、操作性の向上を図ることができる。
 <付記>
 上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における情報処理端末(図20参照)、プログラム、表示制御方法の構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
 タッチパネル型表示装置110と、
 前記タッチパネル型表示装置110に対する表示状態を制御する制御装置120と、
 前記タッチパネル型表示装置110に対する特定位置を検出する位置検出手段130と、を備え、
 前記制御装置120は、前記位置検出手段130にて検出した特定位置と前記タッチパネル型表示装置110上における表示データが占める表示領域との距離に応じて、当該表示データの表示状態を変化させる表示制御部121を備えた、
情報処理端末100。
(付記2)
 付記1に記載の情報処理端末であって、
 前記表示制御部は、前記特定位置から前記表示データに対する前記距離の方向における前記表示領域上の遠位及び近位となる位置を決定し、前記遠位から前記近位にかけて表示状態を異ならせて表示する、
情報処理端末。
(付記3)
 付記2に記載の情報処理端末であって、
 前記表示制御部は、前記タッチパネル型表示装置に表示される複数個の表示データそれぞれが占める前記表示領域上の、前記距離の方向における遠位及び近位となる位置を決定する、
情報処理端末。
(付記4)
 付記2又は3に記載の情報処理端末であって、
 前記表示制御部は、前記表示データのデータサイズの比率を、前記遠位から前記近位にかけて縮小して表示、あるいは、前記近位から前記遠位にかけて拡大して表示する、
情報処理端末。
(付記5)
 付記1乃至4のいずれかに記載の情報処理端末であって、
 前記表示制御部は、前記タッチパネル型表示装置に表示される表示データの表示領域の近傍に表示する陰影表示データが占める表示領域を、前記距離に応じて変更する、
情報処理端末。
(付記6)
 付記1乃至5のいずれかに記載の情報処理端末であって、
 前記表示制御部は、前記タッチパネル型表示装置に表示される表示データの表示領域の近傍に表示する立体表示の高さを、前記距離に応じて変更する、
情報処理端末。
(付記7)
 付記1乃至6のいずれかに記載の情報処理端末であって、
 前記表示制御部は、前記タッチパネル型表示装置に表示される表示データの表示色の濃度を、前記距離に応じて変更する、
情報処理端末。
(付記8)
 付記1乃至7のいずれかに記載の情報処理端末であって、
 前記表示制御部は、前記タッチパネル型表示装置に表示される表示データの表示色の輝度を、前記距離に応じて変更する、
情報処理端末。
(付記9)
 付記1乃至8のいずれかに記載の情報処理端末であって、
 前記表示制御部は、前記タッチパネル型表示装置の表示面に対する、前記位置検出手段にて検出した前記特定位置から前記タッチパネル型表示装置上における表示データの表示位置への角度に応じて、当該表示データの表示状態を変化させて表示する、
情報処理端末。
(付記10)
 付記1乃至9のいずれかに記載の情報処理端末であって、
 前記制御装置は、前記タッチパネル型表示装置に対する接触入力を検出する接触検出部を備え、
 前記接触検出部は、前記表示制御部による前記表示データの表示状態の変化に応じて当該表示データに対する接触入力を検出する範囲を変更する、
情報処理端末。
(付記11)
 付記1乃至10のいずれかに記載の情報処理端末であって、
 前記制御装置は、前記タッチパネル型表示装置に対する接触入力を検出する接触検出部を備え、
 前記接触検出部は、前記位置検出手段にて検出した前記特定位置と前記タッチパネル型表示装置上における表示データの表示位置との距離に応じて、前記タッチパネル型表示装置に対する接触入力を検出する感度を変更する、
情報処理端末。
(付記12)
 付記1乃至11のいずれかに記載の情報処理端末であって、
 前記タッチパネル型表示装置の表示面が予め設定された基準における水平状態であることを検出する水平状態検出手段を備え、
 前記表示制御部は、前記水平状態検出手段にて前記タッチパネル型表示装置が水平状態である場合に、前記表示データの表示状態を変化させて表示する、
情報処理端末。
(付記13)
 付記1乃至12のいずれかに記載の情報処理端末であって、
 前記位置検出手段は、前記特定位置に存在する予め設定された特定の人物を検出し、
 前記表示制御部は、前記位置検出手段によって検出された前記特定の人物の位置と前記タッチパネル型表示装置上における表示データの表示位置との距離に応じて、当該表示データの表示状態を変化させる、
情報処理端末。
(付記14)
 タッチパネル型表示装置を備えた情報処理端末に、
 前記タッチパネル型表示装置に対する特定位置を検出する位置検出手段と、
 前記タッチパネル型表示装置に対する表示状態を制御すると共に、前記位置検出手段にて検出した特定位置と前記タッチパネル型表示装置上における表示データが占める表示領域との距離に応じて、当該表示データの表示状態を変化させる表示制御部と、
を実現させるためのプログラム。
(付記15)
 付記14に記載のプログラムであって、
 前記表示制御部は、前記特定位置から前記表示データに対する前記距離の方向における前記表示領域上の遠位及び近位となる位置を決定し、前記遠位から前記近位にかけて表示状態を異ならせて表示する、
プログラム。
(付記16)
 タッチパネル型表示装置を備えた情報処理端末が、
 前記タッチパネル型表示装置に対する特定位置を検出し、
 検出した特定位置と前記タッチパネル型表示装置上における表示データが占める表示領域との距離に応じて、当該タッチパネル型表示装置に対する表示データの表示状態を変化させる、
表示制御方法。
(付記17)
 付記16に記載の表示制御方法であって、
 前記特定位置から前記表示データに対する前記距離の方向における前記表示領域上の遠位及び近位となる位置を決定し、前記遠位から前記近位にかけて表示状態を異ならせて表示する、
表示制御方法。
 なお、上記各実施形態及び付記において記載したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されている。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。
 以上、上記各実施形態を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。
 なお、本発明は、日本国にて2011年9月26日に特許出願された特願2011-208567の特許出願に基づく優先権主張の利益を享受するものであり、当該特許出願に記載された内容は、全て本明細書に含まれるものとする。
1 携帯端末
10 タッチパネル型表示装置
11 カメラセンサ部
12 近接センサ部
13 3軸加速度センサ
15 CPU
16 Flash ROM
17 RAM
21 表示制御部
22 入力検出部
23 カメラ制御部
100 情報処理端末
110 タッチパネル型表示装置
120 制御装置
121 表示制御部
130 位置検出手段
 

Claims (17)

  1.  タッチパネル型表示装置と、
     前記タッチパネル型表示装置に対する表示状態を制御する制御装置と、
     前記タッチパネル型表示装置に対する特定位置を検出する位置検出手段と、を備え、
     前記制御装置は、前記位置検出手段にて検出した特定位置と前記タッチパネル型表示装置上における表示データが占める表示領域との距離に応じて、当該表示データの表示状態を変化させる表示制御部を備えた、
    情報処理端末。
  2.  請求項1に記載の情報処理端末であって、
     前記表示制御部は、前記特定位置から前記表示データに対する前記距離の方向における前記表示領域上の遠位及び近位となる位置を決定し、前記遠位から前記近位にかけて表示状態を異ならせて表示する、
    情報処理端末。
  3.  請求項2に記載の情報処理端末であって、
     前記表示制御部は、前記タッチパネル型表示装置に表示される複数個の表示データそれぞれが占める前記表示領域上の、前記距離の方向における遠位及び近位となる位置を決定する、
    情報処理端末。
  4.  請求項2又は3に記載の情報処理端末であって、
     前記表示制御部は、前記表示データのデータサイズの比率を、前記遠位から前記近位にかけて縮小して表示、あるいは、前記近位から前記遠位にかけて拡大して表示する、
    情報処理端末。
  5.  請求項1乃至4のいずれかに記載の情報処理端末であって、
     前記表示制御部は、前記タッチパネル型表示装置に表示される表示データの表示領域の近傍に表示する陰影表示データが占める表示領域を、前記距離に応じて変更する、
    情報処理端末。
  6.  請求項1乃至5のいずれかに記載の情報処理端末であって、
     前記表示制御部は、前記タッチパネル型表示装置に表示される表示データの表示領域の近傍に表示する立体表示の高さを、前記距離に応じて変更する、
    情報処理端末。
  7.  請求項1乃至6のいずれかに記載の情報処理端末であって、
     前記表示制御部は、前記タッチパネル型表示装置に表示される表示データの表示色の濃度を、前記距離に応じて変更する、
    情報処理端末。
  8.  請求項1乃至7のいずれかに記載の情報処理端末であって、
     前記表示制御部は、前記タッチパネル型表示装置に表示される表示データの表示色の輝度を、前記距離に応じて変更する、
    情報処理端末。
  9.  請求項1乃至8のいずれかに記載の情報処理端末であって、
     前記表示制御部は、前記タッチパネル型表示装置の表示面に対する、前記位置検出手段にて検出した前記特定位置から前記タッチパネル型表示装置上における表示データの表示位置への角度に応じて、当該表示データの表示状態を変化させて表示する、
    情報処理端末。
  10.  請求項1乃至9のいずれかに記載の情報処理端末であって、
     前記制御装置は、前記タッチパネル型表示装置に対する接触入力を検出する接触検出部を備え、
     前記接触検出部は、前記表示制御部による前記表示データの表示状態の変化に応じて当該表示データに対する接触入力を検出する範囲を変更する、
    情報処理端末。
  11.  請求項1乃至10のいずれかに記載の情報処理端末であって、
     前記制御装置は、前記タッチパネル型表示装置に対する接触入力を検出する接触検出部を備え、
     前記接触検出部は、前記位置検出手段にて検出した前記特定位置と前記タッチパネル型表示装置上における表示データの表示位置との距離に応じて、前記タッチパネル型表示装置に対する接触入力を検出する感度を変更する、
    情報処理端末。
  12.  請求項1乃至11のいずれかに記載の情報処理端末であって、
     前記タッチパネル型表示装置の表示面が予め設定された基準における水平状態であることを検出する水平状態検出手段を備え、
     前記表示制御部は、前記水平状態検出手段にて前記タッチパネル型表示装置が水平状態である場合に、前記表示データの表示状態を変化させて表示する、
    情報処理端末。
  13.  請求項1乃至12のいずれかに記載の情報処理端末であって、
     前記位置検出手段は、前記特定位置に存在する予め設定された特定の人物を検出し、
     前記表示制御部は、前記位置検出手段によって検出された前記特定の人物の位置と前記タッチパネル型表示装置上における表示データの表示位置との距離に応じて、当該表示データの表示状態を変化させる、
    情報処理端末。
  14.  タッチパネル型表示装置を備えた情報処理端末に、
     前記タッチパネル型表示装置に対する特定位置を検出する位置検出手段と、
     前記タッチパネル型表示装置に対する表示状態を制御すると共に、前記位置検出手段にて検出した特定位置と前記タッチパネル型表示装置上における表示データが占める表示領域との距離に応じて、当該表示データの表示状態を変化させる表示制御部と、
    を実現させるためのプログラム。
  15.  請求項14に記載のプログラムであって、
     前記表示制御部は、前記特定位置から前記表示データに対する前記距離の方向における前記表示領域上の遠位及び近位となる位置を決定し、前記遠位から前記近位にかけて表示状態を異ならせて表示する、
    プログラム。
  16.  タッチパネル型表示装置を備えた情報処理端末が、
     前記タッチパネル型表示装置に対する特定位置を検出し、
     検出した特定位置と前記タッチパネル型表示装置上における表示データが占める表示領域との距離に応じて、当該タッチパネル型表示装置に対する表示データの表示状態を変化させる、
    表示制御方法。
  17.  請求項16に記載の表示制御方法であって、
     前記特定位置から前記表示データに対する前記距離の方向における前記表示領域上の遠位及び近位となる位置を決定し、前記遠位から前記近位にかけて表示状態を異ならせて表示する、
    表示制御方法。
     
PCT/JP2012/005929 2011-09-26 2012-09-18 携帯型情報処理端末 WO2013046596A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP12835441.2A EP2763010A4 (en) 2011-09-26 2012-09-18 MOBILE INFORMATION PROCESSING TERMINAL
US14/347,186 US20140300570A1 (en) 2011-09-26 2012-09-18 Mobile information processing terminal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-208567 2011-09-26
JP2011208567 2011-09-26

Publications (1)

Publication Number Publication Date
WO2013046596A1 true WO2013046596A1 (ja) 2013-04-04

Family

ID=47994682

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/005929 WO2013046596A1 (ja) 2011-09-26 2012-09-18 携帯型情報処理端末

Country Status (4)

Country Link
US (1) US20140300570A1 (ja)
EP (1) EP2763010A4 (ja)
JP (1) JPWO2013046596A1 (ja)
WO (1) WO2013046596A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015061298A (ja) * 2013-09-20 2015-03-30 シャープ株式会社 携帯端末、および制御方法
JP2016038720A (ja) * 2014-08-07 2016-03-22 本田技研工業株式会社 電子装置及び該電子装置を搭載した車両
JP2016224595A (ja) * 2015-05-28 2016-12-28 株式会社コロプラ システム、方法、およびプログラム
JP2017045333A (ja) * 2015-08-27 2017-03-02 京セラドキュメントソリューションズ株式会社 表示装置および表示制御プログラム
CN106488063A (zh) * 2015-08-27 2017-03-08 京瓷办公信息系统株式会社 显示装置
JP2017050620A (ja) * 2015-08-31 2017-03-09 京セラドキュメントソリューションズ株式会社 表示装置および表示制御プログラム
JP2017049664A (ja) * 2015-08-31 2017-03-09 京セラドキュメントソリューションズ株式会社 表示装置および表示制御プログラム
JPWO2015151387A1 (ja) * 2014-04-04 2017-04-13 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP2020503599A (ja) * 2016-12-14 2020-01-30 サムスン エレクトロニクス カンパニー リミテッド ディスプレイ装置及びその制御方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140340358A1 (en) * 2011-12-08 2014-11-20 Exo U Inc. Method for improving an interaction with a user interface displayed on a 3d touch screen display
CN102945520A (zh) * 2012-11-02 2013-02-27 中兴通讯股份有限公司 一种设备管理系统及方法
CN106648413B (zh) * 2016-09-28 2020-07-28 北京小米移动软件有限公司 基于手机的可操作区域的处理方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007017596A (ja) 2005-07-06 2007-01-25 Matsushita Electric Ind Co Ltd 携帯端末装置
WO2008041312A1 (fr) * 2006-10-02 2008-04-10 Pioneer Corporation Dispositif d'affichage d'images
JP2009157908A (ja) * 2007-12-07 2009-07-16 Sony Corp 情報表示端末、情報表示方法、およびプログラム
WO2011064895A1 (ja) * 2009-11-30 2011-06-03 パイオニア株式会社 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体
JP2011175617A (ja) * 2010-01-29 2011-09-08 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3658537B2 (ja) * 2000-06-27 2005-06-08 シャープ株式会社 情報記録表示装置
US8736557B2 (en) * 2006-09-11 2014-05-27 Apple Inc. Electronic device with image based browsers
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US20090156970A1 (en) * 2007-12-14 2009-06-18 Sullivan Shannon E System and method for exercising eyes
KR101495164B1 (ko) * 2008-04-10 2015-02-24 엘지전자 주식회사 이동단말기 및 그 화면 처리 방법
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
US9204050B2 (en) * 2008-12-25 2015-12-01 Panasonic Intellectual Property Management Co., Ltd. Information displaying apparatus and information displaying method
JP5374170B2 (ja) * 2009-01-22 2013-12-25 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
US8179449B2 (en) * 2009-05-20 2012-05-15 Sony Ericsson Mobile Communications Ab Portable electronic apparatus including a display and method for controlling display content based on movement of the display and user position
US8373669B2 (en) * 2009-07-21 2013-02-12 Cisco Technology, Inc. Gradual proximity touch screen
KR20110052998A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 디바이스에서 사용자 인터페이스 제공 방법 및 장치
KR20110101585A (ko) * 2010-03-09 2011-09-16 삼성전자주식회사 휴대용 단말기의 화면 전환 장치 및 방법
JP2011223556A (ja) * 2010-03-25 2011-11-04 Kyocera Corp 携帯端末装置
JP5573379B2 (ja) * 2010-06-07 2014-08-20 ソニー株式会社 情報表示装置および表示画像制御方法
JP2012038164A (ja) * 2010-08-09 2012-02-23 Sony Corp 情報処理装置
JP5732784B2 (ja) * 2010-09-07 2015-06-10 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007017596A (ja) 2005-07-06 2007-01-25 Matsushita Electric Ind Co Ltd 携帯端末装置
WO2008041312A1 (fr) * 2006-10-02 2008-04-10 Pioneer Corporation Dispositif d'affichage d'images
JP2009157908A (ja) * 2007-12-07 2009-07-16 Sony Corp 情報表示端末、情報表示方法、およびプログラム
WO2011064895A1 (ja) * 2009-11-30 2011-06-03 パイオニア株式会社 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体
JP2011175617A (ja) * 2010-01-29 2011-09-08 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2763010A4

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015061298A (ja) * 2013-09-20 2015-03-30 シャープ株式会社 携帯端末、および制御方法
JPWO2015151387A1 (ja) * 2014-04-04 2017-04-13 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US10636384B2 (en) 2014-04-04 2020-04-28 Sony Corporation Image processing apparatus and image processing method
JP2016038720A (ja) * 2014-08-07 2016-03-22 本田技研工業株式会社 電子装置及び該電子装置を搭載した車両
JP2016224595A (ja) * 2015-05-28 2016-12-28 株式会社コロプラ システム、方法、およびプログラム
CN106488063B (zh) * 2015-08-27 2019-05-28 京瓷办公信息系统株式会社 显示装置
US10254918B2 (en) 2015-08-27 2019-04-09 Kyocera Document Solutions Inc. Tilt adjustable perspective icons display device and non-transitory computer readable medium
CN106488063A (zh) * 2015-08-27 2017-03-08 京瓷办公信息系统株式会社 显示装置
JP2017045333A (ja) * 2015-08-27 2017-03-02 京セラドキュメントソリューションズ株式会社 表示装置および表示制御プログラム
JP2017049664A (ja) * 2015-08-31 2017-03-09 京セラドキュメントソリューションズ株式会社 表示装置および表示制御プログラム
JP2017050620A (ja) * 2015-08-31 2017-03-09 京セラドキュメントソリューションズ株式会社 表示装置および表示制御プログラム
JP2020503599A (ja) * 2016-12-14 2020-01-30 サムスン エレクトロニクス カンパニー リミテッド ディスプレイ装置及びその制御方法
JP7050067B2 (ja) 2016-12-14 2022-04-07 サムスン エレクトロニクス カンパニー リミテッド ディスプレイ装置及びその制御方法

Also Published As

Publication number Publication date
JPWO2013046596A1 (ja) 2015-03-26
EP2763010A4 (en) 2015-06-03
EP2763010A1 (en) 2014-08-06
US20140300570A1 (en) 2014-10-09

Similar Documents

Publication Publication Date Title
WO2013046596A1 (ja) 携帯型情報処理端末
KR102121592B1 (ko) 시력 보호 방법 및 장치
US9703939B2 (en) Mobile terminal and control method thereof
KR101806891B1 (ko) 이동 단말기 및 이동 단말기의 제어방법
US9007321B2 (en) Method and apparatus for enlarging a display area
US20160292922A1 (en) Display control device, display control method, and recording medium
US20160291687A1 (en) Display control device, display control method, and recording medium
US20160334936A1 (en) Portable device and method of modifying touched position
CN103870773A (zh) 用于显示数据的方法和装置
JP2019128961A (ja) 指紋認識のための方法、電子装置及び格納媒体
US10866649B2 (en) Gesture identification method and electronic device
JP6046384B2 (ja) 端末装置
JP2013150129A (ja) 携帯端末
CN111405117B (zh) 一种控制方法及电子设备
EP3614239B1 (en) Electronic device control in response to finger rotation upon fingerprint sensor and corresponding methods
CN111385415B (zh) 拍摄方法及电子设备
JP2022188192A (ja) 頭部装着型ディスプレイ装置、頭部装着型ディスプレイ装置の制御方法
CN109104573B (zh) 一种确定对焦点的方法及终端设备
US11750727B2 (en) Electronic device including a plurality of displays and method for operating same
KR101537625B1 (ko) 이동단말기 및 그 제어방법
CN111475247B (zh) 显示方法及电子设备
JP2020017215A (ja) 電子機器、制御プログラム及び表示制御方法
US11100903B2 (en) Electronic device and control method for controlling a display range on a display
JP6792721B2 (ja) 電子機器、プログラム、制御装置および制御方法
US8941648B2 (en) Mobile terminal and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12835441

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013535877

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2012835441

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14347186

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE