JP5316387B2 - 情報処理装置、表示方法及びプログラム - Google Patents

情報処理装置、表示方法及びプログラム Download PDF

Info

Publication number
JP5316387B2
JP5316387B2 JP2009276942A JP2009276942A JP5316387B2 JP 5316387 B2 JP5316387 B2 JP 5316387B2 JP 2009276942 A JP2009276942 A JP 2009276942A JP 2009276942 A JP2009276942 A JP 2009276942A JP 5316387 B2 JP5316387 B2 JP 5316387B2
Authority
JP
Japan
Prior art keywords
user
function
button
unit
function button
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009276942A
Other languages
English (en)
Other versions
JP2011118769A (ja
Inventor
浩司 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2009276942A priority Critical patent/JP5316387B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to PCT/JP2010/006388 priority patent/WO2011067890A1/en
Priority to CN201080062526.2A priority patent/CN102741795A/zh
Priority to EP10834346.8A priority patent/EP2507695B1/en
Priority to RU2012122063/08A priority patent/RU2012122063A/ru
Priority to KR1020127013595A priority patent/KR20120113714A/ko
Priority to US13/511,167 priority patent/US9542087B2/en
Priority to BR112012012637A priority patent/BR112012012637A2/pt
Priority to TW099139044A priority patent/TW201140423A/zh
Publication of JP2011118769A publication Critical patent/JP2011118769A/ja
Application granted granted Critical
Publication of JP5316387B2 publication Critical patent/JP5316387B2/ja
Priority to US15/370,772 priority patent/US10303334B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)

Description

本発明は、情報処理装置、表示方法及びプログラムに関する。
近年、デジタルカメラ、携帯型映像/音声プレーヤ、携帯電話などの携帯機器の操作部として、タッチパネルが普及している。このようなタッチパネル搭載機器においては、ユーザは、携帯機器の表示画面に表示された機能ボタンをタップすることで、その機能ボタンに対応する機能の実行を携帯機器に対して指示できる(例えば、特許文献1参照。)。例えば、デジタルカメラを用いて動画を録画する場合、ユーザは、表示画面上で記録開始ボタン(いわゆるRECボタン)を探して、当該ボタンを押下することで、動画の録画が開始される。
特開2009−009424号公報
ところが近年、携帯機器に多種多様な機能が搭載されるようになっており、また、デジタルカメラ、携帯電話及び映像/音声プレーヤ等の複合機も登場している。このように1台の機器が多種多様な機能を有することで、ユーザに利便性を供与できる反面、これら多数の機能を実行するためのユーザの操作性も複雑化することになる。
例えば、タッチパネル搭載のデジタルカメラが多数の機能を有する場合、表示画面上に多数の機能ボタンが表示されることとなり、ユーザは、それらの中から、所望の機能を実行するための機能ボタンを見つけることが困難である。また、多数の機能ボタンを分類して階層化表示したとしても、その機器を使い慣れたユーザでなければ、所望の機能ボタンの所在が分からず、該ボタンを探し出すのが困難である。さらに、多種類の機能ボタンが混在すると、ユーザは、それぞれの機能ボタンがどの機能に対応しているか分からないため、所望の機能に対応する機能ボタンを見つけることがより一層難しくなる。
以上のように、表示画面上の機能ボタンの数が増加し、その表示態様が複雑化することによって、ユーザが所望の機能を実行するための機能ボタンを見つけることが益々困難になっている。
しかしながら、上記従来の電子機器では、ユーザが所望の機能を実行するために、誰もが同じ操作(例えば、表示画面上で所望の機能ボタンを見つけ出して、押す、ドラッグする等)を行っていた。ところが、本来、各々の機能の使用頻度や使用環境は、個々のユーザに応じて異なり、また、機器の製造メーカがユーザに対して推奨する機能も、ユーザの年齢、性別、操作の熟練度等に応じて異なる。このように、機器を操作するユーザに適した機能は個々のユーザごとに異なる。従って、個々のユーザに適した機能の機能ボタンを、該ユーザが表示画面上で簡単に見つけることが可能な方法が希求されていた。
そこで、本発明は、上記事情に鑑みてなされたものであり、個々のユーザに適した機能を実行するための機能ボタンを、該ユーザが表示画面上で簡単に見つけることができるようにするものである。
上記課題を解決するために、本発明のある観点によれば、情報処理装置が実行可能な機能に関する少なくとも1つの機能ボタンを表示する表示部と、前記情報処理装置を操作するユーザを認識するユーザ認識部と、前記表示部に表示された前記機能ボタンの中から、前記ユーザ認識部により認識されたユーザに対応する少なくとも1つの機能ボタンを選択するボタン選択部と、前記ボタン選択部により選択された機能ボタンが、前記表示部の表示画面上の初期位置から所定の位置に近づくように、当該機能ボタンを移動させる表示制御部と、を備える、情報処理装置が提供される。
前記情報処理装置は、前記表示部の表示画面に対して操作体が接触又は近接した位置を検出する位置検出部をさらに備え、前記表示制御部は、前記ボタン選択部により選択された機能ボタンが、前記初期位置から、前記位置検出部により検出された前記表示画面上の位置に近づくように、当該機能ボタンを移動させるようにしてもよい。
前記ボタン選択部は、前記ユーザ認識部により認識されたユーザの属性に基づいて、前記表示部に表示された前記機能ボタンの中から、該ユーザに対して推奨する機能の機能ボタンを選択するようにしてもよい。
前記ユーザ認識部は、前記情報処理装置を操作する前記ユーザの生体情報に基づいて、前記ユーザを認識し、前記ボタン選択部は、前記ユーザの生体情報又は前記ユーザの操作速度の少なくともいずれかに基づいて、前記ユーザの属性を判別し、該判別したユーザの属性に基づいて、前記ユーザに対して推奨する機能の機能ボタンを選択するようにしてもよい。
前記ボタン選択部は、前記情報処理装置が実行可能な複数の機能の使用履歴に基づいて、前記表示部に表示された前記機能ボタンの中から、前記ユーザによる使用頻度が相対的に高い機能の機能ボタンを選択するようにしてもよい。
前記情報処理装置は、前記ユーザが使用する前記情報処理装置の周辺環境を検出する環境検出部をさらに備え、前記ボタン選択部は、前記表示部に表示された前記機能ボタンの中から、前記周辺環境に対応する機能の機能ボタンを選択するようにしてもよい。
前記ユーザ認識部は、前記情報処理装置を同時に操作する複数のユーザを認識し、前記ボタン選択部は、前記表示部に表示された前記機能ボタンの中から、前記認識された各ユーザに対応する少なくとも1つの機能ボタンをそれぞれ選択し、前記表示制御部は、前記ボタン選択部により選択された前記各機能ボタンが、前記表示画面上の初期位置から、前記各ユーザにより指定された位置にそれぞれ近づくように、当該各機能ボタンをそれぞれ移動させるようにしてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、情報処理装置が実行可能な機能に関する少なくとも1つの機能ボタンを表示部に表示するステップと、前記情報処理装置を操作するユーザを認識するステップと、前記表示部に表示された前記機能ボタンの中から、前記ユーザ認識部により認識されたユーザに対応する少なくとも1つの機能ボタンを選択するステップと、前記選択された機能ボタンが、前記表示部の表示画面上の初期位置から所定の位置に近づくように、当該機能ボタンを移動させるステップと、を含む、表示方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、情報処理装置が実行可能な機能に関する少なくとも1つの機能ボタンを表示部に表示するステップと、前記情報処理装置を操作するユーザを認識するステップと、前記表示部に表示された前記機能ボタンの中から、前記ユーザ認識部により認識されたユーザに対応する少なくとも1つの機能ボタンを選択するステップと、前記選択された機能ボタンが、前記表示部の表示画面上の初期位置から所定の位置に近づくように、当該機能ボタンを移動させるステップと、を前記情報処理装置に実行させるためのプログラムが提供される。
上記構成によれば、情報処理装置が実行可能な機能に関する少なくとも1つの機能ボタンが表示部に表示され、前記情報処理装置を操作するユーザが認識され、前記表示部に表示された前記機能ボタンの中から、前記ユーザ認識部により認識されたユーザに対応する少なくとも1つの機能ボタンが選択され、前記選択された機能ボタンが、前記表示部の表示画面上の初期位置から所定の位置に近づくように、当該機能ボタンが移動する。これにより、ユーザが情報処理装置を操作するときに、表示部に表示された機能ボタンのうち、該ユーザに対応する機能ボタンが、表示画面上の初期位置から所定の位置に近づいてくる。
以上説明したように本発明によれば、個々のユーザに適した機能を実行するための機能ボタンを、該ユーザが表示画面上で簡単に見つけることができる。
本発明の第1の実施形態に係る撮像装置のハードウェア構成を示すブロック図である。 同実施形態に係る撮像装置を示す前方斜視図と後方斜視図である。 同実施形態に係る撮像装置の機能構成を示すブロック図である。 同実施形態に係る表示画面(タップ前)の表示例を示す図である。 同実施形態に係る表示画面(タップ後)の表示例を示す図である。 同実施形態に係る機能ボタンの表示方法を示すフローチャートである。 同実施形態に係る複数のユーザに適した機能ボタンを移動させる表示例を示す図である。 同実施形態に係る周辺環境に適した機能ボタンを移動させる表示例を示す図である。 本発明の他の実施形態に係るPCの表示画面の表示例を示す図である。 本発明の他の実施形態に係るカーナビゲーション装置の表示画面の表示例を示す図である。 本発明の他の実施形態に係る携帯電話の表示画面の表示例を示す図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.撮像装置の構成
2.撮像装置の機能構成
3.表示方法のフロー
4.表示画面の具体例
5.他の実施形態
6.まとめ
[1.撮像装置のハードウェア構成]
まず、図1を参照して、本発明の第1の実施形態に係る撮像装置10のハードウェア構成について詳細に説明する。図1は、本実施形態に係る撮像装置10のハードウェア構成を示すブロック図である。本発明の情報処理装置は、例えば、図1に示す撮像装置10で具現されるが、かかる例に限定されず、任意の電子機器に適用可能である。
図1に示すように、本実施形態に係る撮像装置10は、例えば、静止画又は動画を撮像可能なデジタルカメラ(例えばデジタルスチルカメラ、デジタルビデオカメラ)で構成される。この撮像装置10は、被写体を撮像して、当該撮像により得られた静止画又は動画をデジタル方式の画像データとして記録媒体に記録する。
図1に示すように、本実施形態に係る撮像装置10は、レンズ部11、撮像素子12、アクチュエータ20、モータドライバ21及びタイミングジェネレータ22(TG)等からなる撮像部を備える。撮像部は、被写体を撮像し、当該撮像により得られた画像信号を出力する。
レンズ部11は、撮像レンズ、絞り、フォーカスレンズ、ズームレンズ等の光学系(図示せず。)を備える。このレンズ部11を介して入射する被写体光の光路上には、CCD(Charge Coupled Device)、C−MOS(Complementary Metal Oxide Semiconductor)等の撮像素子12が配設される。撮像素子12は、レンズ部11により撮像面に集光された光学像を光電変換して、画像信号を出力する。
この撮像素子12の出力は、アナログ信号処理部13、アナログ/デジタル変換部14(A/D変換部)を介して、デジタル信号処理部15の入力に電気的に接続されている。そして、デジタル信号処理部15の出力は、液晶パネル17、記録デバイス19の入力に電気的に接続されている。これらのアナログ信号処理部13、A/D変換部14及びデジタル信号処理部15は、信号処理部を構成する。信号処理部は、撮像素子12から出力される画像信号に対して所定の信号処理を実行し、当該信号処理後の画像信号を、表示部である液晶パネル17や、記録部である記録デバイス19に出力する。
レンズ部11には、絞りの調整や、フォーカスレンズの移動を行うための駆動機構であるアクチュエータ20が機械的に接続されている。そして、アクチュエータ20は、その駆動制御を行うためのモータドライバ21に接続されている。モータドライバ21は、CPU23からの指示に基づいて、撮像部の各部の動作を制御する。例えば、撮像時には、モータドライバ21は、操作部24やタッチパネル16に対するユーザ操作に応じて、適切なフォーカス、露出等で被写体が撮像されるように、撮像部のアクチュエータ20を制御して、ズームレンズ、フォーカスレンズ、絞りなどを駆動させる。また、TG22は、CPU23からの指示に基づき、撮像素子12の撮像タイミングを制御するためのタイミング信号を撮像素子12に出力する。
タッチパネル16は、本発明の位置検出部の一例であり、表示部の表示画面に対して操作体が接触又は近接した位置を検出する機能を有する。液晶パネル17は、本発明の表示部の一例であり、液晶ディスプレイ(LCD)等で構成され、画像、テキスト、アイコン等の各種のデータを表示画面上に表示する。なお、表示部はLCD以外にも、有機EL(organic Electro Luminescence)ディスプレイ、プラズマディスプレイなど、任意の表示装置を使用できる。タッチパネル16は、液晶パネル17の表面画面上に重畳して配設されており、該タッチパネル16と液晶パネル17とでタッチスクリーン18が構成される。かかるタッチパネル16は、撮像装置10に対するユーザ操作を受け付ける操作部として機能し、ユーザにより指定された液晶パネル17の表示画面上の位置を検出する。
ここで、タッチパネル16について詳述する。タッチパネル16は、液晶パネル17の表示画面に対して操作体が接触又は近接した位置を検出するセンサを具備しており、操作体により指定された表示画面上の位置や、操作体の移動軌跡や移動速度を検出する。タッチパネル16の操作に用いられる操作体は、例えば、ユーザの指やスタイラス、タッチペン等である。タッチパネル16は、操作体が接触又は近接した表示画面上の位置の座標を検出し、検出された座標情報は、CPU23に伝送されて、所定の処理が実行される。
タッチパネルとしては、例えば、感圧式、静電気式、光学式など、任意の方式のタッチパネルを使用できる。感圧式タッチパネルは、操作体によりパネルを押圧したときの圧力の変化を検知する。静電気式タッチパネルは、パネルに対する操作体の接触に伴う静電気による電気信号を検知する。光学式タッチパネルは、表示パネルの外枠に設けられた光学センサにより、パネルに接触した操作体の位置や移動方向を検知する方式が一般的である。また、他の方式の光学式センサとして、インセル型の光学式タッチパネルも存在する。インセル型の光学式タッチパネルでは、表示パネルに光学式センサアレイが搭載されており、この光学式センサアレイにより表示パネルに接触又は近接した操作体の位置や移動軌跡を検知する。
また、タッチパネル16としては、操作体の接触を検知する接触式のタッチパネル(例えば、上記感圧式、静電気式のタッチパネル)が一般的である。ユーザは、指やスタイラス等でタッチパネル16の面上を押圧(即ち、タップ)したり、当該押圧した指やスタイラス等を移動させたりすることで、撮像装置10に対して各種の操作を行うことができる。
なお、操作体がタッチパネルに直接接触しなくても、タッチパネルに近接している操作体を認識可能な非接触式のタッチパネル(例えば、上記光学式タッチパネル)も存在する。以下では、説明の便宜上、操作体(例えば指)が接触した位置(タップ位置)を検出する接触式のタッチパネルの例を挙げて説明するが、本発明の位置検出部は、ユーザにより指定された表示画面上の位置を検出可能であれば、例えば、非接触式のタッチパネルや、その他の画面位置検出デバイスで構成することも可能である。
記録デバイス19は、例えば、DVD(Digital Versatile Disc)等の光ディスク、メモリカード、磁気テープなどのリムーバブル記録媒体に、画像、音声等の各種データを記録する。また、記録デバイス19は、撮像装置10に内蔵される半導体メモリ、HDD等のディスク装置で構成することも可能である。かかる記録デバイス19は、CPU23の指示に基づき、信号処理部で信号処理された画像信号を、画像データとして記録媒体に記録する。かかる記録デバイスは、撮像により得られた画像データを記録する記録部に相当する。また、記録デバイス19は、記録媒体に記録されたデータを再生する再生部としても機能する。
CPU(Central Processing Unit)23は、撮像装置10の各部を制御する制御部として機能する。該CPU23は、モータドライバ21、TG22、操作部24、EEPROM(Electrically Erasable Programmable ROM)25、プログラムROM(Read Only Memory)26、RAM(Random Access Memory)27、タッチパネル16と接続されている。
半導体メモリ25〜27は、各種の情報を記憶する記憶部として機能する。例えば、EEPROM25は、設定された各種情報など、撮像装置10の電源がオフにされたときも保持すべきデータを記憶する。プログラムROM26は、CPU23が実行するプログラム、該プログラムを実行する上で必要なデータを記憶する。そして、RAM27は、CPU23が各種処理を実行する際のワークエリアとして必要なプログラムやデータを一時記憶する。CPU23は、プログラムROM26等の記憶媒体に格納されたプログラムを読み出し、RAM27を利用しながら該プログラムを実行することで、各種の処理を行う。
操作部24は、タッチパネル16とは別途に設けられた操作手段であり、例えば、シャッタボタン、電源ボタン等の機械的ボタンや、スイッチ、レバー、ダイヤル、十字キーなどを含む。また、操作部24は、所定のユーザ入力を検出する接触センサ、光センサなどを含んでもよい。操作部24は、ユーザによって操作され、該操作に対応した信号をCPU23に供給する。
個人認証装置28は、撮像装置10を操作するユーザを認識する機能を有する。個人認証装置28は、例えば、ユーザの生体情報(例えば、指紋、眼球の虹彩、静脈、声紋等)に基づいて、該ユーザを認証する生体認証装置で構成してもよい。また、個人認証装置28は、入力されたユーザ情報(例えば、ユーザが撮像装置10に入力したID及びパスワード、又は、ICカードから接触式又は非接触方式で読み取ったID等)に基づいて、ユーザを認証する一般的な認証装置で構成してもよい。
次に、図2を参照して、本実施形態に係る撮像装置10の外観構成の一例について説明する。図2は、本実施形態に係る撮像装置10を示す前方斜視図(図2A)、後方斜視図(図2B)である。
図2に示すように、撮像装置10の前面は、スライド式のレンズカバー31で覆われている。当該前面のレンズカバー31を下方にスライドさせて開くと、上記レンズ部11を構成する撮像レンズ32とAFイルミネータ33が露呈するように配置されている。このAFイルミネータ33は、セルフタイマランプを兼ねている。また、撮像装置10の背面には、当該背面の大部分を占めるようにして、上述したタッチスクリーン18が設けられている。
また、撮像装置10の上面には、ズームレバー34(TELE/WIDE)、シャッタボタン35、再生ボタン36及びパワーボタン37が配置されている。これらのボタン34〜37は、上記図1に示した操作部24の一例である。なお、ユーザがシャッタボタン35を押下することで静止画の撮像動作を指示(いわゆるレリーズ指示)することができるが、本実施形態に係る撮像装置10は、タッチパネル16に対する入力操作のみで撮像可能であるので、シャッタボタン35を省略してもよい。
次に、以上のような構成の撮像装置10の動作について説明する。CPU23は、プログラムROM26に記録されているプログラムを実行することにより撮像装置を構成する各部を制御し、タッチパネル16又は操作部24からの信号に応じて、所定の処理を実行する。例えば、タッチパネル16の任意の位置に指が触れる等して押下(タップ)されると、つまりユーザにより所定の操作入力がなされると、該タッチパネル16により、タップされた位置の座標が検出され、当該座標に係る信号がCPU23に送出される。CPU23は、該座標に対応する所定の情報を取得し、該情報に基づいて所定の処理を実行する。
(1)AF制御
撮像時には、まず、レンズ部11を介して撮像素子12に被写体光が入射すると、撮像素子12は、撮像範囲内の被写体を撮像する。即ち、撮像素子12は、レンズ部11により撮像面に集光された光学像を光電変換して、アナログの画像信号を出力する。このとき、モータドライバ21は、CPU23の制御に基づきアクチュエータ20を駆動する。この駆動により、レンズ部11は、撮像装置10の筐体から露出/収納される。また、この駆動により、レンズ部11を構成する絞りの調整や、レンズ部11を構成するフォーカスレンズの移動が行われる。このようにして、AF領域内の被写体に対してレンズ部11の焦点が自動的に合焦される(自動合焦制御)。
(2)AE制御
さらに、タイミングジェネレータ22は、CPU23の制御に基づいて、タイミング信号を撮像素子12に供給する。このタイミング信号により撮像素子12における露光時間等が制御される。撮像素子12は、このタイミングジェネレータ22から供給されるタイミング信号に基づいて動作することにより、レンズ部11を介して入射する被写体からの光を受光して光電変換を行い、受光量に応じた電気信号としてのアナログの画像信号を、アナログ信号処理部13に供給する。このようにして、被写体を撮像して得られる画像の露出が適切となるよう自動的に調整される(自動露出制御)。
(3)信号処理
アナログ信号処理部13は、CPU23の制御に基づいて、撮像素子12から送出されたアナログの画像信号に対してアナログ信号処理(増幅等)を行い、その結果得られる画像信号を、A/D変換部14に供給する。A/D変換部14は、CPU23の制御に基づいて、アナログ信号処理部13からのアナログ画像信号をA/D変換し、その結果得られるデジタル画像データをデジタル信号処理部15に供給する。
デジタル信号処理部15は、CPU23の制御に基づいてA/D変換部14からのデジタル画像信号に対し、ノイズ除去、ホワイトバランス調整、色補正、エッジ強調、ガンマ補正等のうち必要なデジタル信号処理を施し、液晶パネル17に供給して表示させる。
(4)ライブビュー画像の表示処理
デジタル信号処理部15は、A/D変換部14からの動画像データを、液晶パネル17に供給し、これにより液晶パネル17は、撮像範囲内にある被写体を撮像したライブビュー画像を表示する。このライブビュー画像(動画)は、ユーザが、所望の画像を撮像するために、撮像範囲や画角、被写体の状態などを視認するためのものである。
(5)圧縮記録処理
撮像装置10は、撮像した画像の圧縮記録処理を行う。例えば、動画撮像モードにおいて、操作部24又はタッチパネル16から動画の録画開始指示が入力された場合、CPU23は、デジタル信号処理部15及び記録デバイス19を制御して、動画データを記録する。例えば、ユーザがタッチスクリーン18に表示されたRECボタンを押下した場合、デジタル信号処理部15は、A/D変換部14からのデジタルの画像信号を、例えばJPEG(Joint Photographic Experts Group)方式等の所定の圧縮符号化方式で圧縮し、その結果、得られる圧縮されたデジタルの画像信号を、記録デバイス19に供給して記録させる。また、静止画撮像モードにおいて、操作部24又はタッチパネル16のシャッタボタンが押下された場合、CPU23は、デジタル信号処理部15及び記録デバイス19を制御して、静止画データを記録する。例えば、ユーザがタッチスクリーン18に表示されたシャッタボタンを押下した場合には、タッチパネル16からCPU23にレリーズ信号が供給される。CPU23は、レリーズ信号に応じて、デジタル信号処理部15を制御して、静止画の画像データを圧縮させ、この圧縮された静止画データを記録デバイス19に記録させる。
(6)再生処理
撮像装置10は、記録デバイス19に記録された画像の再生処理を行う。再生モードにおいて、操作部24又はタッチパネル16から再生指示が入力された場合、CPU23は、デジタル信号処理部15及び記録デバイス19を制御して、記録媒体に記録されている画像データを再生する。例えば、ユーザがタッチスクリーン18に表示された再生ボタンを押下した場合には、デジタル信号処理部15は、記録デバイス19に記録されている圧縮画像データを伸張し、得られた画像データを液晶パネル17に供給して表示させる。
(7)各種の設定処理
撮像装置10は、ユーザ入力に基づいて、撮像装置10が有する各種の機能の設定処理を行う。例えば、ユーザがタッチスクリーン18に表示された機能設定ボタンを押下した場合には、CPU23は、そのボタンに対応する機能の設定画面をタッチスクリーン18に表示させる。そして、当該設定画面に対するユーザ操作に基づいて、当該機能を設定する。撮像装置10の機能としては、例えば、フラッシュ撮像機能、セルフタイマ撮像機能、連写撮像機能、撮像する画像の画質やサイズ、露出、シャッタースピード、ホワイトバランス等の調整機能などがある。
[2.撮像装置の機能構成]
次に、図3を参照して、本実施形態に係る撮像装置10の特徴である機能ボタンの表示制御に関する機能構成について説明する。図3は、本実施形態に係る撮像装置10の機能構成を示すブロック図である。
図3に示すように、撮像装置10は、選択条件設定部40と、ボタン選択部41と、ユーザ認識部42と、環境検出部43と、GPS(Global Positioning System)センサ44と、姿勢センサ45と、表示制御部46と、機能実行部47と記憶部48とを備える。これらの機能部は、図1に示すCPU23が、プログラムROM26等に記憶されているプログラムを実行することにより実現されるが、かかる例に限定されず、専用のハードウェアで実現されてもよい。
選択条件設定部40は、後述するボタン選択部41が機能ボタンを選択するための選択条件を設定する。選択条件設定部40は、デフォルトの設定条件に基づいて、選択条件を設定してもよいし、ユーザ入力に基づいて、設定条件を変更してもよい。また、選択条件設定部40は、撮像装置10の動作状態等に基づいて、選択条件を動的に設定変更して、その動作状態に適した機能ボタンが選択されるようにしてもよい。撮像装置10の動作状態は、例えば、撮像装置10の動作モード(例えば、動画撮像モード、静止画撮像モード、再生モード、メニューモード、休止モード等)や、該動作モードの継続時間、該動作モードで表示している画面の種類若しくは状態、又は、該動作モードにおけるユーザ操作の状態などを含む。さらに、選択条件設定部40は、撮像装置10を操作するユーザの属性、操作時刻、操作場所等に基づいて、選択条件を動的に設定変更して、当該ユーザの属性、操作時刻、操作場所等に適した機能ボタンが選択されるようにしてもよい。
ボタン選択部41は、上記選択条件設定部40により設定された選択条件に基づいて、タッチスクリーン18の表示画面に表示された複数の機能ボタンの中から、撮像装置10を操作するユーザに適した機能ボタンを少なくとも1つ選択する。撮像装置10を操作するユーザは、ユーザ認識部42により特定される。
ユーザ認識部42は、上述した個人認証装置28(図1参照。)等で構成され、撮像装置10を操作するユーザを認識する機能を有する。例えば、ユーザ認識部42が生体認証装置である場合、ユーザ認識部42は、ユーザの生体情報を検出するための各種のセンサ(カメラ、マイクロフォン等)を用いて、撮像装置10を操作するユーザの生体情報(例えば、指紋、眼球の虹彩、静脈、声紋等)を取得する。そして、ユーザ認識部42は、該取得した生体情報と、記憶部48の生体情報データベース481に予め登録された正規ユーザの生体情報とを照合して、ユーザを認証する。また、ユーザ認識部42が一般的な認証装置である場合、ユーザ認識部42は、例えば、ユーザが撮像装置10に入力したID及びパスワード、又は、ICカードから接触式又は非接触方式で読み取ったID等に基づいて、ユーザを認証する。ユーザ認識部42は、上記のようにして認識したユーザを表す情報をボタン選択部41に送信する。
ボタン選択部41は、液晶パネル17の表示画面上に表示された1又は2以上の機能ボタンの中から、ユーザ認識部42により認識されたユーザに対応する少なくとも1つの機能ボタンを選択する。ここで、該ユーザに対応する機能ボタンとは、例えば、該ユーザに適した機能の機能ボタンである。該ユーザに適した機能は、例えば、撮像装置10の製造会社が該ユーザに対して推奨する機能(以下、推奨機能)、該ユーザによる使用頻度が高い機能や、該ユーザが使用する撮像装置10の周辺環境に適した機能などである。
ボタン選択部41は、ユーザにより表示画面上の任意の位置が指定(例えばタップ)されたことを契機として、機能ボタンの選択処理を実行する。つまり、ユーザが、タッチスクリーン18の表示画面上の任意の位置を指定(操作体によりタップ)すると、タッチパネル16は当該表示画面上で指定された位置を検出する。すると、ボタン選択部41は、当該タッチパネル16による指定位置の検出を契機として、表示画面上に表示されている複数の機能ボタンの中から、その検出時点で撮像装置10を操作するユーザに適した機能ボタンを選択する。以下に、ボタン選択部41が、ユーザに適した機能ボタンを選択する処理の具体例について詳述する。
(1)推奨機能の選択
ボタン選択部41は、ユーザ認識部42により認識されたユーザの属性に基づいて、表示画面に表示された複数の機能ボタンの中から、該ユーザに対する推奨機能の機能ボタンを選択する。この推奨機能は、例えば、製造会社がユーザに対して優先的に使用して欲しいお薦めの機能であり、ユーザの属性に応じて決定される。ユーザの属性に応じて推奨機能を選択するために、記憶部48の推奨機能データベース482には、ユーザ属性(例えば、年齢、性別、趣味、嗜好、住所、機器操作の熟練度等)と、ユーザに対する推奨機能とが関連づけられて保存されている。また、記憶部48のユーザ情報データベース483には、撮像装置10を操作する1又は2以上のユーザのユーザ情報(ユーザID、ユーザ名、上記各種のユーザ属性)が予め登録されている。ユーザ認識部42により、撮像装置10を操作するユーザが認識されると、機能ボタン選択部41は、該ユーザのユーザ属性をユーザ情報DB483から取得し、推奨機能データベース482を参照して、当該ユーザ属性に適した推奨機能の機能ボタンを選択する。
また、機能ボタン選択部41は、ユーザ認識部42により認識されたユーザの声紋、汗、虹彩等の生体情報に基づいて、該ユーザの年齢や性別等のユーザ属性を判別することもできる。さらに、機能ボタン選択部41は、タッチパネル16に対するユーザの操作速度等に基づいて、該ユーザの熟練度を判別することもできる。そして、機能ボタン選択部41は、推奨機能データベース482を参照して、上記判別したユーザ属性や熟練度に適した推奨機能の機能ボタンを選択する。
例えば、操作速度が遅い初心者のユーザに対しては、撮像装置10を用いて簡単に撮影できる機能の機能ボタンが選択される。一方、操作速度が速い熟練ユーザに対しては、撮像装置10の機能のうち、高度、専門的な機能の機能ボタンが選択される。また、ユーザが高齢者である場合には、文字サイズを大きく表示するために、文字サイズの変更機能の機能ボタンが選択される。一方、ユーザが撮像装置10を使い慣れた男性の若者である場合には、上記高度、専門的な機能の機能ボタンが選択される。
以上のように、ユーザ属性に適した推奨機能の機能ボタンを選択することで、撮像装置10を操作するユーザに対して、該ユーザに適した推奨機能を優先的に提示できる。
(2)使用頻度の高い機能の選択
ボタン選択部41は、ユーザによる撮像装置10の各機能の使用履歴に基づいて、表示画面に表示された複数の機能ボタンの中から、ユーザによる使用頻度が相対的に高い機能の機能ボタンを選択する。ユーザによる使用頻度が相対的に高い機能とは、例えば、撮像装置10が有する複数の機能の中で、該ユーザによる使用頻度が最も高い機能、使用頻度が高い順から所定個数の機能、使用頻度が所定の頻度以上である機能、最近使用した機能などを含む。
ユーザによる使用頻度に応じて機能を選択するために、記憶部48の使用履歴データベース484には、撮像装置10の各機能の使用履歴がユーザごとに保存されている。使用履歴は、例えば、撮像装置10の各機能の使用回数、使用日時、単位時間当たりの使用回数(即ち、使用頻度)、使用時間、使用者などの情報を含む。ボタン選択部41は、ユーザにより撮像装置10の任意の機能が使用される度に、使用履歴DB484を更新する。そして、ユーザ認識部42により、撮像装置10を操作するユーザが認識されると、機能ボタン選択部41は、該ユーザの使用履歴を使用履歴DB484から取得し、当該ユーザによる使用頻度が高い機能を判別して、該機能の機能ボタンを選択する。
例えば、撮像装置10が撮像モードであるときには、認識されたユーザによる使用頻度が最も高い撮像及び記録機能の機能ボタン(即ち、シャッタボタン)が選択される。また、撮像装置10の機能設定モードでは、認識されたユーザが頻繁に設定変更する機能の機能設定ボタンが選択される。
以上のように、ユーザによる使用頻度が高い機能の機能ボタンを選択することで、撮像装置10を操作するユーザに対して、該ユーザの使用頻度の高い機能を優先的に提示できる。
(3)周辺環境に適した機能の選択
ボタン選択部41は、環境検出部43により検出された撮像装置10の周辺環境(例えば明るさ、騒音等の特殊な環境)に基づいて、表示画面に表示された複数の機能ボタンの中から、ユーザの周辺環境に対応する機能の機能ボタンを選択する。環境検出部43は、撮像装置10の周辺環境を検出する機能を有し、例えば、露出調整のために周辺環境の明るさを検出するセンサや、ノイズキャンセルのために周辺環境の騒音を検出するマイクロフォンなどで構成される。環境検出部43により検出された撮像装置10の周辺環境を表す情報は、ボタン選択部41に送信される。ユーザ認識部42により、撮像装置10を操作するユーザが認識されると、機能ボタン選択部41は、該ユーザの使用する撮像装置10の周辺環境の情報を環境検出部43から取得し、当該周辺環境に適した機能を判別し、該機能の機能ボタンを選択する。
例えば、屋外/屋内、静かな場所/騒音の多い場所、明るい/暗いなどといった、ユーザが使用する撮像装置10の周辺環境に応じて、その周辺環境に適した機能の機能ボタンが選択される。例えば、ユーザが夜間の屋外で撮像装置10を使用する場合、高感度撮像機能の機能ボタンが選択される。また、ユーザが電車の中で撮像装置10を使用する場合、イヤフォンからの音漏れを少なくする機能を設定するための機能ボタンが選択される。
以上のように、ユーザが撮像装置10を使用する周辺環境に適した機能の機能ボタンを選択することで、撮像装置10を操作するユーザに対して、該ユーザが使用するシーンに適した機能を優先的に提示できる。
(4)その他の機能の選択
また、ボタン選択部41は、撮像装置10を操作するユーザ以外にも、任意の選択条件に基づいて、機能ボタンを選択できる。例えば、ボタン選択部41は、(a)表示画面に表示中のオブジェクト(例えば人物)、(b)ユーザにより指定された表示画面上の位置(タップ位置)、(c)ユーザにより指定されたアイコン(機能ボタン、ファイル等)、(d)現在位置若しくは現在時刻、(e)操作体の接触圧力若しくは接触時間、又は、(f)撮像装置10の姿勢(例えば傾き、向き)などの条件に基づいて、機能ボタンを選択してもよい。また、これらの選択条件を組み合わせて使用してもよい。
このようにボタン選択部41に選択条件を提供するために、各種のセンサや検出部が設けられている。不図示のオブジェクト認識部は、公知のオブジェクト認識機能を用いて、撮像画像中のオブジェクト(例えば人物)を認識する。GPSセンサ44は、外部装置と通信することで、撮像装置10の現在位置を表すGPS情報(緯度・経度情報)を取得する。姿勢センサ45は、ジャイロセンサ、加速度センサなどで構成され、撮像装置10の姿勢(例えば3軸方向の傾き、加速度等)を検出する。
次に表示制御部46について説明する。表示制御部46は、表示部である液晶パネル17を制御して、多様な画像を液晶パネル17の表示画面に表示させる。例えば、表示制御部46は、上記ボタン選択部41により選択された機能ボタンが、初期位置(デフォルトの表示位置)から、上記タッチパネル16により検出された表示画面上の位置に近づくように、表示画面上で当該選択された機能ボタンを移動させる。タッチパネル16により検出された表示画面上の位置は、操作体が接触又は近接した表示画面上の位置(タップ位置)であり、ユーザにより指定された表示画面上の位置に相当する。この結果、ユーザが表示画面にタップすると、表示画面に表示された複数の機能ボタンのうち、そのユーザに適した機能ボタンが、タップ位置に近寄ってくることになる。
機能実行部47は、ユーザ操作に基づいて、ユーザにより指定された機能(例えば、画像の記録、再生、各種設定など)を実行する。例えば、タッチスクリーン18に表示された記録ボタン(RECボタン、シャッタボタン)等が押下されたときには、機能実行部47は、記録デバイス19を制御して、撮像中の画像を記録媒体に記録する。
以上のように、本実施形態に係る撮像装置10は、該撮像装置10を操作するユーザを認識し、該ユーザが表示画面にタップしたときに、該ユーザに適した機能ボタンを選択し、表示画面上で当該機能ボタンを初期位置からタップ位置に近づけるように移動させる。これにより、ユーザがタッチスクリーン18の表示画面をタップすると、複数の機能ボタンのうち、該ユーザに適した機能ボタンのみがタップ位置に近寄ってくるので、ユーザは所望の機能ボタンを容易に見つけ出すことができる。
次に、図4及び図5を参照して、本実施形態に係る機能ボタンの移動表示について説明する。図4は、本実施形態に係るタッチスクリーン18の表示画面(タップ前)の表示例を示し、図5は、本実施形態に係るタッチスクリーン18の表示画面(タップ後)の表示例を示す図である。
図4に示すように、撮像装置10の動作モードが例えば撮像モードにあるときには、タッチスクリーン18の表示画面50には、撮像部による撮像中の被写体を表すライブビュー画像52が表示される。このライブビュー画像52上には、撮像モードで使用される複数の機能ボタン60A〜D(以下、「機能ボタン60」と総称する場合もある。)が重畳表示されている。機能ボタン60は、撮像装置10の機能を実行するためのボタンを表示画面50上に表示したGUI(Graphical User Interface)部品であり、それぞれの機能ボタン60の機能の特徴を表すアイコンが使用される。これら機能ボタン60は、表示画面50上において、予め設定された初期位置(デフォルトの表示位置)に表示される。
図示の例では、表示画面50の左端に4つの機能ボタン60A〜Dが表示されている。このうち、RECボタン60Aは、撮像された画像を記録するための機能ボタンである。動画の記録を開始するための録画開始ボタンであってもよいし、静止画を記録するシャッタボタンであってもよい。フラッシュ設定ボタン60Bは、フラッシュの動作(例えば、自動/強制発光/発行禁止)を設定するためのボタンである。セルフタイマ設定ボタン60Cは、セルフタイマの動作(例えば、オン/オフやタイマ時間)を設定するためのボタンである。連写設定ボタン60Dは、複数枚の静止画を連続的に記録する連写記録の動作(オン/オフや枚数)を設定するためのボタンである。
図4の記録待機状態で、ユーザが所望のタイミングで静止画又は動画を記録(即ち、レリーズ)する場合、従来通り、ユーザは表示画面50上でRECボタン60Aを見つけ出し、当該RECボタン60Aを押下してもよい。しかし、状況によっては、ユーザが、表示画面50に表示されている4つの機能ボタン60の中から、所望のRECボタン60Aを即座に探し出すことができない場合や、RECボタン60Aがライブビュー画像52の被写体と重畳して見えにくい場合もある。また、RECボタン60Aが表示画面50の左端に配置されているため、ユーザは右手の指でRECボタン60Aを押下しにくいといった不都合もある。
そこで、本実施形態に係る撮像装置10では、図5に示すように、ユーザが表示画面50上の任意の位置をタップすると、RECボタン60Aが、ユーザが指定した表示画面50上の位置(タップ位置)に近寄ってくるようになっている。
即ち、図4の状態で画像を記録したい場合、図5に示すように、ユーザは、ライブビュー画像52が表示されている表示画面50上の任意の位置(図5の例では右端)をタップする。このタップ操作は、表示画面50上の位置の指定に相当する。すると、撮像装置10のタッチパネル16は、ユーザのタップ操作と、そのタップ位置(指定位置)を検出する。また、ユーザ認識部42は、例えばユーザの生体情報を検出し、該ユーザの生体情報に基づいて、表示画面50にタップしたユーザを認識する。そして、ボタン選択部41は、表示画面50に表示されている4つの機能ボタン60の中から、認識されたユーザに対応する機能ボタン60を選択する。図5の例では、認識されたユーザによる使用頻度が最も高いRECボタン60Aが選択された場合を示している。そして、表示制御部46は、選択されたRECボタン60Aのみを、表示画面50上の初期位置(図5で一点鎖線で示す位置)から、ユーザにより指定された位置(タップ位置)に近づけるように徐々に移動させ、タップ位置の近傍(例えば、タップ位置の少し上側)で静止させる。RECボタン60Aをタップ位置の少し上側に移動させることで、ユーザの指で当該移動後のRECボタン60Aが隠れないので便利である。
以上のように、本実施形態では、ユーザが表示画面50上の位置をタップすると、当該を契機として、RECボタン60Aが表示画面50上のタップ位置に近寄ってきて、タップ位置の近傍で静止する。これにより、ユーザの行為を契機として、そのユーザに適したRECボタン60Aだけを、ユーザが認知しやすい表示画面50上の位置に移動させることができる。従って、ユーザは、表示画面50上で複数の機能ボタン60の中から、所望のRECボタン60Aを探し出す必要が無く、状況に関わらず、所望のRECボタン60Aを容易に見つけることができる。さらに、ユーザは、表示画面50の右端に近寄ってきたRECボタン60Aを、右手の指を用いて簡単に押下して、所望の記録タイミングで手振れの無い画像を記録できる。
なお、図5の例では、表示画面50にライブビュー画像52がフルスクリーン表示され、そのライブビュー画像52上に機能ボタン60が重畳表示されているが、かかる例に限定されない。例えば、撮像モードにおける表示画面50を、ライブビュー画像52用の表示領域と、機能ボタン60用の表示領域とに区分してもよい。この場合であっても、ユーザが表示画面50をタップすると、その時点で適切な機能ボタン60がタップ位置に近寄ってくるようにできる。
また、図5の例では、撮像モードで画像を記録可能な状態になっている場合、ユーザは記録行為をしたいと想定して、撮像モードで使用頻度の高いRECボタン60Aのみが近寄ってくるように設定されていた。しかし、かかる例に限定されない。例えば、他の機能ボタン60B〜Dを近寄ってくるようにする場合には、ユーザは、所望の機能ボタン60を、撮像装置10に予め登録しておいてもよい。これにより、使用頻度の高い任意の機能ボタン60(例えばフラッシュ設定ボタン60B)を近寄らせることができる。また、認識されたユーザに対して製造会社が推奨する機能の機能ボタン60を近寄らせるようにしてもよい。また、周辺環境(明るさ、被写体の移動速度、焦点距離)やユーザの行為等を検出し、その周辺環境やユーザ行為に適した機能ボタン60(例えば、フラッシュ設定ボタン60B、連写設定ボタン60D、露光、シャッタースピード等の各種の設定ボタンなど)が近寄ってくるようにしてもよい。また、近寄ってくるボタン数は1つに限られず、タップ時点での撮像装置10の動作状態や他の選択条件に適合する複数の機能ボタン60が近寄ってくるようにしてもよい。
また、上記の例では、ユーザが、近寄ってきた機能ボタン60を押下して、その機能を実行する例について説明した。これ以外にも、ユーザは、近寄ってきた機能ボタン60をゴミ箱にドラッグアンドドロップすることで、該機能ボタン60を表示画面50上から削除してもよい。また、ユーザは、近寄ってきた機能ボタン60を表示画面50上の任意の位置にドラッグアンドドロップすることで、該機能ボタン60の配置を所望の位置に変更してもよい。
[3.表示方法のフロー]
次に、図6を参照して、本実施形態に係る撮像装置10による機能ボタン60の表示方法について説明する。図6は、本実施形態に係る機能ボタン60の表示方法を示すフローチャートである。
図6に示すように、撮像装置10が任意の動作モードの定常状態にあるときには、その動作モードで使用される複数の機能ボタン60が、表示画面50上の初期位置に表示される(S100)。例えば図4に示したように、撮像装置10の動作モードが撮像モードであるときには、撮像装置10で使用される4つの機能ボタン60が、所定の初期位置(画面左端)に配列して表示される。また、図示はしないが、撮像装置10の動作モードが再生モードであるときには、再生モードで使用される複数の機能ボタン(例えば、再生ボタン、削除ボタン、動画コマ送りボタン、回転/拡大機能ボタン等)が初期位置に表示される。
このような撮像装置10が定常状態であるときに、タッチパネル16は、操作体が表示画面50上の任意の位置に接触又は近接したか否か(例えば、ユーザが指で表示画面50をタップしたか否か)を検出している(S102)。
そして、ユーザが表示画面50をタップして、表示画面50上の任意の位置を指定したときには、撮像装置10は、表示画面50に対してタップしたユーザの生体情報(例えば、指紋、眼球の虹彩、静脈、声紋、汗等)を検出し、その生体情報に基づいて該ユーザを認識する(S104)。
さらに、撮像装置10は、表示画面50に表示中の複数の機能ボタン60の中から、S104で認識されたユーザに適した機能の機能ボタン60を自動的に選択する(S106)。例えば、図5に示した例では、機能ボタン60A〜Dの中から、タップしたユーザが撮像モードで最も使用頻度の高い記録機能を実行するためのRECボタン60Aが選択される。
次いで、撮像装置10は、S106で選択された機能ボタン60が、S102でユーザにより指定された位置(タップ位置)に近づくように、当該機能ボタン60を表示画面50上の初期位置からタップ位置に徐々に移動させる(S108)。例えば図5の例では、RECボタン60Aが、画面左上隅の初期位置から、右端中央のタップ位置に移動する。
以上のようにして、ユーザが表示画面50をタップ(S102)すると、該ユーザが認識され、該ユーザに適した所定の機能ボタン60がタップ位置に近寄ってくる(S108)。よって、ユーザは、自身に適した機能ボタン60を容易に見つけることができる。
その後、ユーザが、上記S110で近寄ってきた機能ボタン60を押下すると(S110)、タッチパネル16は、ユーザによる当該機能ボタン60の指定を検出し、撮像装置10は、当該機能ボタン60に対応する機能を実行する(S112)。例えば、図5の例で、タップ位置に近寄ってきたRECボタン60Aが押下されると、その時点で撮像された動画又は静止画が記録媒体に記録される。
以上、本実施形態に係る表示方法のフローについて説明した。本実施形態に係る表示方法では、撮像装置10の定常状態では、複数の機能ボタン60は初期位置に表示されているが、ユーザがタッチパネル16にタップすると、表示画面50上で、そのユーザに適した機能の機能ボタン60が移動表示されてタップ位置に近づいてくる。例えば、このように近づいてくる機能ボタン60は、撮像装置10の製造会社が該ユーザに対して推奨する機能、該ユーザによる使用頻度が高い機能、又は、該ユーザが使用する撮像装置10の周辺環境に適した機能の機能ボタンである。これにより、ユーザは、表示画面50上で、自身に最適な機能の機能ボタン60を容易に見つけることができるので、操作の間違いを防止でき、機能ボタン60を探す手間も軽減できる。
[4.表示画面の具体例]
次に、上記撮像装置10などの情報処理装置が、認識したユーザに適した機能ボタン60を自動選択して、当該選択された機能ボタン60を表示画面50上で移動させる具体例について説明する。
(1)複数ユーザに適した機能ボタンの移動表示
まず、図7を参照して、撮像装置10を同時に複数のユーザA、Bが操作する場合に、撮像装置10が、当該複数のユーザA、Bを認識して、各ユーザA、Bに対応する機能ボタン60F、60Iをそれぞれ選択して、移動させる例について説明する。
図7に示すように、撮像装置10の動作モードが例えば機能設定モードにあるときには、タッチスクリーン18の表示画面50には、撮像装置10の各種機能を設定するための設定画面が表示される。このとき、表示画面50上には、撮像装置10の各種機能を設定するための複数の機能ボタン60E〜Kが表示されている。撮像装置10を操作するユーザが認識されていないときには、各々の機能ボタン60E〜Kは、表示画面50上のそれぞれの初期位置に表示される。
この状態では、複数のユーザA、Bにより表示画面50がタップされると、撮像装置10は、ユーザA、Bの生体情報を検出して、ユーザA、Bを認識する。そして、撮像装置10は、図7に示すように、認識した各ユーザA、Bに適した機能ボタン60F、Iをそれぞれ選択して、各ユーザA、Bのタップ位置に移動させる。
例えば、撮像装置10は、ユーザAによる使用頻度が最も高い機能ボタン60Fを、ユーザAのタップ位置(画面右下)に移動させ、ユーザBによる使用頻度が最も高い機能ボタン60Iを、ユーザBのタップ位置(画面左下)に移動させてもよい。また、撮像装置10は、ユーザA、Bの生体情報や操作速度に基づいて、ユーザA、Bの属性(年齢、性別、熟練度等)を判別し、ユーザA、Bの属性に基づいて、撮像装置10の製造会社がユーザA、Bに対して推奨する機能の機能ボタン60をそれぞれ選択してもよい。例えば、若い男性のユーザAに対して推奨する専門的な機能を設定するための機能ボタン60Fを、ユーザAのタップ位置に移動させ、ユーザAの母親であるユーザBに対して推奨する簡便な機能を設定するため機能ボタン60Iを、ユーザBのタップ位置に移動させてもよい。また、認識された各ユーザA、Bの個人情報に関する機能(例えば、ユーザ情報登録機能)の機能ボタン60F、60Iを移動させてもよい。
以上のように、複数のユーザA、Bが同時に撮像装置10を操作するときに、個々人が認識されて、ユーザA、Bに適した機能の機能ボタン60F、Iが、ユーザA、Bのタップ位置にそれぞれ近寄ってくる。これにより、それぞれのユーザA、Bは、自身に適した機能の機能ボタン60F、Iを容易に見つけ出すことができ、操作間違いもない。
(2)使用履歴及び周辺環境に適した機能ボタンの移動表示
次に、図8を参照して、ユーザによる機能の使用履歴及び撮像装置10の周辺環境に基づいて、ユーザに適した機能の機能ボタン60を選択して、移動させる例について説明する。
撮像装置10は、ユーザによる撮像装置10の各機能の使用履歴を使用履歴DB484に保存している。また、撮像装置10は、環境検出部43により撮像装置10の周辺環境を検出できる。従って、撮像装置10は、ユーザの使用履歴と周辺環境に基づいて、該ユーザに適した機能(例えば、ユーザの使用頻度の高い機能、撮像装置10の製造会社がユーザに推奨する機能)の機能ボタン60を選択して、移動表示することができる。
例えば、図8に示すように、夜間に撮像することが多いユーザAが夜間に撮像装置10を用いて撮像する場合、撮像装置10の表示画面50には、夜間の風景を撮像したライブビュー画像52が表示される。このとき、ユーザAが表示画面50にタップすると、製造会社の推奨機能として、夜間撮像に適した高感度撮像機能の機能ボタン60Lが近寄ってくる。撮像装置10は、使用履歴DB484のユーザAの使用履歴から、ユーザAが夜間に撮像することが多いことが分かり、また、推奨機能DB482から、夜間撮像の多いユーザAに対して推奨する機能を特定できる。また、環境検出部43により、撮像装置10の周辺環境(明るさ)を検知して、夜間撮像であることを認識できる。
以上のように、ユーザによる各機能の使用履歴と周辺環境の状況に応じて、適切な機能ボタン60が、ユーザAのタップ位置に近寄ってくる。これにより、ユーザAは、周辺環境に適合し、かつ、ユーザA自身の嗜好に合った機能の機能ボタン60を、表示画面50上で容易に見つけ出すことができる。
[5.他の実施形態]
以上では、本発明の情報処理装置を撮像装置10に適用する例について説明したが、かかる例に限定されない。本発明の情報処理装置は、液晶パネル17等の表示部と、ユーザを認識するユーザ認識部42を備えた機器であれば、任意の電子機器にできる。例えば、本発明は、映像/音声プレーヤ(携帯型、車載型等)、カーナビゲーション装置、パーソナルコンピュータ、携帯電話、PDA(Personal Digital Assistant)、携帯型ゲーム機、テレビジョン受像器、光ディスクプレーヤ/レコーダ、デジタルフォトフレーム、現金自動預け入れ払い機(ATM)、キオスク端末、POS端末等の情報通信端末、自動販売機などに適用可能である。
以下に、上述した撮像装置10以外の実施形態に係る電子機器の例について説明する。なお、以下に説明する電子機器も、図3に示した機能構成を具備しているものとする。
(1)パーソナルコンピュータへの適用例
次に、図9を参照して、本発明の情報処理装置を、汎用コンピュータ、特に、パーソナルコンピュータ(以下、PCという。)に適用した実施形態について説明する。図9は、PCの表示画面50上で、ユーザによる使用頻度の高い機能の機能ボタンを選択して、移動させる例である。
一般的にPCの表示画面50上(デスクトップ上)には、多数のアイコン62が表示されるため、これら多数のアイコン62の中から、ユーザが所望の機能のアイコン(機能ボタン60M)を見つけ出すことが困難かつ煩雑である場合がある。そこで、本実施形態に係るPCでは、ユーザがタッチパネル式の表示画面50にタップすると、ユーザ認識部42により該ユーザを認識し、該ユーザに適した機能ボタン60Mを、初期位置からタップ位置に近づけるように移動させる。
例えば、図9に示すように、Webブラウザ機能を実行するための機能ボタン60Mが、ユーザによる表示画面50上のタップ位置に近づいてくる。この機能ボタン60Mは、PCが有する複数の機能のうち、ユーザの使用頻度が最も高いWebブラウザ機能の機能ボタン60である。これにより、ブラウザ機能の使用頻度が高いユーザは、そのWebブラウザ機能の機能ボタン60Mを表示画面50上で容易に見つけ出すことができる。
なお、図9の例ではPCの表示画面50にタッチパネルを適用し、タップ位置に機能ボタン60を近づけるようにしているが、本発明はかかる例に限定されない。例えば、操作手段として、タッチパネルを設けずに、キーボード、マウス等の一般的な操作装置を用いてもよい。この場合、ユーザは、キーボード、マウス等を用いて表示画面50上の位置を指定(例えばクリック)することで、その指定位置に機能ボタン60Mが近づいてくるようにしてもよい。
また、ユーザの認識方法としては、PCを操作するユーザの生体情報を取得して個人認証してもよいが、本発明はかかる例に限定されない。例えば、ユーザが、PCの具備するリーダライタにICカードをかざしたり、ユーザID及びパスワードを入力したりすることで、PCがユーザを認識してもよい。さらにこの場合、ユーザがPCの表示画面50上の位置を指定しなくても、PCは、認識したユーザに適した機能の機能ボタン60を、表示画面50上の所定の位置(例えば、アイコン62が少ない画面右下)に移動させるようにしてもよい。これによっても、ユーザは、所望の機能ボタン60を容易に見つけ出すことができる。
(2)カーナビゲーション装置への適用例
次に、本発明の情報処理装置を車載装置、例えば、カーナビゲーション装置に適用した実施形態について説明する。カーナビゲーション装置は、GPSシステムと連動して、自動車の現在位置や、行き先までの道順を提示する装置である。このカーナビゲーション装置の表示装置にもタッチパネル16が多用されており、ユーザが表示画面50上の機能ボタン60を押下することで、カーナビゲーション装置に特定の機能を実行させることができる。
図10は、カーナビゲーション装置の表示画面50上で、ユーザによる使用頻度の高い機能の機能ボタンを選択して、移動させる例である。図10に示すように、カーナビゲーション装置の表示画面50には、地図表示画像54が表示され、その地図表示画像54上に複数の機能ボタン60N〜60Tが重畳表示されている。ユーザが表示画面50にタップすると、カーナビゲーション装置は、ユーザ認識部42により該ユーザを認識し、該ユーザに適した機能ボタン60Mを選択して、初期位置からタップ位置に近づけるように移動させる。例えば、ユーザが表示画面50上の所定位置(例えば画面右下)をタップすると、該ユーザがよく行く場所(例えば自宅)を行き先として指定するための機能ボタン60Nが、表示画面50上のタップ位置に近づいてくる。ユーザが、近づいてきた機能ボタン60Nを押下すれば、現在位置から自宅までのルートが検索及び表示される。
これにより、ユーザは、使用頻度の高い行き先を指定するための行き先指定機能の機能ボタン60Nを表示画面50上で容易に見つけ出すことができる。特に、ユーザが自動車の運転中に表示画面50上で所望の機能ボタン60を探して押下することは危険が伴う。しかし、本実施形態のように、表示画面50にタップするだけで、適切な機能ボタン60が近寄ってくるようにすれば、ユーザがボタンを探す手間を省略できるので、ユーザの利便性のみならず、安全性も向上する。
(3)携帯電話への適用例
次に、本発明の情報処理装置を携帯端末、特に、携帯電話に適用した実施形態について説明する。図11は、携帯電話のタッチパネル式の表示画面50上で、ユーザによる使用頻度の高い機能の機能ボタンを選択して、移動させる例である。
図11に示すように、ユーザが携帯電話の表示画面50にタップしたときに、携帯電話は、ユーザ認識部42により該ユーザを認識し、該ユーザに適した機能ボタン60Uを、初期位置からタップ位置に近づけるように移動させる。図11の例では、携帯電話の表示画面50(例えば、メニュー画面、待ち受け画面)には、複数の機能ボタン60U〜60Xが表示されている。ユーザが表示画面50上の所定位置(例えば画面右下)をタップすると、該ユーザによる使用頻度が高い機能(例えばアラーム機能)の機能ボタン60Uが、表示画面50上のタップ位置に近づいてくる。ユーザが、近づいてきた機能ボタン60Uを押下すれば、アラーム機能の設定画面が表示される。
これにより、ユーザは、自身がよく使用する機能の機能ボタン60Uを表示画面50上で容易に見つけ出すことができる。特に、携帯電話では、小さい表示画面50上に多数のアイコンが表示されているので、ユーザに適した機能ボタン60が近寄ってくれば、ユーザは非常に便利である。
(4)音楽プレーヤへの適応例
まず、本発明の情報処理装置を記録再生装置、特に、携帯型音楽プレーヤに適用した実施形態について説明する。昨今、液晶パネル17等の表示部とタッチパネル16等を備えたタイプの携帯型デジタル音楽プレーヤが普及している。この音楽プレーヤは、音楽データを記録媒体に記録/再生する。音楽プレーヤの表示画面50にも、多数のアイコン(機能ボタン60を含む。)が表示され、ユーザが表示画面50上の機能ボタン60を押下することで、音楽プレーヤに特定の機能を実行させることができる。
音楽プレーヤの表示画面50には、再生する音楽を選択したり、再生中の画像を表示したりするための音楽再生画面が表示される。この音楽再生時に、ユーザが、音楽プレーヤの表示画面50にタップすると、音楽プレーヤは、ユーザ認識部42により該ユーザを認識し、該ユーザに適した機能ボタン60を選択して移動表示させる。
例えば、音楽プレーヤの動作モードが音楽再生モードであり、再生停止中にユーザが表示画面50をタップした場合を考える。この場合、音楽プレーヤは、タップしたユーザに対応する機能ボタン60として、例えば、該ユーザによる使用頻度の高い再生ボタンを選択し、タップ位置に近づくように当該再生ボタンを移動させる。これにより、ユーザは、再生ボタンを容易に見つけて、所望の音楽を再生開始できる。また、音楽再生モードにおける再生中に、ユーザが表示画面50をタップした場合、該ユーザによる使用頻度の高い再生停止ボタンを選択し、タップ位置に近づくように当該再生停止ボタンを移動させる。これにより、ユーザは、再生停止ボタンを容易に見つけて、所望の音楽の再生を停止できる。
また、上記動作状態と他の選択条件を組み合わせて用いて、機能ボタン60を選択して移動表示することもできる。具体的には、再生モード時に、周辺環境が特殊な環境であることを検出した場合には、音楽プレーヤは、そのユーザに対応し、かつ、その周辺環境に対応する機能ボタン60を選択して移動させる。例えば、騒音が激しい環境で音楽プレーヤが使用される場合、ユーザが表示画面50をタップすると、音楽プレーヤは、その騒音を検出し、ノイズキャンセル機能の設定ボタンをタップ位置に移動させる。これにより、ユーザは、表示画面50をタップするという簡単な操作だけで、騒音が激しい環境に対応するためのノイズキャンセル機能の設定ボタンを、容易かつ迅速に見つけることができる。また、電車の中で音楽プレーヤが使用される場合、ユーザが表示画面50をタップすると、音楽プレーヤは、明るさ等やGPSセンサ44の検出結果から電車内であることを検出し、イヤフォンからの音漏れ防止機能の設定ボタンをタップ位置に移動させる。
(5)メニュー画面への適応例
次に、本発明の情報処理装置を、メニュー画面を表示する任意の電子機器に適用した実施形態について説明する。メニュー画面は、各種の電子機器で使用されるが、多数の機能ボタン60が表示されるため、ユーザが所望の機能ボタン60を探すことが困難な場合がある。そこで、かかるメニュー画面において機器の動作状態等に応じた機能ボタン60が近寄ってくれば、ユーザの利便性が高い。
例えば、電子機器を初めて起動し、メニュー画面を表示したときに、ユーザが表示画面50にタップすると、電子機器は、該ユーザを認識し、該ユーザに適した機能ボタン60を自動的に選択して、タップ位置に移動させる。該ユーザに適した機能ボタン60は、例えば、時計の時刻設定等の各種の初期設定に関する機能ボタンのうち、そのユーザの属性に適した機能の設定ボタンや、初期設定時に推奨される機能の設定ボタンなどである。これにより、ユーザは、不慣れな電子機器を初めて使用する場合でも、自身に適した機能の初期設定を容易に行うことができる。また、電子機器を海外で使用する際にメニュー画面を表示したときにも、電子機器が、時刻設定やエリア設定等に関する機能ボタン60を自動的に選択して、タップ位置に移動させるようにしてもよい。これにより、海外で電子機器を使用するときの初期設定を容易に行うことができる。
[6.まとめ]
以上、本発明の好適な実施形態に係る情報処理装置と、その表示方法について説明した。本実施形態によれば、ユーザによる表示画面50上の位置の指定(例えばタップ)に応じて、そのユーザに適した機能の機能ボタン60が、初期位置から、ユーザの指定した表示画面50上の任意の位置に近づくように移動する。従って、表示画面50上に多数の機能ボタン60が存在する場合であっても、ユーザは、表示画面50上で所望の機能ボタン60を容易に見つけることができ、当該機能ボタン60を探し出す手間を省略することが可能となる。
従来では、ユーザは機能を実行するために、誰もが同じ操作を行っていた。しかし、本実施形態では、機器がユーザを認識して、ユーザに適した機能ボタン60を移動表示させるので、そのユーザに適した機能を簡単に探し出すことが可能になる。つまり、ユーザが使用する機能やシーンは、ユーザごとに異なるので、一律に同じ操作性を要求するのではなく、個々のユーザの属性や、そのユーザが使用するシーンに応じて、最適な機能を提示する。これによって、ユーザの利便性が大幅に向上する。
特に、ユーザの使用頻度の高い機能の機能ボタン60が近寄ってくることで、ユーザの利便性が向上する。また、ユーザの属性を判別し、そのユーザの属性に適した推奨機能の機能ボタン60が近寄ってくることで、機器の製造会社がユーザに優先的に使用して欲しい機能(推奨機能)を、ユーザに適切に提示できる。また、ユーザ属性及び周辺環境に適した機能ボタン60が近寄ってくることで、ユーザの利便性がより一層向上する。さらに、ユーザの使用頻度、ユーザの属性、周辺環境などの選択条件を適宜組み合わせることで、機器を操作するユーザに最適な機能ボタン60を選択できるようになる。
また、複数ユーザが同一の機器を同時に操作する場合にも、それぞれのユーザを認識し、各ユーザに適した機能の機能ボタン60が、各ユーザが指定した位置に近寄ってくる。従って、複数ユーザによる操作性も向上する。
また、表示画面50上の各機能ボタン60がどの機能に対応しているかをユーザが知らない場合でも、そのユーザにとって適切なボタンがタップ位置に近寄ってくるので、ユーザは、所望の機能ボタン60を容易に見つけることができる。
さらに、従来では、複雑かつ動的な表示画面上では、ユーザは所望の機能ボタンを見つけにくく、また、所望のタイミングで該ボタンを押すことが困難な場合があった。複雑かつ動的な表示画面とは、例えば、デジタルカメラの撮像モードで常時されるライブビュー画像(例えば白い被写体)上に、RECボタン(例えば白いボタン)を含む多数の機能ボタンが重畳表示されているケースなどである。しかし、本実施形態では、ユーザの指定位置(タップ位置)に所望の機能ボタン60が近寄ってくるので、上記のような複雑な画面の状況下においても、ユーザは、所望の機能ボタン60を容易に見つけることができる。
また、機能ボタン60がユーザの指定位置に近づいてくるので、ユーザは、表示画面50上の操作し易い位置を指定すれば、その機能ボタン60を簡単に押下することができる。例えば、デジタルカメラを両手で構えて撮像するときに、右手の親指で、表示画面50の右端を指定すれば、その指定位置に近寄ってきたRECボタン60Aを右手の親指で簡単に押下できる。
また、機器を操作するユーザの属性のみならず、周辺環境、表示中のオブジェクト、指定された表示画面50上の位置、指定されたアイコン、現在位置若しくは現在時刻、操作体の接触圧力若しくは接触時間、機器の姿勢などの条件を組み合わせて、機能ボタン60の選択条件とする。これにより、ユーザの嗜好や、各種の状況に応じて、より適切な機能ボタン60を選択して移動表示できる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、表示画面50にタップしたユーザに適した機能ボタン60がタップ位置に近づくように表示したが、本発明はかかる例に限定されない。例えば、ユーザに適した機能ボタン60が、近づくだけでなく、光る、震える、形状変化(例えば、拡大、色彩変化、半透明化など)するように表示したり、アニメーション表示やテキスト表示を付加したりしてもよい。
また、上記実施形態では、表示画面50に対するユーザのタップを契機として機能ボタン60を移動させたが、本発明はかかる例に限定されない。例えば、表示画面50をなぞる、ドラッグする、機器を揺らすといったユーザ行為に起因して、機能ボタン60を移動させてもよい。また、ユーザ行為とは別の条件(例えば、時間指定や、センサによる光、熱、圧力、加速度等の環境の検出など)を契機として、機能ボタン60を移動させてもよい。
また、上記実施形態に係る撮像装置10は、タッチパネル16を具備しており、表示画面50上のタップ位置に機能ボタン60を移動させた。しかし、本発明の情報処理装置は、タッチパネル16等の位置検出部を具備しなくてもよく、表示画面50の任意の位置に機能ボタン60を移動させてもよい。
10 撮像装置
18 タッチスクリーン
23 CPU
24 操作部
28 個人認証装置
40 選択条件設定部
41 ボタン選択部
42 ユーザ認識部
43 環境検出部
44 GPSセンサ
45 姿勢センサ
46 表示制御部
47 機能実行部
48 記憶部
481 生体情報データベース
482 推奨機能データベース
483 ユーザ情報データベース
484 使用履歴データベース
50 表示画面
52 ライブビュー画像
60 機能ボタン
60A RECボタン
60B フラッシュ設定ボタン
60C セルフタイマ設定ボタン
60D 連写設定ボタン

Claims (9)

  1. 情報処理装置が実行可能な機能に関する少なくとも1つの機能ボタンを表示する表示部と、
    前記情報処理装置を操作するユーザを認識するユーザ認識部と、
    前記表示部に表示された前記機能ボタンの中から、前記ユーザ認識部により認識されたユーザに対応する少なくとも1つの機能ボタンを選択するボタン選択部と、
    前記ボタン選択部により選択された機能ボタンが、前記表示部の表示画面上の初期位置から所定の位置に近づくように、当該機能ボタンを移動させる表示制御部と、
    を備える、情報処理装置。
  2. 前記表示部の表示画面に対して操作体が接触又は近接した位置を検出する位置検出部をさらに備え、
    前記表示制御部は、前記ボタン選択部により選択された機能ボタンが、前記初期位置から、前記位置検出部により検出された前記表示画面上の位置に近づくように、当該機能ボタンを移動させる、請求項1に記載の情報処理装置。
  3. 前記ボタン選択部は、前記ユーザ認識部により認識されたユーザの属性に基づいて、前記表示部に表示された前記機能ボタンの中から、該ユーザに対して推奨する機能の機能ボタンを選択する、請求項1又は2に記載の情報処理装置。
  4. 前記ユーザ認識部は、前記情報処理装置を操作する前記ユーザの生体情報に基づいて、前記ユーザを認識し、
    前記ボタン選択部は、前記ユーザの生体情報又は前記ユーザの操作速度の少なくともいずれかに基づいて、前記ユーザの属性を判別し、該判別したユーザの属性に基づいて、前記ユーザに対して推奨する機能の機能ボタンを選択する、請求項3に記載の情報処理装置。
  5. 前記ボタン選択部は、前記情報処理装置が実行可能な複数の機能の使用履歴に基づいて、前記表示部に表示された前記機能ボタンの中から、前記ユーザによる使用頻度が相対的に高い機能の機能ボタンを選択する、請求項1〜4のいずれか一項に記載の情報処理装置。
  6. 前記ユーザが使用する前記情報処理装置の周辺環境を検出する環境検出部をさらに備え、
    前記ボタン選択部は、前記表示部に表示された前記機能ボタンの中から、前記周辺環境に対応する機能の機能ボタンを選択する、請求項1〜5のいずれか一項に記載の情報処理装置。
  7. 前記ユーザ認識部は、前記情報処理装置を同時に操作する複数のユーザを認識し、
    前記ボタン選択部は、前記表示部に表示された前記機能ボタンの中から、前記認識された各ユーザに対応する少なくとも1つの機能ボタンをそれぞれ選択し、
    前記表示制御部は、前記ボタン選択部により選択された前記各機能ボタンが、前記表示画面上の初期位置から、前記各ユーザにより指定された位置にそれぞれ近づくように、当該各機能ボタンをそれぞれ移動させる、請求項1〜6のいずれか一項に記載の情報処理装置。
  8. 情報処理装置が実行可能な機能に関する少なくとも1つの機能ボタンを表示部に表示するステップと、
    前記情報処理装置を操作するユーザを認識するステップと、
    前記表示部に表示された前記機能ボタンの中から、前記ユーザ認識部により認識されたユーザに対応する少なくとも1つの機能ボタンを選択するステップと、
    前記選択された機能ボタンが、前記表示部の表示画面上の初期位置から所定の位置に近づくように、当該機能ボタンを移動させるステップと、
    を含む、表示方法。
  9. 情報処理装置が実行可能な機能に関する少なくとも1つの機能ボタンを表示部に表示するステップと、
    前記情報処理装置を操作するユーザを認識するステップと、
    前記表示部に表示された前記機能ボタンの中から、前記ユーザ認識部により認識されたユーザに対応する少なくとも1つの機能ボタンを選択するステップと、
    前記選択された機能ボタンが、前記表示部の表示画面上の初期位置から所定の位置に近づくように、当該機能ボタンを移動させるステップと、
    を前記情報処理装置に実行させるためのプログラム。

JP2009276942A 2009-12-04 2009-12-04 情報処理装置、表示方法及びプログラム Active JP5316387B2 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2009276942A JP5316387B2 (ja) 2009-12-04 2009-12-04 情報処理装置、表示方法及びプログラム
BR112012012637A BR112012012637A2 (pt) 2009-12-04 2010-10-29 dispositivo eletrônico, e, método para controlar um dispositivo eletrônico
EP10834346.8A EP2507695B1 (en) 2009-12-04 2010-10-29 Information processing device, display method, and program
RU2012122063/08A RU2012122063A (ru) 2009-12-04 2010-10-29 Устройство обработки данных, способ отображения и программа
KR1020127013595A KR20120113714A (ko) 2009-12-04 2010-10-29 정보 처리 장치, 표시 방법 및 프로그램
US13/511,167 US9542087B2 (en) 2009-12-04 2010-10-29 Information processing device, display method, and program
PCT/JP2010/006388 WO2011067890A1 (en) 2009-12-04 2010-10-29 Information processing device, display method, and program
CN201080062526.2A CN102741795A (zh) 2009-12-04 2010-10-29 信息处理装置、显示方法和程序
TW099139044A TW201140423A (en) 2009-12-04 2010-11-12 Information processing device, display method, and computer program product
US15/370,772 US10303334B2 (en) 2009-12-04 2016-12-06 Information processing device and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009276942A JP5316387B2 (ja) 2009-12-04 2009-12-04 情報処理装置、表示方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2011118769A JP2011118769A (ja) 2011-06-16
JP5316387B2 true JP5316387B2 (ja) 2013-10-16

Family

ID=44114753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009276942A Active JP5316387B2 (ja) 2009-12-04 2009-12-04 情報処理装置、表示方法及びプログラム

Country Status (9)

Country Link
US (2) US9542087B2 (ja)
EP (1) EP2507695B1 (ja)
JP (1) JP5316387B2 (ja)
KR (1) KR20120113714A (ja)
CN (1) CN102741795A (ja)
BR (1) BR112012012637A2 (ja)
RU (1) RU2012122063A (ja)
TW (1) TW201140423A (ja)
WO (1) WO2011067890A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10510097B2 (en) 2011-10-19 2019-12-17 Firstface Co., Ltd. Activating display and performing additional function in mobile terminal with one-time user input

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3044054B2 (ja) * 1990-07-31 2000-05-22 ヤーマン株式会社 接触温度を可変できる超音波美容装置
JP5316387B2 (ja) * 2009-12-04 2013-10-16 ソニー株式会社 情報処理装置、表示方法及びプログラム
JP5606281B2 (ja) * 2010-11-08 2014-10-15 シャープ株式会社 表示装置
JP5632972B2 (ja) * 2011-07-14 2014-11-26 パナソニック株式会社 電子機器
KR101822581B1 (ko) * 2011-09-05 2018-01-26 삼성전자주식회사 움직임에 기반하여 애플리케이션 속성의 조절이 가능한 단말기 및 그 방법
JP2013080015A (ja) * 2011-09-30 2013-05-02 Toshiba Corp 音声認識装置および音声認識方法
TWI459810B (zh) 2011-11-22 2014-11-01 Altek Corp 影像處理裝置及其處理方法
US9888166B2 (en) * 2011-12-30 2018-02-06 Intel Corporation User interfaces for electronic devices
TWI463376B (zh) * 2012-04-19 2014-12-01 Everest Display Inc An Optical Touch Screen Extension Method
US20130293483A1 (en) * 2012-05-04 2013-11-07 Roberto Speranza Selectable object display method and apparatus
JP2014137627A (ja) * 2013-01-15 2014-07-28 Sony Corp 入力装置、出力装置および記憶媒体
JP5854235B2 (ja) * 2013-02-14 2016-02-09 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
US9798454B2 (en) 2013-03-22 2017-10-24 Oce-Technologies B.V. Method for performing a user action upon a digital item
US20140298246A1 (en) * 2013-03-29 2014-10-02 Lenovo (Singapore) Pte, Ltd. Automatic display partitioning based on user number and orientation
WO2014207809A1 (ja) * 2013-06-24 2014-12-31 株式会社島津製作所 屈折率測定装置
JP6175945B2 (ja) * 2013-07-05 2017-08-09 ソニー株式会社 視線検出装置及び視線検出方法
KR102127927B1 (ko) * 2013-07-30 2020-07-09 엘지전자 주식회사 이동 단말기, 스마트 워치 및 이동 단말기와 스마트 워치간 보안 인증방법
CN104423862B (zh) * 2013-08-29 2019-09-27 腾讯科技(深圳)有限公司 触摸屏的功能控件组的展示方法及装置
US9613201B1 (en) * 2013-09-30 2017-04-04 EMC IP Holding Company LLC Access control by a mobile device using an image
KR101587250B1 (ko) * 2013-12-19 2016-01-21 (주)에이텍티앤 화상표시장치의 화면표시 제어장치 및 그 방법
CN104853106B (zh) * 2014-02-19 2019-11-26 联想(北京)有限公司 一种信息处理方法和电子设备
CN104335154A (zh) * 2014-06-30 2015-02-04 华为技术有限公司 一种自定义应用按钮位置的方法及智能终端设备
WO2016024440A1 (ja) * 2014-08-12 2016-02-18 ソニー株式会社 情報処理装置、プログラム、及び情報処理方法
EP3012729B1 (en) * 2014-10-24 2023-06-07 Electrolux Appliances Aktiebolag Graphical user interface
CN105592261A (zh) * 2014-11-04 2016-05-18 深圳富泰宏精密工业有限公司 辅助拍照系统及方法
US20170323091A1 (en) * 2014-11-21 2017-11-09 Kyocera Document Solutions Inc. Operating device and operating method
JP6500582B2 (ja) * 2015-05-07 2019-04-17 富士ゼロックス株式会社 画面表示装置及びプログラム
US9646167B2 (en) * 2015-06-01 2017-05-09 Light Cone Corp. Unlocking a portable electronic device by performing multiple actions on an unlock interface
KR20160144179A (ko) * 2015-06-08 2016-12-16 임재현 카메라를 포함하는 사용자 단말에서 사용자 인터페이스를 제공하는 방법
KR102403065B1 (ko) * 2015-07-14 2022-05-27 삼성전자주식회사 영상 촬영 장치 및 그 동작 방법
US9871962B2 (en) * 2016-03-04 2018-01-16 RollCall, LLC Movable user interface shutter button for camera
US20190317654A1 (en) * 2018-04-12 2019-10-17 Capital One Services, Llc Systems and methods for assisting user interactions with displays
JP2020091510A (ja) * 2018-12-03 2020-06-11 ルネサスエレクトロニクス株式会社 家電機器および居住空間
US10852901B2 (en) * 2019-01-21 2020-12-01 Promethean Limited Systems and methods for user interface adjustment, customization, and placement
US11159731B2 (en) 2019-02-19 2021-10-26 Samsung Electronics Co., Ltd. System and method for AI enhanced shutter button user interface
JP2021180433A (ja) * 2020-05-14 2021-11-18 キヤノン株式会社 撮像装置、情報処理装置、それらの制御方法、プログラム並びに記憶媒体
US12079394B2 (en) * 2020-10-14 2024-09-03 Aksor Interactive contactless ordering terminal
CN113918067A (zh) * 2020-11-20 2022-01-11 完美世界(北京)软件科技发展有限公司 一种界面逻辑执行方法以及装置、电子设备、介质
CN112486382B (zh) * 2020-11-20 2021-12-17 完美世界(北京)软件科技发展有限公司 一种界面逻辑执行方法以及装置、电子设备、介质
US11807255B2 (en) * 2021-11-10 2023-11-07 Ford Global Technologies, Llc Programmable input device for a vehicle
CN114493792A (zh) * 2022-01-29 2022-05-13 深圳市小满科技有限公司 一种外贸crm推荐方法及相关设备
WO2023187611A1 (en) 2022-03-28 2023-10-05 Promethean Limited User interface modification systems and related methods

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5564004A (en) * 1994-04-13 1996-10-08 International Business Machines Corporation Method and system for facilitating the selection of icons
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US6426761B1 (en) * 1999-04-23 2002-07-30 Internation Business Machines Corporation Information presentation system for a graphical user interface
WO2002032136A2 (en) * 2000-10-10 2002-04-18 Koninklijke Philips Electronics N.V. Device control via image-based recognition
US7730401B2 (en) * 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
KR20050115392A (ko) * 2004-06-03 2005-12-07 삼성전자주식회사 터치스크린 방식으로 신호를 입력하는 리모콘 및 그 방법
US7761801B2 (en) 2005-04-26 2010-07-20 Lg Electronics Inc. Mobile terminal providing graphic user interface and method of providing graphic user interface using the same
KR100672478B1 (ko) * 2005-04-26 2007-01-24 엘지전자 주식회사 이동통신 단말기와 메뉴 동작 제어 방법
KR20070006477A (ko) * 2005-07-08 2007-01-11 삼성전자주식회사 가변적 메뉴 배열 방법 및 이를 이용한 디스플레이 장치
JP2007065724A (ja) * 2005-08-29 2007-03-15 Nikon Corp 情報処理プログラム、および情報処理装置
JP4840848B2 (ja) * 2005-09-21 2011-12-21 ソニー株式会社 撮影装置、情報処理方法、並びにプログラム
JP2008197934A (ja) * 2007-02-14 2008-08-28 Calsonic Kansei Corp 操作者判別方法
JP2008217548A (ja) * 2007-03-06 2008-09-18 Tokai Rika Co Ltd 操作入力装置
US8046590B2 (en) * 2007-06-12 2011-10-25 Mikhail Milgramm System and method for protection of creative works
US8027518B2 (en) * 2007-06-25 2011-09-27 Microsoft Corporation Automatic configuration of devices based on biometric data
JP4370535B2 (ja) 2007-06-28 2009-11-25 ソニー株式会社 画像表示装置、撮像装置、画像表示制御方法、プログラム
JP4687996B2 (ja) * 2007-08-14 2011-05-25 ソニー株式会社 入力操作装置及び入力操作方法
JP2009110286A (ja) 2007-10-30 2009-05-21 Toshiba Corp 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法
JP2009193454A (ja) * 2008-02-15 2009-08-27 Sharp Corp 表示システム
US20100188342A1 (en) * 2009-01-26 2010-07-29 Manufacturing Resources International, Inc. Method and System for Positioning a Graphical User Interface
JP5218353B2 (ja) 2009-09-14 2013-06-26 ソニー株式会社 情報処理装置、表示方法及びプログラム
JP5316387B2 (ja) * 2009-12-04 2013-10-16 ソニー株式会社 情報処理装置、表示方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10510097B2 (en) 2011-10-19 2019-12-17 Firstface Co., Ltd. Activating display and performing additional function in mobile terminal with one-time user input
US10896442B2 (en) 2011-10-19 2021-01-19 Firstface Co., Ltd. Activating display and performing additional function in mobile terminal with one-time user input
US11551263B2 (en) 2011-10-19 2023-01-10 Firstface Co., Ltd. Activating display and performing additional function in mobile terminal with one-time user input

Also Published As

Publication number Publication date
BR112012012637A2 (pt) 2016-07-12
US20120229411A1 (en) 2012-09-13
KR20120113714A (ko) 2012-10-15
RU2012122063A (ru) 2013-12-10
WO2011067890A1 (en) 2011-06-09
US9542087B2 (en) 2017-01-10
US10303334B2 (en) 2019-05-28
US20170083192A1 (en) 2017-03-23
JP2011118769A (ja) 2011-06-16
EP2507695B1 (en) 2018-10-17
EP2507695A1 (en) 2012-10-10
CN102741795A (zh) 2012-10-17
EP2507695A4 (en) 2013-07-24
TW201140423A (en) 2011-11-16

Similar Documents

Publication Publication Date Title
JP5316387B2 (ja) 情報処理装置、表示方法及びプログラム
JP5218353B2 (ja) 情報処理装置、表示方法及びプログラム
US10504517B2 (en) Method for controlling speech-recognition text-generation system and method for controlling mobile terminal
JP2011060209A5 (ja)
JP5652652B2 (ja) 表示制御装置および方法
CN106341522B (zh) 移动终端及其控制方法
US8111247B2 (en) System and method for changing touch screen functionality
US8923692B2 (en) Pictures using voice commands and automatic upload
TWI466008B (zh) 顯示控制裝置、顯示控制方法及電腦程式產品
JP5401962B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
EP2192498A1 (en) Image processing apparatus, image displaying method, and image displaying program
TW201248454A (en) Image display control apparatus and image display control method
US20140036128A1 (en) Method and apparatus for manual focusing in portable terminal
JPWO2013161424A1 (ja) 画像処理装置、画像処理方法及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130624

R151 Written notification of patent or utility model registration

Ref document number: 5316387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250