JP5219929B2 - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP5219929B2
JP5219929B2 JP2009134665A JP2009134665A JP5219929B2 JP 5219929 B2 JP5219929 B2 JP 5219929B2 JP 2009134665 A JP2009134665 A JP 2009134665A JP 2009134665 A JP2009134665 A JP 2009134665A JP 5219929 B2 JP5219929 B2 JP 5219929B2
Authority
JP
Japan
Prior art keywords
display
image
additional information
unit
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009134665A
Other languages
English (en)
Other versions
JP2010055599A (ja
Inventor
博之 小澤
綾 高岡
綾子 岩瀬
真一 入矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009134665A priority Critical patent/JP5219929B2/ja
Publication of JP2010055599A publication Critical patent/JP2010055599A/ja
Application granted granted Critical
Publication of JP5219929B2 publication Critical patent/JP5219929B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、情報処理装置および方法、並びにプログラムに関し、特に、撮影画像または記録画像に関連する付加情報の確認操作が簡便にできるようになった、情報処理装置および方法、並びにプログラムに関する。
デジタルカメラ(例えば特許文献1参照)で撮影された撮影画像や、そのデジタルカメラに記録された記録画像には、それらに関連する情報(以下、付加情報と称する)が対応づけられる場合がある。従来、ユーザは、このような付加情報を確認する場合、例えば次のような操作をしていた。即ち、従来のデジタルカメラには、DISPLAY釦のような専用ハードキーや、メニューなどが設けられている。ユーザは、これらの釦等を操作して、デジタルカメラが有する複数の機能の設定画面を液晶パネル等に表示させ、所望の付加情報が得られる機能を選択する操作を行う。その結果、液晶パネル等に表示された付加情報を、ユーザは視認していた。
特開2007-019685号公報
しかしながら、上述したような操作はユーザにとって負担となる場合があり、より簡便に付加情報を確認したいという要望があった。さらに、近年GPS(Global Positioning System)をはじめとするアクセサリや、インターネットとの連携などにより、付加情報が増加する傾向にある。このため、かかる要望に応えることが重要となっている状況である。即ち、撮影画像や記録画像の付加情報を表示させる操作(以下、付加情報表示操作と称する)を簡便にすることが要望されているが、その要望に十分に応えられていない状況である。
本発明は、このような状況に鑑みてなされたものであり、付加情報表示操作を簡便にできるようにするものである。
本発明の一側面の情報処理装置は、画像を表示する表示部と、前記表示部に対するユーザの操作を受付ける操作入力受付部と、所定の操作が前記操作入力受付部により受付けられた場合に、前記表示部の表示状態を前記画像が表示されている第1の表示状態と、前記画像に関連する付加情報を1以上含む付加情報画像が表示されている第2の表示状態とのうち一方から他方の状態へ遷移させる表示制御を行う表示制御部とを備え、前記表示制御部は、前記表示制御として、前記第1の表示状態で、前記ユーザが指を前記操作入力受付部に接触させたまま所定距離だけ動かす操作をなぞり操作として、前記なぞり操作を検出した場合に、前記表示部の表示状態を前記なぞり操作の方向に応じて遷移させるとともに、前記表示部の表示状態を遷移させるときに、前記なぞり操作における前記指の軌跡に従って前記画像の縮小率を変更させながら前記表示部に縮小された前記画像を表示させる制御を行う。
前記表示制御部は、前記表示制御として、前記第1の表示状態で、前記操作入力受付部が前記ユーザの前記指を接触させる操作を検出した場合、さらに、前記付加情報を呼び出すための画像として付加情報呼び出し口を前記接触位置に対応した箇所に表示させ、記付加情報呼び出し口を起点とする前記なぞり操作を検出した場合に、前記表示部の表示状態を遷移させる制御を行う。
前記表示制御部は、前記表示制御として、前記第1の表示状態で、前記操作入力受付部が所定領域に対してユーザが指を接触させる操作が一定時間以上継続していることを検出した場合、前記表示部の表示状態を遷移させる制御を行う。
前記情報処理装置の面のうち、第1の面に前記表示部および前記操作入力部が配置され、前記第1の面と対向する第2の面に配置されるタッチパネルを含むタッチパネル部をさらに備え、前記表示制御部は、前記表示制御として、前記タッチパネル部の所定領域に対してユーザが指を接触させる操作を検出した場合、前記表示部の表示状態を遷移させる制御を行う。
前記情報処理装置の傾きを検出する検出部をさらに備え、前記表示制御部は、前記表示制御として、前記検出部の検出結果に基づいて、前記ユーザが前記情報処理装置を360度回転させる操作を検出した場合、前記表示部の表示状態を遷移させる制御を行う。
前記情報処理装置の傾きを検出する検出部をさらに備え、前記表示制御部は、前記表示制御として、前記検出部の検出結果に基づいて、前記ユーザが前記情報処理装置を180度または90度回転させる第1の操作と、前記第1の操作後に前記情報処理装置を逆方向に180度または90度回転させる第2の操作とを検出した場合、前記表示部の表示状態を遷移させる制御を行う。
前記表示制御部は、前記表示部の表示状態が第1の表示状態である場合、前記所定の操作を検出する前に予め、前記付加情報画像に含める前記付加情報を取得する。
本発明の一側面の情報処理装置においては、画像が表示され、ユーザの操作が受付けられ、所定の操作が受付けられた場合に、前記画像が表示されている第1の表示状態と、前記画像に関連する付加情報を1以上含む付加情報画像が表示されている第2の表示状態とのうち一方から他方の状態へ遷移させる表示制御が行われる。そして、前記表示制御として、前記第1の表示状態で、前記ユーザが指を接触させたまま所定距離だけ動かす操作をなぞり操作として、前記なぞり操作を検出した場合に、表示状態を前記なぞり操作の方向に応じて遷移させるとともに、前記表示部の表示状態を遷移させるときに、前記なぞり操作における前記指の軌跡に従って前記画像の縮小率を変更させながら前記表示部に縮小された前記画像を表示させる制御が行われる。
本発明の一側面の情報処理方法およびプログラムは、上述した本発明の一側面の情報処理装置に対応する方法およびプログラムである。
本発明の一側面の情報処理方法およびプログラムにおいては、表示部と操作入力受付部とを備える情報処理装置によって次のような処理が実行される。即ち、前記表示部の表示状態として、画像が前記表示部に表示されている第1の表示状態と、前記画像に関連する付加情報を1以上含む付加情報画像が前記表示部に表示されている第2の表示状態とが存在する。このような場合、前記第1の表示状態で、ユーザが指を前記操作入力受付部に接触させたまま所定距離だけ動かす操作をなぞり操作として、前記なぞり操作が検出されたとき、前記表示部の表示状態が前記なぞり操作の方向に応じて、前記第1の表示状態から前記第2の表示状態へ遷移するとともに、前記表示部の表示状態が遷移するときに、前記なぞり操作における前記指の軌跡に従って前記画像の縮小率を変更させながら前記表示部に縮小された前記画像が表示される。
以上のごとく、本発明によれば、付加情報表示操作が簡便にできるようになる。
本発明が適用される情報処理装置の一実施形態としての撮像装置の構成例を示すブロック図である。 図1の撮像装置の外観の構成例を示す斜視図である。 撮像装置の付加情報表示操作手法の第1の実施例について説明する図である。 第1付加情報表示処理の一例を説明するフローチャートである。 撮像装置の付加情報表示操作手法の第2の実施例について説明する図である。 第2付加情報表示処理の一例を説明するフローチャートである。 撮像装置の付加情報表示操作手法の第3の実施例について説明する図である。 第3付加情報表示処理の一例を説明するフローチャートである。 撮像装置の付加情報表示操作手法の第4の実施例について説明する図である。 第4付加情報表示処理の一例を説明するフローチャートである。 撮像装置の付加情報表示操作手法の第5の実施例について説明する図である。 第5付加情報表示処理の一例を説明するフローチャートである。 基本機能を設定する操作手法の一例を説明する図である。 本発明が適用される情報処理装置の構成例であって、図1とは異なる構成例を示すブロック図である。
以下、図面を参照して、本発明の実施の形態について説明する。
図1は、本発明が適用された情報処理装置の一実施形態としての撮像装置の構成例を示
すブロック図である。
図1の例では、撮像装置は、レンズ部11乃至タッチパネル28を含むように構成され
ている。
レンズ部11は、撮影レンズ、絞り、フォーカスレンズ等から構成される。レンズ部11を介して入射する被写体光の光路上には、CCD(Charge Coupled Device)等の撮像素子12が配置されている。
撮像素子12、アナログ信号処理部13、A/D(Analog/Digital)変換部14、およびデジタル信号処理部15がその順番で接続されている。
デジタル信号処理部15にはまた、液晶パネル17、記録デバイス19およびタッチパネル28が接続されている。
レンズ部11には、レンズ部11を構成する絞りの調整や、フォーカスレンズの移動を行うためのアクチュエータ20が接続されている。アクチュエータ20には、モータドライバ21も接続されている。モータドライバ21は、アクチュエータ20の駆動制御を行う。
CPU(Central Processing Unit)23は、撮像装置全体を制御する。このため、CPU23には、アナログ信号処理部13、A/D変換部14、デジタル信号処理部15、モータドライブ21、TG(Timing Generator)22、操作部24、EEPROM(Electrically Erasable Programmable ROM)25、プログラムROM(Read Only Memory)26、RAM(Random Access Memory)27、タッチパネル16、およびタッチパネル28が接続されている。
タッチスクリーン18は、タッチパネル16と液晶パネル17により構成されている。タッチパネル28は、タッチスクリーン18と対向する撮像装置の面、即ち、撮像レンズ側の面に配置されている(後述する図2参照)。
記録デバイス19は、例えばDVD(Digital Versatile Disc)等の光ディスクやメモリカード等の半導体メモリその他のリムーバブルな記録媒体で構成されている。記録デバイス19は、撮像装置本体に対して着脱自在となっている。
EEPROM25は、設定された各種情報を記憶する。その他の情報、例えば、電源状態がオフにされたときにも保持すべき情報等がEEPROM25に記憶される。
プログラムROM26は、CPU23が実行するプログラムおよびプログラムを実行する上で必要なデータを記憶する。
RAM27は、CPU23が各種処理を実行する際のワークエリアとして必要なプログラムやデータを一時記憶する。
以下、図1の構成の撮像装置全体の動作の概略について説明する。
CPU23は、プログラムROM26に記録されているプログラムを実行することにより、撮像装置を構成する各部を制御する。また、CPU23は、タッチパネル16またはタッチパネル28からの信号や、操作部24からの信号に応じて、所定の処理を実行する。この処理の具体例については、図4、図6、図8、および図12の各フローチャートを参照して後述する。
操作部24は、ユーザによって操作され、その操作に対応する信号をCPU23に提供する。
すなわち、タッチスクリーン18またはタッチパネル28は、任意の位置に指が触れる等して接触されると、つまりユーザにより所定の操作入力がなされると、接触された位置の座標を検出する。検出された座標を示す電気信号(以下、座標信号と称する)がCPU23に送出される。CPU23は、座標信号から接触位置の座標を認識し、座標に対応付けられた所定の情報を取得し、その情報に基づいて所定の処理を実行する。
なお、本明細書では、接触とは、静的な接触(所定の一領域のみの接触)だけではなく、動的な接触(指等の接触物体が所定の軌跡を描いて動く接触)も含む。例えば、画像上の紙をめくるような指のなぞりも、接触の一形態である。
アクチュエータ20の駆動により、レンズ部11は、撮像装置の筐体から露出または収納される。また、アクチュエータ20の駆動により、レンズ部11を構成する絞りの調整や、レンズ部11を構成するフォーカスレンズの移動が行われる。
TG22は、CPU23の制御に基づいて、タイミング信号を撮像素子12に提供する。タイミング信号により、撮像素子12における露出時間等が制御される。
撮像素子12は、TG22から提供されるタイミング信号に基づいて動作することにより、レンズ部11を介して入射する被写体光を受光して光電変換を行う。そして、受光量に応じたアナログの画像信号をアナログ信号処理部13に提供する。このとき、モータドライバ21は、CPU23の制御に基づいてアクチュエータ20を駆動する。
アナログ信号処理部13は、CPU23の制御に基づいて、撮像素子12から提供されたアナログの画像信号に対して増幅等のアナログ信号処理を施す。その結果得られるアナログの画像信号は、アナログ信号処理部13からA/D変換部14に提供される。
A/D変換部14は、CPU23の制御に基づいて、アナログ信号処理部13からのアナログの画像信号をA/D変換する。その結果得られるデジタルの画像信号は、A/D変換部14からデジタル信号処理部15に提供される。
デジタル信号処理部15は、CPU23の制御に基づいてA/D変換部14から提供されたデジタルの画像信号に対して、ノイズ除去処理等のデジタル信号処理を施す。デジタル信号処理部15は、そのデジタルの画像信号に対応する画像を、撮影画像として液晶パネル17に表示させる。
また、デジタル信号処理部15は、A/D変換部14から提供されたデジタルの画像信号を、例えばJPEG(Joint Photographic Experts Group)等の所定の圧縮符号化方式に従って圧縮符号化する。デジタル信号処理部15は、圧縮符号化されたデジタルの画像信号を、記録デバイス19に記録させる。
デジタル信号処理部15はまた、記録デバイス19から圧縮符号化されたデジタルの画像信号を読み出し、所定の圧縮符号化方式に対応する伸張復号方式に従って伸張復号する。デジタル信号処理部15は、そのデジタルの画像信号に対応する画像を、記録画像として液晶パネル17表示させる。
その他、デジタル信号処理部15は、CPU23の制御に基づいて、AF(auto focus)の機能を発揮させるために用いる枠(以下、AF枠と称する)の画像を生成し、液晶パネル17に表示させる。
即ち、撮像素子12によって撮像された画像(撮影画像)は液晶パネル17に表示される。この場合、液晶パネル17に表示された画像上にAF枠が設定される。このAF枠の内部の画像に基づいてフォーカスが制御される。
このように、撮像装置はAF機能を有している。AF機能は、フォーカスの制御機能の他、液晶パネル17に表示された画像上の任意の位置にAF枠を設定する機能を含む。さらに、AF機能は、液晶パネル17とタッチパネル16から構成されたタッチスクリーン18に対する操作だけで、その位置やサイズ等の制御を行う機能を含む。
AF機能を実現させる処理は、CPU23が、プログラムROM26のプログラムを読み出して実行することで実現される。また、撮像装置は、その他にも、AE(Automatic Exposure)機能、AWB(Auto White Balance)機能を有している。これらの機能についても、CPU23が、プログラムROM26のプログラムを読み出して実行することで実現される。
さらにいえば、AF機能、AE機能、およびAWB機能は、撮像装置が有する機能の例示にしか過ぎない。即ち、撮像装置は、撮影に関する各種機能を有している。以下、各種機能のうち、撮影に関する基本的な機能を、基本機能と称し、撮影に関する応用的な機能を、応用機能と称する。基本機能としては、AF機能、AE機能、およびAWB機能の他、例えば、「撮影モード選択機能」や「撮影タイマの設定機能」等を採用することができる。応用機能としては、例えば、「画素数変更機能」や「色彩調整機能」等を採用することができる。
図2は、図1の例の撮像装置の外観の構成例を示す斜視図である。
なお、以下、撮像装置の面のうち、ユーザが被写体を撮影する場合に被写体と対向する面、即ち、レンズ部11が配置される面を前面と称する。一方、撮像装置の面のうち、ユーザが被写体を撮影する場合にユーザと対向する面、即ち、前面の反対側の面を後面と称する。また、撮像装置の面のうち、ユーザが被写体を撮影する場合に、上側に配置される面を上面と、下側に配置される面を下面と、それぞれ称する。
図2のAは、撮像装置の前面の外観の構成例を示す斜視図である。図2のBは、撮像装置の後面の外観の構成例を示す斜視図である。
撮像装置の前面は、レンズカバー47で覆うことができる。前面のレンズカバー47が図中下方に開かれると、図2のAの状態になる。図2のAに示されるように、レンズカバー47の覆いが除かれた前面の上部には、その右方から、レンズ部11に含まれる撮影レンズ45とAFイルミネータ46がその順番で配置されている。また、レンズカバー47が覆われている前面の下部のうち、撮像装置中央付近の、ユーザが被写体を撮影する場合に保持しない部分には、タッチパネル28が配置されている。
AFイルミネータ46は、セルフタイマランプを兼ねている。撮像装置の上面には、図2のAの左方から、ズームレバー(TELE/WIDE)41、シャッタボタン42、再生ボタン43およびパワーボタン44がその順番で配置されている。ズームレバー41、シャッタボタン42、再生ボタン43、およびパワーボタン44は、図1の操作部24に含まれる。
図2のBに示されるように、撮像装置の後面の全体には、タッチスクリーン18が配置されている。
このように、撮像装置の後面にタッチスクリーン18が設けられているので、ユーザは、被写体を撮影する場合に、撮像装置の前面を被写体に向けたままの状態で、タッチスクリーン18によるGUI(Graphical User Interface)の操作を行うことができる。
タッチスクリーン18によるGUIの操作として、例えば本実施の形態では、付加情報表示操作を行うことができる。
図3を参照して、本実施の形態の付加情報表示操作うち、第1の実施例について説明する。
図3のAは、タッチスクリーン18に任意の撮影画像または記録画像が表示されている状態を示している。以下、撮影画像がタッチスクリーン18に表示されることを、撮影画像の再生と表現する。なお、以下、撮影画像の再生に着目して説明していく。もっとも、記録画像についても、後述する付加情報表示操作と基本的に同様の操作を採用することができる。このことは、第1の実施例のみならず他の実施例にもあてはまる。
図3のAの状態で、ユーザの指f1によって、タッチスクリーン18に再生された撮影画像の右下の領域が接触されると、タッチスクリーン18の表示状態は、図3のBの状態に遷移する。即ち、図3のBに示されるように、タッチスクリーン18の表示状態は、その右下の領域の表示が、撮影画像の一領域51がめくれたような表示状態になる。撮影画像の領域のうち、このめくれたように見える領域51を、以下、付加情報呼び出し口51と称する。
撮像措置は、付加情報呼び出し口51を表示させることにより、ユーザに、例えば「めくれた部分をどうにかしたい」「カードの裏に何かあるのではないか」というような、ごく自然な感情を与えることができる。
なお、付加情報呼び出し口51の表示形態は、図3のBに示される表示形態、即ちめくれたような表示形態に特に限定されない。例えば「裏面を見る」というようなメッセージを含む画像を、付加情報呼び出し口51として採用することもできる。
タッチスクリーン18の表示状態が図3のBの状態のまま、ユーザは、図3のCに示されるように、指f1を付加情報呼び出し口51に接触させる。ユーザは、指f1を、タッチスクリーン18への接触を維持したまま、付加情報呼び出し口51を起点として所定方向に所定距離だけ移動させる操作を行う。以下、かかる操作を、なぞり操作と称する。
図3のCの状態でユーザが略水平方向のなぞり操作を行うと、タッチスクリーン18の表示状態は、図3のDの状態に遷移する。
即ち、CPU23は、デジタル信号処理部15を制御して、指f1の軌跡に従って撮影画像の縮小率を変更させていき、変更後の画像をタッチスクリーン18に順次表示させていくことを繰り返す。これにより、図3のDに示されるように、撮影画像が1枚のカードであり、このカードをユーザがあたかもめくっている最中であるかのような動画像が、タッチスクリーン18に表示される。
また、アニメーション処理により、縮小率が変更されていくような画像、即ち、1枚のカード(撮影画像)をユーザがあたかもめくっているような様子を表現してもよい。
なお、このような、CPU23の処理は、後述する他のGUI操作についても同様に実行されるとする。即ち、以下では、その説明は省略するが、動きのある画像がタッチスクリーン18に表示される場合、動画像を生成する処理や、アニメーション処理が適宜なされているとする。
さらに、図3のDの表示状態のまま、一定距離以上のなぞり操作が行われると、図3のEに示されるように、タッチスクリーン18の表示状態は、撮影画像の付加情報が表示された状態に遷移する。以下、撮影画像の付加情報が表示された画像を、付加情報画像と称する。上述のごとく、タッチスクリーンに表示される撮影画像を1枚のカード(写真)に見立てると、そのカードの裏側を模した画像が、付加情報画像である。即ち、実世界においても、ユーザは、カード(写真)の裏側に、そのカードに関連する付加情報を書いておくことが多い。このことを模した画像が、付加情報画像である。よって、実世界のカードの裏側に書かれる付加情報が、ユーザによってまちまちな情報、即ち任意の情報でよいのと同様に、付加情報画像に含まれる付加情報は特に限定されず、任意の情報でよい。
図3のEの例の付加情報画像には、付加情報として、撮影日時61、ファイルサイズ62、画像解像度63、および位置情報64が含まれている。
位置情報64は、撮影画像が撮影された位置を示す情報である。位置情報64の表示形態は、特に限定されず、テキスト表示の形態でもよいが、図3に示されるように、地図表示の形態でもよい。
このような付加情報、即ち、撮影日時61、ファイルサイズ62、画像解像度63、位置情報64等は、撮影画像が撮像されたときの環境や記録の各種条件を示す情報であり、撮影画像のデータと対応付けられて記憶される情報である。よって、以下、これらの付加情報をまとめて、撮影条件情報と称する。
撮影条件情報は、撮影画像がカード(紙媒体の一面)に印刷された場合に、そのカードの裏側(紙媒体の裏面)にユーザが書き込める情報である。
換言すると、従来、撮影画像が紙媒体に印刷された後、その紙媒体の裏側に、これらの撮影条件情報が書き込まれていた。これに対して、本実施の形態では、紙媒体に印刷せずとも、撮影条件情報は、撮影画像と対応付けられた付加情報画像に含まれている。よって、ユーザは、撮像装置のタッチスクリーン18の上をなぞり操作するだけで、あたかもカード(撮影画像)を裏返してその裏側を見るのと同様な感覚で、付加情報画像をタッチスクリーン18に表示させて撮影条件情報を視認することができる。
ここで、付加情報画像がタッチスクリーン18に表示されるということは、ユーザは、付加情報画像に対して操作することが可能であることを意味している。
そこで、例えば、位置情報64に対して所定の操作がなされると、撮像装置が所定の機能を発揮するように、付加情報画像を生成することもできる。
例えば図3に示されるように、位置情報64が地図として表示されている場合、地図内の所定の場所を指定する操作がなされたとき、その指定場所に関する情報を周辺情報として記憶させる、といった機能を撮像装置に発揮させることもできる。また、表示範囲の移動操作がおこなわれたとき、付加情報画像に表示される地図の範囲を変更する、といった機能を撮像装置に発揮させることもできる。
さらに例えば、付加情報画像には、各種操作を行うためのシンボル(アイコンやソフトウエアボタン等)も含めることが可能である。具体的には例えば、図3の例では、ごみ箱アイコン65、プリンタアイコン66、およびサーバアイコン67が付加情報画像に含まれている。
ごみ箱アイコン65は、撮影画像を削除する機能を撮影装置に発揮させるためのアイコンである。即ち、ユーザは、ごみ箱アイコン65に対して指f1で所定の操作をすることで、付加情報画像に対応する撮影画像を削除することができる。
プリンタアイコン66は、撮影画像を印刷する機能を撮影装置に発揮させるためのアイコンである。即ち、ユーザは、プリンタアイコン66に対して指f1で所定の操作をすることで、付加情報画像に対応する撮影画像の印刷を実行することが可能となる。
サーバアイコン64は、ネットワーク上のサーバに、撮影画像をアップロードできる機能を撮影装置に発揮させるためのアイコンである。即ち、ユーザはサーバアイコン64に対して指f1で所定の操作をすることにより、付加情報画像に対応する撮影画像をネットワーク上のサーバにアップロードすることが可能となる。
なお、付加情報画像に表示されている情報は、撮影時に撮影画像に付随している情報でもよいし、ユーザが任意に入力した情報でもよい。
以上の図3のA乃至Eを用いた操作例、即ち本実施の形態の付加情報表示操作うちの第1の実施例の操作を行うことで、ユーザは、あたかも写真(本実施の形態における撮影画像としてのカードの表面)をめくり、その裏面にあるメモ(本実施の形態における付加情報としてのカードの裏面)を視認したのと同等の感情を抱くことができるようになる。
なお、なぞり操作の起点は、図3の例では上述の如く、タッチスクリーン18の右下の領域内とされた。もっとも、なぞり操作の起点は、図3の例に限定されない。例えば、タッチスクリーン18の四隅のうち1つの領域を、なぞり操作の起点の領域として採用することができる。
次に、図3のA乃至Eを用いた操作例、即ち本実施の形態の付加情報表示操作うちの第1の実施例の操作に対して、図1の撮像装置が実行する処理について説明する。なお、本実施の形態の付加情報表示操作に対して撮像装置が実行する処理を、以下、付加情報表示処理と称する。特に、本実施の形態の付加情報表示操作うちの第Kの実施例(Kは1以上の整数値)の操作に対する付加情報表示処理を、第K付加情報表示処理と称する。
図4は、第1付加情報表示処理の一例を説明するフローチャートである。
ここで、撮像装置の動作状態のうち、タッチスクリーン18に撮影画像が再生されている状態、即ち、撮影画像をユーザが視認できる状態を撮影画像再生状態と称する。この場合の前提事項として、撮像装置の動作状態が、撮影画像再生状態に遷移すると、第1付加情報表示処理が開始される。また、第1付加情報表示処理は、フローチャートに記載の流れで終了する他、撮像装置の動作状態が撮影画像再生状態から別の状態に遷移した場合、再生状態の撮影画像が別の画像に変化した場合にも強制終了する。なお、これらの前提事項は、後述する第2乃至第5付加情報表示処理においても同様にあてはまる。
ステップS1において、CPU23は、デジタル信号処理部15等を適宜制御して、再生状態の撮影画像に対応する付加情報画像を生成する。即ち、付加情報画像に含まれる付加情報が取得される。
なお、付加情報画像は、ステップS9の処理開始時点で生成されていれば足りる。即ち、付加情報画像の生成処理のタイミングは、ステップS1のタイミングである必要は特にない。
ステップS2において、CPU23は、タッチスクリーン18のいずれかの領域が接触されたか否かを判定する。
タッチスクリーン18のいずれの領域にも接触がなされない場合、ステップS2において、NOであると判定されて、処理はステップS2に戻さる。即ち、タッチスクリーン18のいずれかの領域に接触がなされるまでの間、ステップS2の判定処理が繰り返し実行される。
その後、タッチスクリーン18のいずれかの領域に接触がなされると、ステップS2においてYESであると判定されて、処理はステップS3に進む。
ステップS3において、CPU23は、接触場所が、タッチスクリーン18の四隅のいずれかの領域であるのか、そうでないのかを判定する。
例えば図3のAに示されるようにタッチスクリーン18のいずれかの領域に指f1が接触した場合、タッチスクリーン18を構成するタッチパネル16から座標信号がCPU23に入力される。
従って、この座標信号がCPU23に入力されると、CPU23は、ステップS2の処理でYESであると判定し、この座標信号から、接触場所(タッチスクリーン18の座標)を認識する。
認識された接触場所が、タッチスクリーン18の四隅以外の領域の場合、ステップS3においてNOであると判定されて、処理はステップS2に戻され、それ以降の処理が繰り返される。
これに対して、認識された接触場所が、タッチスクリーン18の四隅のいずれかの領域である場合、ステップS3においてYESであると判定されて、処理はステップS4に進む。
ステップS4において、CPU23は、タッチスクリーン18に付加情報呼び出し口51が表示されているか否かを判定する。
付加情報呼び出し口51が表示されていない場合、ステップS4においてNOであると判定され、処理はステップS10に進む。
ステップS10において、CPU23は、デジタル信号処理部15を制御して、タッチスクリーン18に付加情報呼び出し口51を表示させる。なお、付加情報呼び出し口51は、タッチスクリーン18の接触場所を含む領域、即ち、タッチスクリーン18の四隅のうちのいずれかの領域に表示される。例えば、図3のAに示されるように、タッチスクリーン18の四隅のうち、右下の領域に指f1が接触した場合、即ち、接触場所が右下の領域の場合、図3のBに示されるように、右下の領域に付加情報呼び出し口51が表示される。
その後、処理はステップS2に戻され、それ以降の処理が繰り返される。この場合、付
加情報呼び出し口51の上に指f1が接触され続けていると、ステップS2YES,S3Y
ES,S4YESの各処理でYESであると判定されて、処理はステップS5に進む。
ステップS5において、CPU23は、タッチスクリーン18に表示された付加情報呼び出し口51を起点に、なぞり操作が実施されたか否かを判定する。
例えば、図3のCの状態の場合、即ち、指f1が付加情報呼び出し口51に接触している状態の場合、タッチスクリーン18に対して略左方向のなぞり操作が実施されたか否かが判定される。
なお、なぞり操作が行われているか否かは、タッチスクリーン18を構成するタッチパネル16から座標信号をCPU23が監視することで実現できる。即ち、CPU23は、座標信号の時系列から、指f1の軌跡を認識することができる。そこで、CPU23は、その認識結果に基づいて、なぞり操作が実施されているか否かを検出する。
従って、CPU23は、指f1の軌跡の認識結果によりなぞり操作が検出されなかった場合、ステップS5でNOであると判定して、処理をステップS5に戻して、それ以降の処理を繰り返し実行する。即ち、なぞり操作が検出されるまでの間、ステップS5の判定処理が繰り返し実行される。
その後、CPU23は、指f1の軌跡の認識結果により、付加情報呼び出し口51を起点にしたなぞり操作を検出した場合、ステップS5でYESであると判定して、処理をステップS6に進める。
ステップS6において、CPU23は、なぞり操作に対応して、撮影画像がめくれた表示にする。具体的には例えば、図3のDに示されるように、CPU23は、デジタル信号処理部15を制御して、指f1の軌跡に従って撮影画像が水平方向へ縮小していく画像を生成し、タッチスクリーン18に表示させる。なお、アニメーション処理により、撮影画像がめくられていく様子を表現してもよい。その後、処理はステップS7に進む。
ステップS7において、CPU23は、指f1がタッチスクリーン18からリリースされたか否かを判定する。即ち、なぞり操作とは、指f1をタッチスクリーン18上に接触状態を保持したまま移動させる操作をいう。従って、ユーザが指f1をタッチスクリーン18からリリースすることは、なぞり操作の終了を意味している。また、CPU23は、タッチスクリーン18を構成するタッチパネル16から座標信号が入力されなくなった場合、指f1がリリースされたと判定することができる。
そこで、CPU23は、座標信号が入力され続けている限り、ステップS7においてNOであると判定して、処理をステップS7に戻す。即ち、なぞり操作が継続している限り、ステップS7のループ処理が繰り返し実行される。
その後、座標信号の入力が途切れると、即ち、なぞり操作が終了すると、ステップS7においてYESであると判定されて、処理はステップS8に進む。
ステップS8において、CPU23は、付加情報呼び出し口51からリリース位置までの距離が一定距離以上であるか否かを判定する。
付加情報呼び出し口51からリリース位置までの距離が一定距離以上である場合、ステップS8においてYESであると判定されて、処理はステップS9に進む。
ステップS9において、CPU23は、タッチスクリーン18に付加情報画像を表示させる。その結果、タッチスクリーン18の表示状態は、例えば図3のEの表示状態になる。これにより、第1付加情報表示処理は終了する。
これに対して、付加情報呼び出し口51からリリースした位置までの距離が一定距離未満である場合、ステップS8においてNOであると判定されて、処理はステップS11に進む。
ステップS11において、CPU23は、再生状態の撮影画像を再度表示させる。これにより、第1付加情報表示処理は終了する。
なお、図3のEの表示状態、即ち、タッチスクリーン18に付加情報画像が表示されている状態で、CPU23が第1付加情報表示処理と同様の処理を実行することで、タッチスクリーン18の表示を、付加情報画像から撮影画像に切り替えること、即ち、図3のAの表示状態に戻すこともできる。
以上、図3を参照して、本実施の形態の付加情報表示操作うち、第1の実施例について説明した。そして、図4のフローチャートを参照して、第1の実施例に対する第1付加情報表示処理の一例について説明した。
次に、図5を参照して、本実施の形態の付加情報表示操作のうち、第2の実施例について説明する。そして、図6のフローチャートを参照して、第2の実施例に対する第2付加情報表示処理の一例について説明する。
図5のAは、タッチスクリーン18に任意の撮影画像が表示されている状態を示している。
図5のAの状態で、ユーザの指f1によって、タッチスクリーン18に再生された撮影画像の左側の領域が接触されると、タッチスクリーン18の表示は、図3のBの状態に遷移する。即ち、図3のBに示されるように、撮影画像の垂直方向の中心線を軸として、接触された領域が奥に回転するかのような画像が、タッチスクリーン18に表示される。
なお、CPU23が、ユーザの指f1による接触を検出するまでの時間は、特に限定されないが、ユーザによる誤操作を防止すべく、一定時間以上にすると好適である
図3のBの表示状態のままで指f1の接触が継続すると、タッチスクリーン18の表示状態は、図5のBの表示状態から図5のCの表示状態に遷移する。即ちタッチスクリーン18には、付加情報表示画像が表示される。
なお、図5においては指f1の接触領域は左側の領域として説明したが、右側の領域としてもよい。この場合、図5のBにおける表示形態とは逆方向に回転したような表示がなされる。
さらに言えば、指f1の接触領域は、特に限定されず、その他、タッチスクリーン18の上側または下側であっても構わない。この場合、図示はしないが、撮影画像の水平方向の中心線を軸として、接触された領域が奥に回転するかのような画像が、タッチスクリーン18に表示される。
図6は、図5を用いて説明した付加情報表示操作の第2の実施例に対する付加情報表示処理、即ち第2付加情報表示処理の一例を説明するフローチャートである。
ステップS21において、CPU23は、デジタル信号処理部15等を適宜制御して、再生状態の撮影画像に対応する付加情報画像を生成する。即ち、付加情報画像に含まれる付加情報が取得される。
なお、付加情報画像は、ステップS25の処理開始時点で生成されていれば足りる。即ち、付加情報画像の生成処理のタイミングは、ステップS21のタイミングである必要は特にない。
ステップS22において、CPU23は、タッチスクリーン18に一定時間指f1が接触しているか否かを判定する。
即ち、ユーザの指f1によって、タッチスクリーン18のいずれかの領域が接触された場合、タッチスクリーン18を構成するタッチパネル16から座標信号がCPU23に入力される。
よって、座標信号がCPU23に入力されない場合、ステップS22においてNOであると判定されて、処理はステップS22に戻される。また、座標信号が入力された場合であっても、一定時間経過していない場合には、ステップS22においてNOであると判定されて、処理はステップS22に戻される。即ち、座標信号が一定時間入力され続けない限り、ステップS22の判定処理が繰り返される。
その後、座標信号が一定時間継続して入力され続けた場合、ステップS22においてYESであると判定されて、処理はステップS23に進む。
ステップS23において、CPU23は、接触領域が、タッチスクリーン18の右側または左側のいずれかの領域であるのか、そうでないかのかを判定する。なお、右側あるいは左側の領域は、任意の幅を持って設定されている領域である。
接触領域が、右側または左側のいずれかの領域ではない、即ち別の領域であった場合、ステップS23においてNOであると判定されて、処理はステップS22に戻されそれ以降の処理が繰り返される。
これに対して、接触領域が、右側または左側のいずれかの領域であった場合、ステップS23においてYESであると判定されて、処理はステップS24に進む。
なお、上述の如く、ステップS23の処理でYESであると判定される接触領域は、図6の例、即ち、左側または右側の領域である必要は特になく、任意の領域で構わない。ただし、後述するステップS24の処理で撮影画像の回転表示を行った場合、ユーザに違和感を与えない領域であると好適である。そういった意味で、右側または左側の領域以外では、上側または下側の領域を採用すると好適である。
ステップS24において、CPU23は、撮影画像の回転表示を行う。具体的には例えば、図5のBに示されるように、CPU23は、デジタル信号処理部15を制御して、接触され続けた領域が奥に回転していくような動画像を生成し、タッチパネル18に表示させる。回転表示が終了すると、処理はステップS25に進む。
ステップS25において、CPU23は、タッチスクリーン18に付加情報画像を表示させる。その結果、タッチスクリーン18の表示状態は、例えば図5のCの表示状態になる。これにより、第2付加情報表示処理は終了する。
なお、図5のCの表示状態、即ち、タッチスクリーン18に付加情報画像が表示されている状態で、CPU23が第2付加情報表示処理と同様の処理を実行することで、タッチスクリーン18の表示を、付加情報画像から撮影画像に切り替えること、即ち、図5のAの表示状態に戻すこともできる。
以上、図5を参照して、本実施の形態の付加情報表示操作うち、第2の実施例について説明した。そして、図6のフローチャートを参照して、第2の実施例に対する第2付加情報表示処理の一例について説明した。
次に、図7を参照して、本実施の形態の付加情報表示操作のうち、第3の実施例について説明する。そして、図8のフローチャートを参照して、第3の実施例に対する第3付加情報表示処理の一例について説明する。
上述した第1,第2の実施例において、CPU23は、撮像装置の後面に配置されたタッチスクリーン18を構成するタッチパネル16から入力された座標信号により、指f1が接触されたか否かを判定していた。
これに対して、第3の実施例においては、CPU23は、撮像装置の前面に配置されているタッチパネル28から入力された座標信号により、指f1が接触されたか否かを判定する。
図7のAは、ユーザが撮像装置を両手で保持し、かつ、タッチスクリーン18に任意の撮影画像が表示されている状態を示している。
図7のBは、図7のAの状態のときの、撮像装置の前面側の外観構成例を示している。第3の実施例においては、ユーザは、撮像装置の後面側に親指を配置し、その前面側に親指以外の4本の指を配置し、親指とそれ以外の4本の指で挟み込むように撮像装置を保持して、操作することを前提としている。
図7のBにおいて、ユーザは、タッチパネル28に指f3で接触する。CPU23が、ユーザの指f1による接触を検出するまでの時間は、特に限定されない。ただし、以下では、タッチパネル28による座標信号が入力されると直ちに、CPU23は指f1の接触を検出するとして説明を行う。
また、タッチパネル28に接触する指としては、図7のBに示される指f3に限定されない。即ち、親指以外であればいずれの指でもタッチパネル28に接触する可能性がある。ただし、以下では、説明の簡略上、指f3がタッチパネル28に接触するとして説明していく。
なお、タッチパネル28の配置について、図2や図7の例では撮像装置前面の中心付近としたが、特に中心付近でなくてもよい。また、タッチパネル28は、撮像装置側面に配置してもよい。ただし、上述したように、ユーザが撮像装置を図7のA,Bに示すように保持することが想定されている場合、誤操作を抑制すべく、タッチパネル28の配置場所は図7のBに示す場所が好適である。即ち、撮像装置を保持した状態では、ユーザの何れの指も容易に触れない場所、即ち、ユーザの両手の中間の場所にタッチパネル28を配置すると好適である。
指f3がタッチパネル28接触すると、タッチスクリーン18の表示状態は、図7のAの表示状態から図7のCの表示状態に遷移する。即ち、タッチスクリーン18に、付加情報画像が表示される。
図8は、図7を用いて説明した付加情報表示操作の第3の実施例に対する付加情報表示処理、即ち第3付加情報表示処理の一例を説明するフローチャートである。
ステップS31において、CPU23は、デジタル信号処理部15等を適宜制御して、再生状態の撮影画像に対応する付加情報画像を生成する。即ち、付加情報画像に含まれる付加情報が取得される。
なお、付加情報画像は、ステップS33の処理開始時点で生成されていれば足りる。即ち、付加情報画像の生成処理のタイミングは、ステップS31のタイミングである必要は特にない。
ステップS32において、CPU23は、撮像装置の前面側のタッチパネル28に指f1が接触したか否かを判定する。
即ち、ユーザの指f3によって、タッチスパネル28のいずれかの領域が接触された場合、タッチパネル28から座標信号がCPU23に入力される。
よって、座標信号がCPU23に入力されない場合、ステップS32においてNOであると判定されて、処理はステップS32に戻される。即ち、座標信号が入力されない限り、ステップS32の判定処理が繰り返される。
その後、座標信号が入力された場合、ステップS32においてYESであると判定されて、処理はステップS33に進む。
ステップS33において、CPU23は、タッチスクリーン18に付加情報画像を表示させる。その結果、タッチスクリーン18の表示状態は、例えば図7のCの表示状態になる。これにより、第3付加情報表示処理は終了する。
なお、図7のCの表示状態、即ち、タッチスクリーン18に付加情報画像が表示されている状態で、CPU23が第3付加情報表示処理と同様の処理を実行することで、タッチスクリーン18の表示を、付加情報画像から撮影画像に切り替えること、即ち、図7のAの表示状態に戻すこともできる。
以上、図7を参照して、本実施の形態の付加情報表示操作うち、第3の実施例について説明した。そして、図8のフローチャートを参照して、第3の実施例に対する第3付加情報表示処理の一例について説明した。
次に、図9を参照して、本実施の形態の付加情報表示操作のうち、第4の実施例について説明する。そして、図10のフローチャートを参照して、第4の実施例に対する第4付加情報表示処理の一例について説明する。
上述した第1乃至第3の実施例は、撮像装置の後面に配置されたタッチスクリーン18、もしくは撮像装置の前面に配置されたタッチパネル28を用いる付加情報表示操作の例であった。具体的には、ユーザが指f1または指f3をタッチスクリーン18またはタッチパネル28に接触させることにより付加情報画像を表示させるという付加情報表示操作の例が、第1乃至第3の実施例であった。
これに対して、第4の実施例は、撮像装置に内蔵されたジャイロセンサを用いて付加情報画像を表示させるという付加情報表示操作の一例である。ジャイロセンサは、撮像装置の傾きを示す情報、例えば速度、角度、角速度、加速度、磁気を検出することができる。なお、以下、ジャイロセンサの検出情報をまとめて、傾き情報と称する。
以下、ジャイロセンサを内蔵した撮像装置を特にジャイロセンサ付撮像装置と称する。本実施の形態では図示はしないが、ジャイロセンサ付撮像装置は、基本的には図1の例の構成に対して、ジャイロセンサがCPU23に接続された構成を有しているとする。もっとも、ジャイロセンサ付撮像装置にとっては、タッチパネル16,28は必須な構成要素ではない。
図9のAは、ユーザが、ジャイロセンサ付撮像装置を、水平方向または垂直方向に回転させる様子を示している。撮像装置のタッチスクリーン18には、任意の撮影画像が表示されている。
図9のAに示されるように、ユーザは、ジャイロセンサ付撮像装置を水平方向または垂直方向に360度回転させる回転操作を行う。この回転操作により、タッチスクリーン18の表示状態は、図9のBに示される表示状態に遷移する。即ち、タッチスクリーン18に付加情報画像が表示される。
また、図9のBの表示状態、即ち、タッチスクリーン18に付加情報画像が表示されている状態で、ユーザは、ジャイロセンサ付撮像装置を水平方向または垂直方向に360度回転させる回転操作を行うことができる。この回転操作により、タッチスクリーン18の表示が、付加情報画像から撮影画像に切り替わる。
即ち、ジャイロセンサ付撮像装置を水平方向または垂直方向に360度回転させる回転操作により、タッチスクリーン18の表示が、付加情報画像と撮影画像とのうち、一方から他方に切り替わる。
図10は、図9を用いて説明した付加情報表示操作の第4の実施例に対する付加情報表示処理、即ち第4付加情報表示処理の一例を説明するフローチャートである。
ステップS51において、CPU23は、デジタル信号処理部15等を適宜制御して、再生状態の撮影画像に対応する付加情報画像を生成する。即ち、付加情報画像に含まれる付加情報が取得される。
なお、付加情報画像は、ステップS55の処理開始時点で生成されていれば足りる。即ち、付加情報画像の生成処理のタイミングは、ステップS51のタイミングである必要は特にない。
ステップS52において、CPU23は、ジャイロセンサ付撮像装置の傾きを検出したか否かを判定する。
即ち、ジャイロセンサ付撮像装置が傾けられた場合、ジャイロセンサから傾き情報がCPU23に入力される。
従って、ジャイロセンサから傾き情報が入力されない限り、ステップS52において、NOであると判定されて、処理はステップS52に戻さる。即ち、ジャイロセンサから傾き情報が入力されるまでの間、ステップS52の判定処理が繰り返し実行される。
その後、ジャイロセンサから傾き情報が入力されると、ステップS52においてYESであると判定されて、処理はステップS53に進む。
ステップS53において、CPU23は、ジャイロセンサ付撮像装置が、元の状態から水平方向または垂直方向に360度の回転を行ったか否かを判定する。ここで、元の状態とは、ユーザによって傾けられる前のジャイロセンサ付撮像装置の姿勢状態を意味している。即ち、ユーザがタッチスクリーン18(撮像装置の裏面)と対向するように撮像装置を保持している場合における撮像装置の姿勢状態が、元の状態である。
ジャイロセンサ付撮像装置が回転中の場合、ジャイロセンサ付撮像装置の回転角度は360度未満となる。よって、このような場合、ステップS53においてNOであると判定されて、処理はステップS57に進む。
ステップS57において、CPU23は、ジャイロセンサ付撮像装置の傾きを検出してから、一定時間経過したか否かを判定する。
一定時間経過した場合、ステップS57においてYESと判定され、第4付加情報表示処理は終了となる。
即ち、ユーザは、通常数秒程度で、ジャイロセンサ付撮像装置を360度回転させることができるはずである。そこで、例えば10秒程度の一定時間が経過しても、ジャイロセンサ付撮像装置が360度回転されなかった場合、ユーザは回転操作をする意思がないとして、CPU23は、第4付加情報表示処理を終了させるのである。
よって、一定時間が経過していない場合、ユーザは回転操作をする意思がまだあるとして、ステップS57においてNOであると判定されて、処理はステップS52に戻される。
即ち、一定時間が経過しない限り、ユーザによってジャイロセンサ付撮像装置が水平方向または垂直方向に360度回転させられている最中は、ステップS52YES,S53NO,S57NOのループ処理が繰り返し実行される。
その後、一定時間経過前に、ジャイロセンサ付撮像装置が360度回転すると、ステップS53においてYESであると判定されて、処理はステップS54に進む。
ステップS54において、CPU23は、タッチスクリーン18の表示内容は撮影画像であるか否かを判定する。
タッチスクリーン18の表示内容が撮影画像であった場合、ステップS54においてYESであると判定されて、処理はステップS55に進む。ステップS55において、CPU23は、デジタル信号処理部15を制御してタッチスクリーン18に付加情報画像を表示させる。即ち、ジャイロセンサ付撮像装置を水平方向または垂直方向に360度回転させる回転操作により、タッチスクリーン18の表示が、撮影画像から付加情報画像に切り替わる。これにより、第4付加情報表示処理は終了となる。なお、その後、第4付加情報表示処理が再開されることで、後述するステップS56の処理により、タッチスクリーン18の表示が、付加情報画像から撮影画像に切り替わる。
これに対して、タッチスクリーン18の表示内容が、撮影画像でなかった場合、即ち、付加情報画像であった場合、ステップS54においてNOであると判定されて、処理はステップS56に進む。ステップS56において、CPU23は、デジタル信号処理部15を制御してタッチスクリーン18に撮影画像を表示させる。即ち、ジャイロセンサ付撮像装置を水平方向または垂直方向に360度回転させる回転操作により、タッチスクリーン18の表示が、付加情報画像から撮影画像に切り替わる。これにより、第4付加情報表示処理は終了となる。なお、その後、第4付加情報表示処理が再開されることで、上述のステップS55の処理により、タッチスクリーン18の表示が、撮影画像から付加情報画像に切り替わる。
以上、図9を参照して、本実施の形態の付加情報表示操作うち、第4の実施例について説明した。そして、図10のフローチャートを参照して、第4の実施例に対する第4付加情報表示処理の一例について説明した。
次に、図11を参照して、本実施の形態の付加情報表示操作のうち、第5の実施例について説明する。そして、図12のフローチャートを参照して、第5の実施例に対する第5付加情報表示処理の一例について説明する。
第5の実施例は、第4の実施例と同様に、撮像装置としてはジャイロセンサ付撮像装置が採用されている。即ち、ジャイロセンサにより撮像装置の傾きを検出し、その検出結果に基づいて付加情報画像を表示させる例であって、第4の実施例とは異なる例が第5の実施例である。
即ち、第4の実施例は、ジャイロセンサ付撮像装置を360度回転させる回転操作によって付加情報画像を表示させる例であった。これに対して、第5の実施例は、ジャイロセンサ付撮像装置を180度または90度回転させる回転操作を行い、その後さらに、ジャイロセンサ付撮像装置を逆方向に180度または90度回転させる回転操作、即ち、ジャイロセンサ付撮像装置を元の状態に戻す操作を行うことにより、付加情報画像を表示させる例である。
図11のAは、タッチスクリーン18に、任意の撮影画像が表示されている状態を示している。
図11のBの左側の図は、ユーザがジャイロセンサ付撮像装置を図11のAの状態から180度回転させた後の状態を示している。
ジャイロセンサ付撮像装置の配置状態を、図11のBの左側の図の状態から、図11のAの状態に再度戻すことにより、タッチスクリーン18の表示状態は、図11のAの表示状態から、図11のCの表示状態に遷移する。即ち、タッチスクリーン18に付加情報画像が表示される。
また、図11のBの右側の図は、ユーザがジャイロセンサ付撮像装置を図11のAの状態から90度回転させた後の状態を示している。
ジャイロセンサ付撮像装置の配置状態を、図11のBの右側の図の状態から、図11のAの状態に再度戻すことにより、タッチスクリーン18の表示状態は、図11のAの表示状態から、図11のCの表示状態に遷移する。即ち、タッチスクリーン18に付加情報画像が表示される。
第5の実施例についても第4の実施例と同様に、タッチスクリーン18の表示状態が図11のBの状態であった場合、即ち付加情報画像が表示されていた場合、ユーザは、同様の回転操作、即ち、180度または90度の回転操作の後、逆方向の180度または90度の回転操作をすることもできる。これにより、タッチスクリーン18の表示状態は、図11のCの表示状態から、図11のAの表示状態に遷移する。即ち、タッチスクリーン18に撮影画像が表示される。
図10は、図9を用いて説明した付加情報表示操作の第4の実施例に対する付加情報表示処理、即ち第4付加情報表示処理の一例を説明するフローチャートである。
ステップS71において、CPU23は、デジタル信号処理部15等を適宜制御して、再生状態の撮影画像に対応する付加情報画像を生成する。即ち、付加情報画像に含まれる付加情報が取得される。
なお、付加情報画像は、ステップS76の処理開始時点で生成されていれば足りる。即ち、付加情報画像の生成処理のタイミングは、ステップS71のタイミングである必要は特にない。
ステップS72において、CPU23は、ジャイロセンサ付撮像装置の傾きを検出したか否かを判定する。
即ち、ジャイロセンサ付撮像装置が傾けられた場合、ジャイロセンサから傾き情報がCPU23に入力される。
従って、ジャイロセンサから傾き情報が入力されない限り、ステップS72において、NOであると判定されて、処理はステップS72に戻さる。即ち、ジャイロセンサから傾き情報が入力されるまでの間、ステップS72の判定処理が繰り返し実行される。
その後、ジャイロセンサから傾き情報が入力されると、ステップS72においてYESであると判定されて、処理はステップS73に進む。
ステップS73において、CPU23は、ジャイロセンサ付撮像装置が、元の状態から水平方向または垂直方向に180度または90度の回転を行ったか否かを判定する。ここで、元の状態とは、ユーザによって傾けられる前のジャイロセンサ付撮像装置の姿勢状態を意味している。即ち、ユーザがタッチスクリーン18(撮像装置の裏面)と対向するように撮像装置を保持している場合における撮像装置の姿勢状態が、元の状態である。
ジャイロセンサ付撮像装置が回転中の場合、図10の第4付加情報表示処理と同様に、ステップS73においてNOであると判定されて、処理はステップS78に進む。
ステップS78において、CPU23は、ジャイロセンサ付撮像装置の傾きを検出してから、一定時間経過したか否かを判定する。
一定時間経過した場合、ステップS78においてYESと判定され、第5付加情報表示処理は終了となる。
即ち、ユーザは、通常数秒程度で、ジャイロセンサ付撮像装置を回転させることができるはずである。そこで、例えば10秒程度の一定時間が経過しても、ジャイロセンサ付撮像装置が回転されなかった場合、ユーザは回転操作をする意思がないとして、CPU23は、第5付加情報表示処理を終了させるのである。
よって、一定時間が経過していない場合、ユーザは回転操作をする意思がまだあるとして、ステップS78においてNOであると判定されて、処理はステップS72に戻される。
即ち、一定時間が経過しない限り、ユーザによってジャイロセンサ付撮像装置が回転中であると、ステップS72YES,S73NO,S78NOのループ処理が繰り返し実行される。
その後、一定時間経過前に、ジャイロセンサ付撮像装置が180度または90度回転すると、ステップS73においてYESであると判定されて、処理はステップS74に進む。
第5付加情報表示操作によれば、この後、ユーザは、元の状態に戻す操作、即ち、ジャイロセンサ付撮像装置を180度または90度だけ逆回転させる回転操作(以下、逆回転操作と称する)を行うはずである。
そこで、ステップS74において、CPU23は、元の状態に戻したか否かを判定する。即ち、ステップS74において、CPU23は、ジャイロセンサ付撮像装置が、水平方向または垂直方向に180度または90度の逆回転を行ったか否かを判定する。
ジャイロセンサ付撮像装置が逆回転中の場合、ステップS73の判定処理と同様に、ステップS74においてNOであると判定されて、処理はステップS78に進む。
ステップS78において、CPU23は、ジャイロセンサ付撮像装置の傾きを検出してから、一定時間経過したか否かを判定する。
一定時間経過した場合、ステップS78においてYESと判定され、第5付加情報表示処理は終了となる。
これに対して、一定時間が経過していない場合、ユーザは逆回転操作をする意思がまだあるとして、ステップS78においてNOであると判定されて、処理はステップS72に戻される。
即ち、一定時間が経過しない限り、ユーザによってジャイロセンサ付撮像装置が逆回転中であると、ステップS72YES,S73YES,S74NO,S78NOのループ処理が繰り返し実行される。
その後、一定時間経過前に、ジャイロセンサ付撮像装置が180度または90度だけ逆回転すると、ステップS74においてYESであると判定されて、処理はステップS75に進む。
ステップS75において、CPU23は、タッチスクリーン18の表示内容は撮影画像であるか否かを判定する。
タッチスクリーン18の表示内容が撮影画像であった場合、ステップS75においてYESであると判定されて、処理はステップS76に進む。ステップS76において、CPU23は、デジタル信号処理部15を制御してタッチスクリーン18に付加情報画像を表示させる。即ち、ジャイロセンサ付撮像装置を水平方向または垂直方向に180度または90度だけ回転させる回転操作とその逆回転操作により、タッチスクリーン18の表示が、撮影画像から付加情報画像に切り替わる。これにより、第5付加情報表示処理は終了となる。なお、その後、第5付加情報表示処理が再開されることで、後述するステップS77の処理により、タッチスクリーン18の表示が、付加情報画像から撮影画像に切り替わる。
これに対して、タッチスクリーン18の表示内容が、撮影画像でなかった場合、即ち、付加情報画像であった場合、ステップS75においてNOであると判定されて、処理はステップS77に進む。ステップS77において、CPU23は、デジタル信号処理部15を制御してタッチスクリーン18に撮影画像を表示させる。即ち、ジャイロセンサ付撮像装置を水平方向または垂直方向に180度または90度だけ回転させる回転操作とその逆回転操作により、タッチスクリーン18の表示が、付加情報画像から撮影画像に切り替わる。これにより、第5付加情報表示処理は終了となる。なお、その後、第5付加情報表示処理が再開されることで、上述のステップS576の処理により、タッチスクリーン18の表示が、撮影画像から付加情報画像に切り替わる。
以上、付加情報表示操作の第1乃至第5の実施例として、撮影画像に対する付加情報画像をタッチスクリーン18に表示させる例について説明した。第1乃至第5の実施例は、撮影画像と付加情報画像が1対1で対応していることを前提としている。即ち、実世界のカードを模擬した例が第1乃至第5の実施例であったため、撮影画像と付加情報画像が、表裏一体となって存在しているという前提事項があった。
しかしながら、ひとつの撮影画像に対して複数の付加情報画像や関連画像が存在する場合も想定される。よって、ユーザは、ひとつの撮影画像に対して複数の付加情報や関連画像を表示させる操作をすることもできると好適である。以下、かかる操作を、付加情報等表示操作と称する。
以下、図13を参照して、付加情報等表示操作の一例について説明する。なお、図13の例の付加情報等表示操作の基本的な操作は、第2、第4、および第5の実施例における付加情報表示操作と同様の操作が採用されているとして説明する。
図13のAは、タッチスクリーン18に、任意の撮影画像が表示されている状態を示している。
図13のBは、図13のAの表示状態でタッチスクリーン18に対して仮想的な左回り回転操作がなされたことにより、タッチスクリーン18の表示状態が、複数の付加情報画像のうちのひとつである第1付加情報画像が表示されている状態に遷移した様子を示している。
ここで、仮想的な左回り回転操作とは、撮影画像を左回りにあたかも回転させるための操作であって、第2、第4、および第5の実施例の操作を総称したものである。
即ち、第2の実施例においては、ユーザが、指f1でタッチスクリーン18の左側の領域を一定時間接触し続ける操作が、仮想的な左回り回転操作である。
また、第4の実施例においては、ユーザが撮像装置を水平方向の左回りに360度回転させる回転操作が、仮想的な左回り回転操作である。
また、第5の実施例においては、ユーザが撮像装置を水平方向の左回りに180度または90度回転させた後、右回りに180度または90度逆回転させて、撮像装置を元の状態に戻す操作が、仮想的な左回り回転操作である。
図13のCは、図13のBの表示状態でさらにタッチスクリーン18に対して仮想的な左回り回転操作がなされたことにより、タッチスクリーン18の表示状態が、第1付加情報画像とは別の第2付加情報画像が表示されている状態に遷移した様子を示している。
図13のDは、図13のAの表示状態でタッチスクリーン18に対して仮想的な右回り回転操作がなされたことにより、タッチスクリーン18の表示状態が、複数の関連画像のうちのひとつである第1関連画像が表示されている状態に遷移した様子を示している。
ここで、仮想的な右回り回転操作とは、撮影画像を右回りにあたかも回転させるための操作であって、第2、第4、および第5の実施例の操作を総称したものである。
即ち、第2の実施例においては、ユーザが、指f1でタッチスクリーン18の右側の領域を一定時間接触し続ける操作が、仮想的な右回り回転操作である。
また、第4の実施例においては、ユーザが撮像装置を水平方向の右回りに360度回転させる回転操作が、仮想的な右回り回転操作である。
また、第5の実施例においては、ユーザが撮像装置を水平方向の右回りに180度または90度回転させた後、左回りに180度または90度逆回転させて、撮像装置を元の状態に戻す操作が、仮想的な右回り回転操作である。
図13のEは、図13のDの表示状態でさらにタッチスクリーン18に対して仮想的な右回り回転操作がなされたことにより、タッチスクリーン18の表示状態が、第1関連画像とは別の第2関連画像が表示されている状態に遷移した様子を示している。
なお、図13のA乃至Eに示した付加情報等表示操作は、水平方向の回転操作に特に限定されず、その他垂直方向の回転操作を採用してもよい。この場合、図13のAの撮影画像に対して、水平方向の中心を軸にして仮想的に上回りまたは下回り操作がなされて、タッチスクリーン18の表示状態が、各種の付加情報や関連画像が表示されている状態に遷移する。
また、図13の例では、左回りまたは上回りさせる操作によって付加情報画像を表示し、右回りまたは下回りさせる操作によって関連画像を表示させるとした。しかしながら、各操作によって表示する画像は、上記の例に限定されないことは言うまでもない。
ところで、上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることができる。
この場合、上述した一連の処理は、図1の撮像装置が実行してもよいことは勿論のこと、その他例えば、図14に示されるパーソナルコンピュータが実行してもよい。
図14において、CPU101は、ROM(Read Only Memory)102に記録されているプログラム、または記憶部108からRAM(Random Access Memory)103にロードされたプログラムに従って各種の処理を実行する。RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU101、ROM102、およびRAM103は、バス104を介して相互に接続されている。このバス104にはまた、入出力インタフェース105も接続されている。
入出力インタフェース105には、キーボード、マウスなどよりなる入力部106、出力部107、ハードディスクなどより構成される記憶部108、モデムおよびターミナルアダプタなどより構成される通信部109が接続されている。通信部109は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
入出力インタフェース105にはまた、必要に応じてドライブ110が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブルメディア111が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部108にインストールされる。
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
このようなプログラムを含む記録媒体は、図1または図14に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア(パッケージメディア)111(図14)により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されている図1のプログラムROM26、図14のROM102、記憶部108に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、以上、本発明が適用された情報処理装置により表示が制御される表示装置として、液晶表示パネル17といった液晶表示装置について説明してきた。ただし、本発明は、液晶表示パネルのみならず、次のような表示装置にも適用可能である。即ち、動画像を構成するフレームやフィールドといった単位(以下、かかる単位をコマと称する)毎に表示が指示される表示装置であって、所定時間の間、1コマを構成する複数の画素が表示素子により構成されており、それら表示素子のうちの少なくとも一部の表示を保持させることができる表示装置に適用できる。なお、以下、かかる表示素子をホールド型表示素子と称し、かかるホールド型表示素子により画面が構成される表示装置を、ホールド型表示装置と称する。即ち、液晶表示装置はホールド型表示装置の例示にしか過ぎず、本発明は、ホールド型表示装置全体に適用可能である。
さらに、本発明は、ホールド型表示装置のみならず、例えば、発光素子として有機EL(Electro Luminescent)デバイスを用いた平面自発光型の表示装置等にも適用可能である。即ち、本発明は、画像が複数の画素から構成され、その画素を表示する表示素子を含む表示装置全体に適用可能である。なお、かかる表示装置を、画素型表示装置と称する。ここで、画素型表示装置において、1つの画素に1つの表示素子が必ずしも対応付けられている必要は特に無い。
換言すると、本発明適用された情報処理装置により表示が制御される表示装置は、上述した一連の処理を実行可能とする表示装置であれば足りる。
11 レンズ部, 12 撮像素子, 13 アナログ信号処理部, 14 A/D変換部, 15 デジタル信号処理部, 16 タッチパネル, 17 液晶パネル, 18 タッチスクリーン, 19 記録デバイス, 20 アクチュエータ, 21 モータドライブ, 22 TG, 23 CPU, 24 操作部, 25 EEPROM, 26 プログラムROM, 27 RAM, 28 タッチパネル, 41 ズームレバー, 42 シャッタボタン, 43 再生ボタン, 44 パワーボタン, 45 撮影レンズ, 46 AFイルミネータ, 47 レンズカバー, 61 位置情報表示, 62 ごみ箱アイコン, 63 プリンタアイコン, 64 サーバアイコン, 101 CPU, 102 ROM, 103 RAM, 108 記憶部, 111 リムーバブルメディア

Claims (10)

  1. 画像を表示する表示部と、
    前記表示部に対するユーザの操作を受付ける操作入力受付部と、
    所定の操作が前記操作入力受付部により受付けられた場合に、前記表示部の表示状態を前記画像が表示されている第1の表示状態と、前記画像に関連する付加情報を1以上含む付加情報画像が表示されている第2の表示状態とのうち一方から他方の状態へ遷移させる表示制御を行う表示制御部と
    を備え、
    前記表示制御部は、前記表示制御として、前記第1の表示状態で、前記ユーザが指を前記操作入力受付部に接触させたまま所定距離だけ動かす操作をなぞり操作として、前記なぞり操作を検出した場合に、前記表示部の表示状態を前記なぞり操作の方向に応じて遷移させるとともに、前記表示部の表示状態を遷移させるときに、前記なぞり操作における前記指の軌跡に従って前記画像の縮小率を変更させながら前記表示部に縮小された前記画像を表示させる制御を行う
    情報処理装置。
  2. 前記第1の表示状態は、前記画像がカードの表面として表示された状態であり、
    前記第2の表示状態は、前記付加情報画像が前記カードの裏面に表示された状態である
    請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記表示制御として、前記第1の表示状態で、前記操作入力受付部が前記ユーザの前記指を接触させる操作を検出した場合、さらに、前記付加情報を呼び出すための画像として付加情報呼び出し口を前記接触位置に対応した箇所に表示させ、
    前記付加情報呼び出し口を起点とする前記なぞり操作を検出した場合に、前記表示部の表示状態を遷移させる制御を行う
    請求項1に記載の情報処理装置。
  4. 前記表示制御部は、前記表示制御として、
    前記第1の表示状態で、前記操作入力受付部が所定領域に対してユーザが指を接触させる操作が一定時間以上継続していることを検出した場合、前記表示部の表示状態を遷移させる制御を行う
    請求項1に記載の情報処理装置。
  5. 前記情報処理装置の面のうち、第1の面に前記表示部および前記操作入力部が配置され、
    前記第1の面と対向する第2の面に配置されるタッチパネルを含むタッチパネル部をさらに備え、
    前記表示制御部は、前記表示制御として、
    前記タッチパネル部の所定領域に対してユーザが指を接触させる操作を検出した場合、前記表示部の表示状態を遷移させる制御を行う
    請求項1に記載の情報処理装置。
  6. 前記情報処理装置の傾きを検出する検出部をさらに備え、
    前記表示制御部は、前記表示制御として、
    前記検出部の検出結果に基づいて、前記ユーザが前記情報処理装置を360度回転させる操作を検出した場合、前記表示部の表示状態を遷移させる制御を行う
    請求項1に記載の情報処理装置。
  7. 前記情報処理装置の傾きを検出する検出部をさらに備え、
    前記表示制御部は、前記表示制御として、
    前記検出部の検出結果に基づいて、前記ユーザが前記情報処理装置を180度または90度回転させる第1の操作と、前記第1の操作後に前記情報処理装置を逆方向に180度または90度回転させる第2の操作とを検出した場合、前記表示部の表示状態を遷移させる制御を行う
    請求項1に記載の情報処理装置。
  8. 前記表示制御部は、
    前記表示部の表示状態が第1の表示状態である場合、前記所定の操作を検出する前に予め、前記付加情報画像に含める前記付加情報を取得する
    請求項1に記載の情報処理装置。
  9. 表示部と操作入力受付部とを備える情報処理装置が、
    前記表示部の表示状態として、
    画像が前記表示部に表示されている第1の表示状態と、
    前記画像に関連する付加情報を1以上含む付加情報画像が前記表示部に表示されている第2の表示状態とが存在する場合、
    前記第1の表示状態で、ユーザが指を前記操作入力受付部に接触させたまま所定距離だけ動かす操作をなぞり操作として、前記なぞり操作を検出した場合、前記表示部の表示状態を前記なぞり操作の方向に応じて、前記第1の表示状態から前記第2の表示状態へ遷移させるとともに、前記表示部の表示状態を遷移させるときに、前記なぞり操作における前記指の軌跡に従って前記画像の縮小率を変更させながら前記表示部に縮小された前記画像を表示させる表示制御を行う
    ステップを含む情報処理方法。
  10. 表示部と操作入力受付部とを備える情報処理装置を制御するコンピュータが、
    前記表示部の表示状態として、
    画像が前記表示部に表示されている第1の表示状態と、
    前記画像に関連する付加情報を1以上含む付加情報画像が前記表示部に表示されている第2の表示状態とが存在する場合、
    前記第1の表示状態で、ユーザが指を前記操作入力受付部に接触させたまま所定距離だけ動かす操作をなぞり操作として、前記なぞり操作を検出した場合、前記表示部の表示状態を前記なぞり操作の方向に応じて、前記第1の表示状態から前記第2の表示状態へ遷移させるとともに、前記表示部の表示状態を遷移させるときに、前記なぞり操作における前記指の軌跡に従って前記画像の縮小率を変更させながら前記表示部に縮小された前記画像を表示させる表示制御を行う
    ステップを含む制御処理を実行するプログラム。
JP2009134665A 2008-07-31 2009-06-04 情報処理装置および方法、並びにプログラム Expired - Fee Related JP5219929B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009134665A JP5219929B2 (ja) 2008-07-31 2009-06-04 情報処理装置および方法、並びにプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008197215 2008-07-31
JP2008197215 2008-07-31
JP2009134665A JP5219929B2 (ja) 2008-07-31 2009-06-04 情報処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2010055599A JP2010055599A (ja) 2010-03-11
JP5219929B2 true JP5219929B2 (ja) 2013-06-26

Family

ID=40941595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009134665A Expired - Fee Related JP5219929B2 (ja) 2008-07-31 2009-06-04 情報処理装置および方法、並びにプログラム

Country Status (4)

Country Link
US (1) US8847977B2 (ja)
EP (1) EP2151747B1 (ja)
JP (1) JP5219929B2 (ja)
CN (1) CN101640762B (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4088749B2 (ja) 2001-11-09 2008-05-21 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
JP5463739B2 (ja) 2009-06-03 2014-04-09 ソニー株式会社 撮像装置、画像処理方法及びプログラム
JP2011028345A (ja) * 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
JP5371626B2 (ja) * 2009-08-18 2013-12-18 キヤノン株式会社 表示制御装置、表示制御装置の制御方法、プログラム及び記憶媒体
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9519356B2 (en) * 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
JP4976520B2 (ja) 2010-04-09 2012-07-18 株式会社ソニー・コンピュータエンタテインメント 情報処理装置
JP5269851B2 (ja) * 2010-09-27 2013-08-21 富士フイルム株式会社 画像編集装置及びその画像編集方法並びにそのプログラム
TWI435597B (zh) * 2010-10-20 2014-04-21 Altek Corp 結合臉部特徵辨識之相片資訊顯示方法及其具有攝像功能之電子裝置
CN102455840A (zh) * 2010-10-20 2012-05-16 华晶科技股份有限公司 结合脸部特征辨识的相片资讯显示方法及其具有摄像功能的电子装置
JP5640680B2 (ja) * 2010-11-11 2014-12-17 ソニー株式会社 情報処理装置、立体視表示方法及びプログラム
US20120182288A1 (en) * 2011-01-18 2012-07-19 Sony Corporation Method and apparatus for information presentation
JP5806822B2 (ja) * 2011-02-24 2015-11-10 京セラ株式会社 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP5323111B2 (ja) * 2011-03-10 2013-10-23 シャープ株式会社 表示装置、表示方法、コンピュータプログラム及び記録媒体
US20120272180A1 (en) * 2011-04-20 2012-10-25 Nokia Corporation Method and apparatus for providing content flipping based on a scrolling operation
JPWO2013022087A1 (ja) * 2011-08-10 2015-03-05 株式会社ニコン 電子機器
CN102955642B (zh) * 2011-08-22 2017-04-19 联想(北京)有限公司 Widget显示方法及电子设备
JP5915053B2 (ja) * 2011-09-22 2016-05-11 カシオ計算機株式会社 情報生成装置、情報生成方法及びプログラム
JP6010303B2 (ja) * 2012-01-31 2016-10-19 株式会社ザクティ 画像再生装置
CN104254826A (zh) * 2012-02-27 2014-12-31 株式会社尼康 图像显示程序和图像显示装置
JP6132832B2 (ja) * 2012-03-26 2017-05-24 株式会社ザクティ 電子機器、関連情報表示方法及びプログラム
WO2013174293A1 (zh) * 2012-05-23 2013-11-28 Wang Hao 影像记录装置和影像记录方法
WO2013174294A1 (zh) * 2012-05-23 2013-11-28 Wang Hao 影像摄影装置和影像摄影方法
WO2013174287A1 (zh) * 2012-05-23 2013-11-28 Wang Hao 影像记录装置和影像记录方法
JP6213467B2 (ja) * 2012-06-29 2017-10-18 日本電気株式会社 端末装置、表示制御方法およびプログラム
US20140267094A1 (en) * 2013-03-13 2014-09-18 Microsoft Corporation Performing an action on a touch-enabled device based on a gesture
CN103188400A (zh) * 2013-03-27 2013-07-03 广东欧珀移动通信有限公司 一种手机上查看照片信息的方法
JP5693657B2 (ja) * 2013-05-16 2015-04-01 株式会社ソニー・コンピュータエンタテインメント 情報処理装置
KR20150000632A (ko) * 2013-06-25 2015-01-05 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
KR102097639B1 (ko) * 2013-11-05 2020-04-06 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9292175B2 (en) 2013-11-08 2016-03-22 Minted, Llc Vendor website GUI for marketing greeting cards
JP6615456B2 (ja) * 2014-07-28 2019-12-04 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 検索結果を提供する方法及び装置
CN105630366A (zh) * 2014-10-31 2016-06-01 阿里巴巴集团控股有限公司 用于在屏幕显示设备上展示客体信息的方法及装置
US10251241B2 (en) * 2015-03-27 2019-04-02 Osram Sylvania Inc. Gesture-based control techniques for lighting systems
US9936138B2 (en) * 2015-07-29 2018-04-03 Samsung Electronics Co., Ltd. User terminal apparatus and control method thereof
US11284003B2 (en) 2015-07-29 2022-03-22 Samsung Electronics Co., Ltd. User terminal apparatus and control method thereof
CN105549879A (zh) * 2015-12-08 2016-05-04 联想(北京)有限公司 一种信息处理方法及电子设备
WO2018112928A1 (zh) * 2016-12-23 2018-06-28 北京金山安全软件有限公司 一种信息展示方法、装置及终端设备
JP7306111B2 (ja) * 2019-06-28 2023-07-11 セイコーエプソン株式会社 表示装置および表示制御プログラム
CN113467681A (zh) * 2021-06-30 2021-10-01 深圳集智数字科技有限公司 图片的翻转和显示方法、装置、电子设备及可读介质

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04280376A (ja) 1991-03-08 1992-10-06 Fujitsu Ltd 画像表示装置
US5351995A (en) * 1992-01-29 1994-10-04 Apple Computer, Inc. Double-sided, reversible electronic paper
US5463725A (en) * 1992-12-31 1995-10-31 International Business Machines Corp. Data processing system graphical user interface which emulates printed material
JP3974948B2 (ja) 1994-10-07 2007-09-12 株式会社日立製作所 ページめくり表示方法および装置
JPH0981103A (ja) 1995-09-12 1997-03-28 Canon Inc 表示制御装置および表示制御方法
JPH1056610A (ja) * 1996-05-20 1998-02-24 Casio Comput Co Ltd 電子撮像装置
US6297838B1 (en) * 1997-08-29 2001-10-02 Xerox Corporation Spinning as a morpheme for a physical manipulatory grammar
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6788292B1 (en) * 1998-02-25 2004-09-07 Sharp Kabushiki Kaisha Display device
JP2000163193A (ja) * 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体
JP2000242390A (ja) 1999-02-18 2000-09-08 Sony Corp 情報の表示方法及び、情報表示装置
JP4088749B2 (ja) 2001-11-09 2008-05-21 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
JP2003216300A (ja) 2002-01-17 2003-07-31 Seiko Epson Corp 表示装置、表示装置の制御方法、プログラムおよび記録媒体
JP2003263144A (ja) 2002-03-11 2003-09-19 Toshiba Corp 情報処理装置および表示制御方法
US7502036B2 (en) * 2004-03-03 2009-03-10 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
US20060092137A1 (en) 2004-10-27 2006-05-04 Branden Lee Portable electronic product
US20060164382A1 (en) * 2005-01-25 2006-07-27 Technology Licensing Company, Inc. Image manipulation in response to a movement of a display
JP3865141B2 (ja) * 2005-06-15 2007-01-10 任天堂株式会社 情報処理プログラム及び情報処理装置
US7676767B2 (en) 2005-06-15 2010-03-09 Microsoft Corporation Peel back user interface to show hidden functions
JP4929630B2 (ja) 2005-07-06 2012-05-09 ソニー株式会社 撮像装置、制御方法、およびプログラム
US20070146314A1 (en) * 2005-12-27 2007-06-28 Motorola, Inc. Method and apparatus for a user interface
US7667686B2 (en) * 2006-02-01 2010-02-23 Memsic, Inc. Air-writing and motion sensing input for portable devices
JP4560554B2 (ja) * 2006-02-06 2010-10-13 株式会社クリエイティヴ・リンク 表示処理装置、表示処理方法、及びコンピュータプログラム
US20070247422A1 (en) * 2006-03-30 2007-10-25 Xuuk, Inc. Interaction techniques for flexible displays
US20070268246A1 (en) * 2006-05-17 2007-11-22 Edward Craig Hyatt Electronic equipment with screen pan and zoom functions using motion
US20080040692A1 (en) 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
EP1956811A3 (en) * 2007-02-06 2012-02-01 LG Electronics Inc. Mobile terminal and world time display method thereof
JP2008197215A (ja) 2007-02-09 2008-08-28 Sumitomo Chemical Co Ltd 酸素遮断膜形成用塗布液、及びそれを用いるカラーフィルターの製造方法
US20090235162A1 (en) 2008-03-11 2009-09-17 Disney Enterprises, Inc. Method and system for providing enhanced virtual books
JP4840474B2 (ja) 2008-08-11 2011-12-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2010054762A (ja) 2008-08-28 2010-03-11 Sony Corp 情報処理装置および方法、並びにプログラム
JP4984174B2 (ja) 2008-08-29 2012-07-25 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4720878B2 (ja) 2008-08-29 2011-07-13 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4811452B2 (ja) 2008-11-19 2011-11-09 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP4752900B2 (ja) 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP4735995B2 (ja) 2008-12-04 2011-07-27 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP5463739B2 (ja) 2009-06-03 2014-04-09 ソニー株式会社 撮像装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
CN101640762B (zh) 2012-03-21
EP2151747A3 (en) 2014-03-05
US8847977B2 (en) 2014-09-30
EP2151747A2 (en) 2010-02-10
JP2010055599A (ja) 2010-03-11
EP2151747B1 (en) 2017-05-03
CN101640762A (zh) 2010-02-03
US20100026719A1 (en) 2010-02-04

Similar Documents

Publication Publication Date Title
JP5219929B2 (ja) 情報処理装置および方法、並びにプログラム
JP6765956B2 (ja) 撮像制御装置及びその制御方法
JP5652652B2 (ja) 表示制御装置および方法
JP4840474B2 (ja) 情報処理装置および方法、並びにプログラム
JP4250543B2 (ja) 撮像装置及び情報処理装置及びそれらの制御方法
KR101545883B1 (ko) 단말의 카메라 제어 방법 및 그 단말
CN103581544B (zh) 动态感兴趣区域调整和提供动态感兴趣区域调整的图像捕捉设备
JP4957750B2 (ja) 情報処理装置および方法、並びにプログラム
JP6138201B2 (ja) 撮影機器及び撮影機器の制御方法
JP6833506B2 (ja) 撮像装置及びその制御方法
CN102469261A (zh) 成像设备,成像显示控制方法和程序
JP2010072749A (ja) 画像検索装置、デジタルカメラ、画像検索方法および画像検索用プログラム
US11689819B2 (en) Techniques for capturing video in landscape mode by a handheld device
US20150029224A1 (en) Imaging apparatus, control method and program of imaging apparatus, and recording medium
WO2013099704A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2013090056A (ja) 画像再生装置及びカメラ
JP5058133B2 (ja) カメラ、カメラの表示方法および画像表示用プログラム
JP5777446B2 (ja) 表示制御装置及びその制御方法
JP5907602B2 (ja) 撮像装置及び撮像装置の制御方法
JP5930693B2 (ja) 動画記録装置及びその制御方法
KR102110775B1 (ko) 단말의 카메라 제어 방법 및 그 단말
US20130141613A1 (en) Digital image processing apparatus and digital photographing apparatus including the same
KR20150070084A (ko) 단말의 카메라 제어 방법 및 그 단말
JP2019071148A (ja) 表示処理装置および表示処理方法
JP2021061488A (ja) 動画記録装置及び方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110609

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120112

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120120

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20120406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5219929

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees