JP2011060272A - Ui提供方法及びこれを適用したディスプレイ装置 - Google Patents

Ui提供方法及びこれを適用したディスプレイ装置 Download PDF

Info

Publication number
JP2011060272A
JP2011060272A JP2010154772A JP2010154772A JP2011060272A JP 2011060272 A JP2011060272 A JP 2011060272A JP 2010154772 A JP2010154772 A JP 2010154772A JP 2010154772 A JP2010154772 A JP 2010154772A JP 2011060272 A JP2011060272 A JP 2011060272A
Authority
JP
Japan
Prior art keywords
image
input
classification
axis direction
classification criterion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010154772A
Other languages
English (en)
Other versions
JP5872142B2 (ja
Inventor
Jung-Ah Seung
貞 我 承
Yun-Ji Yoo
蓮 智 柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2011060272A publication Critical patent/JP2011060272A/ja
Application granted granted Critical
Publication of JP5872142B2 publication Critical patent/JP5872142B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/54Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 本発明の目的は、2つ以上の軸方向に対応される操作が入力され、入力された操作方向に応じて、相互に異なる2つ以上の分類基準を適用して複数のイメージのうち1つのイメージを探索するUI提供方法及びこれを適用したディスプレイ装置を提供することにある。
【解決手段】 UI提供方法及びこれを適用したディスプレイ装置が提供される。本UI提供方法によると、ディスプレイ装置は2つ以上の軸方向に対応される操作が入力され、入力された操作方向に応じて、相互に異なる2つ以上の分類基準を適用して複数のイメージのうち1つのイメージを探索する。これにより、ユーザは多様な分類基準を用いてより簡単に望むイメージを探索できるようになる。
【選択図】 図2

Description

本発明は、UI提供方法及びこれを適用したディスプレイ装置に関し、より詳細には、保存されたイメージのうち所望するイメージを探索するためのUI提供方法及びこれを適用したディスプレイ装置に関する。
最近、技術の発展により、ディスプレイ装置の保存能力が格段に向上した。これにより、ユーザはディスプレイ装置に大量のイメージを保存しておけるようになった。
このように大量のイメージがディスプレイ装置に保存されていると、ユーザは望むイメージを探索するのに長い時間を無駄しなければならない。なお、望むイメージを探索した後も、これに関連した他のイメージを再び探索するためにユーザは数多くの操作を通じてディスプレイ装置に保存されたイメージを探索しなければならない。
特に、多くのディスプレイ装置は、1つの分類基準に基づいてイメージを探索するように実現されているため、ユーザは1つの分類基準に基づいて配列されたイメージを見て望むイメージを選択しなければならない。そして、探索のための分類基準を変更するために、ユーザはディスプレイ装置の設定を変更して分類基準を変更するため操作を別途に行わなければならないという手間がかかる。
ユーザは、より簡単かつ便利な方式によるイメージ探索を欲する。これにより、ユーザが多様な分類基準を用いてより簡単に望むイメージを探索できるUIを提供するための方策を探る必要がある。
日本特開2006−166435号公報 米国特開2002−75324号公報
本発明は、前記のような問題点を解決するために案出されたものであり、本発明の目的は、2つ以上の軸方向に対応される操作が入力され、入力された操作方向に応じて、相互に異なる2つ以上の分類基準を適用して複数のイメージのうち1つのイメージを探索するUI提供方法及びこれを適用したディスプレイ装置を提供することにある。
前記目的を達成するための本発明の一実施例に係るUI提供方法は、2つ以上の軸方向に対応される操作が入力されるステップ及び前記入力された操作方向に応じて、相互に異なる2つ以上の分類基準を適用して複数のイメージのうち1つのイメージを探索するステップを含む。
そして、前記2つ以上の軸方向は、第1軸方向、第2軸方向及び第3軸方向を含み、前記2つ以上の分類基準は、第1分類基準、第2分類基準及び第3分類基準を含み、前記イメージの探索ステップは、前記第1軸方向に対応される操作が入力されると、前記第1分類基準に従ってイメージを探索するステップ、前記第2軸方向に対応される操作が入力されると、前記第2分類基準に従ってイメージを探索するステップ及び前記第3軸方向に対応される操作が入力されると、前記第3分類基準に従ってイメージを探索するステップを含むこともできる。
なお、前記第1軸方向は画面を基準に左右方向であり、前記第2軸方向は前記画面を基準に上下方向であり、前記第3軸方向は前記画面を基準に斜め方向になることもできる。
そして、前記第1分類基準、第2分類基準及び第3分類基準は、時間、人物、場所、カラー、イベント及びシーン(scene)の種類のうち各々何れか1つずつ対応されることもできる。
なお、前記操作は、ショートストローク(short stroke)タッチ操作又はロングストローク(long stroke)タッチ操作であり、前記第1分類基準に従ってイメージを探索するステップは、前記第1軸方向に前記ショートストローク操作が入力されると、前記第1分類基準に従って以前又は次のイメージを探索するステップ及び前記第1軸方向に前記ロングストローク操作が入力されると、前記第1分類基準に従って他カテゴリのイメージを探索するステップを含むこともできる。
そして、前記操作は、ショートストローク(short stroke)タッチ操作又はロングストローク(long stroke)タッチ操作であり、前記第2分類基準に従ってイメージを探索するステップは、前記第2軸方向に前記ショートストローク操作が入力されると、前記第2分類基準に従って以前又は次のイメージを探索するステップ及び前記第2軸方向に前記ロングストローク操作が入力されると、前記第2分類基準に従って他カテゴリのイメージを探索するステップ、を含むこともできる。
なお、現在探索されたイメージが変更されると、前記変更されたイメージに基づいて第1分類基準、第2分類基準及び第3分類基準によるイメージの配列を再配列するステップを更に含むこともできる。
そして、前記第1分類基準で分類されたイメージに対するサムネイルを画面上の3次元空間のx軸方向に表示するステップ、前記第2分類基準で分類されたイメージに対するサムネイルを画面上の3次元空間のy軸方向に表示するステップ及び前記第3分類基準で分類されたイメージに対するサムネイルを画面上の3次元空間のz軸方向に表示するステップを更に含むこともできる。
なお、探索の対象となる前記複数のイメージのうち現在探索されたイメージのみを画面に表示するステップを更に含むこともできる。
一方、本発明の一実施例に係るディスプレイ装置は、複数のイメージが保存された保存部、2つ以上の軸方向に対応されるユーザ操作が入力される操作部及び前記入力された操作方向に応じて、相互に異なる2つ以上の分類基準を適用して前記複数のイメージのうち1つのイメージを探索する制御部を含む。
そして、前記2つ以上の軸方向は、第1軸方向、第2軸方向及び第3軸方向を含み、前記2つ以上の分類基準は、第1分類基準、第2分類基準及び第3分類基準を含み、前記制御部は、前記第1軸方向に対応される操作が入力されると、前記第1分類基準に従ってイメージを探索し、前記第2軸方向に対応される操作が入力されると、前記第2分類基準に従ってイメージを探索し、前記第3軸方向に対応される操作が入力されると、前記第3分類基準に従ってイメージを探索することもできる。
なお、前記第1軸方向は画面を基準に左右方向であり、前記第2軸方向は前記画面を基準に上下方向であり、前記第3軸方向は前記画面を基準に斜め方向になることもできる。
そして、前記第1分類基準、第2分類基準及び第3分類基準は、時間、人物、場所、カラー、イベント及びシーン(scene)の種類のうち各々何れか1つずつ対応されることもできる。
なお、前記操作は、ショートストローク(short stroke)タッチ操作又はロングストローク(long stroke)タッチ操作であり、前記制御部は、前記第1軸方向に前記ショートストローク操作が入力されると、前記第1分類基準に従って以前又は次のイメージを探索し、前記第1軸方向に前記ロングストローク操作が入力されると、前記第1分類基準に従って他カテゴリのイメージを探索することもできる。
そして、前記操作は、ショートストローク(short stroke)タッチ操作又はロングストローク(long stroke)タッチ操作であり、前記制御部は、前記第2軸方向に前記ショートストローク操作が入力されると、前記第2分類基準に従って以前又は次のイメージを探索し、前記第2軸方向に前記ロングストローク操作が入力されると、前記第2分類基準に従って他カテゴリのイメージを探索することもできる。
なお、前記制御部は、現在探索されたイメージが変更されると、前記変更されたイメージに基づいて第1分類基準、第2分類基準及び第3分類基準によるイメージの配列を再配列することもできる。
そして、前記制御部は、前記第1分類基準で分類されたイメージに対するサムネイルが画面上の3次元空間のx軸方向に表示され、前記第2分類基準で分類されたイメージに対するサムネイルが画面上の3次元空間のy軸方向に表示され、前記第3分類基準で分類されたイメージに対するサムネイルが画面上の3次元空間のz軸方向に表示されるように制御することもできる。
なお、前記制御部は、探索の対象となる前記複数のイメージのうち現在探索されたイメージのみが画面に表示されるように制御することもできる。
一方、本実施例に係るUI提供方法は、第1分類基準で分類されたイメージに対するサムネイルを画面上の3次元空間の第1軸方向に表示するステップ、第2分類基準で分類されたイメージに対するサムネイルを画面上の3次元空間の第2軸方向に表示するステップ及び第3分類基準で分類されたイメージに対するサムネイルを画面上の3次元空間の第3軸方向に表示することもできる。
一方、本実施例に係るUI提供方法は、第1軸方向に対応される操作が入力されると、第1分類基準に従ってコンテンツを探索するステップ、第2軸方向に対応される操作が入力されると、第2分類基準に従ってコンテンツを探索するステップ及び第3軸方向に対応される操作が入力されると、第3分類基準に従ってコンテンツを探索するステップを含む。
そして、前記コンテンツは音楽コンテンツであり、前記第1分類基準はジャンルであり、前記第2分類基準は歌手であり、前記第3基準はアルバムであっても良い。
本発明の一実施例に係るカメラの構成を詳細に示したブロック図である。 本発明の一実施例に係るUI提供方法を説明するために提供されるフローチャートである。 本発明の一実施例に係る3つの軸方向に、各分類基準に応じてイメージを配列することについて示した図である。 本発明の一実施例に係る3つの軸方向に、各分類基準に応じてイメージを配列することについて示した図である。 本発明の一実施例に係るサムネイルビューモードのイメージ探索メニューが表示された画面を示した図である。 本発明の一実施例に係る右側方向にショートストローク操作が入力された場合を示した図である。 本発明の一実施例に係る右側方向にショートストローク操作が入力された場合を示した図である。 本発明の一実施例に係る右側方向にロングストローク操作が入力された場合を示した図である。 本発明の一実施例に係る右側方向にロングストローク操作が入力された場合を示した図である。 本発明の一実施例に係る下側方向にショートストローク操作が入力された場合を示した図である。 本発明の一実施例に係る下側方向にショートストローク操作が入力された場合を示した図である。 本発明の一実施例に係る下側方向にロングストローク操作が入力された場合を示した図である。 本発明の一実施例に係る下側方向にロングストローク操作が入力された場合を示した図である。 本発明の一実施例に係る斜め下側方向にショートストローク操作が入力された場合を示した図である。 本発明の一実施例に係る斜め下側方向にショートストローク操作が入力された場合を示した図である。 本発明の一実施例に係る斜め下側方向にロングストローク操作が入力された場合を示した図である。 本発明の一実施例に係る斜め下側方向にロングストローク操作が入力された場合を示した図である。 本発明の一実施例に係るシングルビューモードのイメージ探索メニューをユーザが操作する過程を示した図である。 本発明の一実施例に係るシングルビューモードのイメージ探索メニューをユーザが操作する過程を示した図である。 本発明の一実施例に係るシングルビューモードのイメージ探索メニューをユーザが操作する過程を示した図である。 本発明の一実施例に係るシングルビューモードのイメージ探索メニューをユーザが操作する過程を示した図である。 本発明の一実施例に係るシングルビューモードのイメージ探索メニューをユーザが操作する過程を示した図である。 本発明の一実施例に係るシングルビューモードのイメージ探索メニューをユーザが操作する過程を示した図である。 本発明の一実施例に係るイメージのヒストリーが表示された画面を示した図である。 本発明の一実施例に係るMP3プレイヤーの場合、複数の音楽ファイルが3つの方向軸に配列されたものを示した図である。
以下では、図面を参照して本発明をより詳細に説明する。
図1は、本発明の一実施例に係るカメラ100の構成を詳細に示したブロック図である。図1に示されたように、カメラ100は、レンズ部110、撮像素子120、映像処理部130、映像出力部140、ディスプレイ150、コーデック160、保存部165、操作部170、GPS(Global Positioning System)180、顔認識部185及び制御部190を含む。
レンズ部110は、被写体の光を集めて撮像領域に光学像が結像するようにする。
撮像素子120は、レンズを介して入射される光を電気信号に光電変換し、電気信号に対して所定の信号処理を行う。このような機能を行う撮像素子120は画素及びADコンバータを備える。各画素は、アナログ形の映像信号を出力し、ADコンバータはこれをデジタル形の映像信号に変換して出力する。
映像処理部130は、撮影素子120から入力される映像に対する信号処理を行い、撮影された映像をディスプレイするために処理された映像信号を映像出力部140に転送する。なお、映像処理部130は、制御部190から入力される映像に対する信号処理を行い、保存されたイメージ及びイメージ探索メニューをディスプレイするために処理された映像信号を映像出力部140に転送する。
ここで、イメージ探索メニューは、ユーザが保存部165に保存されたイメージのうち望むイメージが選択できるように提供されるGUI(Graphic User Interface)を意味する。イメージ探索メニューは、サムネイルビューモードとシングルビューモードのうち何れか1つになって良い。
サムネイルビューモードのイメージ探索メニューは、複数個のイメージに対するサムネイルが画面上の3次元空間内で、x軸、y軸及びz軸方向に表示された形で構成される。そして、x軸、y軸及びz軸方向のサムネイルは各々異なる分類基準で構成されたイメージに対するサムネイルである。ここで、分類基準は、イメージを分類することのできる基準を意味する。具体的に、分類基準は、時間、人物、場所、カラー、イベント及びシーン(scene)の種類のうち何れか1つになることができる。例えば、イメージ探索メニューは、時間を分類基準で配列された(即ち、イメージが撮影された時間の順に配列された)イメージのサムネイルがx軸方向にディスプレイされ、人物を分類基準で配列された(即ち、写真に含まれた人物別の順に配列された)イメージのサムネイルがy軸方向にディスプレイされ、場所を分類基準で配列された(即ち、写真が撮影された場所別の順に配列された)イメージのサムネイルがz軸方向にディスプレイされた形をすることもできる。
一方、シングルビューモードのイメージ探索メニューは、探索対象となるイメージのうち現在探索されたイメージのみが画面に表示された形で構成される。
このように、映像処理部130は、イメージ探索メニューを表示するために処理された映像信号を映像出力部140に転送する。
なお、映像処理部130は、撮影された映像を保存するためにコーデック160で処理された映像信号を出力する。具体的に、映像処理部130は撮像素子120で出力される映像信号に対してフォーマット変換と映像スケールを調整するためのデジタルズーム、AWB(Auto White Balance)、AF(Auto Focus)、AE(Auto Exposure)等を行う。
なお、映像処理部130は、保存部165に保存されたイメージをコーデック160を介して受信して処理する。そして、処理されたコンテンツの映像を映像出力部140に出力する。
映像出力部140は、映像処理部130から受信された映像信号を内部ディスプレイ150又は外部出力端子に出力する。
ディスプレイ150は、撮影された映像を画面に表示する。なお、ディスプレイ150はイメージ探索メニューを画面に表示する。ディスプレイ150は、イメージ探索メニューをサムネイルビューモード又はシングルビューモードに表示することができる。
コーデック160は、映像処理部130で受信したイメージをエンコーディングする。そして、コーデック160はエンコーディングされたイメージを保存部190に転送する。なお、コーデック160は、保存部190に保存されたイメージをデコーディングする。そして、コーデック160はデコーディングされた映像信号を映像処理部130に転送する。
即ち、コーデック160は撮影されたイメージを保存する場合エンコーディングし、保存されたイメージを映像処理部130に出力する場合デコーディングをするようになる。
保存部165は、撮像素子120で撮影されたイメージを圧縮した形で保存する。保存部165は、各イメージに対して撮影された時間情報及び撮影された場所情報を共に保存する。ここで、場所情報は、GPS180を用いた位置情報に基づいて生成され、撮影場所に対するGPS座標、住所及び場所名称のうち少なくとも1つを含む情報である。
保存部165は、フレッシュメモリー、ハードディスク等を用いて実現されることができる。
操作部170には、ユーザ操作を通じて命令が入力される。具体的に、操作部170は2つ以上の軸方向(例えば、左右方向、上下方向及び斜め方向)に対応されるユーザ操作が入力される。
操作部170は、カメラ100の表面にボタンの形で実現されることもできる。なお、操作部170はディスプレイ150上でユーザのタッチ操作を認識するタッチスクリーン175の形で実現されることもできる。
GPS180は、人工衛星を用いて現在位置に対する座標情報を検出する。そして、制御部190はGPS180を用いて撮影されたイメージに場所情報を対応させるようになる。
顔認識部185は、イメージから人の顔を認識する顔認識機能を行う。具体的に、顔認識部185は顔認識機能を行うために、イメージから顔を検出する過程と顔特徴データを認識する過程を経るようになる。顔を検出する過程は、イメージから顔の含まれた領域を検出する過程である。そして、顔特徴データを認識する過程は、他の顔と区別するために顔の特徴を認識する過程である。
顔の検出過程は、カラー基盤の顔領域の検出、エッジ基盤の目領域の検出、顔領域の正規化及びSVM(Support Vector Marchine)基盤の顔領域の検証を経て成される。
カラー基盤の顔領域の検出は、顔の肌色情報を用いて入力されたイメージから顔を検出する過程である。具体的に、カラー基盤の顔領域の検出は、入力されたイメージのYCbCr情報を用いて肌色のフィルターを生成して顔領域を抽出するようになる。即ち、カラー基盤の顔領域の検出は、入力されたイメージから肌色の部分のみを抽出する過程である。
次に、エッジ基盤の目領域の検出は、明暗情報を用いて目領域を検出する過程である。一般的な場合、簡単に目領域の分離が可能であるが、多様なヘアスタイルの女性や眼鏡等によるエラーが生じるおそれがある。
その後、検出された目を用いて顔領域を正規化するようになる。そして、SVM(Support Vector Marchine)を用いて正規化された顔領域を検証するようになる。SVMの顔領域の検証器を利用する場合、誤った顔領域の検出可能性が1%未満に減少する。
このような過程を経て、顔認識部185はイメージから顔を検出するようになる。
一方、顔特徴データを認識する過程は、大きく全体的(Holistic)なアプローチ方法及び分析的(Analytic)なアプローチ方法がある。
全体的なアプローチ方法は、顔のパターンの全体領域に対する特性を考慮して顔を認識する方法である。このような方法では、固有顔(Eigenface)方式、型板整合基盤(Template Matching−based)方式等がある。
分析的なアプローチ方法は、顔の幾何学的な特徴を抽出して顔を認識する方法である。分析的なアプローチ方法は速い認識速度と少ないメモリーを要求するとの長所があるものの、顔の特徴を選択して抽出するのが困難である。
顔特徴データの認識は、次のようなステップを経て進行する。顔認識部185には、顔が含まれた映像が入力される。そして、顔認識部185は、顔の構成要素(例えば、目、鼻、口等)を抽出する。次に、顔認識部185は顔が回転された場合及び照明が照らされる場合に対する補正を実施する。このような過程を経て、顔認識部185はイメージに含まれた顔の特徴を抽出し、イメージから人の顔を検出できるようになる。
結局、顔認識部185は、イメージから顔の全体的なパターンを検出し、検出された顔のパターンを用いてイメージに含まれた顔特徴データを認識することが分かる。このような過程を通じて、顔認識部185は顔認識機能を提供するようになる。
制御部190は、カメラ100の作動全般を制御する。制御部190は入力された操作方向に応じて、相互に異なる2つ以上の分類基準を適用して複数のイメージのうち1つのイメージを探索する。
具体的に、制御部190は第1軸方向に対応される操作が入力されると、第1分類基準に従ってイメージを探索し、第2軸方向に対応される操作が入力されると、第2分類基準に従ってイメージを探索し、第3軸方向に対応される操作が入力されると、第3分類基準に従ってイメージを探索する。
ここで、第1軸方向は画面を基準に左右方向であり、前記第2軸方向は画面を基準に上下方向であり、前記第3軸方向は画面を基準に斜め方向になることができる。
そして、前記第1分類基準、第2分類基準及び第3分類基準は、時間、人物、場所、カラー、イベント及びシーン(scene)の種類のうち各々何れか1つずつ対応されることもできる。
ここで、分類基準が時間である場合、制御部190はイメージを時間の順に配列するようになる。そして、分類基準が人物である場合、制御部190は複数のイメージを顔認識部185を介して認識された顔が同一のイメージ毎に配列するようになる。なお、分類基準が場所である場合、制御部190は複数のイメージをGPS180によって検出された位置情報が同一のイメージ毎に配列するようになる。そして、分類基準がカラーである場合、制御部190は複数のイメージを、イメージの色相情報を検出して類似の色相のイメージ毎に配列するようになる。なお、分類基準がイベントである場合、制御部190は複数のイメージをユーザによって入力されたイメージに対応されるイベントが同一のイメージ毎に配列するようになる。そして、分類基準がシーンの種類である場合、制御部190は複数のイメージをシーンの種類が同一のイメージ毎に配列するようになる。
ここで、シーンの種類は、イメージに含まれた被写体の種類を意味するもので、その例としては、風景、人物、夜景等が挙げられる。
制御部190は、第1軸方向にショートストローク(stroke)操作が入力されると、第1分類基準に従って以前のイメージ又は次のイメージを探索するようになる。そして、制御部190は探索されたイメージが画面に表示されるように制御する。
なお、制御部190は、第1軸方向にロングストローク操作が入力されると、第1分類基準に従って以前カテゴリ又は次カテゴリのイメージを探索するようになる。そして、制御部190は探索されたイメージが画面に表示されるように制御する。
ここで、ストローク操作は、ユーザが画面をタッチした状態で一定距離を移動した後に、タッチを終了する操作を意味する。ショートストローク操作は、ユーザが画面をタッチした状態で閾値距離以下の距離を移動した後に、タッチを終了する操作を意味する。そして、ロングストローク操作は、ユーザが画面をタッチした状態で閾値距離を超過した距離を移動した後に、タッチを終了する操作を意味する。ここで閾値距離は、ストロークの種類がロングストローク操作であるかショートストローク操作であるかを決めるタッチ距離になる。
そして、カテゴリは分類基準毎に区分されるイメージのグループを意味する。例えば、分類基準が人物である場合、同一の人物に対するイメージが1つのカテゴリを構成するようになる。そして、分類基準が時間である場合、同一の日付のイメージが1つのカテゴリを構成するようになる。なお、分類基準が場所である場合、同一の場所のイメージが1つのカテゴリを構成するようになる。そして、分類基準が色相である場合、同一の色相のイメージが1つのカテゴリを構成するようになる。なお、分類基準がイベントである場合、同一のイベントのイメージが1つのカテゴリを構成するようになる。そして、分類基準はシーンである場合、シーンの種類が同一のイメージが1つのカテゴリを構成するようになる。
例えば、第1分類基準が人物である場合、第1軸方向にショートストロークが入力されると、制御部190は現在表示されたイメージの人物と同一の人物に対する以前のイメージ又は次のイメージを探索する。そして、第1分類基準が人物である場合、第1軸方向にロングストロクが入力されると、制御部190は現在表示されたイメージの人物と異なる以前の人物又は次の人物に対するイメージを探索する。
一方、制御部190は第2軸方向にショートストローク(stroke)操作が入力されると、第2分類基準に従って以前のイメージ又は次のイメージを探索するようになる。そして、制御部190は探索されたイメージが画面に表示されるように制御する。
なお、制御部190は第2軸方向にロングストローク操作が入力されると、第2分類基準に従って以前カテゴリ又は次カテゴリのイメージを探索するようになる。そして、制御部190は探索されたイメージが画面に表示されるように制御する。
同様に、制御部190は第3軸方向にショートストローク(stroke)操作が入力されると、第3分類基準に従って以前のイメージ又は次のイメージを探索するようになる。そして、制御部190は探索されたイメージが画面に表示されるように制御する。
なお、制御部190は第3軸方向にロングストローク操作が入力されると、第3分類基準に従って以前カテゴリ又は次カテゴリのイメージを探索するようになる。そして、制御部190は探索されたイメージが画面に表示されるように制御する。
一方、制御部190は現在探索されたイメージが変更されると、前記変更されたイメージに基づき、第1分類基準、第2分類基準及び第3分類基準によるイメージの配列を再配列する。即ち、制御部190は、常に現在探索されたイメージに基づいて、第1分類基準、第2分類基準及び第3分類基準によるイメージの配列を設定するようになる。
そして、制御部190はイメージ探索メニューがサムネイルビューモードで表示されるように制御する。具体的には、制御部190は第1分類基準で分類されたイメージに対するサムネイルが画面上の3次元空間のx軸方向に表示され、第2分類基準で分類されたイメージに対するサムネイルが画面上の3次元空間のy軸方向に表示され、第3分類基準で分類されたイメージに対するサムネイルが画面上の3次元空間のz軸方向に表示されるように制御する。
なお、制御部190は、イメージ探索メニューがシングルビューモードで表示されるように制御することもできる。具体的には、制御部190は探索の対象となる複数のイメージのうち現在探索されたイメージのみが画面に表示されるように制御することもできる。
このように、制御部190は3つのタッチの操作方向に応じて、相互に異なる分類基準を適用してイメージを探索するようになる。従って、ユーザはより簡単に多様な分類基準でイメージを探索できるようになる。
以下では、図2を参考にして3つの軸方向にイメージを探索するUI提供方法を説明する。図2は、本発明の一実施例に係るUI提供方法を説明するために提供されるフローチャートである。
先ず、カメラ100は現在探索されたイメージを画面に表示する(S210)。具体的に、カメラ100は現在探索されたイメージをイメージ探索メニューに表示する。
ここで、イメージ探索メニューは、ユーザが保存部165に保存されたイメージのうち望むイメージが選択できるように提供されるGUI(Graphic User Interface)を意味する。イメージ探索メニューは、サムネイルビューモードとシングルビューモードのうち何れか1つになって良い。
サムネイルビューモードのイメージ探索メニューは、複数個のイメージに対するサムネイルが画面上の3次元空間内で、x軸、y軸及びz軸方向に表示された形で構成される。そして、x軸、y軸及びz軸方向のサムネイルは各々異なる分類基準で構成されたイメージに対するサムネイルである。ここで、分類基準は、イメージを分類することのできる基準を意味する。具体的に、分類基準は、時間、人物、場所、カラー、イベント及びシーン(scene)の種類のうち何れか1つになることができる。例えば、イメージ探索メニューは、時間を分類基準で配列された(即ち、イメージが撮影された時間の順に配列された)イメージのサムネイルがx軸方向にディスプレイされ、人物を分類基準で配列された(即ち、写真に含まれた人物別の順に配列された)イメージのサムネイルがy軸方向にディスプレイされ、場所を分類基準で配列された(即ち、写真が撮影された場所別の順に配列された)イメージのサムネイルがz軸方向にディスプレイされた形をすることもできる。
一方、シングルビューモードのイメージ探索メニューは、探索対象となるイメージのうち現在探索されたイメージのみが画面に表示された形で構成される。
この後に、カメラ100は現在探索されたイメージに基づいて、第1分類基準、第2分類基準及び第3分類基準に従ってイメージを配列するようになる(S220)。即ち、カメラ100は常に現在探索されたイメージに基づいて、第1分類基準、第2分類基準及び第3分類基準によるイメージの配列を設定するようになる。
カメラ100はユーザから第1軸方向の操作が入力されるか否かを確認する(S230)。もし、第1軸方向の操作が入力されると(S230−Y)、カメラ100は第1分類基準に従ってイメージを探索する(S235)。そして、カメラ100は現在探索されたイメージを画面に表示するようになる(S210)。
具体的に、カメラ100は第1軸方向にショートストローク(stroke)操作が入力されると、第1分類基準に従って以前のイメージ又は次のイメージを探索するようになる。なお、カメラ100は第1軸方向にロングストローク操作が入力されると、第1分類基準に従って以前カテゴリ又は次カテゴリのイメージを探索するようになる。
例えば、第1軸方向が左右方向で、第1分類基準が時間である場合について説明する。この場合、カメラ100は右側方向にショートストローク(stroke)操作が入力されると、イメージの撮影時間の順に従って次のイメージを探索するようになる。そして、カメラ100は右側方向にロングストローク(stroke)操作が入力されると、イメージの撮影時間の順に従って現在探索されたイメージが撮影された日付の翌日に撮影されたイメージ(即ち、次の時間カテゴリのイメージ)を探索するようになる。
なお、カメラ100は、ユーザから第2軸方向の操作が入力されるか否かを確認する(S240)。もし、第2軸方向の操作が入力されると(S240−Y)、カメラ100は第2分類基準に従ってイメージを探索する(S245)。そして、カメラ100は現在探索されたイメージを画面に表示するようになる(S210)。
具体的に、カメラ100は第2軸方向にショートストローク(stroke)操作が入力されると、第2分類基準に従って以前のイメージ又は次のイメージを探索するようになる。なお、カメラ100は第2軸方向にロングストローク操作が入力されると、第2分類基準に従って以前カテゴリ又は次カテゴリのイメージを探索するようになる。
例えば、第2軸方向が上下方向で、第2分類基準が場所である場合について説明する。この場合、カメラ100は上側方向にショートストローク(stroke)操作が入力されると、イメージの撮影場所の順に従って次のイメージを探索するようになる。そして、カメラ100は上側方向にロングストローク(stroke)操作が入力されると、イメージの撮影場所の順に従って現在探索されたイメージが撮影された場所と異なる場所で撮影されたイメージ(即ち、次の場所カテゴリのイメージ)を探索するようになる。
なお、カメラ100はユーザから第3軸方向の操作が入力されるか否かを確認する(S250)。もし、第3軸方向の操作が入力されると(S250−Y)、カメラ100は第3分類基準に従ってイメージを探索する(S255)。そして、カメラ100は現在探索されたイメージを画面に表示するようになる(S210)。
具体的に、カメラ100は第3軸方向にショートストローク(stroke)操作が入力されると、第3分類基準に従って以前のイメージ又は次のイメージを探索するようになる。なお、カメラ100は第3軸方向にロングストローク操作が入力されると、第3分類基準に従って以前カテゴリ又は次カテゴリのイメージを探索するようになる。
例えば、第3軸方向が斜め方向(左側の下段方向及び右側の上段方向)で、第3分類基準が人物である場合について説明する。この場合、カメラ100は右側の上段方向にショートストローク(stroke)操作が入力されると、イメージに含まれた人物の順に従って次のイメージを探索するようになる。そして、カメラ100は右側の上段方向にロングストローク(stroke)操作が入力されると、イメージに含まれた人物の順に従って現在探索されたイメージに含まれた人物とは異なる人物が含まれたイメージ(即ち、次の人物カテゴリのイメージ)を探索するようになる。
このように、ユーザによって斜め方向のタッチ操作が入力される場合、カメラ100は斜め方向でない左右方向又は上下方向操作で認識することもある。このような場合を防ぐために、カメラ100は左右方向及び上下方向のタッチ操作と相互に異なる種類の操作を用いて斜め方向のタッチ操作を認識することもできる。例えば、カメラ100は左右方向及び上下方向のタッチ操作を、ストローク操作を用いて認識し、斜め方向のタッチ操作を、マルチタッチのストローク操作を用いて認識することもできる。カメラ100は、左右方向及び上下方向のタッチ操作を、ストローク操作を用いて認識し、斜め方向のタッチ操作を、特定のボタン操作とストローク操作とを共に用いて認識することもできる。
そして、それ以外の操作が入力されると(S260−Y)、カメラ100はそれに該当する機能を実行することになる(S265)。
このような過程を通じて、カメラ100は3つのタッチの操作方向に応じて、相互に異なる分類基準を適用してイメージを探索するようになる。従って、ユーザはより簡単に多様な分類基準でイメージを探索できるようになる。
以下では、図3A乃至図12を参考にして、カメラ100のタッチ操作によって提供される機能について詳細に説明する。
図3A及び図3Bは、本発明の一実施例に係る3つの軸方向に、各分類基準に応じてイメージを配列することについて示した図である。
図3Aは、イメージの配列基準となる座標を示している。図3Aに示されたように、カメラ100はX軸に時間の分類基準を対応させ、Y軸に場所の分類基準を対応させ、Z軸に人物の分類基準を対応させる。
図3Bは、3次元空間のx、y、z軸に各々時間別、場所別、人物別の分類基準に応じて、イメージが配列されたものを示した図である。カメラ100は図3Bに示されたように、保存されたイメージを3次元空間のx、y、z軸に各々時間別、場所別、人物別の分類基準に応じて、配列するようになる。
図3Bに示されたように、x軸には時間を分類基準に9月9日付けイメージから9月11日付けイメージまで配列されていることが分かる。そして、y軸には場所を分類基準にテーマパークと自宅に対するイメージが配列されたことが確認できる。なお、z軸には人物を分類基準に母、自分及び友達に対するイメージが配列されたことが確認できる。そして、図3Bで現在探索されたイメージ300は、時間の分類基準は9月10日、場所の分類基準はテーマパーク、人物の分類基準は自分であることが確認できる。
図3Bのようにイメージが配列された場合、カメラ100は左側方向(−x方向)にショートストローク(stroke)操作が入力されると、イメージの撮影時間の順に従って次のイメージ(即ち、第1イメージ310)を探索するようになる。そして、カメラ100は左側方向にロングストローク(stroke)操作が入力されると、イメージの撮影時間の順に従って現在探索されたイメージ300が撮影された日付(9月10日)の翌日(9月11日)に撮影されたイメージ(即ち、第2イメージ311)を探索するようになる(即ち、時間カテゴリの異なるイメージを探索するようになる)。
なお、カメラ100は右側方向(+x方向)にショートストローク(stroke)操作が入力されると、イメージの撮影時間の順に従って以前のイメージ(即ち、第3イメージ315)を探索するようになる。そして、カメラ100は右側方向にロングストローク(stroke)操作が入力されると、イメージの撮影時間の順に従って現在探索されたイメージ300が撮影された日付(9月10日)の前日(9月9日)に撮影されたイメージ(即ち、第4イメージ320)を探索するようになる(即ち、時間カテゴリの異なるイメージを探索するようになる)。
図3Bのようにイメージが配列された場合、カメラ100は下側方向(−y方向)にショートストローク(stroke)操作が入力されると、イメージの撮影場所の順に従って次のイメージ(即ち、第5イメージ320)を探索するようになる。そして、カメラ100は下側方向にロングストローク(stroke)操作が入力されると、イメージの撮影場所の順に従って現在探索されたイメージ300が撮影された場所(テーマパーク)と異なる場所で撮影されたイメージ(図示せず)を探索するようになる(即ち、場所カテゴリの異なるイメージを探索するようになる)。
なお、カメラ100は上側方向(+y方向)にショートストローク(stroke)操作が入力されると、イメージの撮影場所の順に従って以前のイメージ(即ち、第6イメージ325)を探索するようになる。そして、カメラ100は上側方向にロングストローク(stroke)操作が入力されると、イメージの撮影場所の順に従って現在探索されたイメージ300が撮影された場所(テーマパーク)と異なる以前の場所(自宅)で撮影されたイメージ(即ち、第6イメージ325)を探索するようになる(即ち、場所カテゴリの異なるイメージを探索するようになる)。
図3Bのようにイメージが配列された場合、カメラ100は左側の下段方向(−z方向)にショートストローク(stroke)操作が入力されると、イメージの人物の順に従って次のイメージ(即ち、第7イメージ330)を探索するようになる。そして、カメラ100は左側の下段方向にロングストローク(stroke)操作が入力されると、イメージの人物の順に従って現在探索されたイメージ300に含まれた人物(自分)と異なる次の人物(友達)に対するイメージ(即ち、第8イメージ331)を探索するようになる(即ち、人物カテゴリの異なるイメージを探索するようになる)。
なお、カメラ100は右側の上段方向(+z方向)にショートストローク(stroke)操作が入力されると、イメージの人物の順に従って以前のイメージ(即ち、第9イメージ335)を探索するようになる。そして、カメラ100は 右側の上段方向にロングストローク(stroke)操作が入力されると、イメージの人物の順に従って現在探索されたイメージ300に含まれた人物(自分)と異なる以前の人物(母)に対するイメージ(即ち、第9イメージ335)を探索するようになる(即ち、人物カテゴリの異なるイメージを探索するようになる)。
このように、カメラ100はストローク操作方向に応じて、相互に異なる分類基準によるイメージ探索ができるようになる。
図4は、本発明の一実施例に係るサムネイルビューモードのイメージ探索メニューが表示された画面を示した図である。図4に示されたように、カメラ100は3次元空間にサムネイルビューモードのイメージ探索メニューを表示する。図4に示されたように、サムネイルビューモードは、保存されたイメージを3次元空間のx、y、z軸に各々時間別、場所別、人物別の分類基準に応じて、配列して表示するようになる。
従って、ユーザはサムネイルビューモードのイメージ探索メニューを用いることで、直観的にストローク操作を入力して望む分類基準に応じて、イメージを探索することができるようになる。
図5A及び図5Bは、本発明の一実施例に係る右側方向にショートストローク操作が入力された場合を示した図である。ストローク方向が左右方向である場合、カメラ100は時間を分類基準にイメージを探索するようになる。
図5Aに示されたように、現在探索されたイメージ500は2009年10月12日の午後7時12分に撮影されたイメージであることが分かる。図5Aに示されたように、ユーザが右側方向にショートストローク操作を入力すると、図5Bに示されたように以前のイメージが探索される。従って、図5Bの現在探索されたイメージ510は撮影された時間が午後7時10分であることが確認できる。
図6A及び図6Bは、本発明の一実施例に係る右側方向にロングストローク操作が入力された場合を示した図である。ストローク方向が左右方向である場合、カメラ100は時間を分類基準にイメージを探索するようになる。
図6Aに示されたように、現在探索されたイメージ600は、2009年10月12日の午後7時12分に撮影されたイメージであることが分かる。図6Aに示されたように、ユーザが右側方向にロングストローク操作を入力すると、図6Bに示されたように以前の日付のイメージが探索される。従って、図6Bの現在探索されたイメージ610は撮影された日付が2009年10月11日であることが確認できる。
図7A及び図7Bは、本発明の一実施例に係る下側方向にショートストローク操作が入力された場合を示した図である。ストローク方向が上下方向である場合、カメラ100は場所を分類基準にイメージを探索するようになる。
図7Aに示されたように、現在探索されたイメージ700は、ワシントンで撮影されたイメージであることが分かる。図7Aに示されたように、ユーザが下側方向にショートストローク操作を入力すると、図7Bに示されたように以前のイメージが探索される。従って、図7Bの現在探索されたイメージ710は撮影された場所がワシントンである以前のイメージであることが確認できる。
図8A及び図8Bは、本発明の一実施例に係る下側方向にロングストローク操作が入力された場合を示した図である。ストローク方向が上下方向である場合、カメラ100は場所を分類基準にイメージを探索するようになる。
図8Aに示されたように、現在探索されたイメージ800は、ワシントンで撮影されたイメージであることが分かる。図8Aに示されたように、ユーザが下側方向にロングストローク操作を入力すると、図8Bに示されたように以前の場所のイメージが探索される。従って、図8Bの現在探索されたイメージ810は撮影された場所がソウルである以前の場所のイメージであることが確認できる。
図9A及び図9Bは、本発明の一実施例に係る斜め下側方向にショートストローク操作が入力された場合を示した図である。ストローク方向が斜め方向(右側の上段又は左側の下段方向)である場合、カメラ100は人物を分類基準にイメージを探索するようになる。
図9Aに示されたように、現在探索されたイメージ900は、“SH.L”という人物を含むイメージであることが分かる。図9Aに示されたように、ユーザが左側の下段方向にショートストローク操作を入力すると、図9Bに示されたように以前の人物のイメージが探索される。従って、図9Bの現在探索されたイメージ910は“SH.L”という人物がそのまま含まれた以前のイメージであることが確認できる。
図10A及び図10Bは、本発明の一実施例に係る斜め下側方向にロングストローク操作が入力された場合を示した図である。ストローク方向が斜め方向(右側の上段又は左側の下段方向)である場合、カメラ100は人物を分類基準にイメージを探索するようになる。
図10Aに示されたように、現在探索されたイメージ1000は、“SH.L”という人物を含むイメージであることが分かる。図10Aに示されたように、ユーザが左側の下段方向にショートストローク操作を入力すると、図10Bに示されたように、異なる人物に対するイメージが探索される。従って、図10Bの現在探索されたイメージ1010は“HS.J”という異なる人物が含まれた以前のイメージであることが確認できる。
このように、カメラ100はサムネイルビューモードのイメージ探索メニュー上で、ストローク方向に応じて、相互に異なる分類基準を適用してイメージを探索するようになる。従って、ユーザはストローク方向を用いて多様な分類基準でイメージを探索できるようになる。
図11A乃至図11Fは、本発明の一実施例に係るシングルビューモードのイメージ探索メニューをユーザが操作する過程を示した図である。図11A乃至図11Fに示されたように、カメラ100はシングルビューモードのイメージ探索メニューでもストローク方向に応じて、相互に異なる分類基準を適用してイメージを探索するようになる。
図11Aに示されたように、カメラ100はシングルビューモードのイメージ探索メニューが実行された場合、現在探索されたイメージのみを画面に表示することが確認できる。なお、図11Aに表示されたイメージは撮影された場所が“場所1”であることが確認できる。
ストローク方向が上下方向である場合、カメラ100は場所を分類基準にイメージを探索するようになる。従って、図11Aに示されたように、ユーザが下側方向にロングストローク操作を入力すると、図11Bに示されたように異なる場所のイメージ(即ち、場所カテゴリが異なるイメージ)が探索される。従って、図11Bの現在探索されたイメージは撮影された場所が“場所2”のイメージであることが確認できる。
図11Bに示されたイメージは、撮影された時間が午後2時であることが確認できる。そして、ストローク方向が左右方向である場合、カメラ100は時間を分類基準にイメージを探索するようになる。
従って、図11Bに示されたように、ユーザが右側方向にショートストローク操作を入力すると、図11Cに示されたように以前の時間のイメージが探索される。従って、図11Cの現在探索されたイメージは撮影された時間が午後1時10分のイメージであることが確認できる。
図11Cに示されたイメージは含まれた人物が“人物1”であることが確認できる。そして、ストローク方向が斜め方向である場合、カメラ100は人物を分類基準にイメージを探索するようになる。
従って、図11Cに示されたように、ユーザが左側の下段方向にショートトストローク操作を入力すると、図11Dに示されたように同一の人物に対する以前のイメージが探索される。従って、図11Dの現在探索されたイメージは含まれた人物が“人物1”であることが確認できる。
なお、図11Dに示されたように、ユーザが左側の下段方向にロングトストローク操作を入力すると、図11Eに示されたように異なる人物に対する以前のイメージ(即ち、他の人物カテゴリのイメージ)が探索される。従って、図11Eの現在探索されたイメージは含まれた人物が“人物2”のイメージであることが確認できる。
そして、以前の写真のボタン1100がタッチされた場合、カメラ100は以前の写真を画面に表示するようになる。従って、図11Eに示されたように、ユーザが以前の写真のボタン1100をタッチした場合、カメラ100は図11Fに示されたように以前の写真を画面に表示するようになる。
図12は、本発明の一実施例に係るイメージのヒストリー1200が表示された画面を示した図である。図12に示されたように、カメラ100は現在まで探索されたイメージのヒストリー1200を画面に表示することもできる。従って、ユーザは自らが探索したイメージが何か、一目で確認することができる。
上述のように、カメラ100はシングルビューモードのイメージ探索メニューでもストローク方向に応じて、相互に異なる分類基準を適用してイメージを探索するようになる。従って、ユーザはシングルビューモードのイメージ探索メニューでもストローク方向を異なるように入力し、多様な分類基準で望むイメージを探索できるようになる。
一方、本実施例では、ディスプレイ装置がカメラ100であると説明したが、これは一例に過ぎない。つまり、ディスプレイ装置は、複数のイメージのうち望むイメージを探索してディスプレイできる機器なら如何なる機器でも適用できることは言うまでもない。例えば、ディスプレイ装置は、カメラ以外にもイメージをディスプレイできるTV、携帯電話、MP3プレイヤー、PDA、電子写真立て、ノートパソコン等でも良いことは言うまでもない。
なお、本実施例では、コンテンツがイメージであることに限定して説明したが、それ以外の他のコンテンツに対しても無論適用できる。例えば、コンテンツはイメージの他にも、音楽、動画、テキスト等でも良い。
例えば、ディスプレイ装置がMP3プレイヤーでコンテンツが音楽ファイルである場合について図13を参考にして簡略に説明する。図13は、本発明の一実施例に係るディスプレイ装置がMP3プレイヤーである場合、複数の音楽ファイルが3つの方向軸に配列されたものを示した図である。
ディスプレイ装置がMP3プレイヤーである場合、探索の対象は音楽になる。そして、第1分類基準、第2分類基準及び第3分類基準は各々ジャンル、歌手、アルバムを例として挙げられる。そこで、MP3プレイヤーは図13に示されたように、保存された音楽を3次元空間のx、y、z軸に各々ジャンル別、歌手別、アルバム別の分類基準に応じて配列するようになる。
図13に示されたように、x軸にはジャンルを分類基準にジャンル1、ジャンル2及びジャンル3に対する音楽が配列されることが分かる。そして、y軸には歌手を分類基準に歌手1、歌手2及び歌手3に対する音楽が配列されたことを確認できる。なお、z軸にはアルバムを分類基準にアルバム1、アルバム2及びアルバム3に対する音楽が配列されたことを確認できる。そして、図13で現在探索された音楽1300のジャンル分類基準はジャンル1、歌手分類基準は歌手1、アルバム分類基準はアルバム1であることが確認できる。
図13のように音楽が配列された場合、MP3プレイヤーは左側方向(−x方向)にショートストローク(stroke)操作が入力されると、音楽のジャンルの順に従って次の音楽(即ち、第1音楽1310)を探索するようになる。そして、MP3プレイヤーは左側方向にロングストローク(stroke)操作が入力されると、音楽のジャンルの順に従って現在探索された音楽1300のジャンル(ジャンル1)と異なるジャンル(ジャンル2)の音楽(即ち、第2音楽1311)を探索するようになる(即ち、ジャンルカテゴリの異なる音楽を探索するようになる)。
なお、MP3プレイヤーは右側方向(+x方向)にショートストローク(stroke)操作が入力されると、音楽のジャンルの順に従って以前の音楽(即ち、第3音楽1315)を探索するようになる。そして、MP3プレイヤーは右側方向にロングストローク(stroke)操作が入力されると、音楽のジャンルの順に従って現在探索された音楽1300のジャンル(ジャンル1)と異なるジャンル(ジャンル3)の音楽(即ち、第4音楽1316)を探索するようになる(即ち、ジャンルカテゴリの異なる音楽を探索するようになる)。
図13のように音楽が配列された場合、MP3プレイヤーは下側方向(−y方向)にショートストローク(stroke)操作が入力されると、音楽の歌手の順に従って次の音楽(即ち、第5音楽1325)を探索するようになる。そして、MP3プレイヤーは下側方向にロングストローク(stroke)操作が入力されると、音楽の歌手の順に従って現在探索された音楽1300の歌手(歌手1)と異なる歌手(歌手2)の音楽(即ち、第5音楽1325)を探索するようになる(即ち、歌手カテゴリの異なる音楽を探索するようになる)。
なお、MP3プレイヤーは上側方向(+y方向)にショートストローク(stroke)操作が入力されると、音楽の歌手の順に従って次の音楽(即ち、第6音楽1320)を探索するようになる。そして、MP3プレイヤーは上側方向にロングストローク(stroke)操作が入力されると、音楽の歌手の順に従って現在探索された音楽1300の歌手(歌手1)と異なる歌手(歌手3)の音楽(即ち、第7音楽1321)を探索するようになる(即ち、歌手カテゴリの異なる音楽を探索するようになる)。
図13のように音楽が配列された場合、MP3プレイヤーは左側の下段方向(−z方向)にショートストローク(stroke)操作が入力されると、音楽のアルバムの順に従って次の音楽(即ち、第8音楽1335)を探索するようになる。そして、MP3プレイヤーは左側の下段方向にロングストローク(stroke)操作が入力されると、音楽のアルバムの順に従って現在探索された音楽1300のアルバム(アルバム1)と異なるアルバム(アルバム2)の音楽(即ち、第9音楽1336)を探索するようになる(即ち、アルバムカテゴリの異なる音楽を探索するようになる)。
なお、MP3プレイヤーは右側の上段方向(+z方向)にショートストローク(stroke)操作が入力されると、音楽のアルバムの順に従って以前の音楽(即ち、第10音楽1330)を探索するようになる。そして、MP3プレイヤーは右側の上段方向にロングストローク(stroke)操作が入力されると、音楽のアルバムの順に従って現在探索された音楽1300のアルバム(アルバム1)と異なるアルバム(アルバム3)の音楽(即ち、第11音楽1331)を探索するようになる(即ち、アルバムカテゴリの異なる音楽を探索するようになる)。
このように、MP3プレイヤーは、ストローク操作方向に応じて、相互に異なる分類基準による音楽探索ができるようになる。
上述のように、本発明はディスプレイ装置がMP3プレイヤーでコンテンツが音楽である場合にも適用できることは言うまでもない。
本発明の多様な実施例によると、2つ以上の軸方向に対応される操作が入力され、入力された操作方向に応じて、相互に異なる2つ以上の分類基準を適用して複数のイメージのうち1つのイメージを探索するUI提供方法及びこれを適用したディスプレイ装置を提供できるようになり、ユーザは多様な分類基準を用いてより簡単に望むイメージを探索できるようになる。
特に、ユーザはタッチ方向を変更することで、探索の分類基準を変更できるため、より簡単に多様な方式で望むイメージを探索できるようになる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。

Claims (15)

  1. 2つ以上の軸方向に対応される操作が入力されるステップと、
    前記入力された操作方向に応じて、相互に異なる2つ以上の分類基準を適用して複数のイメージのうち1つのイメージを探索するステップと、
    を含むUI提供方法。
  2. 前記2つ以上の軸方向は、
    第1軸方向、第2軸方向及び第3軸方向を含み、
    前記2つ以上の分類基準は、
    第1分類基準、第2分類基準及び第3分類基準を含み、
    前記イメージの探索ステップは、
    前記第1軸方向に対応される操作が入力されると、前記第1分類基準に従ってイメージを探索するステップと、
    前記第2軸方向に対応される操作が入力されると、前記第2分類基準に従ってイメージを探索するステップと、
    前記第3軸方向に対応される操作が入力されると、前記第3分類基準に従ってイメージを探索するステップと、
    を含むことを特徴とする請求項1に記載のUI提供方法。
  3. 前記第1軸方向は画面を基準に左右方向であり、前記第2軸方向は前記画面を基準に上下方向であり、前記第3軸方向は前記画面を基準に斜め方向であることを特徴とする請求項2に記載のUI提供方法。
  4. 前記第1分類基準、第2分類基準及び第3分類基準は、
    時間、人物、場所、カラー、イベント及びシーン(scene)の種類のうち各々何れか1つずつ対応されることを特徴とする請求項3に記載のUI提供方法。
  5. 前記操作は、
    ショートストローク(short stroke)タッチ操作又はロングストローク(long stroke)タッチ操作であり、
    前記第1分類基準に従ってイメージを探索するステップは、
    前記第1軸方向に前記ショートストローク操作が入力されると、前記第1分類基準に従って以前又は次のイメージを探索するステップと、
    前記第1軸方向に前記ロングストローク操作が入力されると、前記第1分類基準に従って他カテゴリのイメージを探索するステップと、
    を含むことを特徴とする請求項2に記載のUI提供方法。
  6. 前記操作は、
    ショートストローク(short stroke)タッチ操作又はロングストローク(long stroke)タッチ操作であり、
    前記第2分類基準に従ってイメージを探索するステップは、
    前記第2軸方向に前記ショートストローク操作が入力されると、前記第2分類基準に従って以前又は次のイメージを探索するステップと、
    前記第2軸方向に前記ロングストローク操作が入力されると、前記第2分類基準に従って他カテゴリのイメージを探索するステップと、
    を含むことを特徴とする請求項2に記載のUI提供方法。
  7. 現在探索されたイメージが変更されると、前記変更されたイメージに基づいて第1分類基準、第2分類基準及び第3分類基準によるイメージの配列を再配列するステップを更に含むことを特徴とする請求項2に記載のUI提供方法。
  8. 前記第1分類基準で分類されたイメージに対するサムネイルを画面上の3次元空間のx軸方向に表示するステップと、
    前記第2分類基準で分類されたイメージに対するサムネイルを画面上の3次元空間のy軸方向に表示するステップと、
    前記第3分類基準で分類されたイメージに対するサムネイルを画面上の3次元空間のz軸方向に表示するステップと、
    を更に含むことを特徴とする請求項2に記載のUI提供方法。
  9. 探索の対象となる前記複数のイメージのうち現在探索されたイメージのみを画面に表示するステップを更に含むことを特徴とする請求項2に記載のUI提供方法。
  10. 複数のイメージが保存された保存部と、
    2つ以上の軸方向に対応されるユーザ操作が入力される操作部と、
    前記入力された操作方向に応じて、相互に異なる2つ以上の分類基準を適用して前記複数のイメージのうち1つのイメージを探索する制御部と、
    を含むディスプレイ装置。
  11. 前記2つ以上の軸方向は、
    第1軸方向、第2軸方向及び第3軸方向を含み、
    前記2つ以上の分類基準は、
    第1分類基準、第2分類基準及び第3分類基準を含み、
    前記制御部は、
    前記第1軸方向に対応される操作が入力されると、前記第1分類基準に従ってイメージを探索し、前記第2軸方向に対応される操作が入力されると、前記第2分類基準に従ってイメージを探索し、前記第3軸方向に対応される操作が入力されると、前記第3分類基準に従ってイメージを探索することを特徴とする請求項10に記載のディスプレイ装置。
  12. 前記第1軸方向は画面を基準に左右方向であり、前記第2軸方向は前記画面を基準に上下方向であり、前記第3軸方向は前記画面を基準に斜め方向であることを特徴とする請求項11に記載のディスプレイ装置。
  13. 前記第1分類基準、第2分類基準及び第3分類基準は、
    時間、人物、場所、カラー、イベント及びシーン(scene)の種類のうち各々何れか1つずつ対応されることを特徴とする請求項12に記載のディスプレイ装置。
  14. 前記操作は、
    ショートストローク(short stroke)タッチ操作又はロングストローク(long stroke)タッチ操作であり、
    前記制御部は、
    前記第1軸方向に前記ショートストローク操作が入力されると、前記第1分類基準に従って以前又は次のイメージを探索し、前記第1軸方向に前記ロングストローク操作が入力されると、前記第1分類基準に従って他カテゴリのイメージを探索することを特徴とする請求項11に記載のディスプレイ装置。
  15. 前記操作は、
    ショートストローク(short stroke)タッチ操作又はロングストローク(long stroke)タッチ操作であり、
    前記制御部は、
    前記第2軸方向に前記ショートストローク操作が入力されると、前記第2分類基準に従って以前又は次のイメージを探索し、前記第2軸方向に前記ロングストローク操作が入力されると、前記第2分類基準に従って他カテゴリのイメージを探索することを特徴とする請求項11に記載のディスプレイ装置。
JP2010154772A 2009-09-14 2010-07-07 Ui提供方法及びこれを適用したディスプレイ装置 Expired - Fee Related JP5872142B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2009-0086507 2009-09-14
KR1020090086507A KR101411593B1 (ko) 2009-09-14 2009-09-14 Ui 제공방법 및 이를 적용한 디스플레이 장치

Publications (2)

Publication Number Publication Date
JP2011060272A true JP2011060272A (ja) 2011-03-24
JP5872142B2 JP5872142B2 (ja) 2016-03-01

Family

ID=43731517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010154772A Expired - Fee Related JP5872142B2 (ja) 2009-09-14 2010-07-07 Ui提供方法及びこれを適用したディスプレイ装置

Country Status (3)

Country Link
US (1) US8626762B2 (ja)
JP (1) JP5872142B2 (ja)
KR (1) KR101411593B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117907A (ja) * 2011-12-05 2013-06-13 Casio Comput Co Ltd 表示データ制御装置及び表示データ制御方法並びにプログラム

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
JP2010054762A (ja) * 2008-08-28 2010-03-11 Sony Corp 情報処理装置および方法、並びにプログラム
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
JP2011210138A (ja) * 2010-03-30 2011-10-20 Sony Corp 電子機器、画像出力方法及びプログラム
US8881060B2 (en) 2010-04-07 2014-11-04 Apple Inc. Device, method, and graphical user interface for managing folders
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
KR101881356B1 (ko) 2011-11-29 2018-07-24 삼성전자주식회사 Ui 제공방법 및 이를 적용한 디스플레이 장치
US9213479B2 (en) * 2012-02-16 2015-12-15 Samsung Medison Co., Ltd. Method and apparatus for displaying image
WO2013181622A2 (en) * 2012-06-01 2013-12-05 Sas Ip User interface and method of data navigation in the user interface of engineering analysis applications
JP2015156051A (ja) * 2012-06-06 2015-08-27 ソニー株式会社 画像処理装置、画像処理方法、プログラム
US9569083B2 (en) * 2012-12-12 2017-02-14 Adobe Systems Incorporated Predictive directional content queue
US9575998B2 (en) 2012-12-12 2017-02-21 Adobe Systems Incorporated Adaptive presentation of content based on user action
KR102090269B1 (ko) * 2012-12-14 2020-03-17 삼성전자주식회사 정보 검색 방법, 그와 같은 기능을 갖는 디바이스 및 기록 매체
US9696874B2 (en) * 2013-05-14 2017-07-04 Google Inc. Providing media to a user based on a triggering event
US9843623B2 (en) 2013-05-28 2017-12-12 Qualcomm Incorporated Systems and methods for selecting media items
CA2912836A1 (en) 2013-06-05 2014-12-11 Snakt, Inc. Methods and systems for creating, combining, and sharing time-constrained videos
USD738394S1 (en) * 2013-06-09 2015-09-08 Apple Inc. Display screen or portion thereof with animated graphical user interface
JP6167703B2 (ja) * 2013-07-08 2017-07-26 株式会社リコー 表示制御装置、プログラム及び記録媒体
WO2015019556A1 (ja) * 2013-08-07 2015-02-12 パナソニックIpマネジメント株式会社 症例表示装置、症例表示方法およびプログラム
KR102129594B1 (ko) 2013-10-30 2020-07-03 애플 인크. 관련 사용자 인터페이스 객체를 표시
USD753149S1 (en) * 2013-12-30 2016-04-05 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD753146S1 (en) * 2013-12-30 2016-04-05 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD766928S1 (en) 2015-02-12 2016-09-20 Snakt, Inc. Video viewing display screen with transitional graphical user interface
USD766929S1 (en) * 2015-02-13 2016-09-20 Snakt, Inc. Video viewing display screen with graphical user interface
JP6841232B2 (ja) * 2015-12-18 2021-03-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
JP6689226B2 (ja) * 2017-03-15 2020-04-28 富士フイルム株式会社 特徴印象軸決定システム,特徴印象軸決定方法およびそのプログラム
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets
KR102115989B1 (ko) * 2020-02-25 2020-05-27 주식회사 이글루시큐리티 3차원 대시보드 제공 방법, 장치 및 프로그램

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0855004A (ja) * 1994-08-09 1996-02-27 Casio Comput Co Ltd データ表示装置
JP2007299330A (ja) * 2006-05-02 2007-11-15 Sony Computer Entertainment Inc 画像表示装置、その制御方法及びプログラム
JP2008011033A (ja) * 2006-06-28 2008-01-17 Sony Ericsson Mobilecommunications Japan Inc 情報処理装置、情報処理方法、情報処理プログラム、及び携帯端末装置
JP2009070317A (ja) * 2007-09-18 2009-04-02 Pioneer Electronic Corp 表示制御装置及び表示制御方法等
JP2009159492A (ja) * 2007-12-27 2009-07-16 Olympus Imaging Corp 表示制御装置,カメラ,表示制御方法,表示制御プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260671A (ja) * 1997-03-21 1998-09-29 Sony Corp 画像表示制御装置および方法
US6281898B1 (en) * 1997-05-16 2001-08-28 Philips Electronics North America Corporation Spatial browsing approach to multimedia information retrieval
US6121969A (en) * 1997-07-29 2000-09-19 The Regents Of The University Of California Visual navigation in perceptual databases
US6356971B1 (en) * 1999-03-04 2002-03-12 Sony Corporation System for managing multimedia discs, tracks and files on a standalone computer
US7046230B2 (en) * 2001-10-22 2006-05-16 Apple Computer, Inc. Touch pad handheld device
JP4325449B2 (ja) 2004-03-19 2009-09-02 ソニー株式会社 表示制御装置,表示制御方法,記録媒体
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
KR101421726B1 (ko) * 2007-10-30 2014-07-22 엘지전자 주식회사 사진 브라우징 방법
US8493408B2 (en) * 2008-11-19 2013-07-23 Apple Inc. Techniques for manipulating panoramas
EP2392999A4 (en) * 2009-02-02 2013-11-27 Panasonic Corp INFORMATION DISPLAY DEVICE

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0855004A (ja) * 1994-08-09 1996-02-27 Casio Comput Co Ltd データ表示装置
JP2007299330A (ja) * 2006-05-02 2007-11-15 Sony Computer Entertainment Inc 画像表示装置、その制御方法及びプログラム
JP2008011033A (ja) * 2006-06-28 2008-01-17 Sony Ericsson Mobilecommunications Japan Inc 情報処理装置、情報処理方法、情報処理プログラム、及び携帯端末装置
JP2009070317A (ja) * 2007-09-18 2009-04-02 Pioneer Electronic Corp 表示制御装置及び表示制御方法等
JP2009159492A (ja) * 2007-12-27 2009-07-16 Olympus Imaging Corp 表示制御装置,カメラ,表示制御方法,表示制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117907A (ja) * 2011-12-05 2013-06-13 Casio Comput Co Ltd 表示データ制御装置及び表示データ制御方法並びにプログラム

Also Published As

Publication number Publication date
KR101411593B1 (ko) 2014-06-25
JP5872142B2 (ja) 2016-03-01
US20110066627A1 (en) 2011-03-17
US8626762B2 (en) 2014-01-07
KR20110028877A (ko) 2011-03-22

Similar Documents

Publication Publication Date Title
JP5872142B2 (ja) Ui提供方法及びこれを適用したディスプレイ装置
US9307153B2 (en) Method and apparatus for previewing a dual-shot image
US9912870B2 (en) Method for transmitting image and image pickup apparatus applying the same
CN111383304A (zh) 用于计算设备的图像检索
JP2014116009A (ja) ディスプレイ装置およびそのイメージ表示方法
US20230224574A1 (en) Photographing method and apparatus
US9621790B2 (en) Imaging device, imaging method and storage medium
US20230336671A1 (en) Imaging apparatus
US9389753B2 (en) Apparatus and method of providing user interface
US9674449B2 (en) Image display apparatus that displays a menu corresponding to an object, image display method that displays a menu corresponding to an object, and storage medium thereof
US9767587B2 (en) Image extracting apparatus, image extracting method and computer readable recording medium for recording program for extracting images based on reference image and time-related information
US10447935B2 (en) Image generating apparatus, image generating method and computer readable recording medium for recording program for generating new image from images related to reference image
WO2012160898A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US20110304644A1 (en) Electronic apparatus and image display method
WO2022206605A1 (zh) 确定目标对象的方法、拍摄方法和装置
JP2013175956A (ja) 撮像装置、撮像方法、画像処理装置、画像処理方法および画像処理システム
WO2023142690A1 (zh) 一种复原拍摄的方法及电子设备
KR20130104483A (ko) 객체를 분할하여 사진을 촬영하는 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150304

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150312

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160113

R150 Certificate of patent or registration of utility model

Ref document number: 5872142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees