JP5791605B2 - メタデータのタグ付けシステム、イメージ検索方法、デバイス及びそれに適用されるジェスチャーのタグ付け方法 - Google Patents

メタデータのタグ付けシステム、イメージ検索方法、デバイス及びそれに適用されるジェスチャーのタグ付け方法 Download PDF

Info

Publication number
JP5791605B2
JP5791605B2 JP2012525501A JP2012525501A JP5791605B2 JP 5791605 B2 JP5791605 B2 JP 5791605B2 JP 2012525501 A JP2012525501 A JP 2012525501A JP 2012525501 A JP2012525501 A JP 2012525501A JP 5791605 B2 JP5791605 B2 JP 5791605B2
Authority
JP
Japan
Prior art keywords
metadata
image
user
gesture
mobile phone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012525501A
Other languages
English (en)
Other versions
JP2013502637A (ja
Inventor
ケウン−コー・イ
ジ−ヨン・クァク
セウン−ドン・ユ
ヒュン−チョ・オウ
ヨン−ヒ・ロ
チョン−ファン・キム
ソン−ミン・ヨ
ミン−ジュン・パク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013502637A publication Critical patent/JP2013502637A/ja
Application granted granted Critical
Publication of JP5791605B2 publication Critical patent/JP5791605B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、メタデータのタグ付けシステム、イメージ検索方法、デバイス及びそれに適用されるジェスチャーのタグ付け方法に関し、より詳細には、タグ付けされているメタデータに基づいてイメージを検索するためのメタデータのタグ付けシステム、イメージ検索方法、デバイス及びそれに適用されるジェスチャーのタグ付け方法に関する。
通常、ユーザは、データに関連するキーワードを入力したりシステムによって提供されるキーワードの中から選択してデータに対する検索を行なうようになる。これは、データの内容を示すメタデータと予め用意されているデータベース間の関連登録を通じて行なわれるようになる。
しかし、このような方式を通じてユーザが円滑にデータを検索するためには、メタデータとデータベースとの間の関連登録を随時行なう必要があるため、ユーザはかなりの手間を強いられる。即ち、メタデータとデータベースとの間の関連登録が十分に行なわれていない場合、ユーザは膨大なデータの中から必要なデータに対する効果的な検索に支障が生じることがある。
これにより、関連登録のようなユーザが別途に入力することなく、メタデータを自動的に抽出し、抽出されたメタデータに基づいて効果的にデータが検索できるようにするための方策への模索が求められる。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、データを簡単かつ便利に検索できるようにするためのメタデータのタグ付けシステム、イメージ検索方法、デバイス及びそれに適用されるジェスチャーのタグ付け方法に関する。
前記目的を達成するための本発明の一実施形態に係るメタデータのタグ付けシステムは、イメージを分析して前記イメージに対する少なくとも一つのメタデータを抽出し、前記メタデータを前記イメージにタグ付けして前記メタデータのタグ付けされているイメージを第3デバイスに伝達する第1デバイスと、前記メタデータに基づいて、前記第3デバイスに保存されているイメージのうち少なくともいずれか一つが検索されるようにする第2デバイスとを含む。
ここで、前記第1デバイスは、顔認識アルゴリズムと、形態分析アルゴリズム及び色分析アルゴリズムのうち少なくともいずれか一つを用いて、前記イメージを分析し、前記イメージに含まれている人物と、場所と、事物及びモーションのうち少なくともいずれか一つに関するメタデータを抽出してよい。
なお、前記第1デバイスは、前記イメージの生成された日付及び時間に対する情報を保存し、前記日付及び時間に対する情報をメタデータとして抽出してよい。
そして、前記第1デバイスは、GPS信号を受信して前記イメージの生成された位置に関するメタデータを抽出してよい。
なお、前記第1デバイスは、前記イメージが生成された後、ユーザの操作を通じて入力された情報に基づいて前記メタデータを抽出してよい。
そして、前記第2デバイスは、前記第2デバイスに表示されるテキストのうち少なくともいずれか一つを選択して前記第3デバイスに伝送することにより、前記第3デバイスで前記選択されたテキストに基づいて前記第3デバイスに保存されているイメージのうち少なくともいずれか一つを検索するようにしてよい。
なお、前記第2デバイスは、前記第2デバイスに表示されているカレンダから特定の日付を選択し、前記第3デバイスに伝送することにより、前記第3デバイスで前記選択された日付に基づいて前記第3デバイスに保存されているイメージのうち少なくともいずれか一つを検索するようにしてよい。
そして、前記第2デバイスは、前記第2デバイスに表示されている地図から特定の位置を選択し、前記第3デバイスに伝送することにより、前記第3デバイスで前記選択された位置に基づいて前記第3デバイスに保存されているイメージのうち少なくともいずれか一つを検索するようにしてよい。
なお、前記第2デバイスは、前記第2デバイスで撮影されたイメージからユーザのモーションを抽出して前記第3デバイスに伝送することにより、前記第3デバイスで前記モーションに基づいて前記第3デバイスに保存されているイメージのうち少なくともいずれか一つを検索するようにしてよい。
そして、前記第3デバイスは、前記第3デバイスに保存されているイメージにタグ付けされているメタデータに基づいて前記検索を行ない、検索されたイメージを前記第2デバイスに伝送してよい。
なお、前記第1デバイスは、ユーザのメタデータの使用パターン又はユーザによって設定される優先順位に応じて、抽出されたメタデータ中の一部のメタデータのみを選択してイメージにタグ付けしてよい。
前記目的を達成するための本発明の一実施形態に係るイメージ検索方法は、イメージを分析して前記イメージに対する少なくとも一つのメタデータを抽出するステップと、前記メタデータを前記イメージにタグ付けして前記メタデータのタグ付けされているイメージを外部デバイスに保存するステップと、前記メタデータに基づいて、前記外部デバイスに保存されているイメージのうち少なくともいずれか一つを検索するステップとを含む。
一方、本発明の一実施形態に係るデバイスは、ユーザのジェスチャーが入力される操作部と、前記入力されたユーザのジェスチャーを特定のコンテンツのメタデータにタグ付けする制御部とを含む。
そして、前記操作部は、ユーザのタッチ操作が入力され、前記ジェスチャーは、ユーザによって入力された特定の形状のタッチ操作であってよい。
なお、前記制御部は、前記ジェスチャーが前記特定のコンテンツのメタデータにタグ付けされている状態で前記操作部を介して前記ジェスチャーが入力されると、前記特定のコンテンツを実行してよい。
このように、生成されたデータを分析してメタデータをタグ付けして保存することにより、データをより簡単かつ便利に検索して使用できるようになる。
なお、ジェスチャーをメタデータにタグ付けできるようになるため、ユーザはジェスチャーを用いて所望のコンテンツを検索できるようになる。
本発明の一実施形態に係るメタデータのタグ付けシステムを示す図である。 本発明の一実施形態に係るメタデータのタグ付け方法を説明するために提供される図である。 本発明の別の実施形態に係るメタデータのタグ付け方法を説明するために提供される図である。 メタデータのタグ付けされたイメージが表示されている画面を示す図である。 イメージ検索方法を説明するための図である。 各々の検索方法画面を示す図である。 各々の検索方法画面を示す図である。 各々の検索方法画面を示す図である。 各々の検索方法画面を示す図である。 各々の検索方法画面を示す図である。 中央保存装置によって検索されたイメージがMP3Pに伝送されてMP3Pの画面に表示されている様子を示す図である。 モバイルフォンに対する概略的なブロック図である。 中央保存装置に対する概略的なブロック図である。 本発明の一実施形態に係るモバイルフォンを用いて音楽コンテンツのメタデータにユーザのジェスチャーをタグ付けする過程を示す図である。 本発明の一実施形態に係るモバイルフォンを用いて音楽コンテンツのメタデータにユーザのジェスチャーをタグ付けする過程を示す図である。 本発明の一実施形態に係るモバイルフォンを用いて音楽コンテンツのメタデータにユーザのジェスチャーをタグ付けする過程を示す図である。 本発明の一実施形態に係るモバイルフォンを用いて音楽コンテンツのメタデータにユーザのジェスチャーをタグ付けする過程を示す図である。 本発明の一実施形態に係るモバイルフォンを用いて音楽コンテンツのメタデータにユーザのジェスチャーをタグ付けする過程を示す図である。 本発明の一実施形態に係るモバイルフォンを用いて音楽コンテンツのメタデータにユーザのジェスチャーをタグ付けする過程を示す図である。 本発明の一実施形態に係るジェスチャーを用いてコンテンツを実行させる過程を示す図である。 本発明の一実施形態に係るジェスチャーを用いてコンテンツを実行させる過程を示す図である。 本発明の一実施形態に係るジェスチャーを用いてコンテンツを実行させる過程を示す図である。 本発明の一実施形態に係るモバイルフォンを用いて音楽コンテンツのメタデータにタグ付けされているジェスチャーを変更する過程を示す図である。 本発明の一実施形態に係るモバイルフォンを用いて音楽コンテンツのメタデータにタグ付けされているジェスチャーを変更する過程を示す図である。 本発明の一実施形態に係るモバイルフォンを用いて音楽コンテンツのメタデータにタグ付けされているジェスチャーを変更する過程を示す図である。 本発明の一実施形態に係るモバイルフォンを用いて音楽コンテンツのメタデータにタグ付けされているジェスチャーを変更する過程を示す図である。 本発明の一実施形態に係るモバイルフォンを用いて音楽コンテンツのメタデータにタグ付けされているジェスチャーを変更する過程を示す図である。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。特に、図1ないし図3を参照しながら、メタデータのタグ付けシステムの構成及び動作フローについて説明し、図4ないし図11を参照しながら、タグ付け画面及び検索画面について説明し、図12及び図13を参照しながら、メタデータのタグ付けのための各装置の構成について説明する。
<メタデータのタグ付けシステムの構成及び動作フロー>
図1は、本発明の一実施形態に係るメタデータのタグ付けシステムを示す図である。本実施形態に係るメタデータのタグ付けシステムは、撮影されたイメージのメタデータを抽出し、抽出されたメタデータを撮影されたイメージにタグ付けして保存し、これにより、ユーザによって撮影されたイメージに対する検索が容易になる。
メタデータのタグ付けシステムは、モバイルフォン100と、中央保存装置200と、複数の周辺装置310、320、330、340とで構成される。
モバイルフォン100は、ユーザが携帯して持ち歩く移動端末の一種として、別の通信加入者と通話するための究極的な目的の他に、被写体を撮影して撮影されたイメージが後述の中央保存装置200に保存されるようにする付随的な目的としても使われる。
モバイルフォン100は、内蔵カメラを介して被写体を撮影することができ、撮影された被写体に対するイメージを分析してイメージの属性に対する情報、即ち、イメージのメタデータを抽出し、抽出されたメタデータをイメージにタグ付けして中央保存装置200に伝送し、中央保存装置200でタグ付けされているイメージが保存されるようにする。イメージにメタデータをタグ付けする方法については後述する。
中央保存装置200は、一般に固定された場所で使われる固定式保存装置の一種として、モバイルフォン100から受信されたイメージを保存し、周辺装置310、320、330、340のうちいずれか一つから受信されたイメージに対する呼出し命令に従って呼び出されたイメージを周辺装置310、320、330、340のうちいずれか一つに伝送する。
無論、中央保存装置200は、モバイルフォン100ではない周辺装置310から生成されたイメージに対する保存も可能であり、周辺装置310、320、330、340ではないモバイルフォン100へのイメージ伝送も可能である。
周辺装置310、320、330、340とは、ユーザによってい携帯され使用される装置及び自宅内に固定された場所で使われる装置をすべて含み、本実施形態ではMP3P310と、デジタルカメラ320と、テレビ330及びモニタ340を例示的に示した。
一方、周辺装置310、320、330、340は各自本然の役割の他に、中央保存装置200にアクセスして中央保存装置200に保存されているイメージを受信することができる。特に、周辺装置310、320、330、340は中央保存装置200に保存されているイメージ中の一部に対して受信が可能であり、このような一部のイメージを選択するために、多様な検索方法を選択することができる。検索方法について後述する。
図2は、本発明の一実施形態に係るメタデータのタグ付け方法を説明するために提供される図である。以下では、説明の便宜性のために、周辺装置を代表する装置としてMP3P310を基準に説明する。
モバイルフォン100が被写体を撮影してイメージを生成する(S410)、モバイルフォン100は生成されたイメージを分析し(S420)、イメージに対するメタデータを抽出する(S430)。
メタデータを抽出する方法としては、次のようなことを挙げることができる。
(1)まず、生成されたイメージを分析してメタデータを抽出する方法である。イメージを分析のために、顔認識アルゴリズム、形態分析アルゴリズムなどが使われてよく、モバイルフォン100のようなアルゴリズムを用いて、生成されたイメージに含まれている人物又は動物に対する情報、場所に対する情報、周囲の事物に対する情報、人物又は動物の動作に対する情報などを抽出することができる。
例えば、モバイルフォン100は生成されたイメージから顔部分を把握し、顔部分の具体的な輪郭、目鼻立ちの位置などを分析して人物に対する情報を把握することができ、生成されたイメージに含まれている道標や看板などの事物に基づいて場所に対する情報を把握することができる。
(2)次に、イメージの生成された時点の日付/時間情報に基づいてメタデータを抽出する方法である。日付/時間に対する情報は、被写体の撮影の際に、モバイルフォン100に自動的に保存される日付/時間情報をそのまま用いることができる。
例えば、被写体を撮影した日付が2009年5月1日の場合、このようなデータはモバイルフォン100にそのまま保存され、モバイルフォン100はそれに基づいてメタデータとして抽出することができる。
(3)なお、GPS信号受信機を用いてイメージが生成された位置に対する情報に基づいてメタデータを抽出する方法も考えられる。GPS信号受信機は、被写体が撮影される時点で、被写体が撮影される具体的な位置に対する情報を把握し、このような情報がモバイルフォン100に伝達されるようにすることができ、モバイルフォン100はそれに基づいてメタデータを抽出することができる。
(4)更に、ユーザから直接入力された内容に基づいてメタデータを抽出することもできる。即ち、ユーザが被写体を撮影して撮影されたイメージに関連する内容を入力する場合、モバイルフォン100はこのような内容に基づいてもメタデータを抽出することができる。
一方、モバイルフォン100は抽出されたメタデータをイメージにタグ付けする(S440)。メタデータが複数個存在する場合、複数個のメタデータをイメージにタグ付けする。
なお、複数個のメタデータが抽出された場合、モバイルフォン100は複数個のメタデータ中の一部のメタデータのみを選択してイメージにタグ付けすることもできる。このとき、モバイルフォン100は、ユーザの使用パターン及びユーザによって設定される優先順位に応じてメタデータを選択することができる。
ここで、ユーザの使用パターンはユーザがメタデータを用いてイメージを検索した履歴によるパターンを示す。具体的に、モバイルフォン100は抽出されたメタデータの中からユーザの使用頻度が最も高い種類のメタデータを選択し、イメージにタグ付けすることができる。例えば、ユーザの使用頻度が最も高い種類のメタデータが顔認識によるメタデータである場合、モバイルフォン100は抽出されたメタデータの中から顔認識によるメタデータのみを選択し、イメージにタグ付けすることもできる。
そして、ユーザによって設定される優先順位とは、ユーザがメタデータの種類のそれぞれに対して予め設定しておいた優先順位を表す。そして、モバイルフォン100は抽出されたメタデータの中から優先順位が最も高いメタデータを選択し、イメージにタグ付けするようになる。例えば、ユーザが顔認識を通じて抽出されたメタデータを第1順位に設定した場合、モバイルフォン100は多様なメタデータの中から、顔認識を通じて抽出されたメタデータを選択してイメージにタグ付けするようになる。
このように、モバイルフォン100は、複数個のメタデータが抽出された場合、その中の一部を選択してイメージにタグ付けすることもできる。
このように、イメージにメタデータがタグ付けされると、モバイルフォン100はタグ付けされているイメージを中央保存装置200に伝送する。
中央保存装置200は、メタデータにタグ付けされたイメージを保存する(S460)。
一方、MP3P310は、中央保存装置200にタグ付けされて保存されているイメージの中でユーザの望むイメージを選択的に受信するため、ユーザからイメージ検索方法を選択されるようになる(S470)。
ユーザからイメージ検索方法が選択されると、MP3P310は選択された方法に従ってイメージを検索することを中央保存装置200に要請し(S480)、中央保存装置200は要請された検索方法でイメージを検索して抽出し(S490)、抽出されたイメージをMP3P310に伝送する(S500)。
このように、モバイルフォン100は、撮影されたイメージを分析してメタデータをタグ付けし、それにより、MP3P310はモバイルフォン100で撮影されたイメージを簡単かつ便利に検索して使用できるようになる。
一方、図3は、本発明の別の実施形態に係るメタデータのタグ付け方法を説明するために提供される図である。
モバイルフォン100が被写体を撮影してイメージを生成し(S510)、モバイルフォン100は生成されたイメージを中央保存装置200に伝送する(S520)。
中央保存装置200は受信されているイメージを分析し(S530)、分析されたイメージに対するメタデータを抽出し(S540)、抽出されたメタデータを受信されているイメージにタグ付けする(S550)。なお、中央保存装置200はメタデータのタグ付けされているイメージを保存する(S560)。
一方、MP3P310は、中央保存装置200にタグ付けされて保存されているイメージの中でユーザの望むイメージを選択的に受信するため、ユーザからイメージ検索方法を選択されるようになる(S570)。
ユーザからイメージ検索方法が選択されると、MP3P310は選択された方法に従ってイメージを検索することを中央保存装置200に要請し(S580)、中央保存装置200は要請された検索方法でイメージを検索して抽出し(S590)、抽出されたイメージをMP3P310に伝送する(S600)。
このように、モバイルフォン100で撮影されたイメージは中央保存装置200に伝送され、中央保存装置200は受信されているイメージを分析してメタデータをタグ付けし、それにより、MP3P310はモバイルフォン100で撮影されたイメージを簡単かつ便利に検索して使用できるようになる。
<タグ付け画面及び検索画面>
図4は、メタデータのタグ付けされているイメージが表示されている画面を示す図である。図4においては、説明の便宜上、図2の実施形態と同様に、モバイルフォン100でメタデータがタグ付けされるものとして想定して説明を進める。
画面には、撮影されたイメージ610とタグ付けされているメタデータ620も同時に表示される。
(1)まず、撮影されたイメージ610を参考にすると、一人の人物とデスクが被写体となっていることが分かる。モバイルフォン100は、このようなイメージ610を分析してメタデータの中から、「Office」、「Suji」、「Red」及び「Desk」というメタデータを抽出する。
具体的に、モバイルフォン100は、形態分析アルゴリズムを用いてイメージ610にDeskが含まれていることが分かるようになり、特に、予め保存されているイメージ中の「Desk」というメタデータがタグ付けされているイメージに対する形態分析結果と撮影されたイメージ610に対する形態分析結果との比較を通じて分かるようになる。
なお、モバイルフォン100は形態分析アルゴリズムを用いて撮影されたイメージ610に該当する場所がOfficeであることが分かるようになる。特に、予め保存されているイメージ中の「Desk」というメタデータがタグ付けされているイメージに対する形態分析結果と、撮影されたイメージ610に対する形態分析結果との比較を通じて、予め保存されているイメージ中の「Desk」というメタデータがタグ付けされているイメージと撮影されたイメージ610に該当する場所とが同一であるという結論が出されると、「Desk」というメタデータがタグ付けされているイメージの別のメタデータである「Office」を撮影されたイメージ610のメタデータとして抽出することができる。
それと同様に、モバイルフォン100は顔認識アルゴリズムを用いて撮影されたイメージ610に該当する人物がSujiであることが分かるようになる。特に、予め保存されているイメージ中の「Suji」というメタデータがタグ付けされているイメージに対する顔認識結果と撮影されたイメージ610に対する顔認識結果との比較を通じて、予め保存されているイメージ中の「Suji」というメタデータがタグ付けされているイメージと撮影されたイメージ610に該当する人物とが同一であるという結論が出されると、「Suji」というメタデータがタグ付けされているイメージのメタデータと同一の「Suji」を撮影されたイメージ610のメタデータとして抽出することができる。
それだけでなく、モバイルフォン100は、撮影されたイメージ610のカラー分析を通じて撮影されたイメージ610のカラー中のRedカラーが支配的であるという結論が出されると、「Red」というメタデータを抽出することができる。
(2)次に、モバイルフォン100を介してユーザがイメージ610を撮影すると、モバイルフォン100はイメージ610が撮影された日付を保存することになる。モバイルフォン100はそれに基づいて、イメージ610が生成された時点の日付/時間をメタデータとして抽出する。本実施形態では、イメージ610が撮影された日付が「2009年5月1日」であることが分かる。
(3)なお、モバイルフォン100を介してユーザがイメージ610を撮影すると、モバイルフォン100は内蔵のGPS信号受信手段を用いて、イメージ610が生成された位置に対する情報を保存するようになる。モバイルフォン100はそれに基づいて、イメージ610の生成された時点の日付/時間をメタデータとして抽出する。本実施形態では、イメージ610の撮影された位置が「Seoul」であることが分かる。
本実施形態では、顔認識アルゴリズム、形態分析アルゴリズム、色分析アルゴリズムなどを通じて、「Office」、「Suji」、「Seoul」、「2009−05−01」、「Red」及び「Desk」のようなメタデータが抽出されたものと想定したが、これは説明の便宜性のための例示的な事項に過ぎず、それ以外のメタデータが抽出された場合にも本発明が適用されてよく、以上で説明したものと別の方式を通じてメタデータが抽出されてもよい。
特に、上述のように、(4)ユーザから直接入力された内容に基づいてメタデータを抽出することもできる。
このような方式を通じて撮影されたイメージに対するメタデータがイメージとともに中央保存装置200に保存されるようになり、ユーザは保存されているメタデータを通じてイメージ検索をより簡単かつ便利にできるようになる。
以下では、図5ないし図7を参照しながら、イメージを検索して表示する過程について説明する。
図5は、イメージ検索方法を説明するための図である。
ユーザがMP3P310にイメージ検索のための命令を入力すると、MP3P310のディスプレイには検索方法を選択するための画面が表示される。このような検索方法の選択画面は、(a)日付/時間検索、(b)テキスト検索、(c)地図検索、(d)モーション検索で構成される。なお、ユーザは画面に表示されている検索方法の中からいずれか一つを選択し、中央保存装置200に保存されているイメージを検索することができるようになる。
図6ないし図10は、それぞれの検索方法画面を示す図である。
ユーザが(a)日付/時間検索を選択すると、図6に示すように、MP3P310のディスプレイにはカレンダ画面が表示される。
従って、ユーザはMP3P310のディスプレイに表示されているカレンダ画面の中から所望の日付を選択することができ、このようなユーザの日付選択操作に応じて、MP3P310は選択された日付をメタデータとするイメージに対する伝送要請を中央保存装置200に伝送するようになる。
その後、MP3P310は、選択された日付をメタデータとするイメージが中央保存装置200によって検索された結果を受信するようになる。このような検索された結果は、イメージそのものであってよく、イメージに対する別途の情報であってよい。
無論、以上で説明した日付選択方法は例示的なものであって、本発明がこのような日付選択方法に限られて理解されるべきではない。
一方、ユーザが、(b)テキスト検索を選択すると、図7に示すように、MP3P310のディスプレイには多様なテキストが同時に表示される。このようなテキストは、メタデータに対するテキストとして、ランダムに画面上に表示されているり、重要度や頻度などを考慮してサイズ、位置が決定されて表示されてよい。
具体的に、MP3P310は、ユーザの使用頻度の高いメタデータを別のメタデータと別の形態で表示することもできる。例えば、MP3P310は、ユーザの使用頻度の最も高いメタデータに対するテキストをその他のテキストと異なるポント、異なるサイズ又は色相で表示することもできる。そして、MP3Pは使用頻度の最も高いメタデータに対するテキストを最も高い位置に表示することもできる。
それと同様に、MP3P310はユーザによって設定される優先順位が最も高いメタデータを別のメタデータと別の形態で表示することもできる。例えば、MP3P310は、優先順位の最も高いメタデータに対するテキストをその他のテキストと異なるポント、異なるサイズ又は色相で表示することもできる。そして、MP3Pは優先順位の最も高いメタデータに対するテキストを最も高い位置に表示することもできる。従って、ユーザはMP3P310のディスプレイに表示されているメタデータに対するテキストの中から所望のテキストを選択することができ、このようなユーザのテキスト選択操作によって、MP3P310は選択されたテキストをメタデータとするイメージに対する伝送要請を中央保存装置200に伝送するようになる。
その後、MP3P310は、選択されたテキストをメタデータとするイメージが中央保存装置200によって検索された結果を受信するようになる。このような検索の結果は、イメージそのものであってよく、イメージに対する別途の情報であってよい。
無論、以上で説明したテキスト選択方法は例示的なものであって、本発明がこのようなテキスト選択方法に限られて理解されるべきではない。
次に、ユーザが(c)地図検索を選択すると、図8に示すように、MP3P310のディスプレイには地図画面が表示される。
従って、ユーザがMP3P310のディスプレイに表示されている地図画面の中から所望の位置(地域)を選択することができ、このようなユーザの位置選択操作によって、MP3P310は選択された位置(地域)をメタデータとするイメージに対する伝送要請を中央保存装置200に伝送するようになる。
その後、MP3P310は、選択された位置(地域)をメタデータとするイメージが中央保存装置200によって検索された結果を受信するようになる。このような検索の結果は、イメージそのものであってよく、イメージに対する別途の情報であってよい。
無論、以上で説明した位置(地域)選択方法は例示的なものであって、本発明がこのような位置(地域)選択方法に限られて理解されるべきではない。
次に、ユーザ(d)モーション検索を選択すると、図9に示すように、MP3P310は撮影モードに突入する。
従って、ユーザはMP3P310を介して被写体を撮影することができ、MP3P310は撮影された被写体の中から、図10のように特徴部分を抽出する。これにより、MP3P310は、特徴部分のイメージそのものをメタデータとし、特徴部分のイメージと同一のイメージを含むイメージに対する伝送要請を中央保存装置200に伝送するようになる。
その後、MP3P310は、特徴部分のイメージを含むイメージが中央保存装置200によって検索された結果を受信するようになる。このような検索の結果は、イメージそのものであってよく、イメージに対する別途の情報であってよい。
無論、以上で説明したモーション検索方法も説明の便宜上のための例示的なものあって、本発明がこのようなモーション検索方法に限られて理解されるべきではない。
一方、図11は、中央保存装置200によって検索されたイメージがMP3P310に伝送されてMP3P310の画面に表示されている様子を示す図である。
特に、図11は、MP3P310に入力された日付検索によって、「2009年5月1日」というメタデータを持つイメージが中央保存装置200によって検索され、MP3P310に受信されて表示される様子を示すものである。
このような方式を通じて、ユーザは相違するデバイスであるMP3P310の操作により、中央保存装置200に保存されているイメージをより簡単かつ便利に検索することができるようになる。
<メタデータのタグ付けのための各装置の構成>
図12は、以上で説明したモバイルフォン100に対する概略的なブロック図である。
モバイルフォン100は、撮影部110と、映像処理部120と、ディスプレイ130と、操作部140と、制御部150と、通信部160と、GPS信号受信部170及び保存部180を含む。
撮影部110は被写体を撮影し、撮影された映像信号を映像処理部120に伝達する。
映像処理部120は、撮影された映像信号を用いてイメージを生成し、生成されたイメージをディスプレイ130に伝達し、これにより、ディスプレイ130は受信されたイメージを画面に表示する。なお、映像処理部120は、顔認識アルゴリズム、形態分析アルゴリズム、色分析アルゴリズムなどを通じて生成されたイメージを分析した結果を制御部150に伝達する。
更に、映像処理部120は、制御部150から受信されたメタデータの生成されたイメージに付加されるようにする。
操作部140は、ユーザの操作命令を入力される。具体的に、操作部140は被写体撮影のためのユーザの操作、イメージ分析に対するユーザの操作、メタデータ抽出及びタグ付けに対するユーザの操作及びタグ付けされているイメージの伝送に対するユーザの操作を入力される。
操作部140は、入力されたユーザの操作命令を制御部150に伝達する。
制御部150は、モバイルフォン100に対する動作全般を制御する。特に、制御部150は映像処理部120でイメージが分析されるように制御し、映像処理部120でイメージを分析した結果に基づいてイメージのメタデータを抽出し、抽出されたメタデータがイメージにタグ付けされるようにする。
通信部160は、制御部150に制御下で、無線通信方式を用いてタグ付けされているイメージを外部に伝送する。
GPS信号受信部170は、衛星などからモバイルフォン100の存在する位置に対する情報を受信して制御部150に伝送し、イメージが生成されると、制御部150は位置に対する情報を生成されたイメージに対するメタデータとして抽出する。
保存部180は、メタデータ、生成されたイメージに対する情報、位置情報、イメージ分析情報及びモバイルフォン100の全般を動作させるためのプログラムを保存する。このような保存部180は、ハードディスクや非揮発性メモリなどで実現できてよい。
一方、MP3P310のような周辺装置310、320、330、340に対する構成は、上述のモバイルフォン100に対する構成から類推できるため、その説明は省略する。
図13は、これまで説明した中央保存装置200に対する概略的なブロック図である。
中央保存装置200は、通信部210と、制御部220及び保存部230で構成される。
通信部210は、無線通信方式を用いて、モバイルフォン100及び周辺装置310、320、330、340と通信し、イメージを送受信し、イメージ検索要請を受信する。
特に、通信部210は、モバイルフォン100からタグ付けされているイメージを受信し、周辺装置310、320、330、340からイメージ検索要請を受信し、抽出されたイメージを周辺装置310、320、330、340に伝送する。
制御部220は、中央保存装置200に対する動作全般を制御する。特に、制御部220は、モバイルフォン100から受信されたイメージが保存部230に保存されるようにし、周辺装置310、320、330、340によって選択された方法に応じて、保存部230に保存されているイメージを検索する。
保存部230は、タグ付けされているイメージと、メタデータ及び中央保存装置200の全般を動作させるためのプログラムを保存する。このような保存部230は、ハードディスク、非活性性メモリなどで実現できる。
一方、以上では、イメージを生成するための装置として、モバイルフォン100を例にとって説明したが、これは説明の便宜性のための例示的なものに過ぎない。従って、上述の周辺装置310、320、330、340がイメージを生成するための装置として使用される場合だけでなく、その他の装置がイメージを生成するための装置として使用される場合にも本発明の技術的な思想がそのまま適用されてよい。
なお、イメージの生成は、必ずしも被写体の撮影によるイメージ生成に限られるものではなく、ネットワークを通じたイメージのダウンロードなどの別の方式のイメージ生成である場合にも、本発明が適用されてよい。
それだけでなく、本発明の技術的な思想は、イメージに局限されないものと見なす。例えば、オーディオ又はテキストなどを生成する場合、生成されたオーディオ又はテキストにもメタデータのタグ付けが可能であることはいうまでもない。
そして、以上で説明したメタデータの生成方法及び検索方法は例示的なものに過ぎず、これとは別の方法を使用する場合にも本発明の技術的な思想が適用されてよい。
<ジェスチャーがタグ付けされているメタデータ>
具体的に、モバイルフォン100は、ユーザのジェスチャーをメタデータにタグ付けすることができる。この場合に関し、図8を参考にして説明すると、モバイルフォン100の操作部140はユーザのタッチ操作に該当するジェスチャーを入力される。ここで、ジェスチャーとは、ユーザによって入力された特定の形状のタッチ操作のことを表す。ジェスチャーはユーザの一回のタッチ操作によるタッチ経路の形状に対する情報で構成される。従って、モバイルフォン100の制御部150は、ジェスチャーが同一か否かの判断をタッチ操作の位置と関係なく、タッチ操作経路の形状が同一か否かに応じて決定するようになる。
制御部150は、入力されたジェスチャーを特定コンテンツのメタデータに含まれている情報のうちいずれか一つに対応させることにより、ジェスチャーを特定コンテンツのメタデータにタグ付けする。
そして、制御部150は、ジェスチャーが特定コンテンツのメタデータにタグ付けされている状態で、操作部140を介して前記ジェスチャーが入力されると、特定のコンテンツを実行する。
それに関し、14ないし図19を参照しながら以下に詳細に説明する。以下の説明において、モバイルフォン100の操作部140はタッチスクリーンを含み、ユーザのタッチ操作を入力されることが可能であることを前提に説明を進める。
図14ないし図19は、本発明の一実施形態に係るモバイルフォン100を用いて音楽コンテンツのメタデータにユーザのジェスチャーをタグ付けする過程を示す図である。ここで、ジェスチャーとは、ユーザによって入力された特定形状のタッチ操作のことを表す。ジェスチャーはユーザの一回のタッチ操作によるタッチ経路の形状に対する情報で構成される。従って、モバイルフォン100は、ジェスチャーが同一か否かの判断をタッチ操作の位置と関係なく、タッチ操作経路の形状が同一か否かに応じて決定するようになる。
図14は、画面にアルバムリストが表示されている状態のモバイルフォン100を示す図である。図14に示すように、モバイルフォン100はアルバムリストで「Album 1」にハイライト1010が位置している状態である。この状態で、ユーザによってメニュー項目1020にタッチ操作が入力されると、モバイルフォン100は図15に示すように、「Album 1」に関連する機能に対するメニュー1030を画面に表示するようになる。
図15は、「Album 1」に関連する機能に対するメニュー1030が画面に表示されているモバイルフォン100を示す図である。 図15に示すように、メニュー1030は検索項目、選択再生項目、削除項目、選択削除項目、アルバム保存項目及びジェスチャー入力項目1035を含む。ここで、ユーザによってジェスチャー入力項目1035が選択されると、図16に示すように、モバイルフォン100はジェスチャー入力ウィンドウ1040を画面に表示する。
図16は、「Album 1」に対するジェスチャーを入力されるためのジェスチャー入力ウィンドウ1040が画面に表示されているモバイルフォン100を示す図である。モバイルフォン100は、ジェスチャー入力ウィンドウ1040に入力されたタッチ操作をジェスチャーで認識するようになる。
図17は、ユーザによってジェスチャー入力ウィンドウ1040に「Album 1」に対するジェスチャーであるジェスチャー1(1050)が入力されることを示す図である。図17に示すように、ユーザによってジェスチャー入力ウィンドウ1040にジェスチャー1(1050)が入力されると、モバイルフォン100は入力されたジェスチャー1(1050)のタッチ経路のなす形状を認識及び保存するようになる。
図18は、画面に保存が完了したことを報知するメッセージ1070が画面に表示されているモバイルフォン100を示す図である。ユーザによってジェスチャー1(1050)が入力された後に確認アイコン1060が選択されると、モバイルフォン100は入力されたジェスチャー1(1050)の形状を保存し、ジェスチャー1(1050)を「Album 1」に対応させることにより、コンテンツのメタデータのアルバム情報にジェスチャー1(1050)をタグ付けするようになる。このとき、モバイルフォン100は、保存されているコンテンツの中でメタデータのアルバム情報が「Album 1」である全コンテンツのメタデータのアルバム情報にジェスチャー1(1050)をタグ付けするようになる。
図19は、メタデータのアルバム情報にジェスチャーがタグ付けされているコンテンツファイルの構造を示す図である。図19に示すように、コンテンツファイルにはメタデータとコンテンツデータが含まれている。そして、メタデータにはアルバム情報、アーティスト情報、ジャンル情報及びファイル名情報が含まれている。そして、アルバム情報として「Album 1」がタグ付けされており、「Album 1」にジェスチャー1が同時にタグ付けされていることが確認できる。このように、モバイルフォン100はジェスチャーをメタデータに含まれている情報のうちいずれか一つに対応させることにより、ジェスチャーをコンテンツのメタデータにタグ付けするようになる。
このような過程を通じて、モバイルフォン100はメタデータにジェスチャーをタグ付けできるようになる。
以下では、図20ないし図22を参照しながら、ジェスチャーを用いてコンテンツを実行させる方法について説明する。図20ないし図22は、本発明の一実施形態に係るジェスチャーを用いてコンテンツを実行させる過程を示す図である。
図20は、待ち受け画面100が表示されている状態のモバイルフォン100を示す図である。この状態で、図21に示すように、ユーザによってジェスチャー1120が入力されると、モバイルフォン100は入力されたジェスチャー1120の形状を認識するようになる。
図21で入力されたジェスチャー1120は、図17のジェスチャー1(1050)と同じ形状であることが確認できる。従って、モバイルフォン100は、「Album 1」に該当するコンテンツを実行するようになる。
図22は、モバイルフォン100が「Album 1」の最初のコンテンツを再生する画面を示す図である。このように、ジェスチャー1120が入力されると、モバイルフォン100は図22に示すように、「Album 1」に該当するコンテンツを再生リストとして選択するようになり、「Album 1」の最初の曲を自動的に再生するようになる。
このように、モバイルフォン100は、ジェスチャーが入力されると、コンテンツのメタデータにタグ付けされているジェスチャーを検索し、同じ形状ジェスチャーがメタデータにタグ付けされているコンテンツを再生リストとして選択して自動的に実行するようになる。
従って、ユーザはジェスチャーを入力するだけで、所望のコンテンツを簡単かつ便利に実行できるようになる。
以下で、図23ないし図27を参照しながら、ジェスチャーを変更する過程について説明する。図23ないし図27は、本発明の一実施形態に係るモバイルフォン100を用いて音楽コンテンツのメタデータにタグ付けされているジェスチャーを変更する過程を示す図である。
図23は、画面にアルバムリストが表示されている状態のモバイルフォン100を示す図である。図23に示すように、モバイルフォン100は、アルバムリストで「Album 1」にハイライト1201が位置している状態である。この状態で、ユーザによってメニュー項目1220にタッチ操作が入力されると、モバイルフォン100は図24に示すように、「Album 1」に関連する機能に対するメニュー1230を画面に表示するようになる。
図24は、「Album 1」に関連する機能に対するメニュー1230が画面に表示されているモバイルフォン100を示す図である。 図24に示すように、メニュー1230は検索項目、選択再生項目、削除項目、選択削除項目、アルバム保存項目及びジェスチャー編集項目1235を含む。ここで、ユーザによってジェスチャー編集項目1235が選択されると、図25に示すように、モバイルフォン100はジェスチャー入力ウィンドウ1240を画面に表示する。
図25は、「Album 1」に対するジェスチャーを入力されるためのジェスチャー入力ウィンドウ1240が画面に表示されているモバイルフォン100を示す図である。モバイルフォン100は、ジェスチャー入力ウィンドウ1240に入力されたタッチ操作をジェスチャーとして認識するようになる。
図26は、ユーザによってジェスチャー入力ウィンドウ1240に「Album 1」に対するジェスチャーであるジェスチャー2(1245)が入力されることを示す図である。図26に示すように、ユーザによってジェスチャー入力ウィンドウ1240にジェスチャー2(1245)が入力されると、モバイルフォン100は「Album 1」にタグ付けされているジェスチャーをジェスチャー1(1050)からジェスチャー2(1245)に変更するようになる。
図27は、メタデータのアルバム情報にタグ付けされているジェスチャーがジェスチャー2(1245)に変更されたことを示す図である。図27に示すように、「Album 1」にジェスチャー2が同時にタグ付けされていることが確認できる。このように、モバイルフォン100は、メタデータにタグ付けされているジェスチャーを変更することもできる。
上述のように、モバイルフォン100は、メタデータにジェスチャーをタグ付けし、メタデータにタグ付けされているジェスチャーを用いてコンテンツを検索及び再生することができるようになる。
一方、本実施形態ではコンテンツが音楽コンテンツであるものとして説明してきたが、その他に多様なコンテンツにも適用可能である。例えば、コンテンツは音楽コンテンツ、イメージコンテンツ、動画コンテンツ及び文書コンテンツなどであってよい。
なお、本実施形態では、ジェスチャーがメタデータ内の情報のうちの一つに対応するものとして説明したが、ジェスチャーがメタデータを構成する一つの情報であってよい。例えば、メタデータがアルバム情報、アーティスト情報、ジャンル情報、ファイル名情報及びジェスチャー情報を含むように実現されてよい。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
100・・・モバイルフォン
200・・・中央保存装置
310、320、330、340・・・周辺装置

Claims (6)

  1. ユーザ端末装置において、
    コンテンツに対するユーザのタッチ入力を受けるためのタッチスクリーンと、
    保存部と、
    前記ユーザのタッチ入力を前記コンテンツの全体を示すメタデータとしてタグ付けし、前記ユーザタッチ入力によってタグ付けされた前記コンテンツのメタデータを前記保存部に保存するように制御する制御部と
    を含み、前記制御部は、あらたに入力された前記ユーザのタッチ入力の形態に対応する情報によって前記コンテンツを検索するように制御するユーザ端末装置。
  2. 前記制御部は、
    前記タッチスクリーンを通じて入力された前記ユーザタッチ入力を基に少なくとも1つの前記コンテンツを検索するように制御することを特徴とする請求項1に記載のユーザ端末装置。
  3. 前記制御部は、
    前記ユーザタッチ入力の形態に対応する形態に関する情報を含むメタデータを有する少なくとも1つの前記コンテンツを検索するように制御し、前記検索された少なくとも1つの前記コンテンツを前記タッチスクリーン上にディスプレイするように制御することを特徴とする請求項2に記載のユーザ端末装置。
  4. 前記制御部は、
    前記コンテンツのメタデータとしてタグ付けされた前記ユーザタッチ入力の形態による情報を前記コンテンツのメタデータとして含めて保存することを特徴とする請求項1に記載のユーザ端末装置。
  5. ユーザ端末装置において、
    少なくとも1つのコンテンツを検索するためのユーザのタッチ入力が入力されるタッチスクリーンと、
    前記入力されたユーザのタッチ入力に対応する情報を含むメタデータを前記コンテンツの全体を示す情報として有する少なくとも1つの前記コンテンツを、あらたに入力されたユーザのタッチ入力の形態に対応する情報によって検索するように制御し、前記検索された少なくとも1つの前記コンテンツを前記タッチスクリーン上にディスプレイするように制御する制御部と
    を含むユーザ端末装置。
  6. 前記制御部は、
    前記ユーザタッチ入力の形態に対応する形態に関する情報を含むメタデータを有する少なくとも1つの前記コンテンツを検索するように制御し、前記検索された少なくとも1つの前記コンテンツを前記タッチスクリーン上にディスプレイするように制御することを特徴とする請求項5に記載のユーザ端末装置。
JP2012525501A 2009-08-21 2010-08-20 メタデータのタグ付けシステム、イメージ検索方法、デバイス及びそれに適用されるジェスチャーのタグ付け方法 Expired - Fee Related JP5791605B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20090077507 2009-08-21
KR10-2009-0077507 2009-08-21
KR1020100011496A KR101660271B1 (ko) 2009-08-21 2010-02-08 메타데이터 태깅 시스템, 이미지 검색 방법, 디바이스 및 이에 적용되는 제스처 태깅방법
KR10-2010-0011496 2010-02-08
PCT/KR2010/005564 WO2011021907A2 (en) 2009-08-21 2010-08-20 Metadata tagging system, image searching method and device, and method for tagging a gesture thereof

Publications (2)

Publication Number Publication Date
JP2013502637A JP2013502637A (ja) 2013-01-24
JP5791605B2 true JP5791605B2 (ja) 2015-10-07

Family

ID=43929543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012525501A Expired - Fee Related JP5791605B2 (ja) 2009-08-21 2010-08-20 メタデータのタグ付けシステム、イメージ検索方法、デバイス及びそれに適用されるジェスチャーのタグ付け方法

Country Status (9)

Country Link
US (1) US10157191B2 (ja)
EP (1) EP2467825A4 (ja)
JP (1) JP5791605B2 (ja)
KR (1) KR101660271B1 (ja)
CN (2) CN104063175B (ja)
AU (1) AU2010284736B2 (ja)
BR (1) BR112012002919A2 (ja)
RU (1) RU2012110605A (ja)
WO (1) WO2011021907A2 (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7822746B2 (en) * 2005-11-18 2010-10-26 Qurio Holdings, Inc. System and method for tagging images based on positional information
JP5043748B2 (ja) * 2008-05-19 2012-10-10 キヤノン株式会社 コンテンツ管理装置、コンテンツ管理装置の制御方法、プログラム及び記録媒体
US10509466B1 (en) * 2011-05-11 2019-12-17 Snap Inc. Headwear with computer and optical element for use therewith and systems utilizing same
US8935259B2 (en) * 2011-06-20 2015-01-13 Google Inc Text suggestions for images
US10089327B2 (en) 2011-08-18 2018-10-02 Qualcomm Incorporated Smart camera for sharing pictures automatically
US10698584B2 (en) 2011-09-12 2020-06-30 Intel Corporation Use of real-time metadata to capture and display discovery content
US9779114B2 (en) 2011-10-07 2017-10-03 Henk B. Rogers Media geotagging
US9521175B2 (en) 2011-10-07 2016-12-13 Henk B. Rogers Media tagging
US9646313B2 (en) * 2011-12-13 2017-05-09 Microsoft Technology Licensing, Llc Gesture-based tagging to view related content
JP5814389B2 (ja) * 2012-01-30 2015-11-17 Necソリューションイノベータ株式会社 画像管理システム、及び画像管理方法
GB2518577B (en) 2012-08-24 2019-12-04 Motorola Solutions Inc Method and apparatus for authenticating digital information
US9235342B2 (en) * 2012-11-28 2016-01-12 International Business Machines Corporation Selective sharing of displayed content in a view presented on a touchscreen of a processing system
KR102090269B1 (ko) 2012-12-14 2020-03-17 삼성전자주식회사 정보 검색 방법, 그와 같은 기능을 갖는 디바이스 및 기록 매체
US20140282012A1 (en) * 2013-03-15 2014-09-18 Write Brothers, Inc. Method and system for making storyforming choices based on associated objects
US20140298274A1 (en) * 2013-03-22 2014-10-02 Ntt Docomo, Inc. Method and electronic device for processing data
US9652460B1 (en) 2013-05-10 2017-05-16 FotoIN Mobile Corporation Mobile media information capture and management methods and systems
WO2014207188A1 (en) 2013-06-28 2014-12-31 Koninklijke Philips N.V. Nearest available roadmap selection
KR102165818B1 (ko) 2013-09-10 2020-10-14 삼성전자주식회사 입력 영상을 이용한 사용자 인터페이스 제어 방법, 장치 및 기록매체
WO2015039068A1 (en) * 2013-09-16 2015-03-19 Google Inc. Providing labels for photos
KR20150032101A (ko) * 2013-09-17 2015-03-25 삼성전자주식회사 영상표시장치 및 영상표시방법
CN104636059B (zh) * 2013-11-13 2018-04-13 展讯通信(上海)有限公司 记事项目的搜索方法及其系统
US10049477B1 (en) 2014-06-27 2018-08-14 Google Llc Computer-assisted text and visual styling for images
US9881027B2 (en) 2014-12-31 2018-01-30 Ebay Inc. Image appended search string
US9563643B2 (en) * 2015-06-25 2017-02-07 Intel Corporation Automatic metatagging in images
KR101634106B1 (ko) * 2015-09-25 2016-06-29 주식회사 지노시스템 위치 매칭 및 공간 검색을 통한 지리 정보 조회 방법
US10564924B1 (en) * 2015-09-30 2020-02-18 Amazon Technologies, Inc. Navigating metadata in long form content
US10719198B2 (en) * 2015-12-02 2020-07-21 Motorola Solutions, Inc. Method for associating a group of applications with a specific shape
US10613707B2 (en) 2015-12-10 2020-04-07 International Business Machines Corporation Auditing icons via image recognition to provide individualized assets to software project teams
DE102016202095A1 (de) 2016-02-11 2017-08-17 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zur Auswahl von Elementen aus einer Datenbank
US10146758B1 (en) * 2016-09-30 2018-12-04 Amazon Technologies, Inc. Distributed moderation and dynamic display of content annotations
KR102660124B1 (ko) 2018-03-08 2024-04-23 한국전자통신연구원 동영상 감정 학습용 데이터 생성 방법, 동영상 감정 판단 방법, 이를 이용하는 동영상 감정 판단 장치
CN111506752A (zh) * 2019-01-30 2020-08-07 阿里巴巴集团控股有限公司 搜索方法、装置、电子设备及计算机存储介质
JP7229795B2 (ja) * 2019-02-01 2023-02-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ アノテーション装置、アノテーション方法、及び、プログラム
KR20210105000A (ko) 2020-02-18 2021-08-26 주식회사 와이즈패션 표준화된 주문 데이터에 대응한 특징 정보 태깅을 지원하는 방법을 컴퓨터에서 실행시키기 위한 프로그램
KR20210104997A (ko) 2020-02-18 2021-08-26 주식회사 와이즈패션 표준화된 주문 데이터에 대응한 특징 정보 태깅을 지원하는 장치
KR20210104996A (ko) 2020-02-18 2021-08-26 주식회사 와이즈패션 표준화된 주문 데이터에 대응한 특징 정보 태깅을 지원하는 장치 및 그 동작 방법
KR20210104998A (ko) 2020-02-18 2021-08-26 주식회사 와이즈패션 표준화된 주문 데이터에 대응한 특징 정보 태깅을 지원하는 장치
KR20210105001A (ko) 2020-02-18 2021-08-26 주식회사 와이즈패션 주문 데이터에 특징 정보 태깅을 지원하는 프로그램이 기록된 기록매체
KR20210104999A (ko) 2020-02-18 2021-08-26 주식회사 와이즈패션 표준화된 주문 데이터에 대응한 특징 정보 태깅을 지원하는 방법
KR102216065B1 (ko) * 2020-05-04 2021-02-18 호서대학교 산학협력단 동영상 세그먼트에 대해 검색결과를 제공하는 방법
JP7483784B2 (ja) 2022-04-22 2024-05-15 ソフトバンク株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5592608A (en) * 1993-10-15 1997-01-07 Xerox Corporation Interactively producing indices into image and gesture-based data using unrecognized graphical objects
US5832474A (en) * 1996-02-26 1998-11-03 Matsushita Electric Industrial Co., Ltd. Document search and retrieval system with partial match searching of user-drawn annotations
JP4302799B2 (ja) * 1998-09-16 2009-07-29 シャープ株式会社 文書検索装置、方法および記録媒体
JP2000137555A (ja) 1998-11-02 2000-05-16 Sony Corp 情報処理装置及び方法並びに記録媒体
KR20030047885A (ko) 2000-05-05 2003-06-18 가부시끼가이샤 메가 칩스 지연된 브라우징을 위해 정보를 획득하고 저장하는 시스템및 방법
JP4031255B2 (ja) 2002-02-13 2008-01-09 株式会社リコー ジェスチャコマンド入力装置
US7200803B2 (en) * 2002-06-27 2007-04-03 Microsoft Corporation System and method for visually categorizing electronic notes
JP4192729B2 (ja) * 2002-09-16 2008-12-10 富士ゼロックス株式会社 自由形式注釈を強調するための方法、注釈強調表示装置、及び自由形式注釈を強調するためのプログラム
US7840892B2 (en) * 2003-08-29 2010-11-23 Nokia Corporation Organization and maintenance of images using metadata
JP2005354134A (ja) 2004-06-08 2005-12-22 Sony Corp 画像管理方法および装置、記録媒体、並びにプログラム
JP4684745B2 (ja) 2005-05-27 2011-05-18 三菱電機株式会社 ユーザインタフェース装置及びユーザインタフェース方法
US7702681B2 (en) 2005-06-29 2010-04-20 Microsoft Corporation Query-by-image search and retrieval system
WO2007098296A2 (en) 2006-02-27 2007-08-30 Vobile, Inc. Systems and methods of fingerprinting and identifying digital versatile disc
JP4175390B2 (ja) * 2006-06-09 2008-11-05 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US8713079B2 (en) * 2006-06-16 2014-04-29 Nokia Corporation Method, apparatus and computer program product for providing metadata entry
JP2008165424A (ja) 2006-12-27 2008-07-17 Sony Corp 画像検索装置および方法、撮像装置、並びにプログラム
US8473525B2 (en) 2006-12-29 2013-06-25 Apple Inc. Metadata generation for image files
JP5121285B2 (ja) * 2007-04-04 2013-01-16 キヤノン株式会社 被写体メタデータ管理システム
US8244284B2 (en) 2007-06-28 2012-08-14 Giga-Byte Communications, Inc. Mobile communication device and the operating method thereof
JP2009017017A (ja) * 2007-07-02 2009-01-22 Funai Electric Co Ltd マルチメディア再生機器
KR101513616B1 (ko) 2007-07-31 2015-04-20 엘지전자 주식회사 이동 단말기 및 그 영상정보 관리방법
KR101476174B1 (ko) 2007-09-04 2014-12-24 엘지전자 주식회사 휴대 단말기 및 휴대 단말기의 기능 실행 방법
JP5096863B2 (ja) * 2007-10-09 2012-12-12 オリンパスイメージング株式会社 検索装置
US20090119572A1 (en) * 2007-11-02 2009-05-07 Marja-Riitta Koivunen Systems and methods for finding information resources
KR101087134B1 (ko) * 2007-12-10 2011-11-25 한국전자통신연구원 체감 정보를 이용한 디지털 데이터 태깅 장치, 태깅 및검색서비스 제공 시스템 및 방법
US8212784B2 (en) * 2007-12-13 2012-07-03 Microsoft Corporation Selection and display of media associated with a geographic area based on gesture input
TW200937254A (en) * 2008-02-29 2009-09-01 Inventec Appliances Corp A method for inputting control commands and a handheld device thereof
US9501694B2 (en) * 2008-11-24 2016-11-22 Qualcomm Incorporated Pictorial methods for application selection and activation
CN102292722B (zh) * 2009-01-21 2014-09-03 瑞典爱立信有限公司 基于多模元数据和结构化语义描述符来产生注释标签
US20120139857A1 (en) * 2009-06-19 2012-06-07 Alcatel Lucent Gesture On Touch Sensitive Input Devices For Closing A Window Or An Application
KR101611302B1 (ko) * 2009-08-10 2016-04-11 엘지전자 주식회사 제스쳐 입력이 가능한 휴대 단말기 및 그 제어방법

Also Published As

Publication number Publication date
CN104063175A (zh) 2014-09-24
KR101660271B1 (ko) 2016-10-11
KR20110020158A (ko) 2011-03-02
AU2010284736B2 (en) 2016-01-28
JP2013502637A (ja) 2013-01-24
US10157191B2 (en) 2018-12-18
CN102473304A (zh) 2012-05-23
WO2011021907A3 (en) 2011-06-23
US20110047517A1 (en) 2011-02-24
AU2010284736A1 (en) 2012-01-19
RU2012110605A (ru) 2013-09-27
EP2467825A4 (en) 2016-09-21
EP2467825A2 (en) 2012-06-27
CN104063175B (zh) 2019-05-03
CN102473304B (zh) 2015-11-25
WO2011021907A2 (en) 2011-02-24
BR112012002919A2 (pt) 2020-08-11

Similar Documents

Publication Publication Date Title
JP5791605B2 (ja) メタデータのタグ付けシステム、イメージ検索方法、デバイス及びそれに適用されるジェスチャーのタグ付け方法
US11714523B2 (en) Digital image tagging apparatuses, systems, and methods
US10739958B2 (en) Method and device for executing application using icon associated with application metadata
KR102290419B1 (ko) 디지털 컨텐츠의 시각적 내용 분석을 통해 포토 스토리를 생성하는 방법 및 장치
KR101664754B1 (ko) 정보 취득 방법, 장치, 프로그램 및 기록매체
US9058375B2 (en) Systems and methods for adding descriptive metadata to digital content
US20120007890A1 (en) Method for photo editing and mobile terminal using this method
JP6628115B2 (ja) マルチメディアファイル管理方法、電子デバイス、およびコンピュータプログラム。
US20120210201A1 (en) Operation method for memo function and portable terminal supporting the same
JP5870742B2 (ja) 情報処理装置、システムおよび情報処理方法
WO2021147785A1 (zh) 思维导图显示方法及电子设备
US20170109339A1 (en) Application program activation method, user terminal, and server
KR101921201B1 (ko) 단말기의 기능 연동 방법 및 이를 지원하는 단말기
JP2010086194A (ja) シェア画像閲覧方法および装置
US20100260421A1 (en) Tagging method and apparatus of portable terminal
CN111669641A (zh) 一种媒体资源播放方法、终端及存储介质
JP2013171599A (ja) 表示制御装置および表示制御方法
KR20170040148A (ko) 네트워크를 통한 컨텐츠 제공 방법 및 장치, 컨텐츠 수신 방법 및 장치
CN103838809A (zh) 信息处理设备、信息处理方法以及程序
JP2008090526A (ja) 会議情報保存装置、システム、会議情報表示装置及びプログラム
WO2019082606A1 (ja) コンテンツ管理機器、コンテンツ管理システム、および、制御方法
US20230137452A1 (en) Information processing device, inforamtion processing method, and program
JP6867541B1 (ja) 画像表示装置及びプログラム
US20230359665A1 (en) Information processing device, information processing method, and program
KR20240057083A (ko) 메신저에서의 영상 추천 방법, 컴퓨터 프로그램 및 컴퓨팅 디바이스

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140701

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150416

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150804

R150 Certificate of patent or registration of utility model

Ref document number: 5791605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees