JP6391234B2 - 情報検索方法、そのような機能を有するデバイス及び記録媒体 - Google Patents

情報検索方法、そのような機能を有するデバイス及び記録媒体 Download PDF

Info

Publication number
JP6391234B2
JP6391234B2 JP2013245702A JP2013245702A JP6391234B2 JP 6391234 B2 JP6391234 B2 JP 6391234B2 JP 2013245702 A JP2013245702 A JP 2013245702A JP 2013245702 A JP2013245702 A JP 2013245702A JP 6391234 B2 JP6391234 B2 JP 6391234B2
Authority
JP
Japan
Prior art keywords
information
objects
input
relationship
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013245702A
Other languages
English (en)
Other versions
JP2014120159A (ja
Inventor
善美 陳
善美 陳
志▲ヒョン▼ 權
志▲ヒョン▼ 權
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014120159A publication Critical patent/JP2014120159A/ja
Application granted granted Critical
Publication of JP6391234B2 publication Critical patent/JP6391234B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/248Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04102Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Description

本発明は、情報検索方法に係り、特に、ディスプレイになるイメージ基盤の情報検索方法に関する。
デバイスに装着されるメモリ容量と、クラウドサーバを利用したデータ保存量との増加により、ユーザ所望の情報を、さらに正確で早く提供するための情報検索方法が提案されている。
しかし、既存に提案されている情報検索方法は、一般的に、ユーザの質疑(query)を基に遂行されている。従って、さらに容易で直観的な情報検索方法が要求されている。
本発明が解決しようとする課題は、ディスプレイされているイメージ基盤の直観的な情報検索方法、そのような機能を有するデバイス及び記録媒体を提供するところにある。
本発明が解決しようとする他の課題は、ディスプレイされているイメージを基に選択された複数のオブジェクト間の検索関係に基づいた情報検索方法、そのような機能を有するデバイス及び記録媒体を提供するところにある。
本発明が解決しようとするさらに他の課題は、ディスプレイされているイメージを基に選択された複数のオブジェクト間の関係に基づいたサービス提供方法、そのような機能を有するデバイス及び記録媒体を提供するところにある。
前記課題を解決するための本発明の望ましい実施形態によるデバイスにディスプレイされているイメージ基盤の情報検索方法は、前記イメージに含まれた複数のオブジェクトに対する選択を示す第1入力を認識する段階と、前記選択された複数のオブジェクト間の検索関係を示す第2入力を認識する段階と、前記第1入力と前記第2入力とに基づいて、情報を検索する段階と、前記検索された情報を、前記デバイスを介して出力する段階と、を含むことが望ましい。
前記複数のオブジェクト間の検索関係は、前記情報の検索時、前記複数のオブジェクト間の関係が同一レベルであるということを示す同一階層関係、及び前記情報の検索時、前記複数のオブジェクト間の関係が上下レベルであるということを示す上下階層関係のうち一つを含むことが望ましい。
前記複数のオブジェクト間の検索関係が、前記同一階層関係であるということを示す場合、前記第2入力は、前記選択された複数のオブジェクトを集めることを示すタッチ基盤ジェスチャ、前記選択された複数のオブジェクトを、前記選択された複数のオブジェクトのディスプレイ位置以外の少なくとも1つの位置に移動することを示すタッチ基盤ジェスチャのうち一つを含むことが望ましい。
前記複数のオブジェクトの検索関係が、前記上下階層関係であるということを示す場合、前記第2入力は、前記選択された複数のオブジェクトのうち1つのオブジェクトのディスプレイ位置に、残りのオブジェクトを移動させることを示すタッチ基盤ジェスチャ、及び前記選択された複数のオブジェクトのうち1つのオブジェクトのディスプレイ位置に、少なくとも1つのオブジェクトを移動させることを示すタッチ基盤ジェスチャを含むことが望ましい。
前記タッチ基盤ジェスチャは、タッチ・アンド・ドラッグを含むことが望ましい。
前記情報を検索する段階は、前記複数のオブジェクト間の検索関係が同一階層関係である場合、前記複数のオブジェクトをいずれも含む情報を検索する段階と、前記複数のオブジェクトの検索関係が上下階層関係である場合、前記複数のオブジェクトの上下階層関係によって、情報を検索する段階と、を含むことが望ましい。
前記情報を検索する段階は、前記複数のオブジェクト間の検索関係が、前記同一階層関係である場合、前記複数のオブジェクトのうち少なくとも1つのオブジェクトを含む情報を検索する段階と、前記複数のオブジェクトの検索関係が、前記上下階層関係である場合、前記複数のオブジェクトの前記上下階層関係によって、情報を検索する段階と、を含むことが望ましい。
前記情報を検索する段階は、前記複数のオブジェクト間の検索関係が同一階層関係である場合、前記複数のオブジェクトのうち少なくとも1つのオブジェクトを含む情報検索項目と、前記複数のオブジェクトをいずれも含む情報検索項目と、を選択することができる情報をディスプレイする段階と、前記ディスプレイされる情報に基づいて選択された情報検索項目によって、情報を検索する段階と、前記複数のオブジェクト間の検索関係が上下階層関係である場合、前記複数のオブジェクト間の上下階層関係によって、情報を検索する段階と、を含むことが望ましい。
前記第1入力は、前記複数のオブジェクトまたは各オブジェクトに対するロングタッチを示すタッチ基盤ジェスチャ、及び前記複数のオブジェクトまたは前記各オブジェクトに係わる閉領域を示すタッチ基盤ジェスチャのうち一つを含むことが望ましい。
前記情報を検索する段階は、前記第1入力及び前記第2入力によって決定された少なくとも1つの検索項目をディスプレイする段階と、前記ディスプレイされる少なくとも1つの検索項目のうち選択された検索項目に基づいて、前記情報を検索する段階と、を含むことが望ましい。
前記イメージ基盤の情報検索方法は、前記デバイスによる前記第1入力に係わる認識を示す情報を、前記デバイス上にディスプレイする段階をさらに含むことが望ましい。
前記デバイスによる前記第1入力に係わる認識を示す情報は、前記選択された複数のオブジェクトまたは各オブジェクトのアウトラインに基づいた閉領域を示す情報、前記選択された複数のオブジェクトまたは各オブジェクトのアウトラインに基づいた切断された(または、カットアウト)イメージ基盤の情報、及び前記切断されたイメージ基盤のマルチスクリーンのうち一つを含むことが望ましい。
前記イメージ基盤の情報検索方法は、前記デバイスによって、第2入力に係わる情報を示す情報をディスプレイする段階をさらに含むことが望ましい。
前記情報検索段階は、前記デバイス、及び前記デバイスに連結された少なくとも1つの外部機器のうち少なくとも一つに対して遂行されることが望ましい。
前記検索された情報は、イメージ基盤情報及びテキスト基盤情報のうち少なくとも一つを含むことが望ましい。
前記課題を解決するための本発明の望ましい実施形態によるデバイスは、少なくとも1つの情報、及び少なくとも1つのプログラムを保存する保存部;イメージをディスプレイし、前記ディスプレイされているイメージに含まれた複数のオブジェクトに対する選択を示す第1入力、及び前記選択された複数のオブジェクト間の検索関係を示す第2入力を受信し、前記第1入力と前記第2入力とによって検索された情報をディスプレイするタッチスクリーン;及び前記タッチスクリーンに基づいたユーザ・インターフェースを提供し、前記タッチスクリーンを介して受信された前記第1入力と前記第2入力とをそれぞれ認識し、前記第1入力と第2入力とによって、前記保存部から情報を検索し、前記検索された情報を、前記タッチスクリーンを介して出力するプロセッサ;を含むことが望ましい。
前記課題を解決するための本発明の望ましい実施形態によるデバイスは、イメージをディスプレイし、前記ディスプレイされているイメージ基盤のユーザ入力を受信するタッチスクリーン;前記タッチスクリーンに基づいたユーザ・インターフェースを提供するプロセッサ;及び前記プロセッサによって実行可能になるように構成された少なくとも1つのプログラム、及び前記イメージ基盤で検索可能な情報を保存する保存部;を含み、前記プログラムは、前記イメージに含まれた複数のオブジェクトに対する選択を示す第1入力を認識し、前記選択された複数のオブジェクト間の検索関係を示す第2入力を認識し、前記第1入力と前記第2入力とに基づいて、情報を検索し、前記検索された情報を、前記タッチスクリーンを介して出力する命令語を含むことが望ましい。
前記課題を解決するための本発明の望ましい実施形態によるサービス提供方法は、前記イメージに含まれた複数のオブジェクトに対する選択を示す第1入力を認識する段階と、前記選択された複数のオブジェクト間の関係を示す第2入力を認識する段階と、前記第1入力と前記第2入力とに基づいて、提供可能な少なくとも1つのサービス項目をディスプレイする段階と、前記ディスプレイされているサービス項目に基づいて、選択されたサービス項目によるサービスを行う段階と、を含むことが望ましい。
前記課題を解決するための本発明の望ましい実施形態によるディスプレイされているイメージ基盤の情報検索方法を実行する命令語を含む一つ以上のプログラムが記録されたコンピュータで読み取り可能な記録媒体において、前記イメージ基盤の情報検索方法は、前述のイメージ基盤の情報検索方法と共に遂行される。
前記課題を解決するための本発明の望ましい実施形態によるディスプレイされているイメージ基盤のサービス提供方法を実行する命令語を含む一つ以上のプログラムが記録されたコンピュータで読み取り可能な記録媒体において、前記イメージ基盤のサービス提供方法は、前述のイメージ基盤のサービス提供方法と共に遂行される。
前記課題を解決するための本発明の望ましい実施形態による情報検索方法を遂行するデバイスは、前記デバイスのスクリーン上に、一つ以上のオブジェクトを含むイメージをディスプレイするためのディスプレイパネル、前記ディスプレイパネルのイメージから、前記オブジェクトの選択を第1入力として受信し、前記選択されたオブジェクトのうち他の一つに対する前記選択されたオブジェクトの少なくとも1つの位置の移動を、第2入力として受信し、前記第1入力と前記第2入力とによって検索された一つ以上のイメージをディスプレイするために、前記ディスプレイパネルを制御するように構成されたプロセッサを含んでもよい。
前記ディスプレイパネルは、前記ディスプレイパネル上のユーザ入力の存在によって選択されたオブジェクトと非選択オブジェクトとを異なってディスプレイすることができる。
前記ディスプレイパネルは、他の位置に前記選択されたオブジェクトの前記少なくとも1つの位置をディスプレイすることができる。
前記ディスプレイパネルのスクリーンは、前記オブジェクトを含むイメージをディスプレイするための第1スクリーン、前記オブジェクトの前記選択をディスプレイするための第2スクリーン、前記移動の表示をディスプレイするための第3スクリーン、及び前記少なくとも1つの検索されたイメージをディスプレイするための第4スクリーンを含んでもよい。
前記ディスプレイパネルは、前記ディスプレイパネルと前記ユーザとのインタラクションによって、前記第2スクリーンと、前記第3スクリーンとをディスプレイすることができる。前記ディスプレイパネルは、前記ディスプレイパネルと前記ユーザとのインタラクションなしに、前記プロセッサの動作によって、前記第1スクリーン及び前記第4スクリーンをディスプレイすることができる。
前記第2スクリーンは、前記1スクリーンを含んでもよい。
前記第2スクリーンは、前記第1スクリーンと異なってもよい。
前記第3スクリーンは、前記第1スクリーンと前記第2スクリーンとを含んでもよい。
前記第3スクリーンは、前記第1スクリーン及び前記第2スクリーンと異なってもよい。
前記課題を解決するための本発明の望ましい実施形態によるディスプレイされているイメージに基づいた情報検索方法は、ディスプレイパネルのスクリーン上に、一つ以上のオブジェクトを含むイメージをディスプレイする段階、前記ディスプレイパネルのイメージから、前記オブジェクトの選択を第1入力として受信する段階、前記選択されたオブジェクトの他の一つに対する前記選択されたオブジェクトの少なくとも1つの位置の移動を、第2入力として受信する段階、並びに前記第1入力及び前記第2入力によって検索された一つ以上のイメージをディスプレイする段階を含んでもよい。
望ましい一実施形態によるデバイスの機能ブロック図である。 図1Aのデバイスの保存部に保存されるプログラム及び/または命令語セットをモジュール別に分類した例である。 望ましい一実施形態によるイメージ基盤の情報検索方法について説明するためのフローチャートである。 望ましい実施形態において、第1入力の例示図である。 望ましい実施形態において、複数のオブジェクトの検索関係が同一階層関係であるときの第2入力の例示図である。 望ましい実施形態において、複数のオブジェクトの検索関係が上下階層関係であるときの第2入力の例示図である。 図5に図示された第2入力の例をイメージに適用した例示図である。 第1入力と、第2入力と、検索された情報とのスクリーン例示図である。 第1入力と、第2入力と、検索された情報とのスクリーン例示図である。 第1入力と、第2入力と、検索された情報とのスクリーン例示図である。 望ましい他の実施形態によるイメージ基盤の情報検索方法について説明するためのフローチャートである。 図10での第1入力を認識した結果情報がディスプレイされるスクリーンの例である。 図10での第1入力を認識した結果情報がディスプレイされるスクリーンの例である。 図10での第1入力を認識した結果情報がディスプレイされるスクリーンの例である。 望ましいさらに他の実施形態によるイメージ基盤の情報検索方法について説明するためのフローチャートである。 図14のフローチャートによってディスプレイされるスクリーンの例示図である。 複数の検索項目がディスプレイされるスクリーンの例示図である。 望ましい他の実施形態によるデバイスの機能ブロック図である。 図1及び図17に図示されたデバイスが適用されたネットワークの構成図である。 望ましいさらに他の実施形態によるサービス提供方法について説明するためのフローチャートである。
本発明は、多様な変換を加えることができ、さまざまな実施形態を有することができるが、特定実施形態を図面に例示し、詳細な説明で詳細に説明する。しかし、それは、本発明を特定実施形態について限定しようとするものではなく、本発明の思想及び技術範囲に含まれる全ての変換、均等物ないし代替物を含むと理解しなければならない。本発明について説明するにあたり、関連公知技術に係わる具体的な説明が、本発明の要旨を不明確にすると判断される場合、その詳細な説明を省略する。
第1、第2のような用語は、多様な構成要素について説明するところに使われるが、構成要素は、用語によって限定されるものではない。用語は、1つの構成要素を他の構成要素から区別する目的のみに使用される。
本出願で使用された用語は、ただ特定の実施形態について説明するために使われたものであり、本発明を限定しようとする意図ではない。本出願で使用した用語は、本発明での機能を考慮しながら、可能な限り現在広く使用される一般的な用語を選択したが、それは当分野の当業者の意図、判例または新たな技術の出現などによって異なりもする。また、特定の場合は、出願人が任意に選定した用語もあり、その場合、当該発明の説明部分で詳細にその意味を記載する。従って、本発明で使用される用語は、単純な用語の名称ではない、その用語が有する意味と、本発明の全般にわたった内容とを基に定義されなければならない。
単数の表現は、文脈上、明白に他の意味を有さない限り、複数の表現を含む。本出願で、「含む」または「有する」などの用語は、明細書上に記載された特徴、数字、段階、動作、構成要素、部品またはそれらを組み合わせたものが存在するということを指定するものであり、一つまたはそれ以上の他の特徴や数字、段階、動作、構成要素、部品またはそれらを組み合わせたものなどの存在または付加の可能性をあらかじめ排除するものではないと理解されなければならない。
明細書全般で言及される入力は、ユーザの入力であり、タッチ基盤入力である。タッチ基盤入力は、ユーザの要請(request)、ユーザの選択(selection)(例えば、イメージ上の複数のオブジェクトの選択)またはユーザのコマンド(command)(例えば、選択された複数のオブジェクトの検索関係を設定するコマンド)などを含んでもよいが、それらに制限されるものではない。タッチ基盤入力は、タッチ基盤のユーザのジェスチャ(gesture)に依存する。タッチ基盤のユーザのジェスチャは、例えば、タップ(tapまたはタッチ)、ロングタップ(long tapまたはロングタッチ)、タッチ・アンド・ホールド(touch and hold)、タッチ・アンド・ドラッグ(touch and drag)、ダブルタップ(double tap)、ドラッグ(drag)、パニング(panning)、フリック(flick)、ドラッグ・アンド・ドロップ(drag and drop)、及びスウィープ(sweep)などを含んでもよいが、それらに制限されるものではない。
入力は、前述のタッチ基盤のユーザのジェスチャに制限されるものではない。例えば、入力は、モーション基盤(motion-based)またはビジョン基盤(vision-based)で定義されもする。
モーション基盤の入力は、ユーザによるデバイスの動き基盤のユーザのジェスチャ(例えば、デバイス振り、デバイスたたきなど)に基づく。例えば、後述する実施形態で言及される選択されたオブジェクトの検索関係は、デバイスを振るパターン、または方向によって、同一階層関係(same layer relationship)または上下階層関係(high-low Layla relationship)に設定されもする。選択されたオブジェクトの検索関係を同一階層関係または上下階層関係に設定するためのデバイスを振るパターンまたは方向は、前もって設定される。例えば、デバイスを左右に振る場合、選択されたオブジェクトの検索関係は、同一階層関係に設定され、デバイスを上下に振る場合、選択されたオブジェクトの検索関係は、上下階層関係に設定されもするように、モーション基盤の入力は、前もって定義される。上下階層関係は、親子階層関係(parent-child layer relationship)とも見なされる。
ビジョン基盤の入力は、デバイスとの接触なしに、カメラを利用して獲得された入力映像の分析を介して認識されたユーザのジェスチャに基づく。例えば、後述する実施形態で言及される選択されたオブジェクトの検索関係は、タッチ基盤のユーザジェスチャのようなユーザの空間ジェスチャ(例えば、指を集める空間ジェスチャ)を含むカメラを利用して獲得された入力映像の分析を介して、同一階層関係または上下階層関係に設定されもする。同一階層関係と上下階層関係とを設定するためのユーザの空間ジェスチャは、前もって設定される。
以下、本発明の実施形態について、添付図面を参照して詳細に説明するが、添付図面を参照して説明するにおいて、同一であるか、あるいは対応する構成要素は、同一の図面番号を付し、それに係わる重複説明は省略する。
図1Aは、本発明の望ましい実施形態によるデバイス100の機能ブロック図である。図1Aに図示されたデバイス100は、一例であり、スマートフォン(smart phone)、スマートTV(television)、PC(personal computer)、デスクトップ(desktop)PC、ノート型パソコン(notebook)、スマートボード(smart board)、テブレット(tablet)PC、モバイル機器(mobile device)、ハンドヘルド(handheld)機器またはハンドヘルド・コンピュータ、メディアプレイヤ、電子ブック端末機、PDA(personal digital assistant)、タッチ基盤のユーザのジェスチャを入力することができるデジタルカメラ、及びデジタルCE(consumer electronics;例えば、イメージディスプレイ及びタッチ基盤のユーザのジェスチャを入力することができる機能を有する装置)などになるが、それらに制限されるものではない。
デバイス100は、情報入力部101、センシング部102、タッチスクリーン103、カメラ104、オーディオ入力部105、オーディオ出力部106、保存部107、無線通信部108、有線通信部109、プロセッサ110、及び電源部111を含む。しかしデバイス100の構成は、図1Aに図示されたところに制限されるものではない。すなわち、デバイス100の構成は、図1Aに図示された構成要素よりさらに多くの構成要素を含んだり、あるいはさらに少ない構成要素を含んでもよい。
情報入力部101は、デバイス100の動作を制御するための入力データ、及び望ましい実施形態によるイメージ基盤の情報検索方法の実行を要請する情報を受信することができるが、受信される情報は、それに制限されるものではない。情報入力部101は、キーパッド(keypad)、ドームスイッチ(dome switch)、ジョグホイール(jog wheel)、ジョグスイッチ(jog switch)、ハードウェア(H/W)ボタン、ホットキー(hot key)及びタッチパネルなどを含んでもよいが、それらに制限されるものではない。
センシング部102は、デバイス100の位置、デバイス100とユーザとの接触有無、デバイス100の移動、デバイス100の方位、デバイス100の加速または減速などのようにデバイス100の現在状態を感知し、デバイス100の動作を制御するためのセンシング信号を発する。センシング部102は、近接センサ及びモーションセンサを含んでもよい。センシング部102は、センサ基盤のユーザのジェスチャを認識した信号を発することができる。
近接センサは、既設定の検出面に近付く物体、または近辺に存在する物体の有無を電子系の力または赤外線を利用して、機械的接触なしに検出するセンサをいう。近接センサの例として、透過型光電センサ、直接反射型光電センサ、ミラー反射型光電センサ、高周波発振型近接センサ、静電容量型近接センサ、磁気型近接センサ、赤外線近接センサなどがある。
タッチスクリーン103は、抵抗膜(減圧)方式または静電容量方式で構成されるが、それらに制限されるものではない。タッチスクリーン103は、前述のユーザのタッチ基盤ジェスチャに依存するユーザの要請、ユーザの選択またはユーザのコマンドを受信することができる。ユーザのタッチ基盤ジェスチャは、タッチ回数、タッチパターン、タッチ面積及びタッチ強度などの多様な組み合わせによって、前述のタッチ基盤のユーザのジェスチャが定義される。しかし、定義可能なタッチ基盤のユーザのジェスチャは、前述のところに制限されるものではない。
タッチスクリーン103は、タッチスクリーン103のタッチまたは近接タッチを感知するための多様なセンサが具備されもする。タッチスクリーン103に具備されるセンサは、前述のタッチ基盤のユーザのジェスチャまたはパターンをセンシングした信号を発することができる。タッチスクリーン103と共に使用することができる近接センサは、センシング部102に含まれる近接センサと同一でもある。
タッチスクリーン103のタッチを感知するためのセンサの一例として、触覚センサを含んでもよい。触覚センサは、接触面の粗度、接触物体の硬度、接触地点の温度などの多様な情報を感知することができる。近接センサは、既設定の検出面に近付く物体、または近辺に存在する物体の有無を電子系の力または赤外線を利用して、機械的接触なしに検出するセンサをいう。近接センサの例として、透過型光電センサ、直接反射型光電センサ、ミラー反射型光電センサ、高周波発振型近接センサ、静電容量型近接センサ、磁気型近接センサ、赤外線近接センサなどがある。
タッチスクリーン103のタッチは、ポインタ(pointer)によるタッチパネルのタッチにもなる。タッチスクリーン103の近接タッチ(proximity-touch)は、ポインタがタッチパネルに実際にタッチされず、タッチパネルから所定距離内に接近するポインタの移動にもなる。ポインタは、タッチスクリーン103の特定部分をタッチしたり、あるいは近接タッチするためのツールである。ポインタの例として、スタイラスペン、指などを挙げることができるが、それらに制限されるものではない。
タッチスクリーン103は、デバイス100で処理される情報をディスプレイする。例えば、タッチスクリーン103は、タッチスクリーン103に具備されたセンサを介して、センシングされたユーザのジェスチャまたはタッチパターン、または情報入力部101を介して入力された制御データまたはユーザの入力情報、またはセンシング部102を介してセンシングされた信号に応答するスクリーンをディスプレイすることができる。
本発明の望ましい実施形態によるイメージ基盤の情報検索方法を遂行するために、タッチスクリーン103は、ディスプレイされているイメージ基盤の複数のオブジェクトに対する選択を示すユーザの入力(以下、第1入力とする)と、選択された複数のオブジェクトの検索関係を示すユーザの入力(以下、第2入力とする)とを受信し、受信された第1入力及び第2入力をプロセッサ110に伝送する。プロセッサ110から、第1入力と第2入力とに基づいて検索された情報が受信されれば、タッチスクリーン103は、受信された検索された情報をディスプレイする。
タッチスクリーン103は、第1入力と第2入力とが受信されるとき、プロセッサ110から提供される第1入力と第2入力との受信を認識した結果情報を出力することができる。タッチスクリーン103を介して出力される前記結果情報は、前記第1入力と第2入力とに係わるUI(user interface)的なフィードバック(feedback)情報といえる。
タッチスクリーン103は、入力装置及び出力装置といえる。タッチスクリーン103にディスプレイされているスクリーンは、UI基盤のGUI(graphic user interface)スクリーンを含む。
タッチスクリーン103は、液晶ディスプレイ(liquid crystal display)、薄膜トランジスタ液晶ディスプレイ(thin film transistor-liquid crystal display)、有機発光ダイオード(organic light-emitting diode)、フレキシブル・ディスプレイ(flexible display)、三次元ディスプレイ(3D display)及びAMOLED(active-matrix organic light-emitting diode)などを含んでもよいが、それらに制限されるものではない。タッチスクリーン103は、ディスプレイといえる。タッチスクリーン103は、デバイス100の具現形態によって、2個以上存在することができる。
カメラ104は、映像通話モードまたは撮影モードで、イメージセンサ(または、光センサ)によって得られる静止映像または動画などの画像フレームを処理する。そして、処理された画像フレームは、タッチスクリーン103にディスプレイされる。それによって、カメラ104によって得られた静止映像または動画に含まれた画像フレームに基づいて、本発明の望ましい実施形態によるイメージ基盤の情報検索方法を遂行することができる。
カメラ104で処理された画像フレームは、保存部107に保存されたり、あるいは無線通信部108または有線通信部109を介して外部に伝送される。カメラ104のイメージフレームは、イメージ基盤情報検索方法を遂行するためのプロセッサ110で使用されるイメージにもなる。カメラ104は、デバイス100の構成によって、2個以上が具備される。また、カメラ104は、ユーザの空間ジェスチャを認識する入力装置として使用されもする。
オーディオ入力部105は、通話モード、録画モードまたは音声認識モードなどで、外部の音響信号を入力され、電気的な音声データに変換し、プロセッサ110に伝送する。オーディオ入力部105は、例えば、マイクロホンで構成される。オーディオ入力部105は、外部の音響信号を入力される過程で発生する雑音(noise)を除去するための多様なノイズ除去アルゴリズムを含むように構成される。
オーディオ入力部105を利用して入力される前記音響信号は、本発明の望ましい実施形態によるイメージ基盤の情報検索方法の実行を要請するユーザの入力情報を含んでもよい。前記音響信号が、自然語基盤のユーザの入力情報である場合、前記音響信号は、音声認識基盤のユーザの入力といえる。オーディオ入力部105を介して入力される外部の音響信号は、プロセッサ110を介して、保存部107に保存されたり、あるいはプロセッサ110及び無線通信部108、またはプロセッサ110及び有線通信部109を介して外部に伝送される。
オーディオ出力部106は、通話モードまたはオーディオ再生モードなどで、外部から受信されたり、あるいは保存部107から読み取られる音響信号またはオーディオ信号を出力する。オーディオ出力部106は、スピーカによって構成される。オーディオ出力部106は、コンテンツが再生されるとき、再生されるコンテンツにオーディオ信号が含まれていれば、再生されるコンテンツに含まれているオーディオ信号を出力する。オーディオ入力部105とオーディオ出力部106は、例えば、ヘッドセットのように、シングルユニットで構成される。
保存部107は、後述するプロセッサ110で実行可能になるように構成された少なくとも1つのプログラム及び/または命令語セットと、資源(resource)とを保存する。少なくとも1つのプログラムは、本発明の望ましい実施形態によるイメージ基盤の情報検索方法を実行するための少なくとも1つのプログラム、デバイス100のオペレーティングシステム(operating system)プログラム、デバイス100で遂行される各種機能(または、サービス)に係わるアプリケーション・プログラム、及びデバイス100に含まれたハードウェア・コンポーネント(component)を駆動させるプログラムを含むが、それらに制限されるものではない。
資源は、前述の第1入力と第2入力とに基づいて検索される情報を含んでもよい。検索される情報は、イメージ基盤の情報と、テキスト基盤の情報とのうち少なくとも一つを含んでもよい。例えば、検索される情報は、選択された一つ以上のオブジェクトをいずれも含んだ一つ以上のイメージまたはテキスト、複数のオブジェクトのうち少なくとも1つのオブジェクトを含んだイメージまたはテキスト、第2入力によって選択可能な検索項目に係わるテキスト情報を含んでもよいが、それらに制限されるものではない。
選択可能な検索項目に係わるテキスト情報は、第1入力と第2入力とによって決定される。第1入力と第2入力とによって決定される検索項目に係わるテキスト情報の例は、後述するスクリーン例について説明するときに、さらに詳細に言及する。
また、資源はデバイス100のユーザ情報、デバイス100に設定されたアプリケーション・プログラムの運用に必要な情報、及び前述のハードウェア・コンポーネントの駆動に必要なプログラムを実行するに必要な情報を含んでもよいが、それらに制限されるものではない。
保存部107は、フラッシュメモリ・タイプ、ハードディスク・タイプ、マルチメディアカードマイクロ・タイプ、カードタイプのメモリ(例えば、SDメモリ、XDメモリなど)、ROM(read-only memory)、EEPROM(electrically erasable programmable read-only memory)、PROM(programmable read-only memory)、磁気メモリ、光ディスクのうち少なくとも1つのタイプの記録媒体を含んでもよいが、それらに制限されるものではない。保存部107は、例えば、揮発性メモリまたは不揮発性メモリのような保存ユニットを含む。
保存部107に保存される少なくとも1つのプログラム及び/または命令語セットは、対応する機能によって、複数個のモジュールに分類することができる。
図1Bは、保存部107に保存されるプログラム及び/または命令語セットをモジュール別に分類した例である。図1Bを参照すれば、保存部107は、オペレーティングシステム107−1、無線通信モジュール107−2、有線通信モジュール107−3、グラフィック・モジュール107−4、GPS(global positioning system)モジュール107−5、UIモジュール107−6、センシング・モジュール107−7、接触及び動きモジュール107−8、電源モジュール107−9及びアプリケーション・モジュール107−10を含んでもよいが、それらに制限されるものではない。
アプリケーション・モジュール107−10は、イメージ再生モジュール107−11、情報検索モジュール107−12及びカメラ・モジュール107−13を含むが、それらに制限されるものではない。例えば、アプリケーション・モジュール107−10は、電子メールモジュール、SNS(social networking service)モジュール、画像会議モジュール、イメージ管理モジュール、ブラウジング・モジュール、カレンダー・モジュール、ウィゼット・モジュール、検索モジュール及びワード文書作成モジュールなど多様なモジュールをさらに含んでもよい。
オペレーティングシステム107−1は、デバイス100の一般的な機能を制御して管理するものであり、デバイス100内のハードウェア・コンポーネント及びソフトウェア・コンポーネントの間の通信を可能にするソフトウェア・コンポーネントを含む。
無線通信モジュール107−2は、無線通信部108を介して、少なくとも1つの外部デバイス(図示せず)との通信を可能にし、無線通信部108を介して、少なくとも1つの外部デバイスから受信されるデータと、少なくとも1つの外部デバイスに送信されるデータとを処理するためのソフトウェア・コンポーネントを含む。少なくとも1つの外部デバイスは、クラウドサーバとデバイス100とに有線または無線で連結されたり、あるいは周辺のデバイスのうち少なくとも一つを含んでもよい。
本発明の望ましい実施形態によって、無線通信モジュール107−2は、情報の検索時、外部デバイスに情報検索を要請し、外部デバイスから検索された情報を受信することができる。
有線通信モジュール107−3は、USB(universal serial bus)ポートのようなエレメントから構成された有線通信部109と、外部デバイス(図示せず)との通信を可能にし、有線通信部109を介して、外部デバイス(図示せず)から受信されるデータと、外部デバイス(図示せず)に送信されるデータとを処理するためのソフトウェア・コンポーネントを含む。
グラフィック・モジュール107−4は、タッチスクリーン103にディスプレイされているグラフィックの明度調節及びレンダリングのためのソフトウェア・コンポーネント、並びにアプリケーション・モジュール107−10で、テキストを入力するための仮想キーボード(または、ソフトキーボード)を提供するソフトウェア・コンポーネントを含む。
GPSモジュール107−5は、デバイス100の位置を決め、決定された位置情報を、位置基盤サービスを提供するアプリケーションに提供するソフトウェア・コンポーネントを含む。UIモジュール107−6は、タッチスクリーン103基盤のUI情報を提供するアプリケーションに必要なUIを提供するソフトウェア・コンポーネントを含む。
センシング・モジュール107−7は、センシング部102のセンシング情報を、センシング部102基盤センシング情報として決定し、決定されたセンシング情報基盤のサービスを提供するアプリケーション・モジュール107−10に提供するソフトウェア・コンポーネントを含む。接触及び動きモジュール107−8は、タッチスクリーン103のタッチ接触を、タッチスクリーン103基盤のタッチ接触として感知し、接触に基づいた動きを追跡し、それを必要とするアプリケーション・モジュール107−10に提供するソフトウェア・コンポーネントを含む。
電源モジュール107−9は、オペレーティングシステム107−1と連動され、デバイス100内のハードウェア・コンポーネントに係わる電源供給を制御し、タッチスクリーン103に供給される電源に係わる節電モードを制御するソフトウェア・コンポーネントを含む。
アプリケーション・モジュール107−10に含まれるモジュールの機能は、その名称によって、当業者が直観的に推論することができると考えられるので、本発明の望ましい実施形態に係わるアプリケーション・モジュールのみを図示して説明する。
例えば、イメージ再生モジュール107−11を実行させ、イメージ(または、1つのイメージ)がタッチスクリーン103上にディスプレイされているとき、情報検索モジュール107−12を実行させ、ディスプレイされているイメージ基盤の情報検索サービスを遂行する。イメージ基盤の情報検索サービスを行った後、接触及び動きモジュール107−8及び/またはセンシング・モジュール107−7によってセンシングされた情報によって、前述の第1入力及び第2入力が認識されれば、認識された第1入力及び第2入力に基づいて、保存部107、無線通信部108及び有線通信部109を介して連結された少なくとも1つの外部デバイス(図示せず)のうち少なくとも一つから情報を検索する。
情報が検索されれば、情報検索モジュール107−12は、検索された情報を、タッチスクリーン103を介して出力する。UIモジュール107−6は、検索された情報を、タッチスクリーン103にディスプレイし、第1入力及び第2入力が認識されるとき、認識された結果情報をタッチスクリーン103上に出力することができる。
第1入力または第2入力に基づいて処理される検索は、ユーザとデバイス100とのインタラクションといえる。すなわち、第1入力の認識は、複数のオブジェクトの選択に係わるユーザとデバイス100とのインタラクションと定義され、第2入力を認識することは、複数のオブジェクトの検索関係に係わるユーザとデバイス100とのインタラクションと定義され、検索された情報をタッチスクリーン103にディスプレイすることは、ユーザとデバイス100との検索インタラクションと定義される。例えば、デバイス100は、タッチスクリーン103からユーザ入力を受信することができ、受信されたユーザ入力を第1入力として認識することができる。第1入力が認識されれば、デバイス100は、タッチスクリーン103から他のユーザ入力を受信し、受信された他のユーザ入力を第2入力として受信することができる。
図1Aの保存部107は、図1Bに図示されたプログラム及び/または命令語セットのうち、アプリケーション・モジュール107−10に含まれるモジュールを保存しないか、あるいはアプリケーション・モジュールのURL(uniform resource locator)のような位置情報、及びアプリケーション・モジュールを示すことができるディスプレイ情報のみを保存することができる。保存部107に、アプリケーション・モジュール107−10に含まれるモジュールが保存されていない場合、プロセッサ110は、無線通信部108または有線通信部109を介して、外部デバイスと接続し、外部デバイスに保存されているアプリケーション・モジュール107−10に対応するプログラム及び/または命令語セットを使用することができる。
保存部107に、アプリケーション・モジュールの位置情報、及びアプリケーション・モジュールを示すことができるディスプレイ情報のみ保存されている場合、タッチスクリーン103を介してディスプレイされているアプリケーション・モジュールのディスプレイ情報に基づいたユーザの選択信号に対応するアプリケーションの位置情報を利用して、プロセッサ110は、無線通信部108または有線通信部109を介して、外部デバイスに保存されている情報を検索することができる。
無線通信部108は、無線インターネット、無線イントラネット、無線電話ネットワーク、無線LAN(local area network)、Wi−Fi(wireless fidelity)、Wi−Fiダイレクト(WFD:Wi−Fi direct)、3G(generation),4G(4 generation)LTE(long term evolution)、ブルートゥース(登録商標)(Bluetooth(登録商標))、赤外線通信(IrDA:infrared data association)、RFID(radio frequency identification)、UWB(ultra wideband)、ジグビー(Zigbee(登録商標))のような無線ネットワークを介して、外部デバイスとデータを送受信することができる。
無線通信部108は、放送受信モジュール、移動通信モジュール、無線インターネット・モジュール、有線インターネット・モジュール、近距離通信モジュール及び位置情報モジュールのうち少なくとも一つを含んでもよいが、それらに制限されるものではない。
有線通信部109は、有線インターネットのような有線ネットワークを介して外部デバイスとデータを送受信することができる。有線通信部109は、USBポート(図示せず)のようなプラグ・アンド・プレイ(plug and play)インターフェースを利用して、外部デバイス(図示せず)とデータを送受信することができる。有線通信部109は、デバイス100の構成要素に含まれないこともある。
電源部111は、デバイス100に含まれたハードウェア・コンポーネントに電力を供給する。電源部111は、バッテリ及び交流電源のような一つ以上の電源を含む。デバイス100は、電源部111を含まず、外部電源提供部(図示せず)と連結される連結部(connection unit)(図示せず)を含んでもよい。
プロセッサ110は、デバイス100の全般的な動作を制御するものであり、一つ以上のプロセッサといえる。プロセッサ110は、保存部107に保存されたオペレーティングシステム107−1と、各種モジュール107−2〜107−13とを利用して、情報入力部101、センシング部102、タッチスクリーン103、カメラ103、オーディオ入力部105、オーディオ出力部106、保存部107、無線通信部108、有線通信部109及び電源部111を全般的に制御することができる。従って、プロセッサ110は、制御器やマイクロプロセッサ、デジタル信号処理器(digital signal processor)などといえる。
また、プロセッサ110は、オペレーティングシステム107−1と、UIモジュール107−6とを利用して、情報入力部101、センシング部102、タッチスクリーン103、カメラ104及びオーディオ入力部105を利用して、ユーザ・インターフェースを提供することができる。
プロセッサ110は、本発明の望ましい実施形態によるイメージ基盤の情報検索方法に係わる少なくとも1つのプログラムを実行させ、後述する図2、図10及び図14に図示された動作フローチャートを遂行することができる。プロセッサ110は、前記プログラムを保存部107から読み取って実行させたり、あるいは無線通信部108または有線通信部109を介して連結された外部デバイスからダウンロードされて実行させることができる。そのとき、外部デバイスは、アプリケーション提供サーバまたはアプリケーションマーケット・サーバといえる。外部デバイスは、クラウドサーバ、またはデバイス100周辺の通信可能なデバイスを含む。外部デバイスは、デバイス100と類似しているか、あるいは同一のデバイスでもある。プロセッサ110は、デバイス100内の各種ハードウェア・コンポーネントとプロセッサ11とのインターフェース機能部を含むものであると理解される。
図2は、本発明の望ましい実施形態によるイメージ基盤の情報検索方法の動作フローチャートである。図2の動作フローチャートは、図1Aのプロセッサ110で遂行される。
図2を参照すれば、プロセッサ110は、タッチスクリーン103にディスプレイされているイメージに含まれた複数のオブジェクトに対する選択を示す第1入力を認識する(S201)。
図3は、本発明の望ましい実施形態によるイメージ基盤の情報検索方法において、第1入力の入力例について説明するための図面である。図3の(310)は、タッチスクリーン103にディスプレイされているイメージ310aに含まれた複数のオブジェクト310a1,310a2に対してタッチして、第1入力を入力する場合である。ここで、タッチは、基準時間より長い時間タッチされるロングタッチといえる。それによって、プロセッサ110は、図3のスクリーン310に図示されたイメージで、タッチ地点に対応するオブジェクト310a1,301A2の選択を認識する。タッチ地点に係わるタッチは、基準時間より長い時間タッチされるロングタッチといえる。複数のオブジェクトの選択を示すタッチ基盤のユーザのジェスチャは、前述のロングタッチに制限されず、同時に発生しないこともある。オブジェクトは、同時に選択される。オブジェクトは、独立して選択される。選択が独立して遂行されれば、第2オブジェクトの第2選択は、第1オブジェクトの第1選択から基準時間以内に遂行される。オブジェクトは、対応するスクリーン上にディスプレイされている他のイメージから選択される。プロセッサ110は、オブジェクトの選択を第1入力として認識することができる。
図3の(320)は、タッチスクリーン103にディスプレイされているイメージ320aの複数のオブジェクト320a1,320a2に対して、それぞれ円形(circle)の閉領域を設定するユーザのジェスチャによって、第1入力が入力される場合である。閉領域を設定するユーザのジェスチャは、図3の(320)に図示されたように、円形に制限されるものではない。すなわち、閉領域を設定するユーザのジェスチャは、選択しようとするオブジェクトを含む四角形(square)または三角形(triangle)を設定するユーザのジェスチャを含んでもよい。また、前述の閉領域は、必ずしも開始地点と終了地点とが出合うように設定されず、前述の開始地点と終了地点との出合いを示すユーザジェスチャを含んでもよい。ユーザジェスチャは、オブジェクトを表示するラインを形成するためのジェスチャにもなる。オブジェクトは同時に選択される。また、オブジェクトは、独立して選択される。選択が独立して遂行されれば、第2オブジェクトの第2選択は、第1オブジェクトの第1選択からの基準時間以内に遂行される。オブジェクトは、対応するスクリーン上に表示されている他のイメージから選択される。プロセッサ110は、前述のところのように、オブジェクトの選択を第1入力として認識したり、あるいは以下の説明のように、オブジェクトの選択を第1入力と認識することができる。
プロセッサ110は、タッチスクリーン103にディスプレイされているイメージ基盤の選択された複数のオブジェクトの検索関係を示す第2入力を認識する(S202)。
図4は、本発明の望ましい実施形態によるイメージ基盤の情報検索方法において、第2入力が入力される例について説明するための図面である。図4での第2入力は、情報の検索時、選択された複数のオブジェクトの検索関係を同一階層関係で設定するためのものである。
図4の(401)は、選択された複数のオブジェクトを1ヵ所で集めることを意味するタッチ基盤のユーザのジェスチャによる第2入力の例である。すなわち、1つのイメージに含まれた5個のオブジェクトに対する選択を示す第1入力(例えば、ロングタッチ)を入力した後、第1入力が入力された地点から、ディスプレイされているイメージ内の一地点にドラッグする第2入力を入力して選択された5個のオブジェクトに係わる検索関係を同一階層関係で設定した場合である。
そのとき、第2入力は、第1入力を入力した後、タッチ状態を維持しながら、前述のドラッグを連続的に遂行することと定義されもするが、第1入力を入力した後、さらに第1入力を入力した地点をタッチした後、前述の一地点にドラッグするタッチ・アンド・ドラッグとも定義される。第1入力を入力した地点をさらにタッチする場合、タッチ地点に係わる以前のx,y座標と現在のx,y座標との間に誤差があり得る。しかし、現在のx,y座標が同一のオブジェクトのディスプレイ領域内であるならば、前述の誤差は、無視される。(401)に図示されたところによって分かるように、(401)での1地点は、5つのオブジェクトに対応する5本指がいずれも出合うことができる地点であると定義される。
図4の(402)は、選択された複数のオブジェクトを、選択された複数のオブジェクトのディスプレイ位置以外の位置に移動させることを意味するタッチ基盤のユーザのジェスチャによる第2入力の例である。すなわち、1つのイメージに含まれた5個のオブジェクトに対する選択を示す第1入力を入力した後、第1入力が入力された地点から、下に一定長ほどドラッグする第2入力を入力して選択された5個のオブジェクトに係わる検索関係を同一階層関係で設定した場合である。
図4の(402)で、第2入力は、前述の(401)で説明したように、第1入力を入力した後、タッチ状態を維持しながら、前述のドラッグを連続的に遂行するものであると定義されもするが、第1入力を入力した後、さらに第1入力を入力した地点をタッチした後、前述の一定長の下にドラッグするタッチ・アンド・ドラッグと定義されもする。
図4の(403)は、前述の(402)のように選択された複数のオブジェクトを、選択された複数のオブジェクトのディスプレイ位置以外の位置にタッチ地点が移動させることを意味するタッチ基盤のユーザのジェスチャによる第2入力の例である。図4の(403)は、第1入力が入力された地点から上に一定長ほどドラッグする第2入力を入力する場合である。
図4の(404)は、選択された2個のオブジェクトを一地点に集めることを意味するタッチ基盤のユーザのジェスチャによる第2入力の例である。(404)で言及される1地点は、2個のオブジェクトを選択した指が出合うか、あるいはオブジェクトをオーバーラップするために配置される地点と定義される。
図4の(405)は、選択された2個のオブジェクトを、第1入力が入力された地点から内側にタッチ地点が移動されることを意味するタッチ基盤のユーザのジェスチャによる第2入力の例である。内側に移動される距離は、前述の(402)と(403)とで言及された一定距離以内に設定される。
図4の(406)は、選択された2個のオブジェクトを、第1入力が入力された地点から外側に一定距離以内タッチ地点が移動されることを意味するタッチ基盤のユーザのジェスチャによる第2入力の例である。
前述の図4及び後述する図5を含めた明細書全般で言及される移動は、イメージ上にディスプレイされている複数のオブジェクトのディスプレイ位置の移動を意味することができる。しかし、前述の移動は、オブジェクトのディスプレイ位置の実質的な移動ではない、ディスプレイされているイメージ上のタッチ地点の移動を意味することができる。
図5は、本発明の望ましい実施形態によるイメージ基盤の情報検索方法において、第2入力が入力される例について説明するための図面である。図5での第2入力は、情報の検索時、選択された複数のオブジェクトの検索関係を上下階層関係で設定する場合である。
図5の(501)は、選択された5個のオブジェクトのうち1つのオブジェクトのディスプレイ位置に、残りのオブジェクトを移動させることを意味するタッチ基盤のユーザのジェスチャによる第2入力の例である。その場合、1つのオブジェクトは、残りのオブジェクトに属する。
図5の(502)は、選択された2個のオブジェクトのうち1つのオブジェクトのディスプレイ位置から、他のオブジェクトのディスプレイ位置に移動されることを意味するタッチ基盤のユーザのジェスチャによる第2入力の例である。その場合、前述の他のオブジェクトが前述の1つのオブジェクトに属する。
図2の段階S203で、プロセッサ110は、タッチスクリーン103にディスプレイされているイメージを基に、第1入力と第2入力とが認識されれば、認識された第1入力と第2入力とに基づいて情報を検索することができる。すなわち、認識された第1入力によって選択されたオブジェクトを検出する。選択されたオブジェクトを検出する方式は、タッチされた地点を基準に、オブジェクトのアウトラインを検出する方式を使用することができるが、それらに制限されるものではない。選択されたオブジェクトが検出されれば、プロセッサ110は、第2入力によって選択された複数のオブジェクトの検索関係によって検索式を決定する。
選択されたオブジェクトが同一階層関係であるならば、選択されたオブジェクトをいずれも含む情報を検索したり、あるいは選択されたオブジェクトのうち少なくとも1つのオブジェクトを含む情報を検索することができる。選択されたオブジェクトが同一階層関係であるとき、選択されたオブジェクトをいずれも含む情報を検索するか否か、あるいは少なくとも1つのオブジェクトを含む情報を検索するか否かということは、前もって定義される。
すなわち、既選択のオブジェクトが同一階層関係であるとき、選択されたオブジェクトをいずれも含む情報を検索するように設定された場合、プロセッサ110は、選択されたオブジェクトをいずれも含む情報を、保存部107と、前述の外部デバイスとのうち少なくとも一つから検索する。
既選択のオブジェクトが同一階層関係であるとき、選択されたオブジェクトを少なくとも一つを含む情報を検索するように設定された場合、プロセッサ110は、選択されたオブジェクトを少なくとも一つ含む情報を、保存部107と、前述の外部デバイスとのうち少なくとも一つから検索する。
既選択のオブジェクトが同一階層関係であるとき、選択されたオブジェクトをいずれも含む情報の検索と、少なくとも一つを含む情報の検索とを選択的に使用するように設定された場合、プロセッサ100は、情報を検索する前に、情報検索項目(例えば、いずれも含む情報検索アイテム、または少なくとも一つを含む情報検索アイテム)に対応する情報を、タッチスクリーン103にディスプレイする。
タッチスクリーン103にディスプレイされる情報検索項目情報に基づいて選択された複数のオブジェクトをいずれも含む情報検索アイテムが選択されれば、プロセッサ110は、選択された複数のオブジェクトをいずれも含む情報を検索する。しかし、ディスプレイされる情報検索項目に対応する情報に基づいて選択された少なくとも1つのオブジェクトを含む情報検索アイテムが選択されれば、プロセッサ110、は少なくとも1つの選択されたオブジェクトを含む情報を検索する。
選択されたオブジェクトの検索関係が上下階層関係であるならば、プロセッサ110は選択されたオブジェクト間の主従関係によって、検索式を決めて情報を検索する。
すなわち、図6に図示されたスクリーン610のように、選択されたオブジェクトが、イメージ610aのかばん610a1と顔610a2とであり、かばん610a1から顔610a2にタッチ地点が移動されることを意味する第2入力が認識されれば、プロセッサ110は、検索式を「かばんを持っている人」に設定する。それによって、プロセッサ110は、「Aが有しているかばんと同一のかばんを有している任意の人」に係わる情報を、保存部107と外部デバイスとのうち少なくとも一つから検索する。
図6に図示されたスクリーン620のように、選択されたオブジェクトが、かばん610a1と顔610a2とであり、顔610a2からかばん610a1にタッチ地点が移動されることを意味する第2入力が認識されれば、プロセッサ110は、検索式を「Aが有しているかばん」と設定する。それによって、プロセッサ110は、「Aが有している全てのかばん」に係わる情報を、保存部107と外部デバイスとのうち少なくとも一つから検索する。
図6に図示されたスクリーン630のように、選択されたオブジェクトが、かばん610a1、顔610a2、服610a3であるとき、服610a3からかばん610a1にタッチ地点が移動されることを意味する第2入力と、かばん610a1から顔610a2にタッチ地点が移動されることを意味する第2入力とが認識されれば、プロセッサ110は、検索式を「服のかばん」及び「かばんを有している人」と設定する。それによって、プロセッサ110は「同一の服と任意のかばんとを含んだ情報」と「同一のかばんを有している任意の人」とを含む情報を、保存部107と外部デバイスとのうち少なくとも一つから検索する。
図6に図示されたスクリーン640のように、選択されたオブジェクトが、かばん610a1、顔610a2、服610a3であり、服610a3から顔610a2にタッチ地点が移動されることを意味する第2入力と、かばん610a1から顔610a2にタッチ地点が移動されることを意味する第2入力とが認識されれば、プロセッサ110は、検索式を「同一の服を着ている任意の人」を含む情報と、「同一のかばんを有している任意の人」とを含む情報を、保存部107及び外部デバイスのうち少なくとも一つから検索する。
図6に図示されたスクリーン650は、選択された複数のオブジェクトの検索関係が同一階層関係を示す第2入力が入力された場合である。もしデバイス100に設定された条件が、選択された複数のオブジェクトが同一階層関係であるとき、検索式が論理積(AND)と定義された場合、プロセッサ110は、「同一のかばん及び人A」を含んでいる情報を、保存部107及び外部デバイスのうち少なくとも一つから検索する。
検索される情報は、イメージ基盤情報及びテキスト基盤情報のうち少なくとも一つを含んでもよい。また、検索を、保存部107で行うか、外部デバイスから行うか、あるいは保存部107と外部デバイスとでいずれも行うかということは、ユーザによって設定される。ユーザが、前述の検索範囲を設定するようにプロセッサ110は、タッチスクリーン103を介して選択可能な検索範囲情報をディスプレイすることができる。
図2の段階S204で、プロセッサ110は、検索された情報を、タッチスクリーン103にディスプレイする。検索された情報は、ディスプレイされているイメージに重畳された形態でディスプレイされもするが、別途のページ、またはディスプレイされているイメージ上に、ポップアップ・ウィンドー形態でもディスプレイされる。
図7ないし図9は、選択された複数のオブジェクトの検索関係が同一階層関係であるとき、前述の第1入力と、第2入力と、ディスプレイされる検索された情報との関係の例示図である。
図7は、スクリーン710において、ディスプレイされているイメージ710aに含まれた2個のオブジェクト710a1,710a2を選択する第1入力を入力する場合であり、スクリーン720において、第1入力を入力した後、選択された2個のオブジェクト710a1,710a2のディスプレイ位置から1地点に集めるユーザのジェスチャに基づいた第2入力を入力する場合であり、スクリーン730において、選択された全てのオブジェクトを含むイメージ730aが検索され、独立したページにディスプレイされる場合である。
図8は、スクリーン810において、ディスプレイされているイメージ810aに含まれた2個のオブジェクト810a1,810a2を選択する第1入力を入力する場合であり、スクリーン820において、第1入力を入力した後、選択された2個のオブジェクト801A1,801A2のディスプレイ位置を上側に同時に移動させるユーザのジェスチャに基づいた第2入力を入力する場合であり、スクリーン830において、選択された複数のオブジェクト801A1,801A2のうち少なくとも一つを含むイメージ830a1〜830a7が検索され、独立したページにディスプレイされる場合である。
図9は、スクリーン910において、ディスプレイされているイメージ910aに含まれた2個のオブジェクト910a1,910a2を選択する第1入力を入力する場合であり、スクリーン920において、第1入力を入力した後、選択された2個のオブジェクト910a1,910a2のディスプレイ位置を下側に同時に移動させるユーザのジェスチャに基づいた第2入力を入力する場合であり、スクリーン930において、選択された複数のオブジェクト910a1,910a2のうち少なくとも一つを含むイメージ930a1〜930a7が検索され、独立したページにディスプレイされる場合である。
前述の図7ないし図9を基に、選択された複数のオブジェクトが同一階層関係であるということを示す第2入力の入力パターンによって選択された複数のオブジェクトをいずれも含むイメージ(または、情報)を検索したり、あるいは選択された複数のオブジェクトのうち少なくとも一つを含むイメージ(または、情報)を検索することができるということが分かる。
図10は、本発明の望ましい他の実施形態によるイメージ基盤の情報検索方法の動作フローチャートである。図10は、図2の動作フローチャートに、第1入力が認識された後、認識された結果情報をタッチスクリーン103にディスプレイする機能と、第2入力が認識された後、認識された結果情報をタッチスクリーン103にディスプレイする機能とがさらに追加された場合である。
すなわち、段階S1001で、プロセッサ110は、図2の段階S201のように、タッチスクリーン103にディスプレイされているイメージに含まれた複数のオブジェクトに対する選択を示す第1入力を認識する。
それによって、プロセッサ110は、第1入力を認識した結果情報をタッチスクリーン103にディスプレイする。前述の結果情報は、第1入力によって、オブジェクトに係わるアウトラインを検出し、検出された輪郭線を含む領域が閉領域の形態で出力される。
図11及び図12は、第1入力が認識された結果情報が、タッチスクリーン103にディスプレイされるスクリーンの例である。すなわち、図11は、イメージ1110aから、複数のオブジェクト1110a1,1110a2をロングタッチすることによって選択されたオブジェクト1110a1,1110a2に係わる認識された結果情報が、四角形の閉領域1120b1,1120b2でディスプレイされる場合である。四角形の閉領域1120b1,1120b2は、第1入力が認識された後、前述のアウトライン検出方式によって生成され、図11の(1120)のように、タッチスクリーン103上にディスプレイされる。
図12は、図11でのように、イメージ1210の選択されたオブジェクト1210a1,1210a2のアウトライン検出によって、四角形の閉領域1220b1,1220b2が生成されれば、生成された閉領域1220b1,1220b2を切り取り、切断された領域1220b1,1220b2をマルチスクリーン形態でディスプレイする場合である。図12は、切り取られた領域1220b1,1220b2のディスプレイ・サイズが、本来のディスプレイ・サイズを維持している。しかし、ディスプレイ・サイズを拡大しても、2個の切り取られた領域1220b1,1220b2が、全スクリーンに拡大されたり、あるいはディスプレイ・サイズを縮小し、スクリーン1210の一部領域にディスプレイされる。切り取られた領域のサイズは、選択されたオブジェクト間の検索関係によって、互いに異なってもよい。
段階S1003でプロセッサ110は、選択された複数のオブジェクトの検索関係を示す第2入力を、図2の段階S202でのように認識する。それにより、プロセッサ110は、段階S1004で、第2入力に係わる認識結果をタッチスクリーン103にディスプレイする。
第2入力に係わる認識結果は、図4ないし図6での説明の一助とするために図示されたタッチ地点が移動される方向を示す矢印が、タッチスクリーン103上にディスプレイされたり、あるいは図13に図示されたように、切り取られたイメージ基盤のマルチスクリーン形態でディスプレイされる。
図13を参照すれば、タッチスクリーン103上にディスプレイされているイメージ1310aから、それぞれ独立してオブジェクト1310a1,1310a2を選択する(スクリーン1310、スクリーン1320)。スクリーン1310,1320の場合には、選択されたオブジェクト1310a1,1310a2に係わる認識結果を、選択と同時に、選択されたパターン(円形)をタッチスクリーン103上にディスプレイした場合である。しかし、選択されたオブジェクト1310a1,1310a2に係わる認識結果は、タッチスクリーン103上にディスプレイされないこともある。
図13のスクリーン1330において、選択された複数のオブジェクト1310a1,1310a2に係わる検索関係を示す第2入力が入力されれば、プロセッサ110は、スクリーン1340に図示されたように、選択された複数のオブジェクト1310a1,1310a2を、切り取ったイメージを基に、マルチスクリーン1340aをディスプレイすることができるが、それに制限されるものではない。
段階S1005で、プロセッサ110は、図2の段階S203でのように、第1入力と第2入力とを利用して情報を検索し、段階S1006で、プロセッサ110は、図2の段階S204でのように、検索された情報を、デバイス100のタッチスクリーン103を利用して出力する。
図10は、第1入力に係わる認識された結果のみをタッチスクリーン103にディスプレイするように変形されたり、あるいは第2入力に係わる認識された結果のみをタッチスクリーン103にディスプレイするように変形されもする。
図14は、本発明の望ましいさらに他の実施形態によるイメージ基盤の情報検索方法の動作フローチャートである。図14は、図2の動作フローチャートで、第1入力と第2入力とによって決定された少なくとも1つの検索項目をディスプレイし、ディスプレイされる検索項目のうち、選択された検索項目に基づいて、情報を検索する機能が追加された場合である。従って、図14の段階S1401,S1402,S1404,S1405は、図2の段階S201ないし段階S204と同一に遂行されるので、以下で説明を省略する。
段階S1403で、プロセッサ110は、第1入力と第2入力とによって決定された検索項目をディスプレイする。例えば、第1入力及び第2入力が、図6のスクリーン610のように入力された場合、プロセッサ110は、前述のような検索式で、「同一のかばんを有している任意の人」に係わる情報を検索することができるが、前述の検索式を基に細分化された検索項目を決定し、ディスプレイすることができる。例えば、プロセッサ110は、検索式が、前述のようであるとき、地域情報を検索項目として決定することができる。すなわち、「1.ソウル、2.釜山、3.光州、4.韓国、5.アメリカ」などを検索項目として決め、それをディスプレイすることができる。
図15は、図14の段階S1403について説明するためのスクリーン例である。すなわち、複数のオブジェクト1510a1,1510a2を選択する第1入力が、スクリーン1510のイメージ1510aのように入力され、選択された複数のオブジェクト1520a1,1520a2の間の検索関係を設定する第2入力が、スクリーン1520に図示されたように入力(例えば、一地点に集まるユーザのジェスチャ)された場合、第1入力と第2入力とによって、検索項目情報が、例えば、「Function 1、Function 2、Function 3、Function 4、Function 5、Function 6、Function 7、Function 8」に決まり、スクリーン1530のイメージ1530aに図示されたようにディスプレイされる。
図15で、ディスプレイされる前述の検索項目情報は、例えば、選択された二人がそれぞれ使用していたサービス情報検索、二人が含まれた写真及び動画検索、二人に共通して推薦される写真及び動画検索、二人がそれぞれ最近使用したデバイス検索、二人がそれぞれ最も多く使用したデバイス検索、二人がいずれも最も多く使用したデバイス検索、二人に共通して推薦するデバイス検索などを挙げることができるが、提供可能な検索項目情報は、それらに制限されるものではない。
図15のスクリーン1530に図示されているように、検索項目情報がディスプレイされるとき、1つの検索項目情報が選択されれば、プロセッサ110は、選択された検索項目に基づいて、情報を検索する。
図15のスクリーン1530は、8個の検索項目情報がディスプレイされるスクリーン例である。しかし、図16に図示されているように、第1入力と第2入力とによって提供可能な検索項目は、図16のスクリーン1620またはスクリーン1630のように、4個の検索項目情報がディスプレイされもするが、それらに制限されるものではない。提供される検索項目情報の数は、既設定である。
図17は、本発明の望ましい実施形態によるデバイス1700の機能ブロック図である。図17に図示されたデバイス1700は、図1Aに図示されたデバイス100と異なる機能ブロック図を有する。
図17を参照すれば、デバイス1700は、情報入出力部1710、通信部1720、プロセッサ1730及び保存部1740を含むが、それらに制限されるものではない。すなわち、デバイス1700は、ユーザの選好度またはデザインによって、図1Aに図示されたデバイス100のように、図17に図示された構成要素よりさらに多くの構成要素を含んだり、あるいは図17に図示された構成要素よりさらに少ない構成要素を含んでもよい。
デバイス1700が、図17に図示された構成要素よりさらに少ない構成要素を含む場合は、デバイス1700が通信部1720を含まなかったり、あるいは保存部1740を含まない場合を有することができる。通信部1720を含まない場合、イメージ基盤の情報検索方法による情報検索を、保存部1740に保存された情報を対象にして、保存部1740に保存される情報は、情報入出力部1710から入力された情報である場合である。保存部1740を含まない場合、デバイス1700は、通信部1720を介して、前述の外部デバイスから情報を検索する。
情報入出力部1710は、ユーザの入力を受信し、デバイス1700の出力情報を出力する。例えば、ユーザの入力は、前述のように、タッチ基盤入力、物理的なボタン制御基盤の入力、ユーザのジェスチャ基盤の入力、ユーザの音声認識基盤の入力、顔認識基盤の入力、及び遠隔制御器(図示せず)基盤の入力を含んでもよいが、それらに制限されるものではない。
本発明の望ましい実施形態によって情報入出力部1710は、第1入力及び第2入力を受信し、第1入力と第2入力との受信を認識した結果情報をそれぞれ出力することができ、第1入力と第2入力とによって検索された情報を出力することができる。
情報入出力部1710は、ダイヤル、スライダ・スイッチ、ジョイ・スティック、クリックホイール、タッチパッド、タッチスクリーン、マイクロホン、スピーカ、センサ、コネクタ、表示灯、キーパッド、ディスプレイ機器、スクロールホイール、及び無線通信に基づいた遠隔信号受信部などを含んでもよいが、それらに制限されるものではない。
通信部1720は、ネットワークを介して、外部デバイスと通信することができる。通信部1720は、外部デバイスに保存された情報を検索することができるが、外部デバイスと、ネットワークを介してメッセンジャ・サービス(messenger service)、メッセージ・サービス(message service)、電子メールサービス(e-mail service)、映像通話サービス及び音声通話サービスなどの通信サービスを遂行することができるが、それらに制限されるものではない。通信部1720は、図1Aの無線通信部108及び有線通信部109のうち少なくとも一つを含むように構成される。
プロセッサ1730は、保存部1740に保存された本発明の望ましい実施形態によるイメージ基盤の情報検索方法を遂行するための少なくとも1つのプログラムを実行させる。すなわち、プロセッサ1730は、前記プログラムを実行させ、情報入出力部1710にディスプレイされているイメージ基盤の第1入力と第2入力との受信が認識されれば、認識された結果によって、保存部1740で情報を検索し、検索された結果を情報入出力部1710に出力する。
保存部1740は、前述の少なくとも1つのプログラム、及びデバイス100との通信のための少なくとも1つの通信アプリケーションを保存するが、それらに制限されるものではない。保存部1740は、フラッシュメモリ・タイプ、ハードディスク・タイプ、マルチメディアカードマイクロ・タイプ、カードタイプのメモリ(例えばSDメモリ、XDメモリなど)、ROM(read-only memory)、EEPROM(electrically erasable programmable read-only memory)、PROM(programmable read-only memory)、磁気メモリ、光ディスクのうち少なくとも1つのタイプの記録媒体を含む。
プロセッサ1730は、前述の図1Aのプロセッサ110のように、前述の図2、図10及び図14の動作フローチャートに基づいた動作を遂行することができる。
図18は、本発明の望ましい実施形態によるデバイス100,1700を含むネットワーク構成図である。図18は、デバイス100,1700、複数の外部デバイス1820,1830及びネットワーク1810を含む。
複数の外部デバイス1820,1830は、サーバと、デバイス100,1700の周辺デバイスとのうち少なくとも一つを含んでもよい。図18での外部デバイス1820,1830は、前述の実施形態で言及された外部デバイスを含む。従って、デバイス100,1700で情報を検索するとき、外部デバイス1820,1830に保存された情報を検索することができる。ネットワーク1810は、図1Aでの無線通信部108及び有線通信部109のうち少なくとも利用して、データを送受信することができるネットワークによって構成される。
前述のイメージ基盤の情報検索方法で言及された複数のオブジェクトは、マルチオブジェクトといえる。また、前述のイメージ基盤の情報検索方法は、イメージ基盤のサービス提供方法に適用される。
図19は、イメージ基盤のサービス提供方法に係わる動作フローチャートである。図19の動作フローチャートは、図1Aのプロセッサ110または図17のプロセッサ1730で遂行される。しかし、説明の便宜のために、以下の説明は、プロセッサ110で遂行されるとして説明する。
段階S1901で、プロセッサ110は、タッチスクリーン103にディスプレイされているイメージに含まれた複数のオブジェクトに対する選択を示す第1入力を認識する。タッチスクリーン103にディスプレイされるイメージは、デバイス100で再生される静止イメージ、写真、または動画のうち一時静止したイメージでもあり、カメラ104によって獲得された入力映像でもある。そのようなタッチスクリーン103にディスプレイされているイメージに係わる定義は、前述の実施形態にも適用される。
段階S1902で、プロセッサ110は、選択された複数のオブジェクトの関係を示す第2入力を認識する。選択された複数のオブジェクトの関係は、前述の実施形態で言及された対応関係と上下階層関係とを含む。
段階S1903で、プロセッサ110は、第1入力と第2入力とを利用して提供可能な少なくとも1つのサービス項目を決定し、タッチスクリーン103上にディスプレイする。サービス項目は、前述の図16のスクリーン1610,1620,1630のようにディスプレイされる。
しかし、決定されたサービス項目は、図16に図示されたスクリーン1610,1620,1630のようにディスプレイされず、1つのサービス項目を含むクラウドが漂うGUI情報が提供されてもよい。サービス項目は、例えば、前述の図15で言及された検索項目と類似したサービス項目を含んでもよいが、デバイス100または外部デバイス1820,1830に提供可能なアプリケーションと、選択されたオブジェクトとの関係によって、最も多く使用したアプリケーション情報、推薦アプリケーション情報などをさらに含んでもよいが、サービス項目は、それらに制限されるものではない。
すなわち、サービス項目は、複数のオブジェクトの関係が同一階層関係である場合、選択された複数のオブジェクトそれぞれに提供可能なサービス項目を含み、複数のオブジェクトの関係が上下階層関係である場合、選択された複数のオブジェクトの主従関係によって提供可能なサービス項目を含んでもよいが、それらに制限されるものではない。
段階S1904で、プロセッサ110は、タッチスクリーン103にディスプレイされるサービス項目から選択されたサービス項目を実行する。
本発明の実施形態によるイメージ基盤の情報検索方法及びサービス提供方法を、コンピュータで具現する方法を遂行させる命令語を含む一つ以上のプログラムは、コンピュータで読み取り可能な記録媒体に、コンピュータで読み取り可能なコードとして記録されることが可能である。コンピュータで読み取り可能な記録媒体は、コンピュータ・システムによって読み取り可能なデータが保存される全ての種類の保存装置を含む。コンピュータで読み取り可能な記録媒体のとしては、ROM、RAM、CD(compact disc)−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがある。また、コンピュータで読み取り可能な記録媒体は、ネットワークに連結されたコンピュータ・システムに分散され、分散方式で、コンピュータで読み取り可能なコードとして保存されて実行される。
以上、本発明に対して、その望ましい実施形態を中心に説明した。本発明が属する技術分野で当業者であるならば、本発明が本発明の本質的な特性から外れない範囲で変形された形態で具現されるということを理解することができるであろう。従って、開示された実施形態は、限定的な観点ではなくして、説明的な観点から考慮されなければならない。本発明の範囲は、前述の説明ではなく、特許請求の範囲に示されており、それと同等な範囲内にある全ての差異は、本発明に含まれたものであると解釈されなければならないのである。
本発明の情報検索方法、そのような機能を有するデバイス及び記録媒体は、例えば、情報検索関連の技術分野に効果的に適用可能である。
100,1700 デバイス
101 情報入力部
102 センシング部
103 タッチスクリーン
104 カメラ
105 オーディオ入力部
106 オーディオ出力部
107,1740 保存部
108 無線通信部
109 有線通信部
110,1730 プロセッサ
111 電源部
1710 情報入出力部
1720 通信部
1810 ネットワーク
1820,1830 外部デバイス

Claims (13)

  1. デバイスにディスプレイされているイメージ基盤の情報検索方法において
    メージに含まれた複数のオブジェクトに対する選択を示す第1入力を認識する段階と、
    前記選択された複数のオブジェクト間の検索関係を示す第2入力を認識する段階と、
    前記第1入力と前記第2入力とに基づいて、情報を検索する段階と、
    前記検索された情報を、前記デバイスを介して出力する段階と、
    を含み、
    前記複数のオブジェクト間の検索関係は、
    前記情報の検索時、前記複数のオブジェクト間の関係が同一レベルであるということを示す同一階層関係と、
    前記情報の検索時、前記複数のオブジェクト間の関係が上下レベルであるということを示す上下階層関係と、
    のうち一つを含むイメージ基盤の情報検索方法。
  2. 前記複数のオブジェクト間の検索関係が、前記同一階層関係であるということを示す場合、前記第2入力は、
    前記選択された複数のオブジェクトを集めることを示すタッチ基盤ジェスチャと、
    前記選択された複数のオブジェクトを、前記選択された複数のオブジェクトのディスプレイ位置以外の少なくとも1つの位置に移動することを示すタッチ基盤ジェスチャと、
    のうち一つを含むことを特徴とする請求項に記載のイメージ基盤の情報検索方法。
  3. 前記複数のオブジェクト間の検索関係が、前記上下階層関係であるということを示す場合、前記第2入力は、
    前記選択された複数のオブジェクトのうち、1つのオブジェクトのディスプレイ位置に、前記選択された複数のオブジェクトのうち、前記1つのオブジェクトを除いた前記一つ以上の選択されたオブジェクト移動を示すタッチ基盤ジェスチャと、
    前記選択された複数のオブジェクトのうち、1つのオブジェクトのディスプレイ位置に、前記選択された複数のオブジェクトのうち少なくとも1つのオブジェクト移動を示すタッチ基盤ジェスチャと、
    を含むことを特徴とする請求項に記載のイメージ基盤の情報検索方法。
  4. 前記情報を検索する段階は、
    前記複数のオブジェクト間の検索関係が、前記同一階層関係である場合、前記複数のオブジェクトをいずれも含む情報を検索する段階と、
    前記複数のオブジェクト間の検索関係が、前記上下階層関係である場合、前記複数のオブジェクト間の前記上下階層関係によって、情報を検索する段階と、
    を含むことを特徴とする請求項に記載のイメージ基盤の情報検索方法。
  5. 前記情報を検索する段階は、
    前記複数のオブジェクト間の検索関係が、前記同一階層関係である場合、前記複数のオブジェクトのうち少なくとも1つのオブジェクトを含む情報を検索する段階と、
    前記複数のオブジェクト間の検索関係が、前記上下階層関係である場合、前記複数のオブジェクト間の前記上下階層関係によって、情報を検索する段階と、
    を含むことを特徴とする請求項に記載のイメージ基盤の情報検索方法。
  6. 前記複数のオブジェクト間の検索関係が、前記同一階層関係である場合、前記情報を検索する段階は、
    前記選択された複数のオブジェクトのうち少なくとも1つのオブジェクトを含む情報検索項目と、前記選択された複数のオブジェクトをいずれも含む情報検索項目と、のうち一つを選択することができる情報をディスプレイする段階と、
    前記ディスプレイされる情報に基づいて選択された情報検索項目によって、情報を検索する段階と、
    を含み、
    前記複数のオブジェクト間の検索関係が、前記上下階層関係である場合、前記情報を検索する段階は、前記複数のオブジェクト間の前記上下階層関係によって、情報を検索する段階を含むことを特徴とする請求項に記載のイメージ基盤の情報検索方法。
  7. 前記情報を検索する段階は、
    前記第1入力及び前記第2入力によって決定された少なくとも1つの検索項目をディスプレイする段階と、
    前記ディスプレイされる少なくとも1つの検索項目のうち選択された検索項目に基づいて、前記情報を検索する段階と、
    を含むことを特徴とする請求項1に記載のイメージ基盤の情報検索方法。
  8. 前記イメージ基盤の情報検索方法は、
    前記デバイスによる前記第1入力に係わる認識を示す情報を、前記デバイスにディスプレイする段階をさらにことを特徴とする請求項1に記載の含むイメージ基盤の情報検索方法。
  9. 前記イメージ基盤の情報検索方法は、
    前記デバイスによる前記第2入力に係わる認識を示す情報をディスプレイする段階をさらに含むことを特徴とする請求項1に記載のイメージ基盤の情報検索方法。
  10. 少なくとも1つの情報、及び少なくとも1つのプログラムを保存する保存部と、
    イメージをディスプレイし、前記ディスプレイされているイメージに含まれた複数のオブジェクトに対する選択を示す第1入力と、前記選択された複数のオブジェクト間の検索関係を示す第2入力と、を受信し、前記第1入力と前記第2入力とによって検索された情報をディスプレイするタッチスクリーンと、
    前記タッチスクリーンに基づいたユーザ・インターフェースを提供し、前記タッチスクリーンを介して受信された前記第1入力と前記第2入力とをそれぞれ認識し、前記第1入力と第2入力とによって、前記保存部から情報を検索し、前記検索された情報を、前記タッチスクリーンを介して出力するプロセッサと、
    を含み、
    前記選択された複数のオブジェクト間の検索関係は、
    前記情報の検索時、前記複数のオブジェクトが同一レベルであるということを示す同一階層関係と、
    前記情報の検索時、前記複数のオブジェクトが上下レベルであるということを示す上下階層関係と、
    のうち一つを含むデバイス。
  11. 前記複数のオブジェクト間の検索関係が、前記同一階層関係を示す場合、
    前記第2入力は、
    前記選択された複数のオブジェクトを集めることを示すタッチ基盤ジェスチャと、
    前記選択された複数のオブジェクトを、前記選択された複数のオブジェクトのディスプレイ位置以外の少なくとも1つの位置に移動させることを示すタッチ基盤ジェスチャと、
    のうち一つを含むことを特徴とする請求項10に記載のデバイス。
  12. 前記複数のオブジェクト間の検索関係が、前記上下階層関係であるということを示す場合、
    前記第2入力は、
    前記選択された複数のオブジェクトのうち1つのオブジェクトのディスプレイ位置に、残りのオブジェクトを移動させることを示すタッチ基盤ジェスチャと、
    前記選択された複数のオブジェクトのうち1つのオブジェクトのディスプレイ位置に、少なくとも1つのオブジェクトを移動させることを示すタッチ基盤ジェスチャと、
    を含むことを特徴とする請求項10に記載のデバイス。
  13. 前記複数のオブジェクト間の検索関係が、前記同一階層関係である場合、
    前記プロセッサは、
    前記選択された複数のオブジェクトのうち少なくとも1つのオブジェクトを含む情報検索項目と、前記選択された複数のオブジェクトをいずれも含む情報検索項目と、を選択することができる情報を前記タッチスクリーンにディスプレイし、
    前記ディスプレイされている情報に基づいて、前記タッチスクリーンを介して選択された情報検索項目によって、情報を検索し、
    前記複数のオブジェクト間の検索関係が、前記上下階層関係である場合、
    前記プロセッサは、
    前記複数のオブジェクト間の上下階層関係によって、情報を検索することを特徴とする請求項10に記載のデバイス。
JP2013245702A 2012-12-14 2013-11-28 情報検索方法、そのような機能を有するデバイス及び記録媒体 Expired - Fee Related JP6391234B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0146408 2012-12-14
KR1020120146408A KR102090269B1 (ko) 2012-12-14 2012-12-14 정보 검색 방법, 그와 같은 기능을 갖는 디바이스 및 기록 매체

Publications (2)

Publication Number Publication Date
JP2014120159A JP2014120159A (ja) 2014-06-30
JP6391234B2 true JP6391234B2 (ja) 2018-09-19

Family

ID=49765377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013245702A Expired - Fee Related JP6391234B2 (ja) 2012-12-14 2013-11-28 情報検索方法、そのような機能を有するデバイス及び記録媒体

Country Status (8)

Country Link
US (2) US10614120B2 (ja)
EP (2) EP3745280A1 (ja)
JP (1) JP6391234B2 (ja)
KR (1) KR102090269B1 (ja)
CN (1) CN103870535B (ja)
AU (1) AU2013360585B2 (ja)
RU (1) RU2654145C2 (ja)
WO (1) WO2014092451A1 (ja)

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US20130251201A1 (en) * 2012-03-22 2013-09-26 Samsung Electronics Co., Ltd. System and method for recommending buddies in social network
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
JP6232706B2 (ja) * 2013-02-05 2017-11-22 コニカミノルタ株式会社 情報表示装置、画像形成装置、情報表示装置の制御方法、および情報表示装置の制御プログラム
CN113470640B (zh) 2013-02-07 2022-04-26 苹果公司 数字助理的语音触发器
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US20150302036A1 (en) * 2014-04-18 2015-10-22 Inplore Inc. Method, system and computer program for information retrieval using content algebra
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
AU2015266863B2 (en) 2014-05-30 2018-03-15 Apple Inc. Multi-command single utterance input method
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
KR102373460B1 (ko) * 2014-09-15 2022-03-11 삼성전자주식회사 디바이스에 객체를 표시하는 방법 및 그 디바이스
US9971442B2 (en) * 2014-10-29 2018-05-15 Microchip Technology Germany Gmbh Human interface device and method
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
JP6142897B2 (ja) * 2015-05-15 2017-06-07 カシオ計算機株式会社 画像表示装置、表示制御方法及びプログラム
US10200824B2 (en) * 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10097973B2 (en) 2015-05-27 2018-10-09 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
CN105302434B (zh) * 2015-06-16 2019-03-26 深圳市腾讯计算机系统有限公司 游戏场景中锁定目标的方法和装置
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
EP3112986B1 (en) 2015-07-03 2020-02-26 Nokia Technologies Oy Content browsing
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
KR102447907B1 (ko) * 2015-11-05 2022-09-28 삼성전자주식회사 추천 객체를 제공하기 위한 전자 장치 및 방법
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
TWI653563B (zh) * 2016-05-24 2019-03-11 仁寶電腦工業股份有限公司 投影觸控的圖像選取方法
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
CN107341185B (zh) 2017-06-05 2020-12-04 北京小米移动软件有限公司 信息显示的方法及装置
CN107562332B (zh) * 2017-08-31 2020-08-11 苏州博瑞尔特信息科技有限公司 一种信息搜索方法、移动终端及计算机可读存储介质
KR102382478B1 (ko) * 2017-10-13 2022-04-05 삼성전자주식회사 전자 장치 및 그 제어 방법
KR102599947B1 (ko) * 2017-10-27 2023-11-09 삼성전자주식회사 관련 이미지를 검색하기 위한 전자 장치 및 이의 제어 방법
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
KR102551550B1 (ko) * 2018-04-20 2023-07-06 삼성전자주식회사 오브젝트에 대한 정보를 검색하기 위한 전자 장치 및 이의 제어 방법
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
CN109684438B (zh) * 2018-12-26 2020-11-13 成都科来软件有限公司 一种具有父子层级结构检索数据的方法
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
KR102608127B1 (ko) * 2019-04-08 2023-12-01 삼성전자주식회사 이미지 프로세싱을 수행하는 전자 장치 및 방법
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11138257B2 (en) * 2020-01-16 2021-10-05 Adobe Inc. Object search in digital images
WO2021152837A1 (ja) * 2020-01-31 2021-08-05 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN113240718A (zh) * 2021-07-13 2021-08-10 萱闱(北京)生物科技有限公司 多目标识别及跟踪方法、系统、介质和计算设备
KR102582861B1 (ko) * 2021-07-15 2023-09-27 중앙대학교 산학협력단 카메라와 레이저를 이용하여 사물 자율인식이 가능한 전자의수 및 그 작동방법

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020061119A (ko) * 2001-01-12 2002-07-22 유겐가이샤 츠유키 소프트 겐큐쇼 관계 설정 정보 관리 시스템, 관계 설정 정보 관리용프로그램 및 기록 매체
US7028228B1 (en) * 2001-03-28 2006-04-11 The Shoregroup, Inc. Method and apparatus for identifying problems in computer networks
US20060200772A1 (en) * 2003-12-08 2006-09-07 Sathiyamoorthy Dhanapal Procedural computation engine for providing complex calculated data results to an object-oriented server system accessible to service clients and agents over a data packet network
JP4413633B2 (ja) * 2004-01-29 2010-02-10 株式会社ゼータ・ブリッジ 情報検索システム、情報検索方法、情報検索装置、情報検索プログラム、画像認識装置、画像認識方法および画像認識プログラム、ならびに、販売システム
US7809722B2 (en) * 2005-05-09 2010-10-05 Like.Com System and method for enabling search and retrieval from image files based on recognized information
JP2007034847A (ja) * 2005-07-28 2007-02-08 Canon Inc 検索装置及び検索方法
US20070208730A1 (en) * 2006-03-02 2007-09-06 Microsoft Corporation Mining web search user behavior to enhance web search relevance
US20080155409A1 (en) * 2006-06-19 2008-06-26 Andy Santana Internet search engine
US20080184147A1 (en) * 2007-01-31 2008-07-31 International Business Machines Corporation Method and system to look ahead within a complex taxonomy of objects
US8136028B1 (en) * 2007-02-02 2012-03-13 Loeb Enterprises Llc System and method for providing viewers of a digital image information about identifiable objects and scenes within the image
JP5041256B2 (ja) * 2007-08-18 2012-10-03 学校法人 学習院 量子エンタングルメント生成装置及び方法並びに量子エンタングルメント生成検出装置及び方法
JP5309570B2 (ja) * 2008-01-11 2013-10-09 株式会社リコー 情報検索装置、情報検索方法、制御プログラム
US8209628B1 (en) * 2008-04-11 2012-06-26 Perceptive Pixel, Inc. Pressure-sensitive manipulation of displayed objects
US8520979B2 (en) * 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
US8341593B2 (en) * 2008-10-23 2012-12-25 Sap Ag Integrated development framework for composite applications
US8413188B2 (en) * 2009-02-20 2013-04-02 At&T Intellectual Property I, Lp System and method for processing image objects in video data
US8583673B2 (en) * 2009-08-17 2013-11-12 Microsoft Corporation Progressive filtering of search results
KR101660271B1 (ko) 2009-08-21 2016-10-11 삼성전자주식회사 메타데이터 태깅 시스템, 이미지 검색 방법, 디바이스 및 이에 적용되는 제스처 태깅방법
US20110196864A1 (en) * 2009-09-03 2011-08-11 Steve Mason Apparatuses, methods and systems for a visual query builder
KR101411593B1 (ko) * 2009-09-14 2014-06-25 삼성전자주식회사 Ui 제공방법 및 이를 적용한 디스플레이 장치
EP2480957B1 (en) * 2009-09-22 2017-08-09 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8780069B2 (en) * 2009-09-25 2014-07-15 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8487888B2 (en) 2009-12-04 2013-07-16 Microsoft Corporation Multi-modal interaction on multi-touch display
US8315673B2 (en) * 2010-01-12 2012-11-20 Qualcomm Incorporated Using a display to select a target object for communication
JP5398570B2 (ja) * 2010-02-10 2014-01-29 キヤノン株式会社 情報処理装置及びその制御方法
JP2011219197A (ja) * 2010-04-06 2011-11-04 Hitachi Ltd センサ情報管理システム、センサ情報管理方法、およびセンサ情報管理プログラム
US20110282855A1 (en) * 2010-05-12 2011-11-17 International Business Machines Corporation Scoring relationships between objects in information retrieval
US9542091B2 (en) * 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
JP2012027846A (ja) * 2010-07-27 2012-02-09 Sony Corp 情報処理装置、情報表示方法及びコンピュータプログラム
KR101640404B1 (ko) * 2010-09-20 2016-07-18 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
KR101753031B1 (ko) * 2010-11-15 2017-06-30 엘지전자 주식회사 이동 단말기 및 이것의 메타데이터 설정 방법
US8515990B2 (en) 2010-11-19 2013-08-20 Lg Electronics Inc. Mobile terminal and method of managing video using metadata therein
EP2648108A1 (en) * 2010-11-30 2013-10-09 Fujitsu Limited Analysis support device, analysis support method, and analysis support program
US8553981B2 (en) 2011-05-17 2013-10-08 Microsoft Corporation Gesture-based visual search
US8818049B2 (en) * 2011-05-18 2014-08-26 Google Inc. Retrieving contact information based on image recognition searches
US8719781B2 (en) * 2011-12-01 2014-05-06 Amer Agovic Universal and adaptive software development platform for data-driven applications

Also Published As

Publication number Publication date
JP2014120159A (ja) 2014-06-30
AU2013360585B2 (en) 2019-05-02
AU2013360585A1 (en) 2015-05-14
RU2015128285A (ru) 2017-01-18
CN103870535B (zh) 2019-10-15
US20140172831A1 (en) 2014-06-19
RU2654145C2 (ru) 2018-05-16
CN103870535A (zh) 2014-06-18
WO2014092451A1 (en) 2014-06-19
EP2743846A3 (en) 2016-11-23
KR102090269B1 (ko) 2020-03-17
EP3745280A1 (en) 2020-12-02
KR20140077510A (ko) 2014-06-24
US20200201901A1 (en) 2020-06-25
US11314804B2 (en) 2022-04-26
EP2743846A2 (en) 2014-06-18
US10614120B2 (en) 2020-04-07

Similar Documents

Publication Publication Date Title
JP6391234B2 (ja) 情報検索方法、そのような機能を有するデバイス及び記録媒体
US11692840B2 (en) Device, method, and graphical user interface for synchronizing two or more displays
US10401964B2 (en) Mobile terminal and method for controlling haptic feedback
US11740764B2 (en) Method and system for providing information based on context, and computer-readable recording medium thereof
US20190258373A1 (en) Scrollable set of content items with locking feature
US10637986B2 (en) Displaying and updating a set of application views
KR102285699B1 (ko) 이미지를 디스플레이하는 사용자 단말기 및 이의 이미지 디스플레이 방법
US20140365913A1 (en) Device, method, and graphical user interface for synchronizing two or more displays
JP2016511471A (ja) 携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する方法及び携帯端末
US11822943B2 (en) User interfaces for presenting information about and facilitating application functions
KR20140091633A (ko) 모바일 장치에서의 상황 인지에 따른 추천 항목을 제공하기 위한 방법 및 이를 위한 모바일 장치
US10331297B2 (en) Device, method, and graphical user interface for navigating a content hierarchy
KR102255087B1 (ko) 객체를 디스플레이하는 전자 장치 및 방법
KR102117048B1 (ko) 복수의 애플리케이션 실행 방법 및 이를 위한 디바이스
US20150253962A1 (en) Apparatus and method for matching images

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180821

R150 Certificate of patent or registration of utility model

Ref document number: 6391234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees