JP2018152094A - 画像ベース検索 - Google Patents

画像ベース検索 Download PDF

Info

Publication number
JP2018152094A
JP2018152094A JP2018080069A JP2018080069A JP2018152094A JP 2018152094 A JP2018152094 A JP 2018152094A JP 2018080069 A JP2018080069 A JP 2018080069A JP 2018080069 A JP2018080069 A JP 2018080069A JP 2018152094 A JP2018152094 A JP 2018152094A
Authority
JP
Japan
Prior art keywords
image
selection
token
objects
additional images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018080069A
Other languages
English (en)
Other versions
JP6741719B2 (ja
Inventor
ユシ ジン
Yushi Jing
ユシ ジン
ウェイ カイ
Cai Wei
ウェイ カイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pinterest Inc
Original Assignee
Pinterest Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=53044729&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2018152094(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Pinterest Inc filed Critical Pinterest Inc
Publication of JP2018152094A publication Critical patent/JP2018152094A/ja
Application granted granted Critical
Publication of JP6741719B2 publication Critical patent/JP6741719B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2453Query optimisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3325Reformulation based on results of preceding query
    • G06F16/3326Reformulation based on results of preceding query using relevance feedback from the user, e.g. relevance feedback on documents, documents sets, document terms or passages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

【課題】画像に含まれるオブジェクトの各選択により、外見上類似するオブジェクトを含む追加画像をユーザに対し提示するる技術を提供する。【解決手段】第1画像に含まれる複数のオブジェクトから第1オブジェクトを選択する第1ユーザ入力を受信し、前記複数のオブジェクトから第2オブジェクトを選択する第2ユーザ入力を受信し、前記選択された第1オブジェクトに外見上類似する第3オブジェクトを含み且つ前記第2オブジェクトに外見上類似するオブジェクトを含まない第2画像を特定するため、データストアで維持される少なくとも1つのインデックスを照会し、ユーザに対する提示のために、前記第3オブジェクトを含む前記第2画像の少なくとも一部を送信する。【選択図】図7

Description

関連出願の相互参照
本出願は、2013年11月12日に出願された「商品推薦、コンテンツ連動型広告、及びポルノ除去のためのオブジェクト成分の階層化」(“HIERARCHY OF OBJECTS COMPONENTS FOR PRODUCT RECOMMENDATION, CONTEXTURAL ADVERTISING AND PORNOGRAPHY REMOVAL”)と題する米国特許仮出願第61/902,907号、及び2014年5月16日に出願された「画像ベース検索」(“IMAGE BASED SEARCH”)と題する米国実用特許出願第14/279,871号に対する利益を主張し、両出願の全体を本明細書に参考として組み込むものとする。
ユーザ及び顧客の手に入るアクセス可能なデジタルコンテンツの量は膨張し続けていることに伴い、ユーザが探しているコンテンツを発見することは、引続きより一層困難なものとなっている。キーワード検索等、いくつかの異なる検索技術が存在するが、このようなシステムには非効率な点が多数存在する。
情報の画像検索を可能にするシステム及び方法が説明される。画像に含まれるオブジェクトの各選択により、外見上類似するオブジェクトを含む追加画像が特定され、ユーザに対し提示される。
発明を実施するための形態は、添付の図面に関連して記述される。図面において、参照番号の左端の数(複数可)は、その参照番号が最初に現れる図面を特定する。異なる図面において同一の参照番号を使用することで、同様または同一の構成要素または機能を示す。
1つの実施形態における、関心オブジェクトを選択するためのグラフィカルユーザインターフェイスの表示である。 1つの実施形態における、関心オブジェクトを選択するためのグラフィカルユーザインターフェイスの表示である。 1つの実施形態における、関心オブジェクトを選択するためのグラフィカルユーザインターフェイスの表示である。 実施形態による例示的画像処理ルーチンを示すフロー図である。 実施形態によるセグメント化画像の表示である。 1つの実施形態における、関心オブジェクトを選択するためのグラフィカルユーザインターフェイスの表示である。 実施形態による例示的画像検索ルーチンを示すフロー図である。 1つの実施形態における、関心オブジェクトを選択するためのグラフィカルユーザインターフェイスの表示である。 図8Aに例示される選択された関心オブジェクトに基づいて、検索結果報告を示すグラフィカルユーザインターフェイスの表示である。 実施形態による例示的コンピューティングデバイスを示す。 図9に示されるようなコンピューティングデバイスのコンポーネントの例示的構成を示す。 様々な実施形態に使用され得るサーバシステムの例示的実施形態の絵図である。
本明細書において実施形態が実施例により説明されるが、実施形態は、説明される実施例または図面に限定されないことを当業者は認識するであろう。図面及びその詳細説明には、実施形態を開示される特定の形態に限定する意図はなく、それとは逆に、添付の請求項により定義される精神と範囲に入る全ての変更、均等物、及び代替案を含める意図があることを理解されたい。本明細書において使用される見出しは、本明細書の構成目的でのみ使用され、説明または請求項の範囲を限定するために用いられることを意図しない。本出願を通して使用される英単語“may”は、義務的な意味(すなわち「〜しなければならない」という意味)よりも、むしろ許可的な意味(すなわち「〜する可能性がある」という意味)で使用される。同様に、英単語“include”、“including”、及び“includes”は「含む」ことを意味するが、その対象に限定されない。
本明細書において、より大きな画像及び/またはビデオからの1つまたは複数の関心オブジェクトの選択に基づいて、情報の検索を簡易化するシステム及び方法が説明される。数多くの画像ベースクエリにおいて(例えばファッションデザイン、インテリアデザイン)、ユーザが関心を持つのは、画像全体ではなく、画像内に表示された特定のオブジェクト(例えばドレス、ソファー、ランプ)、及びそれらオブジェクトの組み合わせ方(例えばシャツとスカートのセンスの良い選択、テレビに対するソファーの配置)である。
一実施形態において、ユーザは提示された画像の中から関心オブジェクトを選択することにより(例えばタッチ式ディスプレイ、ポインティングデバイス、マウスを使用して)、検索を開始し得る。選択された関心オブジェクトに基づいて、他の類似するオブジェクトが特定され、ユーザに提示される。例えば、女性の画像がユーザに提示され、ユーザが女性の画像に含まれる靴(関心オブジェクト)を選択した場合、選択した靴に外見上類似する(例えばサイズ、形、色、スタイル、ブランド)他の靴の画像が特定され、ユーザに提示される。ユーザは、提示された画像のうちの1つを選択する、あるいは追加及び/または他の関心オブジェクトを選択する、あるいは他の動作を行うことが可能である。
いくつかの実施形態において、画像に含まれるオブジェクトは、予め特定され、ユーザ選択のために視覚的に区別され得る。同様に、類似するオブジェクトを含む他の画像もまた、当該画像内のオブジェクトに対応付けられ得るため、ユーザが関心オブジェクトのうちの1つを選択すると、類似するオブジェクトを含む画像がユーザに素早く提示され得る。
さらなる実施形態において、ユーザは、複数の関心オブジェクトを選択し、及び/または選択した関心オブジェクトが肯定的関心オブジェクトであるか、否定的関心オブジェクトであるかを指定することが可能である。肯定的関心オブジェクトとは、ユーザがその他の外見上類似するオブジェクトの画像を見たいと思うユーザ選択オブジェクトである。否定的関心オブジェクトとは、ユーザが他の画像に含めたくないユーザ選択オブジェクトである。例えば、ユーザが画像から肯定的関心オブジェクトとして椅子及びランプと、否定的関心オブジェクトとして敷物とを選択した場合、本明細書において説明される実施形態は、椅子及びランプを含むが敷物は含まない他の画像を特定する。
図1〜3は、1つの実施形態における、関心オブジェクトを選択するためのグラフィカルユーザインターフェイスの表示である。クライアントデバイスを介して、グラフィカルユーザインターフェイスがユーザに提供され得る。クライアントデバイスには、例えば、パーソナルコンピュータ、タブレットコンピュータ、電子書籍リーダデバイス、ラップトップコンピュータ、デスクトップコンピュータ、ネットブック、パーソナルデジタルアシスタント(PDA)、携帯ゲームデバイス、スマートフォンもしくは携帯ハンドセット等の無線通信デバイス、セットトップボックス、ゲーム機、カメラ、オーディオレコーダ/プレーヤ、またはこれらの任意の組み合わせが含まれ得る。クライアントデバイスを使用することで、ユーザは、提供された情報との対話処理を行い、関心オブジェクトを選択し、及び/または他の動作を行い得る。
まず図1を参照すると、第1ウィンドウ101と、第2ウィンドウ103とを備えるユーザインターフェイス100が例示される。第1ウィンドウにおいて、複数のオブジェクト104(a)、104(b)、104(c)、104(d)〜104(n)の表示を含む画像102が提示される。画像102等の画像は多くの場合、複数の別個のオブジェクト104(例えばポット、ランプ、ドレス、靴、サングラス、車、建物)を含む。例えば、図1に例示されるように、画像102は、複数の異なるサイズ及び形のティーポット(オブジェクト)の表示を含む。ユーザが情報及び/またはアイテムを検索している時、ユーザは多くの場合、表示される画像102全体よりも、画像102に含まれる特定のオブジェクトにのみ関心を持つ。例えば、ユーザは、画像102に表示されるティーポット104(a)と類似するサイズ及び形のティーポットにのみ関心を持ち得る。
追加情報及び/または外見上類似するオブジェクトを含む他の画像を取得するために、ユーザはオブジェクト104を選択し得る。本明細書において、選択されたオブジェクトは、「関心オブジェクト」と称され、画像内の選択される可能性のあるオブジェクトは、本明細書において「関心オブジェクト候補」と称される。いくつかの実施形態において、画像に含まれるオブジェクトのいずれの表示も関心オブジェクト候補であり得、ユーザにより関心オブジェクトとして選択され得る。オブジェクトの特定は、ユーザによるオブジェクトの選択の際、行われ得る。例えば、オブジェクトの選択が受信されるまで、関心オブジェクト候補を特定する画像解析は行われ得ない。ユーザにより画像の一部の入力選択が行われると、入力箇所が特定され、画像が処理され、そして選択箇所に対応するオブジェクトが選択関心オブジェクトとして特定され得る。
別の実施形態において、図1に例示されるように、関心オブジェクト候補を特定する前処理が画像に対し行われ得る。このような実施形態において、オブジェクトが関心オブジェクトとして選択可能であることをユーザに対し識別するために、各関心オブジェクト候補の上または付近に、選択制御106が提示され得る。いくつかの実施形態において、選択制御は、ユーザが選択可能なオブジェクトを識別できるように、継続的にディスプレイ上に表示され得る。別の実施形態において、選択制御は選択的に提示され得る。例えば、選択制御は、最初は所定の時間(例えば画像を提供して最初の5秒)提示され、及び/またはユーザの特定動作に応じて提示され得る。例えば、ユーザがディスプレイ上でポインタを動かした時、ユーザがディスプレイを触った時等に、選択制御は提示され得る。
さらに別の実施形態において、画像は前処理され、関心オブジェクト候補が選択制御106によりユーザに対し視覚的に区別され、及び/またはユーザは画像内の他のオブジェクトを選択し得る。ユーザが、特定されていない、かつ選択制御106により区別されていない、画像内に表示されるオブジェクトを選択した場合、入力箇所が特定され、その画像の一部は選択オブジェクトを特定するために処理され得る。
図2に例示されるように、関心オブジェクトの選択の際、関心オブジェクトに外見上類似するオブジェクトを含む追加画像が特定され、これらの画像の少なくとも一部は、第1ウィンドウ101に提示される画像102と同時に、第2ウィンドウ103においてユーザに対し提示される。当実施例において、ユーザは、選択制御106を含むティーポット104(a)を選択している。選択関心オブジェクト(ティーポット104(a))に外見上類似する(例えば、同様の形、サイズ、色)オブジェクトを含む追加画像が特定される。追加画像を特定する技術に関しては、後に詳述される。
次に、選択関心オブジェクトに外見上類似するオブジェクトを含む特定された画像は順位付けられ、高い順位(例えば選択関心オブジェクトに対する外観類似度に基づく)の画像が、第2ウィンドウ103において提示される。当実施例において、外見上類似するオブジェクトを含む追加画像の一部のみが、ユーザに提示される。例えば、外見上類似するオブジェクト204(a)、204(b)、204(c)〜204(n)の表示が特定され、ユーザに対し提示される。
ユーザは外見上類似するオブジェクトの表示を選択可能であり、その表示を含む画像が、第1ウィンドウ101に含まれる画像102と置き換わる。あるいは、ユーザは、第1ウィンドウ101に提示される画像102に含まれる別の関心オブジェクト候補を選択可能である。例えば、図3を参照すると、ユーザが関心オブジェクト候補104(b)を選択した場合、選択関心オブジェクト104(b)に外見上類似するオブジェクトの表示を含む画像が特定され、第2ウィンドウを介してユーザに提示される。図2に関して提供された論述と同様に、選択関心オブジェクトに外見上類似するオブジェクトの画像の一部のみが第2ウィンドウ103において提示される。具体的には、外見上類似するオブジェクト304(a)、304(b)〜304(n)を含む画像の一部が第2ウィンドウ103において提示される。ユーザは画像102から異なるオブジェクトを選択し続けることが可能であり、第2ウィンドウ103を介して外見上類似するオブジェクトの表示が提供され得る。あるいは、ユーザは外見上類似するオブジェクトの表示304(a)〜304(n)のうちの1つを選択可能であり、選択した外見上類似するオブジェクトを含む画像が、画像102と置き換わって第1ウィンドウ101に提示される。
図4は、実施形態による例示的画像処理ルーチンを示すフロー図である。当ルーチン及び本明細書に説明される各ルーチンは、本明細書に説明されるアーキテクチャにより、または他のアーキテクチャにより実施され得る。ルーチンは、論理的フローグラフのブロックの集合として例示される。ブロックのうちのいくつかは、ハードウェア、ソフトウェア、またはこれらの組み合わせにおいて実施可能な動作を表す。ソフトウェアに関しては、ブロックは、1つまたは複数のコンピュータ可読媒体上に記憶され、かつ1つまたは複数のプロセッサにより実行されると詳述された動作を実行するコンピュータ実行可能命令を表す。一般に、コンピュータ実行可能命令には、特定の機能を実行する、または特定の抽象データ類を実施するルーチン、プログラム、オブジェクト、コンポーネント、データ構造等が含まれる。
コンピュータ可読媒体には、ハードドライブ、フロッピー(登録商標)ディスケット、光ディスク、CD−ROM、DVD、読出専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、フラッシュメモリ、磁気もしくは光カード、固体メモリデバイス、または電子命令を記憶するのに好適な他の種類の記憶媒体を含み得る、非一時的コンピュータ可読記憶媒体が含まれ得る。さらに、いくつかの実施形態において、コンピュータ可読媒体には、一時的コンピュータ可読信号(圧縮または非圧縮形)が含まれ得る。コンピュータ可読信号の実施例には、搬送波を使用して変調されていようとなかろうと、インターネットまたは他のネットワークを介してダウンロードされる信号を含む、コンピュータプログラムを提供または実行するコンピュータシステムのアクセス可能信号が含まれるが、これに限定されない。最終的に、動作が説明される順序は制限として解釈される意図はなく、任意の数の説明動作は、プロセスを実施するために、任意の順序で、及び/または並行して組わせることが可能である。
例示的プロセス400は、402における画像のセグメント化から始まる。サークルパッキングアルゴリズム、スーパーピクセル等の任意の様々なセグメント化技術が使用され得る。そして404において、セグメントに対し、画像の背景部分を検討対象から取り除く処理が行われ得る。背景セグメントの特定は、例えば、集中制約(例えば主要オブジェクトは画像の中心にあり得る)と一意制約(例えば主要オブジェクトは背景とは異なり得る)の組み合わせを使用して行われ得る。一実施形態において、セグメント(S)ごとに、色、質感、形の組み合わせ及び/または他の特徴検出を使用して、一意制約が計算され得る。全てのセグメント対の対ユークリッド距離は、

はまた、

として計算され得る。セグメントSまたはUの一意制約Uは、

として計算され得る。セグメントSごとの集中制約は、
として計算され得る。X’及びY’は画像の中心座標である。
1つまたは複数のセグメントS’、すなわちSのサブセットは、U(s)−A(s)>tであるように選択され得る。tは、手動で設定された、あるいはデータから学習された閾値である。閾値tは、セグメントを背景情報またはオブジェクト候補として区別するのに使用される任意の定義された数または量であり得る。あるいは、
及び
が計算され、ラベル付き主要セグメント及びラベル付き非主要セグメントのラベル付きデータベースに対する各セグメントの類似度として使用され得る。

はS’の要素であり、rはR‐の要素であり、R‐は画像非主要領域(背景)のセットである。最終的なスコアは、
となる。
別の実施形態において、同一ユーザの過去の対話処理に対する関心箇所の選択が特定され得る。最終セグメントS’は、1つまたは複数のグループを形成するようにクラスタ化され得る。各グループは画像の特徴部分である。
図4に戻ると、406において、背景セグメントを取り除く際、画像内に残るオブジェクトが特定される。画像内に残るオブジェクトは、例えば、スライディングウィンドウ法を使用して、オブジェクト位置の可能性のある各仮説のスコアを計算することにより、特定され得る。ハールライク(Haar−like)ウェーブレットのブースト選択、または複数箇所ベースモデル等の手法を使用して各セグメントは処理され、一致可能性オブジェクトが特定され得る。例えば、セグメントの画像ベクトルが決定され、オブジェクトに関する記憶された情報と比較され得る。画像ベクトル及び記憶情報に基づいて、特定オブジェクトの記憶情報対する画像ベクトルの類似度に従って、特定が行われ得る。
スライディングウィンドウ法は、毎回異なる訓練済オブジェクト分類子(例えば、人、鞄、靴、顔、腕等)で、N回行われ得る。各オブジェクト分類子の仮説を決定後、各オブジェクトクラスの最良仮説のセットが出力される。オブジェクトは一般に画像内にランダムに現れないため(例えば目と鼻は通常一緒に現れる)、位置感応制約もまた検討され得る。例えば、ルートオブジェクト(例えば人)の位置は、W(root)と定義され、各オブジェクトkの各幾何制約は、お互いに関して

、6要素ベクトルとして表され得る。ルートオブジェクトWrootに関する各ランドマークWoiの幾何学的適合は、
により定義され得る。dx、dyは、オブジェクトボックスWoi内の各ピクセルとルートオブジェクトボックス内の各ピクセルの間の平均幾何学的距離である。最適な

を探す問題は、arg min

として定式化可能である。Dtrain(Θ)は、訓練画像内のΘの観測値である。
当機能を最適化するために、408において画像内のオブジェクトの位置が特定され得る。例えば、画像内のルートオブジェクト(例えば人)の中心は(0、0)と印され、処理された画像内の他のオブジェクトの位置は、ルートオブジェクトに関して変化する。そしてΘをパラメータとして使用して、線形サポートベクトルマシン(SVM)が適用される。SVMに対し、Dtrain(Θ)が入力される。線形計画法、動的計画法、凸最適化等の他の最適化手法も単独で、または本明細書において説明される最適化と組み合わせて使用可能である。訓練データDtrain(Θ)は、ユーザが、オブジェクト全体とランドマークの両方の上部にバウンディングボックスを配置することにより、収集可能である。あるいは、オブジェクトを特定するのに、顔検出アルゴリズム、エッジ検出アルゴリズム等の半自動的手法が利用され得る。いくつかの実施形態において、オブジェクトを表示するのに、長円形、楕円形、及び/または不規則形等の他の形が使用され得る。
図4に戻ると、410において、特定されたオブジェクトごとに、トークンが対応付けられる。具体的には、オブジェクトを含むバウンディングボックスがトークンと対応付けられ、当該対応付けはデータストア1103(図11)に維持され得る。トークンは、オブジェクトを表す一意的識別子であり得る。あるいは、トークンは分類情報を含み得る。例えば、衣服の表示に対応付けられたトークンは、オブジェクトの一意的識別子に加えて、衣料分類子(プレフィックス分類子等)を含み得る。別の実施形態において、画像特徴セット(例えば色、形、質感)は、画像内のオブジェクトごとに計算され、当該画像特徴セットは、オブジェクトの表示を表す単一特徴ベクトルを形成するために連結され得る。単一特徴ベクトルは、その後、ビジュアル用語集ユーザを介して、ビジュアルトークンに変換され得る。ビジュアル用語集は、大きな画像データセットから生成された特徴に対しクラスタリングアルゴリズム(例えばk平均法)を実行することにより生成され、クラスタの中心が用語集セットとなり得る。各単一特徴ベクトルは、特徴空間(例えばユークリッド距離)に最も類似する1つまたは複数の用語集の用語に変換される。
トークンと画像内に表示される各オブジェクトを対応付けた後、412において、オブジェクトはインデックス化される。各オブジェクトは、標準テキストベース検索技術を使用して、インデックス化され得る。しかしながら、標準テキストまたは画像検索と異なり、複数のインデックスがデータストア1103(図13)に維持され、各オブジェクトは複数のインデックスのうちの1つまたは複数と対応付けられ得る。後に詳述されるように、ユーザは、画像内に表示されるオブジェクトを1つまたは複数選択し得る。各選択は、アクションID(肯定的選択、否定的選択)に対応付けられ得る。インデックス付き画像及びトークンは、画像内に表示される選択オブジェクトに外見上類似する他のオブジェクトを特定するのに利用され得る。画像の処理後、414において、例示的プロセス400は完了する。
図5は、実施形態によるセグメント化画像の表示である。画像500等の画像は、前述のセグメント化技術を使用してセグメント化され得る。例示的ルーチン400を使用して、背景セグメントは取り除かれ、画面内の6つのオブジェクトがセグメント化され、特定化されている。具体的には、身体オブジェクト502、頭部オブジェクト504、シャツオブジェクト506、ズボンオブジェクト508、鞄オブジェクト510、及び足部オブジェクト512である。セグメント化の一環として、ルーツオブジェクト、当実施例では身体オブジェクト502は特定され、他のオブジェクト504〜512の位置は、これらの他のオブジェクトを特定する時に検討されている。
別の実施形態において、他のセグメント化及び特定化技術を使用して、画像がセグメント化され得る。例えば、クラウドソーシング技術を使用して、画像はセグメント化され得る。例えば、ユーザは画像を見て、オブジェクトを含む画像領域を選択し、これらのオブジェクトにラベルを付け得る。より多くのユーザが画像内のオブジェクトを特定するため、これらのオブジェクトの識別の信頼性が向上する。ユーザが提供したセグメント化及び特定化に基づいて、画像内のオブジェクトは、インデックス化され、他の画像に含まれる他の外見上類似するオブジェクトに対応付けられ得る。
ユーザは、様々な選択技術を使用して、画像内のセグメント及び/またはオブジェクトを選択し得る。例えば、図6は、一連のセル602(a)〜602(e)に予備的にセグメント化された画像600の実施例を示す。ユーザは、オブジェクトを含む各セルを選択する(例えば触れる)ことでオブジェクトを指定し得る。当実施例において、ユーザは、セル602(b)、602(d)、602(e)を選択することで、スカート604の表示を選択した。オブジェクトの表示と共に、予備セグメント化がユーザに対し視覚的に提示され得る。別の実施形態において、予備セグメント化は、仮想的に維持され、提示され得ない。このような実施形態において、ユーザ入力の位置が特定され、対応する予備セグメントが特定され得る。セグメント群が特定され、これらセグメントは結合され、指定オブジェクトを囲む単一のセグメントまたはバウンディング領域を形成し得る。
図7は、実施形態による例示的画像検索ルーチン700を示すフロー図である。例示的ルーチン700は、702における画像セグメントの選択を受信することから始まる。前述のように、ユーザは、例えば画像のセグメントを選択する入力デバイス(例えば指、マウス、カーソル、キーボード)を使用して、画像のセグメントを選択し得る。別の実施形態において、ユーザの特定された注視位置に基づいて、画像のセグメントが決定され得る。例えば、クライアントデバイスは、ユーザがクライアントデバイスのディスプレイを見ている画像を取り込む1つまたは複数の画像取り込みコンポーネント(例えばカメラ)を備え得る。取り込まれた画像は、ユーザの注視位置を特定するために処理され、画像の対応するセグメントが選択され得る。
704において、画像内の選択セグメントの位置に基づいて、セグメントに対応するオブジェクトが特定される。画像内のオブジェクトの位置は、ルーツオブジェクト、画像の中心点等からの距離に基づいて特定され得る。受信した選択の位置はオブジェクトの位置と相関し、従って対応するオブジェクトが特定され得る。
特定されたオブジェクトに基づいて、外見上類似するオブジェクトを含む1つまたは複数の追加画像が特定され得る。例えば、前述のように、オブジェクトがオブジェクトタイプによりインデックス化され、オブジェクトが選択された時、同一のインデックスに対応付けられた他の画像を特定するために、オブジェクトタイプのインデックスデータストアが照会され得る。外見上類似すると特定されたオブジェクトの画像は、追加画像内に表示されるオブジェクトに対しどれだけ選択オブジェクトの表示が類似しているかに基づいて、順位付けまたは重み付けがされ得る。例えば、選択オブジェクトの単一特徴ベクトルは、外見上類似するオブジェクトの特徴ベクトルと比較され、オブジェクト間の類似度が決定され得る。追加の外見上類似するオブジェクトには、より大きい重み付け、またはより高い類似スコアが付与され得る。
外見上類似するオブジェクトの追加画像を特定することに加えて、選択は肯定的選択であるか、否定的選択であるかに関する特定も行われ得る。いくつかの実施形態において、選択が、肯定的(ユーザがその他の外見上類似するオブジェクトの画像を見たいと思う関心オブジェクト)であるか、または否定的(ユーザが他の画像に含めたくない関心オブジェクト)であるか、ユーザは指定可能である。708において選択関心オブジェクトが肯定的関心オブジェクトであると特定された場合、710において、特定された画像及び/またはこれらの画像の決定された類似スコアに対し、肯定的重み付けが適用され得る。これと比較して、選択が否定的であると特定された場合、712において、特定された画像及び/またはこれらの画像の決定された類似スコアに対し、否定的重み付けが適用され得る。
重み付けを特定された画像に対応付けた後、714において、画像内において追加オブジェクトが選択されたか否かに関する判定が行われ得る。画像内の追加オブジェクトが選択された場合、例示的ルーチン700は、ブロック704に戻り、引続きその後の動作を行う。本明細書において論述されるように、いくつかの実施形態において、ユーザは画像内の複数のオブジェクトを選択し、及び/または各選択に肯定的または否定的指示を対応付け得る。複数のオブジェクトが選択された場合、外見上類似する画像ごとの類似スコアが検討され、複数の選択オブジェクトを有する画像は、その類似スコアが合同され得る。同様に、いくつかの実施形態において、ユーザは、複数の画像からオブジェクトを選択し、これらのオブジェクトを検討して(肯定的または否定的関心オブジェクトのいずれであるか)、他の外見上類似するオブジェクトを特定し得る。
追加のオブジェクト選択がないことが判定された場合、716において、各特定された画像の類似スコアが順位付けられ、718において、最も順位の高い画像が、ユーザに対する提示のために送信される。前述のように、いくつかの実施形態において、外見上類似するオブジェクトの画像の一部のみが、ユーザに対する提示のために送信され得る。例えば、外見上類似するオブジェクトを含む追加画像のセグメントのみが、ユーザに対する提示のために送信され得る。別の実施形態において、外見上類似するオブジェクトを含む追加画像全体が、ユーザに対する提示のために送信され得る。
図8Aは、一実施形態における、クライアントデバイス805上に提示される、画像802を含むグラフィカルユーザインターフェイス800の表示である。当実施例において、ユーザは、画像802内に表示される3つのオブジェクト804、806、808を選択している。肯定的選択は「+」表示で提示され、一方否定的選択は「−」表示で提示される。一実施形態において、ユーザは、関心オブジェクトの肯定的選択を、オブジェクトを1回選択することにより行い得る。関心オブジェクトの否定的選択は、オブジェクトを2回選択することにより行われ得る。
当実施例において、ユーザは、画像内に表示される敷物に対し肯定的選択804、画像内に表示される椅子に対し肯定的選択808、画像内に表示されるソファーに対し否定的選択806を行っている。図7に関して前述されたように、受信した選択に基づいて、外見上類似するオブジェクトを含む1つまたは複数の画像が特定され、重み付けが行われる。当実施例において、複数のオブジェクトが選択されたため(一部肯定的選択、一部否定的選択)、椅子と敷物の表示に対し最も高い外観類似度を有するが、ソファーに対する外観類似度を有さない画像を特定するために追加画像が処理される。
図8Bは、図8Aに例示される選択された関心オブジェクトに基づいて検索結果報告を示す、クライアントデバイス805上に提示されるグラフィカルユーザインターフェイス850の表示である。例示されるように、選択関心オブジェクトに対し最も高い外観類似度を有すると特定された画像は、図8Aの肯定的選択の椅子と敷物に外見上類似する椅子852及び敷物854を含む。同様に、図8Aにおいてソファーは否定的選択であったため、グラフィカルユーザインターフェイス805は、ソファーの表示を含まない。
図9は、本明細書において説明される様々な実施形態に従って使用可能な例示的クライアントデバイス900を示す。当実施例において、クライアントデバイス900は、ディスプレイ902と、ディスプレイ902と同じデバイス側面上に、任意でカメラ等の少なくとも1つの入力コンポーネント904とを備える。クライアントデバイス900はまた、スピーカー906等のオーディオトランスデューサと、任意でマイク908とを備え得る。一般に、クライアントデバイス900は、ユーザがクライアントデバイス900と対話処理を行うことを可能にする任意の形態の入出力コンポーネントを有し得る。例えば、デバイスとのユーザ対話処理を可能にする様々な入力コンポーネントには、タッチ式ディスプレイ902(例えば抵抗性、容量性、補間感圧抵抗(IFSR)タッチ式ディスプレイ)、カメラ(ジェスチャ追跡用等)、マイク、全地球測位システム(GPS)、羅針盤、またはこれらの任意の組み合わせが含まれ得る。これらの入力コンポーネントのうちの1つまたは複数は、デバイス上に含まれ得る、あるいはデバイスと通信状態にあり得る。本明細書に含まれる教示及び提示に照らして明らかであるように、様々な他の入力コンポーネント及び入力コンポーネントの組み合わせも同様に、様々な実施形態の範囲内で使用可能である。
本明細書において説明される様々な機能性を提供するために、図10は、図9に関して説明され、本明細書において論述されるクライアントデバイス900等のクライアントデバイス900の例示的基本コンポーネントセット1000を示す。当実施例において、デバイスは、少なくとも1つのメモリデバイスまたは素子1004に記憶可能な命令を実行する少なくとも1つの中央処理装置1002を備える。当業者には明らかであるように、デバイスは、プロセッサ1002により実行されるプログラム命令の第1データストレージ等、多くの種類のメモリ、データストレージ、またはコンピュータ可読記憶媒体を備え得る。リムーバブル記憶メモリは、他のデバイス等と情報を共有するのに利用可能であり得る。一般にデバイスは、タッチ式ディスプレイ、電子インク(eインク)、有機発光ダイオード(OLED)、または液晶ディスプレイ(LCD)等のある種のディスプレイ1006を備える。
論述されるように、数多くの実施形態におけるデバイスは、デバイス付近のオブジェクトを撮像可能な1つまたは複数のカメラ等、少なくとも1つの画像取り込み素子1008を備える。画像取り込み素子は、特定された解像度、焦点距離、可視領域、及びキャプチャレートを有するCCDまたはCMOS画像取り込み素子等の任意の好適な技術を含み得る、またはそれに少なくとも一部基づき得る。デバイスは、検索用語、トークンを生成し、及び/または選択された検索用語に一致する結果を特定及び提示するプロセスを行う少なくとも1つの検索コンポーネント1010を備え得る。例えば、クライアントデバイスは、遠隔コンピューティングリソース(図示せず)と常時または間欠的に通信状態にあり、検索プロセスの一環として、選択された検索用語、デジタルアイテム、トークン等の情報を遠隔コンピューティングシステムと交換し得る。
デバイスはまた、GPS、NFC位置追跡またはWiFi位置監視等の少なくとも1つの位置特定コンポーネント1012を備え得る。位置特定コンポーネント1012により取得された位置情報は、オブジェクト選択と一致する画像を選択する際の因子として、本明細書で論述される様々な実施形態で使用され得る。例えば、ユーザがサンフランシスコにいて、画像内に表示される橋(オブジェクト)の肯定的選択を行った場合、ゴールデンゲートブリッジ等の外見上類似するオブジェクトを特定する際、ユーザの位置は因子として検討され得る。
例示的クライアントデバイスはまた、ユーザから従来の入力を受付け可能な少なくとも1つの追加入力デバイスを備え得る。この従来の入力には、例えば、プッシュボタン、タッチパッド、タッチ式ディスプレイ、ハンドル、操作レバー、キーボード、マウス、トラックボール、キーパッド、またはユーザがデバイスに対し命令を入力できるその他のこのようなデバイスもしくは素子が含まれ得る。いくつかの実施形態において、これらの入出力デバイスは、無線、赤外線、ブルートゥース(登録商標)、または他のリンクによっても接続され得る。しかしながら、いくつかの実施形態において、このようなデバイスは、全くボタンを備えず、接触(例えばタッチ式ディスプレイ)、音声(例えば発話)命令、またはこれらの組み合わせを介してのみ制御され得る。
図11は、本明細書において説明される1つまたは複数の実施形態で使用され得る、遠隔コンピューティングリソース等のサーバシステム1100の例示的実施形態の絵図である。サーバシステム1100は、1つまたは複数の冗長プロセッサ等のプロセッサ1101と、ビデオディスプレイアダプタ1102と、ディスクドライブ1104と、入出力インターフェイス1106と、ネットワークインターフェイス1108と、及びメモリ1112とを備え得る。プロセッサ1101と、ビデオディスプレイアダプタ1102と、ディスクドライブ1104と、入出力インターフェイス1106と、ネットワークインターフェイス1108と、メモリ1112は、通信バス1110によりお互いに通信可能に接続され得る。
ビデオディスプレイアダプタ1102は、サーバシステム1100のオペレータがサーバシステム1100の作動を監視し設定することを可能にする、ローカルディスプレイ(図11に図示せず)に対する表示信号を提供する。入出力インターフェイス1106も同様に、サーバシステム1100のオペレータにより操作可能なマウス、キーボード、スキャナ、または他の入出力デバイス等、図11に図示されない外部入出力デバイスと通信する。ネットワークインターフェイス1108は、他のコンピューティングデバイスと通信するハードウェア、ソフトウェア、またはこれらの任意の組み合わせを含む。例えば、ネットワークインターフェイス1108は、サーバシステム1100とクライアントデバイス900等の他のコンピューティングデバイスとの間の通信を提供するように構成され得る。
メモリ1112は一般に、ランダムアクセスメモリ(RAM)、読出専用メモリ(ROM)、フラッシュメモリ、及び/または他の揮発性もしくは永久メモリを含む。メモリ1112は、サーバシステム1100の作動を制御するオペレーティングシステム1114を格納しているように示される。サーバシステム1100の低次元作動を制御するバイナリ入出力システム(BIOS)1116もまた、メモリ1112に格納される。
メモリ1112はさらに、クライアントデバイス900及び外部ソースがサーバシステム1100と情報及びデータファイルを交換することを可能にするネットワークサービスを提供するために、プログラムコード及びデータを記憶する。従って、メモリ1112は、ブラウザアプリケーション1118を格納し得る。ブラウザアプリケーション1118は、プロセッサ1101により実行されると、ウェブページ等の構成可能マークアップドキュメントを生成あるいは取得するコンピュータ実行可能命令を含む。ブラウザアプリケーション1118は、データストア1103、クライアントデバイス900等のクライアントデバイス、外部ソース等の間のデータ交換及びマッピングを簡易化するために、データストアマネジャーアプリケーション1120と通信する。
本明細書において使用される「データストア」という用語は、データ記憶、データアクセス、データ取得が可能な任意のデバイスまたはデバイスの組み合わせを指し、これは、任意の標準環境、分散環境、またはクラスタ環境における任意の数のデータサーバ、データベース、データストレージデバイス、データ記憶媒体、及びこれらの任意の組み合わせを含み得る。サーバシステム1100は、クライアントデバイス900、外部ソース、及び/または検索サービス1105用の1つまたは複数アプリケーションの態様を実行するために、必要に応じてデータストア1103と融合する任意の好適なハードウェア及びソフトウェアを備え得る。サーバシステム1100は、データストア1103と協働してアクセス制御サービスを提供し、マッチング検索結果、外見上類似するオブジェクトを含む画像、外見上類似するオブジェクトを有する画像のインデックス等のコンテンツを生成可能である。
データストア1103は、特定の態様に関連するデータを記憶するためのいくつかの個別のデータテーブル、データベース、または他のデータストレージ機構及び媒体を含み得る。例えば、例示されるデータストア1103は、デジタルアイテム(例えば画像)と、これらアイテムに関する対応メタデータ(例えばトークン、インデックス)を含む。検索履歴、環境設定、プロファイル、及び他の情報も同様に、データストアに記憶され得る。
データストア1103に格納され得る数多くの他の態様が存在し、これらは、必要に応じて前記の機構のいずれかに、またはデータストアのいずれかの追加機構に格納可能であることは理解されよう。データストア1103は、対応付けられたロジックを通して、サーバシステム1100から命令を受信し、命令に応じてデータを取得、更新あるいは処理することが可能であり得る。
メモリ1112はまた、検索サービス1105を含み得る。検索サービス1105は、サーバシステム1100の1つまたは複数の機能を実施するために、プロセッサ1101により実行可能であり得る。一実施形態において、検索サービス1105は、メモリ1112内に記憶された1つまたは複数のソフトウェアプログラムに組み込まれた命令を表示し得る。別の実施形態において、検索サービス1105は、ハードウェア命令、ソフトウェア命令、またはこれらの組合せを表示可能である。
一実施形態において、サーバシステム1100は、1つまたは複数のコンピュータネットワークまたは直接接続を使用して、通信リンクを介して相互接続された、いくつかのコンピュータシステム及びコンポーネントを利用する分散環境である。しかしながら、このようなシステムは、図11に例示されるコンポーネントよりも少ない、または多いコンポーネントを有するシステムにおいても同等に作動し得ることが、当業者には理解されるであろう。従って、図11における描写は、本来例示的なものであり、開示内容の範囲を限定しないものとして理解されるべきである。
本明細書の内容は、構造的特徴及び/または方法論的動作に特有の言語で記述されたが、添付の請求項において定義される内容は、記述される特定の特徴または動作に必ずしも限定されないことは理解されよう。むしろ特定の特徴または動作は、請求項を実施する例示的形態として開示される。
条項
1.少なくとも1つのプロセッサと、
タッチセンサー式ディスプレイと、
命令を含むメモリと
を備えるコンピューティングシステムであって、命令が少なくとも1つのプロセッサにより実行されると、命令によりコンピューティングシステムは少なくとも、
複数のオブジェクトを含む第1画像を提示し、
提示された画像から複数のオブジェクトのうちの第1オブジェクトを選択するユーザ入力を受信し、
選択された第1オブジェクトに外見上類似する第2オブジェクトを含む第2画像を特定し、
第1画像と同時に、第2オブジェクトを含む少なくとも一部の第2画像を提示する、
コンピューティングシステム。
2.命令が実行されると、命令によりコンピューティングシステムはさらに少なくとも、
提示された画像から複数のオブジェクトのうちの第3オブジェクトを選択する第2ユーザ入力を受信する、
第1項に記載のコンピューティングシステム。
3.命令が実行されると、命令によりコンピューティングシステムはさらに少なくとも、
第1選択は肯定的選択であることを判断し、
第2選択は否定的選択であることを判断し、
第2画像は、第3オブジェクトに外見上類似するオブジェクトを含まない、
第2項に記載のコンピューティングシステム。
4.命令が実行されると、命令によりコンピューティングシステムはさらに少なくとも、
第1選択は第1肯定的選択であることを判断し、
第2選択は第2肯定的選択であることを判断し、
第2画像はさらに、第3オブジェクトに外見上類似する第4オブジェクトを含む、
第2項に記載のコンピューティングシステム。
5.命令が実行されると、命令によりコンピューティングシステムはさらに少なくとも、
第1画像に含まれるオブジェクトがユーザにより選択可能であることを識別する選択制御の図形表示を第1画像上に提示する、
第1項に記載のコンピューティングシステム。
6.命令が実行されると、命令によりコンピューティングシステムはさらに少なくとも、
提示された画像から複数のオブジェクトのうちの第3オブジェクトを選択する第2ユーザ入力を受信し、
第2画像が選択された第3オブジェクトに外見上類似する第4オブジェクトを含むことを判定し、
提示された少なくとも一部の第2画像は、少なくとも一部の第2オブジェクト及び第4オブジェクトを含む、
第1項に記載のコンピューティングシステム。
7.第1画像内の位置の選択を受信することと、
選択された位置に対応する第1オブジェクトを特定することと、
複数の追加画像を特定することであって、複数の追加画像はそれぞれ第1オブジェクトに外見上類似する追加オブジェクトの表示を含む、複数の追加画像を特定することと、
第1画像と同時に、少なくとも一部の複数の追加画像をそれぞれ提示することと
を含むコンピュータ実施方法。
8.選択は、ディスプレイ上のタッチ式入力、特定位置のユーザの注視、または入力コンポーネントからの入力のうちの少なくとも1つのである、第7項に記載のコンピュータ実施方法。
9.第1画像内に表示される複数のオブジェクトを特定するために第1画像を前処理することと、
第1画像内に表示される複数のオブジェクトをそれぞれ選択可能にすることと
をさらに含む第7項に記載のコンピュータ実施方法。
10.第1画像内に表示される選択可能なオブジェクトを識別するために、第1画像上の位置に少なくとも1つの選択制御を提示すること
をさらに含む第7項に記載のコンピュータ実施方法。
11.複数の追加画像を特定することは、
選択されたオブジェクトに対応付けられたインデックスを特定することと、
インデックスに対応付けられた複数の追加画像を特定すること
を含む、第7項に記載のコンピュータ実施方法。
12.複数の追加画像のそれぞれに対し、類似スコアを決定することと、
決定された類似スコアに基づいて、複数の追加画像をそれぞれ順位付けることと
をさらに含み、
提示することは、第1画像と同時に、少なくとも一部の順位の高い複数の追加画像をそれぞれ提示することを含む、
第7項に記載のコンピュータ実施方法。
13.追加画像の第2選択を受信することと、
第1画像の表示を取り除くことと、
追加画像を提示すること
をさらに含む第7項に記載のコンピュータ実施方法。
14.命令を記憶する非一時的コンピュータ可読記憶媒体であって、命令がコンピューティングシステムの少なくとも1つのプロセッサにより実行されると、命令によりコンピューティングシステムは少なくとも、
第1ウィンドウに表示される第1画像に含まれる第1オブジェクトの第1表示の選択を受信し、
第1オブジェクトに外見上類似する第2オブジェクトの第2表示を含む第2画像を特定し、
第2ウィンドウに、第2オブジェクトの第2表示を含む少なくとも一部の第2画像を提示する、
非一時的コンピュータ可読記憶媒体。
15.オブジェクトは、オブジェクトの形、サイズ、色、またはブランドに少なくとも一部基づいて、外見上類似しているかが決定される、第14項に記載の非一時的コンピュータ可読記憶媒体。
16.命令が実行されると、命令によりコンピューティングシステムはさらに少なくとも、
第1画像に含まれる第3オブジェクトの第3表示の第2選択を受信し、
第2画像はさらに、第3オブジェクトの第3表示に少なくとも一部基づいて特定される、
第14項に記載の非一時的コンピュータ可読記憶媒体。
17.第2選択は否定的選択であり、
第2画像は、第3オブジェクトに外見上類似するオブジェクトの表示を含まない、
第16項に記載の非一時的コンピュータ可読記憶媒体。
18.第2選択は肯定的選択であり、
第2画像は、第3オブジェクトに外見上類似するオブジェクトの表示を含む、
第16項に記載の非一時的コンピュータ可読記憶媒体。
19.命令が実行されると、命令によりコンピューティングシステムはさらに少なくとも、
提示された少なくとも一部の第2画像の第2選択を受信し、
第1ウィンドウに第2画像を提示する、
第14項に記載の非一時的コンピュータ可読記憶媒体。
20.命令が実行されると、命令によりコンピューティングシステムはさらに少なくとも、
第1オブジェクトに外見上類似する第3オブジェクトの第3表示を含む第3画像を特定し、
第2画像及び第3画像のそれぞれに対応付けられた類似スコアに少なくとも一部基づいて、第2画像及び第3画像を順位付け、
少なくとも一部の第2画像及び第3画像の順位付けられた表示を第2ウィンドウに提示する、
第14項に記載の非一時的コンピュータ可読記憶媒体。

Claims (17)

  1. 1つまたは複数のプロセッサと、
    命令を記憶するメモリと、
    を備えるコンピューティングシステムであって、命令が少なくとも1つまたは複数のプロセッサにより実行されると、前記1つまたは複数のプロセッサは少なくとも、
    第1画像に含まれる複数のオブジェクトから第1オブジェクトを選択する第1ユーザ入力を受信し、
    前記複数のオブジェクトから第2オブジェクトを選択する第2ユーザ入力を受信し、
    前記選択された第1オブジェクトに外見上類似する第3オブジェクトを含み且つ前記第2オブジェクトに外見上類似するオブジェクトを含まない第2画像を特定するため、データストアで維持される少なくとも1つのインデックスを照会し、
    ユーザに対する提示のために、前記第3オブジェクトを含む前記第2画像の少なくとも一部を送信する、コンピューティングシステム。
  2. 前記第2画像の少なくとも一部は、前記第1画像と同時に提示される、請求項1に記載のコンピューティングシステム。
  3. 前記1つまたは複数のプロセッサが前記命令を実行すると、前記1つまたは複数のプロセッサは少なくとも、
    前記第1ユーザ入力または前記第2ユーザ入力に応答し、前記第1オブジェクト及び前記第2オブジェクトを少なくとも特定するために前記第1画像を処理し、
    前記第1オブジェクトに、前記第1オブジェクトを表す第1トークンを対応付けし、
    前記第2オブジェクトに、前記第2オブジェクトを表す第2トークンを対応付けし、
    前記少なくとも1つのインデックスの照会は前記第1トークン又は前記第2トークンに少なくとも一部基づく、請求項1に記載のコンピューティングシステム。
  4. 前記1つまたは複数のプロセッサが前記命令を実行すると、前記1つまたは複数のプロセッサは少なくとも、
    前記第1オブジェクトの画像特徴セットを計算し、
    前記画像特徴セットを連結して前記第1オブジェクトの表示を表す特徴ベクトルを形成し、
    前記特徴ベクトルを前記第1トークンに変換する、請求項3に記載のコンピューティングシステム。
  5. 第1画像内の第1位置の第1選択を受信することと、
    第1画像内の第2位置の第2選択を受信することと、
    前記第1位置に表示される第1オブジェクトに対応する第1トークンを特定することと、
    前記第2位置に表示される第2オブジェクトに対応する第2トークンを特定することと、
    前記第1トークン及び前記第2トークンに少なくとも一部基づき、少なくとも1つのインデックスに表示される前記選択された第1オブジェクトに外見上類似する追加オブジェクトの表示を含み且つ前記第2オブジェクトに外見上類似するオブジェクトを含まない複数の追加画像を特定するために、データストアで維持される前記インデックスを照会することと、
    前記複数の追加画像をディスプレイに提示することと、を含む、コンピュータ実施方法。
  6. 前記ディスプレイに前記第1画像を表示することと、
    前記第1オブジェクトが選択可能であることを識別するために、前記第1画像の前記第1位置に少なくとも1つの選択制御を提示することと、をさらに含む、請求項5に記載のコンピュータ実施方法。
  7. 前記複数の追加画像のそれぞれに対し、類似スコアを決定することと、
    前記類似スコアに基づき、前記複数の追加画像のそれぞれを順位付けることと、をさらに含み、
    前記提示することは、前記順位に応じて前記複数の追加画像を提示することを含む、請求項5に記載のコンピュータ実施方法。
  8. 前記第1選択を受信する前に、前記第1オブジェクト及び前記第2オブジェクトを少なくとも特定するために前記第1画像を処理することと、
    前記第1オブジェクトを表示する前記第1トークンに、前記第1オブジェクトを対応付けることと、
    前記第2オブジェクトを表示する前記第2トークンに、前記第2オブジェクトを対応付けることと、を含み
    前記少なくとも1つのインデックスを照会することは、前記第1トークン又は前記第2トークンに少なくとも一部基づく、請求項5に記載のコンピュータ実施方法。
  9. 前記第1オブジェクトの画像特徴セットを計算し、
    前記画像特徴セットを連結して前記第1オブジェクトの表示を表す特徴ベクトルを形成し、
    前記特徴ベクトルを前記第1トークンに変換することをさらに含む、請求項5に記載のコンピュータ実施方法。
  10. 命令を記憶する非一時的コンピュータ可読記憶媒体であって、命令がコンピューティングシステムの少なくとも1つのプロセッサにより実行されると、コンピューティングシステムは少なくとも、
    画像の第1セグメントの第1選択を受信し、
    前記第1セグメントの第1位置に少なくとも一部基づき、前記第1セグメントに対応する第1オブジェクトを特定し、
    前記第1オブジェクトに少なくとも一部基づき、前記第1オブジェクトに外見上類似するオブジェクトを含む第1の複数の追加画像を特定し、
    前記第1選択は肯定的選択であることを特定し、
    前記1選択が肯定的選択であることの特定に少なくとも一部基づき、前記第1の複数の追加画像のそれぞれに肯定的重み付けを適用し、
    前記画像の第2セグメントの第2選択を受信し、
    前記第2セグメントの第2位置に少なくとも一部基づき、前記第2セグメントに対応する第2オブジェクトを特定し、
    前記第2オブジェクトに少なくとも一部基づき、前記第2オブジェクトに外見上類似するオブジェクトを含む第2の複数の追加画像を特定し、
    前記第2選択は否定的選択であることを特定し、
    前記第2選択が否定的選択であることの特定に少なくとも一部基づき、前記第2の複数の追加画像のそれぞれに否定的重み付けを適用し、
    それぞれの画像に特定された類似スコア、肯定的重み付け、否定的重み付けの少なくとも一部に基づき、前記第1の複数の追加画像及び前記第2の複数の追加画像のそれぞれを順位付けし、
    前記順位付けに応じた第3の複数の画像を提示のために送信し、前記第3の複数の画像は前記第1の複数の追加画像のうち少なくとも1つの画像及び前記第2の複数の追加画像のうち少なくとも1つの画像を含む、非一時的コンピュータ可読記憶媒体。
  11. 前記命令が前記少なくとも1つのプロセッサにより実行されると、前記コンピューティングシステムに少なくとも、
    前記第1オブジェクト及び前記第1の複数の追加画像の画像に表示されているオブジェクトとの外観類似度に少なくとも一部基づき、前記第1の複数の追加画像のそれぞれに対して類似スコアを決定させる、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  12. 前記命令が前記少なくとも1つのプロセッサにより実行されると、前記コンピューティングシステムに少なくとも、
    前記第1選択に応答し、前記画像の少なくとも一部を処理して前記第1オブジェクトを特定させ、
    前記第1オブジェクトに、前記第1オブジェクトを表す第1トークンを対応付けさせ、及び
    テキストベース検索技術を使用して前記第1オブジェクトをインデックス化し、前記第1オブジェクトをデータストアに維持される少なくとも1つのインデックスに含ませ、
    前記少なくとも1つのプロセッサが実行され前記コンピューティングシステムに少なくとも前記第1の複数の追加画像を決定させる前記命令は、前記コンピューティングシステムに少なくとも、
    前記トークンに少なくとも一部基づき、前記第1の複数の追加画像を特定するために前記データストアに維持される少なくとも1つのインデックスを照会する、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  13. 前記命令が前記少なくとも1つのプロセッサにより実行されると、前記コンピューティングシステムに少なくとも、
    前記第1オブジェクトの画像特徴セットを計算させ、
    前記画像特徴セットを連結して前記第1オブジェクトの表示を表す特徴ベクトルを形成させ、
    前記特徴ベクトルを前記第1トークンに変換させる、請求項12に記載の非一時的コンピュータ可読記憶媒体。
  14. 前記トークンは前記第1オブジェクトを表す一意的識別子を含む、請求項12に記載の非一時的コンピュータ可読記憶媒体。
  15. 前記オブジェクトは、前記オブジェクトの形、サイズ、色、またはブランドに少なくとも一部基づいて、外見上類似しているかが決定される、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  16. 前記第3の複数の画像は、画像と同時に提示するために送信される、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  17. 前記命令が前記少なくとも1つのプロセッサにより実行されると、前記コンピューティングシステムに少なくとも、
    前記第1画像と共に、前記第1セグメントが選択可能であることを示す少なくとも1つの選択制御を提示させる、請求項10に記載の非一時的コンピュータ可読記憶媒体。
JP2018080069A 2013-11-12 2018-04-18 画像ベース検索 Active JP6741719B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361902907P 2013-11-12 2013-11-12
US61/902,907 2013-11-12
US14/279,871 US10515110B2 (en) 2013-11-12 2014-05-16 Image based search
US14/279,871 2014-05-16

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016530236A Division JP6328761B2 (ja) 2013-11-12 2014-11-10 画像ベース検索

Publications (2)

Publication Number Publication Date
JP2018152094A true JP2018152094A (ja) 2018-09-27
JP6741719B2 JP6741719B2 (ja) 2020-08-19

Family

ID=53044729

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016530236A Active JP6328761B2 (ja) 2013-11-12 2014-11-10 画像ベース検索
JP2018080069A Active JP6741719B2 (ja) 2013-11-12 2018-04-18 画像ベース検索

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016530236A Active JP6328761B2 (ja) 2013-11-12 2014-11-10 画像ベース検索

Country Status (7)

Country Link
US (2) US10515110B2 (ja)
EP (1) EP3069230A4 (ja)
JP (2) JP6328761B2 (ja)
AU (1) AU2014348909B9 (ja)
CA (1) CA2930576C (ja)
MX (1) MX366711B (ja)
WO (1) WO2015073383A1 (ja)

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216498B2 (en) 2005-10-26 2022-01-04 Cortica, Ltd. System and method for generating signatures to three-dimensional multimedia data elements
US11620327B2 (en) 2005-10-26 2023-04-04 Cortica Ltd System and method for determining a contextual insight and generating an interface with recommendations based thereon
US11386139B2 (en) 2005-10-26 2022-07-12 Cortica Ltd. System and method for generating analytics for entities depicted in multimedia content
US10848590B2 (en) 2005-10-26 2020-11-24 Cortica Ltd System and method for determining a contextual insight and providing recommendations based thereon
US9646005B2 (en) 2005-10-26 2017-05-09 Cortica, Ltd. System and method for creating a database of multimedia content elements assigned to users
US10742340B2 (en) 2005-10-26 2020-08-11 Cortica Ltd. System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto
US8326775B2 (en) 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US20160321253A1 (en) 2005-10-26 2016-11-03 Cortica, Ltd. System and method for providing recommendations based on user profiles
US11361014B2 (en) 2005-10-26 2022-06-14 Cortica Ltd. System and method for completing a user profile
US10949773B2 (en) 2005-10-26 2021-03-16 Cortica, Ltd. System and methods thereof for recommending tags for multimedia content elements based on context
US20140156901A1 (en) 2005-10-26 2014-06-05 Cortica Ltd. Computing device, a system and a method for parallel processing of data streams
US11403336B2 (en) 2005-10-26 2022-08-02 Cortica Ltd. System and method for removing contextually identical multimedia content elements
US20160085733A1 (en) 2005-10-26 2016-03-24 Cortica, Ltd. System and method thereof for dynamically associating a link to an information resource with a multimedia content displayed in a web-page
US11019161B2 (en) 2005-10-26 2021-05-25 Cortica, Ltd. System and method for profiling users interest based on multimedia content analysis
US11604847B2 (en) 2005-10-26 2023-03-14 Cortica Ltd. System and method for overlaying content on a multimedia content element based on user interest
US11032017B2 (en) 2005-10-26 2021-06-08 Cortica, Ltd. System and method for identifying the context of multimedia content elements
US11537636B2 (en) 2007-08-21 2022-12-27 Cortica, Ltd. System and method for using multimedia content as search queries
EP2715482A4 (en) * 2011-05-26 2015-07-08 Thomson Licensing USER INTERFACE AND DEVICE FOR VISUAL SEARCH AND RECOMMENDATIONS
US10346877B1 (en) 2012-12-03 2019-07-09 Maher Pedersoli Advertising and marketing platform
US10515110B2 (en) 2013-11-12 2019-12-24 Pinterest, Inc. Image based search
US10466776B2 (en) * 2014-06-24 2019-11-05 Paypal, Inc. Surfacing related content based on user interaction with currently presented content
US10769176B2 (en) * 2015-06-19 2020-09-08 Richard Chino Method and apparatus for creating and curating user collections for network search
US11743402B2 (en) * 2015-02-13 2023-08-29 Awes.Me, Inc. System and method for photo subject display optimization
US9865306B2 (en) 2015-03-30 2018-01-09 International Business Machines Corporation System to distinguish between visually identical objects
US10679269B2 (en) 2015-05-12 2020-06-09 Pinterest, Inc. Item selling on multiple web sites
US10269055B2 (en) 2015-05-12 2019-04-23 Pinterest, Inc. Matching user provided representations of items with sellers of those items
US10021187B2 (en) * 2015-06-29 2018-07-10 Microsoft Technology Licensing, Llc Presenting content using decoupled presentation resources
US20170063753A1 (en) * 2015-08-27 2017-03-02 Pinterest, Inc. Suggesting object identifiers to include in a communication
US11609946B2 (en) * 2015-10-05 2023-03-21 Pinterest, Inc. Dynamic search input selection
US11055343B2 (en) 2015-10-05 2021-07-06 Pinterest, Inc. Dynamic search control invocation and visual search
US11514244B2 (en) * 2015-11-11 2022-11-29 Adobe Inc. Structured knowledge modeling and extraction from images
US11037015B2 (en) * 2015-12-15 2021-06-15 Cortica Ltd. Identification of key points in multimedia data elements
US11195043B2 (en) 2015-12-15 2021-12-07 Cortica, Ltd. System and method for determining common patterns in multimedia content elements based on key points
EP3193286A1 (en) * 2016-01-14 2017-07-19 Nokia Technologies Oy Previewing visual content relating to an object field
DE102016124277A1 (de) 2016-04-19 2017-10-19 Patty's Gmbh Verfahren zum Ermitteln und Anzeigen von Produkten auf einer elektronischen Anzeigeeinrichtung
US11704692B2 (en) 2016-05-12 2023-07-18 Pinterest, Inc. Promoting representations of items to users on behalf of sellers of those items
US11042906B2 (en) * 2016-08-15 2021-06-22 Yieldmo, Inc. Method for serving interactive content to a user
US10586263B2 (en) 2016-11-28 2020-03-10 International Business Machines Corporation Touch and pressure-based apparel image searching
US11176189B1 (en) * 2016-12-29 2021-11-16 Shutterstock, Inc. Relevance feedback with faceted search interface
KR102079221B1 (ko) * 2016-12-30 2020-02-19 주식회사 카카오 인터랙션을 이용한 메신저 검색 방법, 그리고 이를 구현한 서버 및 어플리케이션
US11669220B2 (en) * 2017-03-20 2023-06-06 Autodesk, Inc. Example-based ranking techniques for exploring design spaces
US10732794B2 (en) 2017-04-10 2020-08-04 International Business Machines Corporation Methods and systems for managing images
CN108205684B (zh) * 2017-04-25 2022-02-11 北京市商汤科技开发有限公司 图像消歧方法、装置、存储介质和电子设备
US10140392B1 (en) 2017-06-29 2018-11-27 Best Apps, Llc Computer aided systems and methods for creating custom products
WO2019008581A1 (en) 2017-07-05 2019-01-10 Cortica Ltd. DETERMINATION OF DRIVING POLICIES
WO2019012527A1 (en) 2017-07-09 2019-01-17 Cortica Ltd. ORGANIZATION OF DEPTH LEARNING NETWORKS
US11126653B2 (en) 2017-09-22 2021-09-21 Pinterest, Inc. Mixed type image based search results
US10942966B2 (en) * 2017-09-22 2021-03-09 Pinterest, Inc. Textual and image based search
US11841735B2 (en) * 2017-09-22 2023-12-12 Pinterest, Inc. Object based image search
KR102599947B1 (ko) 2017-10-27 2023-11-09 삼성전자주식회사 관련 이미지를 검색하기 위한 전자 장치 및 이의 제어 방법
AU2018202382A1 (en) 2018-04-04 2019-10-24 ADEVI lP HOLDING COMPANY PTY LTD Methods and systems for resolving user interface features, and related applications
CN108647354A (zh) * 2018-05-16 2018-10-12 广东小天才科技有限公司 一种辅导学习的方法及照明设备
US11120070B2 (en) * 2018-05-21 2021-09-14 Microsoft Technology Licensing, Llc System and method for attribute-based visual search over a computer communication network
US10620806B2 (en) * 2018-05-23 2020-04-14 Microsoft Technology Licensing, Llc Using image understanding to assist user engagement
US10846544B2 (en) 2018-07-16 2020-11-24 Cartica Ai Ltd. Transportation prediction system and method
CN109147009B (zh) * 2018-08-13 2023-04-07 优视科技新加坡有限公司 一种基于图像的个性化操作的方法、装置和设备/终端/服务器
US11048734B1 (en) 2018-08-20 2021-06-29 Pinterest, Inc. Auto-completion based on content similarities
US11613261B2 (en) 2018-09-05 2023-03-28 Autobrains Technologies Ltd Generating a database and alerting about improperly driven vehicles
US20200133308A1 (en) 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
US10839694B2 (en) 2018-10-18 2020-11-17 Cartica Ai Ltd Blind spot alert
US11904863B2 (en) 2018-10-26 2024-02-20 AutoBrains Technologies Ltd. Passing a curve
US11392738B2 (en) 2018-10-26 2022-07-19 Autobrains Technologies Ltd Generating a simulation scenario
US11700356B2 (en) 2018-10-26 2023-07-11 AutoBrains Technologies Ltd. Control transfer of a vehicle
US10789535B2 (en) 2018-11-26 2020-09-29 Cartica Ai Ltd Detection of road elements
US10955657B2 (en) * 2018-12-20 2021-03-23 Acclarent, Inc. Endoscope with dual image sensors
CN111380515B (zh) * 2018-12-29 2023-08-18 纳恩博(常州)科技有限公司 定位方法及装置、存储介质、电子装置
US11170647B2 (en) 2019-02-07 2021-11-09 Cartica Ai Ltd. Detection of vacant parking spaces
US11643005B2 (en) 2019-02-27 2023-05-09 Autobrains Technologies Ltd Adjusting adjustable headlights of a vehicle
US11285963B2 (en) 2019-03-10 2022-03-29 Cartica Ai Ltd. Driver-based prediction of dangerous events
US11694088B2 (en) 2019-03-13 2023-07-04 Cortica Ltd. Method for object detection using knowledge distillation
US11132548B2 (en) 2019-03-20 2021-09-28 Cortica Ltd. Determining object information that does not explicitly appear in a media unit signature
US11222069B2 (en) 2019-03-31 2022-01-11 Cortica Ltd. Low-power calculation of a signature of a media unit
US10776669B1 (en) 2019-03-31 2020-09-15 Cortica Ltd. Signature generation and object detection that refer to rare scenes
US11908242B2 (en) 2019-03-31 2024-02-20 Cortica Ltd. Efficient calculation of a robust signature of a media unit
US11488290B2 (en) 2019-03-31 2022-11-01 Cortica Ltd. Hybrid representation of a media unit
JP7363107B2 (ja) * 2019-06-04 2023-10-18 コニカミノルタ株式会社 発想支援装置、発想支援システム及びプログラム
US11704292B2 (en) 2019-09-26 2023-07-18 Cortica Ltd. System and method for enriching a concept database
US11120071B2 (en) * 2019-11-19 2021-09-14 Lenovo (Singapore) Pte. Ltd. Reverse image search using portion of image but not entirety of image
US11593662B2 (en) 2019-12-12 2023-02-28 Autobrains Technologies Ltd Unsupervised cluster generation
US11590988B2 (en) 2020-03-19 2023-02-28 Autobrains Technologies Ltd Predictive turning assistant
US11827215B2 (en) 2020-03-31 2023-11-28 AutoBrains Technologies Ltd. Method for training a driving related object detector
US11514203B2 (en) 2020-05-18 2022-11-29 Best Apps, Llc Computer aided systems and methods for creating custom products
US11373403B2 (en) 2020-05-26 2022-06-28 Pinterest, Inc. Object-to-object visual graph
US20230093468A1 (en) * 2021-09-20 2023-03-23 International Business Machines Corporation Cognitive image searching based on personalized image components of a composite image
JP2023147729A (ja) * 2022-03-30 2023-10-13 セイコーエプソン株式会社 画像編集方法、情報処理装置およびプログラム
WO2024075947A1 (ko) * 2022-10-04 2024-04-11 삼성전자 주식회사 객체 검색을 위한 이미지 쿼리를 생성하는 전자 장치 및 전자 장치의 동작 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09101970A (ja) * 1995-10-06 1997-04-15 Omron Corp 画像検索方法および画像検索装置
JP2004152110A (ja) * 2002-10-31 2004-05-27 Olympus Corp 検索条件設定方法及び検索条件設定装置
JP2010122931A (ja) * 2008-11-20 2010-06-03 Nippon Telegr & Teleph Corp <Ntt> 類似領域検索方法、類似領域検索装置、類似領域検索プログラム
JP2012203645A (ja) * 2011-03-25 2012-10-22 Canon Inc 情報処理装置、情報処理方法及びプログラム
JP2013092941A (ja) * 2011-10-26 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> 画像検索装置、方法、及びプログラム

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579471A (en) * 1992-11-09 1996-11-26 International Business Machines Corporation Image query system and method
US5596690A (en) * 1993-07-21 1997-01-21 Xerox Corporation Method and apparatus for operating on an object-based model data structure to produce a second image in the spatial context of a first image
GB9726654D0 (en) * 1997-12-17 1998-02-18 British Telecomm Data input and retrieval apparatus
US7117519B1 (en) * 2000-07-26 2006-10-03 Fotomedia Technologies Llc Method and system for selecting actions to be taken by a server when uploading images
US7031499B2 (en) * 2002-07-22 2006-04-18 Mitsubishi Electric Research Laboratories, Inc. Object recognition system
CA2495046A1 (en) 2002-08-09 2004-02-19 Universite De Sherbrooke Content-based image retrieval method
CA2397424A1 (en) * 2002-08-09 2004-02-09 Mohammed Lamine Kherfi Content-based image retrieval using positive and negative examples
US7292723B2 (en) * 2003-02-26 2007-11-06 Walker Digital, Llc System for image analysis in a network that is structured with multiple layers and differentially weighted neurons
US7657059B2 (en) * 2003-08-08 2010-02-02 Lockheed Martin Corporation Method and apparatus for tracking an object
US20060020597A1 (en) * 2003-11-26 2006-01-26 Yesvideo, Inc. Use of image similarity in summarizing a collection of visual images
US20050225678A1 (en) * 2004-04-08 2005-10-13 Andrew Zisserman Object retrieval
US7590310B2 (en) * 2004-05-05 2009-09-15 Facet Technology Corp. Methods and apparatus for automated true object-based image analysis and retrieval
US7440586B2 (en) * 2004-07-23 2008-10-21 Mitsubishi Electric Research Laboratories, Inc. Object classification using image segmentation
US7809192B2 (en) * 2005-05-09 2010-10-05 Like.Com System and method for recognizing objects from images and identifying relevancy amongst images and information
US7657126B2 (en) * 2005-05-09 2010-02-02 Like.Com System and method for search portions of objects in images and features thereof
US8732025B2 (en) * 2005-05-09 2014-05-20 Google Inc. System and method for enabling image recognition and searching of remote content on display
JP2007058532A (ja) 2005-08-24 2007-03-08 Sony Corp 情報処理システム、情報処理装置および方法、プログラム、並びに、記録媒体
US20070071323A1 (en) * 2005-09-26 2007-03-29 Cognisign Llc Apparatus and method for processing user-specified search image points
JP2007102634A (ja) * 2005-10-06 2007-04-19 Sony Corp 画像処理装置
US7711145B2 (en) * 2006-01-27 2010-05-04 Eastman Kodak Company Finding images with multiple people or objects
US8024343B2 (en) * 2006-04-07 2011-09-20 Eastman Kodak Company Identifying unique objects in multiple image collections
TWI403912B (zh) * 2006-06-08 2013-08-01 Univ Nat Chiao Tung 圖像檢索之方法及系統
EP2087448A1 (en) * 2006-11-21 2009-08-12 Cameron Telfer Howie A method of retrieving information from a digital image
US7840076B2 (en) * 2006-11-22 2010-11-23 Intel Corporation Methods and apparatus for retrieving images from a large collection of images
US20090319388A1 (en) * 2008-06-20 2009-12-24 Jian Yuan Image Capture for Purchases
US8489627B1 (en) * 2008-08-28 2013-07-16 Adobe Systems Incorporated Combined semantic description and visual attribute search
US8239359B2 (en) * 2008-09-23 2012-08-07 Disney Enterprises, Inc. System and method for visual search in a video media player
US20100106732A1 (en) * 2008-10-29 2010-04-29 Microsoft Corporation Identifying Visually Similar Objects
US8407267B2 (en) * 2009-02-06 2013-03-26 Siemens Aktiengesellschaft Apparatus, method, system and computer-readable medium for storing and managing image data
US8280164B2 (en) * 2009-03-04 2012-10-02 Eastman Kodak Company Producing object cutouts in topically related images
US8175376B2 (en) * 2009-03-09 2012-05-08 Xerox Corporation Framework for image thumbnailing based on visual similarity
JP2010250426A (ja) 2009-04-13 2010-11-04 Seiko Epson Corp 画像処理装置および印刷装置
US8171049B2 (en) * 2009-09-18 2012-05-01 Xerox Corporation System and method for information seeking in a multimedia collection
EP2486516A4 (en) * 2009-10-07 2018-03-28 iOnRoad Technologies Ltd. Automatic content analysis method and system
US8429168B1 (en) * 2009-12-15 2013-04-23 Google Inc. Learning semantic image similarity
US8774526B2 (en) * 2010-02-08 2014-07-08 Microsoft Corporation Intelligent image search results summarization and browsing
US8494983B2 (en) * 2010-11-16 2013-07-23 Microsoft Corporation Object-sensitive image search
US8553981B2 (en) * 2011-05-17 2013-10-08 Microsoft Corporation Gesture-based visual search
US8909563B1 (en) * 2011-06-17 2014-12-09 Google Inc. Methods, systems, and programming for annotating an image including scoring using a plurality of trained classifiers corresponding to a plurality of clustered image groups associated with a set of weighted labels
US9208401B2 (en) * 2011-11-14 2015-12-08 W.W. Grainger, Inc. System and method for using an image to provide search results
US8891907B2 (en) * 2011-12-06 2014-11-18 Google Inc. System and method of identifying visual objects
JP2013168132A (ja) * 2012-01-17 2013-08-29 Toshiba Corp 商品検索装置、方法、及びプログラム
US8676814B2 (en) * 2012-02-16 2014-03-18 Yahoo! Inc. Automatic face annotation of images contained in media content
US9693108B2 (en) * 2012-06-12 2017-06-27 Electronics And Telecommunications Research Institute Method and system for displaying user selectable picture
JP2014056503A (ja) * 2012-09-13 2014-03-27 International Business Maschines Corporation 多言語環境でのコミュニケーションに適する非テキスト要素を特定するためのコンピュータ実装方法、プログラム、および、システム
US9087078B2 (en) * 2012-09-25 2015-07-21 Adobe Systems Incorporated Single user interface for selecting, modifying, and querying images
SG11201506229RA (en) * 2013-02-27 2015-09-29 Hitachi Ltd Image analysis device, image analysis system, and image analysis method
US9098741B1 (en) * 2013-03-15 2015-08-04 Google Inc. Discriminitive learning for object detection
US9639964B2 (en) * 2013-03-15 2017-05-02 Elwha Llc Dynamically preserving scene elements in augmented reality systems
TWI477986B (zh) * 2013-04-17 2015-03-21 Inst Information Industry 圖文參照裝置、方法及其電腦可讀取紀錄媒體
US9201900B2 (en) * 2013-08-29 2015-12-01 Htc Corporation Related image searching method and user interface controlling method
US10515110B2 (en) 2013-11-12 2019-12-24 Pinterest, Inc. Image based search
US9846708B2 (en) * 2013-12-20 2017-12-19 International Business Machines Corporation Searching of images based upon visual similarity
US20150248429A1 (en) * 2014-02-28 2015-09-03 Microsoft Corporation Generation of visual representations for electronic content items

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09101970A (ja) * 1995-10-06 1997-04-15 Omron Corp 画像検索方法および画像検索装置
JP2004152110A (ja) * 2002-10-31 2004-05-27 Olympus Corp 検索条件設定方法及び検索条件設定装置
JP2010122931A (ja) * 2008-11-20 2010-06-03 Nippon Telegr & Teleph Corp <Ntt> 類似領域検索方法、類似領域検索装置、類似領域検索プログラム
JP2012203645A (ja) * 2011-03-25 2012-10-22 Canon Inc 情報処理装置、情報処理方法及びプログラム
JP2013092941A (ja) * 2011-10-26 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> 画像検索装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP6328761B2 (ja) 2018-05-23
AU2014348909B2 (en) 2017-08-17
WO2015073383A1 (en) 2015-05-21
JP2017504861A (ja) 2017-02-09
CA2930576C (en) 2023-04-11
US10515110B2 (en) 2019-12-24
AU2014348909B9 (en) 2017-09-14
CA2930576A1 (en) 2015-05-21
EP3069230A1 (en) 2016-09-21
EP3069230A4 (en) 2017-05-03
US20150134688A1 (en) 2015-05-14
MX366711B (es) 2019-07-22
JP6741719B2 (ja) 2020-08-19
US20170220602A1 (en) 2017-08-03
MX2016006229A (es) 2017-01-23
US11436272B2 (en) 2022-09-06
AU2014348909A1 (en) 2016-06-02

Similar Documents

Publication Publication Date Title
JP6741719B2 (ja) 画像ベース検索
US10043109B1 (en) Attribute similarity-based search
US11620331B2 (en) Textual and image based search
US11423076B2 (en) Image similarity-based group browsing
US10824942B1 (en) Visual similarity and attribute manipulation using deep neural networks
US20190147292A1 (en) Image retrieving apparatus, image retrieving method, and setting screen used therefor
US8724908B2 (en) System and method for labeling a collection of images
US10083521B1 (en) Content recommendation based on color match
CN111819554A (zh) 计算机视觉和图像特征搜索
US20150339348A1 (en) Search method and device
US11841735B2 (en) Object based image search
US20210141826A1 (en) Shape-based graphics search
US11521334B2 (en) Augmented reality experiences of color palettes in a messaging system
US11126653B2 (en) Mixed type image based search results
US20210312533A1 (en) Identification of physical products for augmented reality experiences in a messaging system
US20210312678A1 (en) Generating augmented reality experiences with physical products using profile information
CN113330455A (zh) 使用有条件的生成对抗网络查找互补的数字图像
TWI748266B (zh) 搜索方法、電子裝置及非暫時性電腦可讀記錄媒體
US10606884B1 (en) Techniques for generating representative images
KR102408256B1 (ko) 검색을 수행하는 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200727

R150 Certificate of patent or registration of utility model

Ref document number: 6741719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250