JP6895978B2 - 動的検索入力選択 - Google Patents

動的検索入力選択 Download PDF

Info

Publication number
JP6895978B2
JP6895978B2 JP2018536705A JP2018536705A JP6895978B2 JP 6895978 B2 JP6895978 B2 JP 6895978B2 JP 2018536705 A JP2018536705 A JP 2018536705A JP 2018536705 A JP2018536705 A JP 2018536705A JP 6895978 B2 JP6895978 B2 JP 6895978B2
Authority
JP
Japan
Prior art keywords
image
search control
additional images
display information
additional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018536705A
Other languages
English (en)
Other versions
JP2018536248A (ja
Inventor
ケレイ シュウ
ケレイ シュウ
ナビーン ガビニ
ナビーン ガビニ
ユシ ジン
ユシ ジン
アンドリュー フワン ザイ
アンドリュー フワン ザイ
ディミトリー オレゴビッチ キスリユク
ディミトリー オレゴビッチ キスリユク
Original Assignee
ピンタレスト,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ピンタレスト,インコーポレイテッド filed Critical ピンタレスト,インコーポレイテッド
Publication of JP2018536248A publication Critical patent/JP2018536248A/ja
Application granted granted Critical
Publication of JP6895978B2 publication Critical patent/JP6895978B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/54Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Library & Information Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • User Interface Of Digital Computer (AREA)

Description

関連出願の相互参照
本願は、「DYNAMIC SEARCH INPUT SELECTION」と題する、2015年10月5日に出願された米国出願第14/875,010号の優先権を主張し、その全体が参照により本願に援用される。
ユーザー及びカスタマが入手できるアクセス可能なデジタルコンテンツの量が拡大し続ける中、ユーザーが検索しているコンテンツを発見することはますます難しくなり続けている。キーワード検索等のいくつかの異なる検索技術が存在するが、係るシステムには多くの非効率性がある。
発明を実施するための形態は、添付の図を参照して説明される。
実施態様に従って動的検索コントロールを使用し、関心のあるオブジェクトを選択するためのグラフィックユーザーインタフェースの表現の図である。 実施態様に従って動的検索コントロールを使用し、関心のあるオブジェクトを選択するためのグラフィックユーザーインタフェースの表現の図である。 実施態様に従って動的検索コントロールを使用し、関心のあるオブジェクトを選択するためのグラフィックユーザーインタフェースの表現の図である。 実施態様に従って動的検索コントロールを使用し、関心のあるオブジェクトを選択するためのグラフィックユーザーインタフェースの表現の図である。 実施態様に従って動的検索コントロールを使用し、関心のあるオブジェクトを選択するためのグラフィックユーザーインタフェースの表現の図である。 実施態様に従って動的検索コントロールを使用し、関心のあるオブジェクトを選択するためのグラフィックユーザーインタフェースの表現の図である。 実施態様に従って動的検索コントロールを使用し、関心のあるオブジェクトを選択するための別のグラフィックユーザーインタフェースの表現の図である。 実施態様に従って動的検索コントロールを使用し、関心のあるオブジェクトを選択するための別のグラフィックユーザーインタフェースの表現の図である。 実施態様に従って、例の動的検索プロセスを示す流れ図である。 実施態様に従って、別の例の動的検索プロセスを示す流れ図である。 実施態様に従って、例の画像検索処理プロセスを示す流れ図である。 実施態様に従って、例のキーワード決定プロセスを示す流れ図である。 例の検索結果精緻化及び選択プロセスを示す流れ図である。 実施態様に従って、例のコンピューティング装置を示す。 図14に示されるコンピューティング装置等の、コンピューティング装置の構成要素の例の構成を示す。 多様な実施態様のために使用され得るサーバシステムの例示的な実施態様の絵図である。
実施態様が例として本明細書に説明されているが、当業者は、実施態様が説明される例または図面に限定されないことを認識するであろう。図面及びその詳細な説明は、実施態様を開示されている特定の形式に限定することを意図しておらず、逆に、その意図は添付の特許請求の範囲によって定義される精神及び範囲に含まれるすべての変形、均等物、及び代替策に及ぶことを理解するべきである。本明細書に使用される見出しは、構成の目的のみに使用され、説明または特許請求の範囲の範囲を制限するために使用することを意図していない。本出願を通じて使用されるように、単語「may(してよい)」は、必須の意味(すなわち、must(しなければならない)を意味する)ではなく、許容的な意味(すなわち、having the potential to(する可能性がある)を意味する)で使用される。同様に、単語「include(含む)」、「including(含む)」、及び「includes(含む)」はincluding,but not limited to(を含むが、これに限定されるものではない)を意味する。
より大きい画像の一部分の選択に基づいて情報を検索することを容易にするシステム及び方法が本明細書に記載される。画像全体を処理するように試みる及び/または検索入力(画像、キーワード(複数可)等)が統計的に位置決めされた検索コントロールで提供されることを必要とするのではなくむしろ、説明されているシステム及び方法は、表示情報の任意の部分の上に位置決めされ得る動的位置決め可能検索コントロールを提供する。例えば、検索コントロールは、それがユーザーインタフェースに提示される表示情報をオーバレイするように見え、表示情報の一部分を包囲するように視覚的に提示されてよい。ユーザーは検索コントロールの位置を移動もしくは改変してよい、及び/または検索コントロールのサイズを調整してよい。ユーザーが検索コントロールを移動する及び/または検索コントロールのサイズを改変するにつれ、検索コントロールによって包囲されるオブジェクトに類似する追加画像が決定され、ユーザーに提示される。ユーザーが検索コントロールを移動する及び/または検索コントロールのサイズを改変するにつれ、追加画像は、それらが検索コントロールによって包囲される表示情報の部分に表されるオブジェクトと対応するように更新される。
検索コントロールが所望される位置にある(例えば、ユーザーが検索コントロールを移動する及び/または検索コントロールのサイズを改変することを停止する)とき、視覚的に類似する及び/または検索コントロールによって包囲されるオブジェクトの表現に視覚的に類似するオブジェクトの表現を含む追加画像を提示することに加えて、1つ以上のキーワードがユーザーに提示されてよい。キーワードは、どの追加画像がユーザーに対する提示のために決定されるのかを改変するために選択されてよい。
ユーザーはキーワード及び/または提示された追加画像と相互に作用してよい。例えば、ユーザーはキーワードの1つ以上を選択してよく、追加画像の提示は、キーワードに対応し、検索コントロールによって包囲される表示情報の一部分に視覚的に類似する追加画像を提示するために更新される。同様に、ユーザーは、例えば追加画像を見る、選択する等によって提示された追加画像と相互に作用してよい。追加画像が選択されると、ユーザーは、開始されてよい、選択された追加画像と関連付けられた1つ以上のアクションを提示されてよい。例のアクションは、画像に表されるオブジェクトの購入を開始する、画像を共有する、画像を保存する、画像を電子メールする、画像及び/または画像に表されるオブジェクトについての追加の情報を入手する等を含むが、これに限定されるものではない。
動的位置決め可能検索コントロールを提供することによって、ユーザーは、画像全体を検索する、及び/またはユーザーにとって関心がある場合もあれば、関心がない場合もある結果を受信することを必要とするよりむしろ、関心のある表示情報または関心のあるオブジェクトの表現を含む表示情報の一部分を選択し、表示情報及び/または関心のあるオブジェクトのその部分に関連する検索結果を受信することができる。同様に、ユーザーが検索コントロールを移動するにつれ、提示された追加画像を更新することによって、ユーザーは、体系的な方法で表示情報を探索し、オブジェクト単位で、表示情報に含まれるオブジェクトに視覚的に類似するオブジェクトの表現を含む追加画像を見ることができる。
図1〜図6は、実施態様に従って、検索コントロールを動的に位置決めし、関心のあるオブジェクトを選択するためのユーザーインタフェースの表現の図である。ユーザーは、クライアント装置を介して表示情報を含むグラフィックユーザーインタフェースを提示されてよい。クライアント装置は、例えばパーソナルコンピュータ、タブレットコンピュータ、電子書籍リーダー装置、ラップトップコンピュータ、デスクトップコンピュータ、ネットブック、パーソナルデジタルアシスタント(PDA)、携帯ゲーム機、スマートフォンまたは携帯電話機等の無線通信装置、セットトップボックス、ゲームコンソール、カメラ、またはその任意の組み合わせを含んでよい。クライアント装置を活用し、ユーザーは表示情報と相互に作用してよい。
最初に図1を参照すると、Tiger Leggings102、スーツを着用した男性の画像104、画像の一部分106、及び画像の一部分108等の表示情報を含むユーザーインタフェース100が示される。理解されるように、表示情報は、ユーザーに視覚的に提示できる任意のタイプ、スタイル、量等の情報であってよい。例えば、表示情報は画像、ビデオ、テキスト、ウェブページ、電子メール、ワード文書、プレゼンテーション、スプレッドシート等、またはその任意の組み合わせを含んでよい。
ユーザーは情報及び/または項目を検索しているとき、彼らは多くの場合、ユーザーインタフェース100に表される表示情報の特定のオブジェクトまたは部分にしか関心がない。例えば、ユーザーはレギンス102−1、靴102−2、男性のネクタイ104−1、男性のスーツのジャケット104−2等にしか関心がない場合がある。追加の情報及び/または関心のあるオブジェクトに視覚的に類似するオブジェクトを含む追加画像を入手するために、ユーザーは検索コントロールアイコン110を選択することによって動的検索コントロールを開始してよい、または呼び出してよい。
検索コントロールアイコン110を選択すると、検索コントロールはユーザーインタフェース100に視覚的に提示される。例えば、図2は、動的検索コントロール205がアクティブにされた状態の、ユーザーインタフェース100に対応するグラフィックユーザーインタフェース200を示す。示されるように、動的検索コントロール205は動的検索コントロールが表示情報の上に視覚的に提示され、表示情報のすべてに満たない情報を包囲するように見えるように、表示情報と同時に視覚的に提示される。
ユーザーは、動的検索コントロールをユーザーインタフェース200の回りで移動し、検索コントロールのサイズを調整する等によって動的検索コントロールと相互に作用してよい。ユーザーが検索コントロールを調整する(例えば、検索コントロールを移動する及び/または検索コントロールのサイズを改変する)につれ、追加画像210が決定され、ユーザーに提示される。図2に示されるように、ユーザーはスーツを着用した男性の画像204の上に検索コントロールを位置決めし、検索コントロール205がおもに画像204で表されるネクタイ204−1を包囲するように検索コントロール205のサイズを調整した。レギンスの画像202等の、動的検索コントロール205によって包囲されない表示情報は難読化される場合がある、または灰色にされる場合がある、またはそれ以外の場合検索コントロール205から区別される場合がある。
動的検索コントロールは任意のサイズまたは形状であってよく、ユーザーインタフェース200上の任意の場所に動的に位置決めされてよい。この例では、動的な検索コントロール205は実質的に円形であり、実質的に円形の形状の半径は、サイズコントロール206を使用し、拡大または縮小されてよい。他の実施態様では、動的検索コントロールは、任意のサイズ及び/または形状であってよい。例えば、動的検索コントロール205は、正方形、矩形、八角形、楕円形、または任意の他の多角形もしくは表示情報の一部分を包囲する他の形状であってよい。
ユーザーは、検索コントロールと相互に作用することによって検索コントロール205のサイズ及び/または位置を調整してよい。例えば、表示情報が提示されるクライアント装置がタッチセンサ式のディスプレイを含む場合、ユーザーはタッチセンサ式ディスプレイに触れるまたはそれ以外の場合タッチセンサ式ディスプレイと相互に作用し、検索コントロールをユーザーインタフェース上の所望される位置に移動する及び/または検索コントロールを所望されるサイズに調整することによって検索コントロールの位置及び/またはサイズを改変してよい。音声制御、マウス、キーボード等を含むが、これに限定されるものではない他の形式の調整が同様に活用されてよい。
この例では、検索コントロール205が、ネクタイ204−1を含む画像204の一部分を包囲するように、ユーザーは検索コントロール205のサイズを調整し、検索コントロール205を位置決めしている。示されるように、検索コントロール205によって包囲されるユーザーインタフェース200に提示された表示情報の一部分は、表示情報の他の部分とは区別される。
ユーザーが表示情報の異なる部分の上で検索コントロールを移動するにつれ、表示情報の包囲された部分を含む画像セグメントが生成される。図9及び図10に関してさらに説明されるように、一部の実施態様では、表示情報全体の画像が入手され、クライアント装置上でキャッシュに格納されてよい。検索コントロールが移動されるにつれ、検索コントロールの位置は、表示情報のキャッシュに格納された画像から対応する画像セグメントを入手するために活用される。他の実施態様では、ページ情報(例えば、ユニフォームリソースロケータ、画像署名)及び検索コントロール位置情報はリモートコンピューティングリソースに送信されてよく、リモートコンピューティングリソースはその情報を活用して画像セグメントを生成してよい。画像セグメントは、検索コントロールによって包囲される表示情報の部分を含む。
画像セグメントは、検索コントロールが移動される、及び/またはそれ以外の場合調整されるにつれて定期的に生成されてよい。一部の実施態様では、画像セグメントは、検索コントロールが移動または調整されるのにつれ、定められた間隔(例えば、毎秒、2秒ごとに)で生成されてよい。他の実施態様では、画像セグメント生成の頻度は、検索コントロールが移動している速度及び/または方向に基づいてよい、検索コントロールのサイズに基づいてよい、表示情報の色変動に基づいてよい、ユーザー設定値または好みに基づいてよい等である。他の実施態様では、画像セグメントは、検索コントロール205が所望される位置にある及び/または所望されるサイズであると判断されるまで入手されなくてよい。例えば、ユーザーからの表示を受信する(例えば、ユーザーがマウスボタンを放すまたはタッチセンサ式画面からタッチ入力を削除する)ことに応えて、検索コントロール205の位置及び/またはサイズをまったく改変せずに定められた時間の量(例えば、2秒)が経過したと例えば判断することによって、検索コントロールが所望される位置にあると判断されてよい。
各画像セグメントが生成されるにつれ、画像セグメントは、関心があるオブジェクトと本明細書で呼ばれる画像セグメントに表されるオブジェクト、及び視覚的に類似するオブジェクトを含む及び/または画像セグメントに視覚的に類似する他の追加画像を決定するために処理される。画像セグメントを処理し、追加の視覚的に類似する画像を決定することは、図11に関して以下にさらに詳細に説明される。
視覚的に類似する画像は、追加画像210としてユーザーに提示される。この例では、検索コントロール205によって包囲される表示情報に対応する画像セグメント208の一部分は、ユーザーインタフェース200の一部として追加画像210と同時に提示される。任意の数の追加画像210が提示されてよい。この例では、検索コントロール205によって包囲される表示情報の部分に表されるオブジェクトに視覚的に類似すると判断される、ユーザーインタフェース200に提示される7つの追加画像210−1、210−2、210−3〜210−Nがある。他の実施態様では、ユーザーインタフェース200に提示されるより少ないまたはより多い追加画像があってよい。
関心のある選択されたオブジェクトに視覚的に類似するオブジェクトの表現を含むと判断される追加画像は、一部の実施態様でランク付けされてよく、(例えば、選択された関心のあるオブジェクトに対する視覚的な類似性に基づいて)最高のランクを有する画像が追加画像210として提示される。
ユーザーが検索コントロール205を移動するまたはそれ以外の場合改変するにつれ、追加画像セグメントが生成され、処理され、検索コントロールによって包囲されるオブジェクトの表現に対応する追加画像がユーザーに提示される。例えば、図3は、ユーザーが、図2に示されるネクタイの表現から検索コントロール305のサイズ及び位置を改変したユーザーインタフェース300を示し、これにより検索コントロール305は、スーツジャケット304−2の表現を包囲する。具体的には、この例では、ユーザーは、サイズコントロール306を操作することによって検索コントロール305の半径を拡大し、検索コントロール305の位置を調整している。検索コントロール305によって包囲される表示情報の部分を含む画像セグメントが生成される。画像セグメントが次いで処理され、画像セグメントに表される関心のあるオブジェクトが男性用スーツのジャケットであると判断される。この例では、検索コントロールによって包囲されるオブジェクトの複数の表現、すなわちスーツジャケット304−2の表現及びネクタイ304−1の表現があっても、処理は、関心のあるオブジェクトはスーツジャケットであると判断してよい。この判断は、検索コントロールのサイズ及び/もしくは位置、ユーザーの好み、並びに/または他の情報に基づいてよい。他の実施態様では、画像セグメントに表される各オブジェクトが決定されてよい。
上述のように、画像セグメントに表されるオブジェクトに基づいて、オブジェクトの視覚的に類似する表現を有する追加画像310が決定され、ユーザーに提示される。同様に、画像セグメント308の表現は、追加画像と同時にユーザーに提示されてもよい。
例を続けると、ユーザーが検索コントロールの位置及び/またはサイズを改変し続けると、追加画像セグメントが生成され、処理され、検索コントロールによって包囲される表されたオブジェクトに対応する追加画像が決定され、ユーザーに提示される。ユーザーが検索コントロールの位置及び/またはサイズを改変するにつれ追加画像を更新することは、表示情報のリアルタイム探索を提供し、ユーザーにとって関心があり、検索コントロールによって包囲される表示情報の部分に関連する追加画像を提供する。
例えば、図4を参照すると、ユーザーは、検索コントロール405が、ユーザーインタフェース400に提示される表示情報の画像402に含まれるタイガーレギンス402−1の表現の上に位置決めされるように、検索コントロール405の位置を改変している。上述のように、検索コントロール405によって包囲される表示情報の部分を含む画像セグメントが生成され、その画像セグメントは、ユーザーインタフェース400の一部としてユーザーに提示される追加画像410を決定するために処理される。
一部の実施態様においては、追加画像410を提示することに加えて、追加画像に対応するキーワード412が提示されてよい。追加画像410のように、任意の数のキーワード412が選択のためにユーザーに提示されてよい。図12に関して以下にさらに説明されるように、キーワードは追加画像410の1つ以上と関連付けられてよく、キーワードが追加画像と関連付けられる頻度に基づいてランク付けされてよい。最高頻度を有するキーワード412は、ユーザーインタフェースに提示されてよい。この例では、ユーザーインタフェースに提示される10のキーワード412−1、412−2、412−3、412−Nがある。他の実施態様では、ユーザーインタフェース400に提示されるより少ないまたは追加のキーワードがあってよい。
一部の実施態様では、キーワードは、検索コントロールが決定された期間(例えば、2秒)の間静止しているときだけ提示されてよい。他の実施態様では、キーワードは追加画像と同じ頻度で提示されてよい。
ユーザーは、追加画像410を選択してよい、キーワード412の1つ以上を選択してよい、及び/または検索コントロール405を位置決めし直してよい、もしくはサイズを変更してよい。ユーザーが検索コントロール405を位置決めし直す及び/またはサイズを変更する場合、新しい画像セグメントが生成され、その新しい画像セグメントに対応する追加画像及び/またはキーワードが決定され、ユーザーに提示される。ユーザーがキーワード412の1つ以上を選択する場合、追加画像が提示される順序は、選択されたキーワード(複数可)及び追加画像の画像セグメントとの類似性に基づいて調整される。同様に、キーワードが提示される順序は、選択されたキーワードに対応する追加画像に基づいて更新されてよい。
例えば、図5は、追加画像510の順序、及びキーワード512の順序の提示が、「レギンス」及び「プリント柄レギンス」の2つのキーワード512−1、512−2の選択に対応して更新されるユーザーインタフェース500を示す。図13に関して以下にさらに説明されるように、キーワードが選択されるたびに、選択されたキーワードと関連付けられる追加画像が決定され、再ランク付けされる。この例では、選択されたキーワード512−1、512−2の両方とも追加画像と関連付けられる追加画像が決定され、他の追加画像よりも高くランク付けされる。両方のキーワードを含む追加画像の場合、追加画像は、画像セグメントとの類似性に基づいてさらにランク付けされる。例えば、最初の2つの追加画像510−1及び510‐2はそれぞれ両方のキーワード512−1、512−2と関連付けられており、したがって他の追加画像510−3〜510−Nよりも高くランク付けされる。同様に、追加画像510−1は、画像セグメントに対してより高い類似性を有し、追加画像510−2よりも高くランク付けされる。ユーザーは、キーワードの選択及び/または選択解除を続行してもよく、追加画像510の提示される順序は相応して更新される。
一部の実施態様では、選択されたキーワード関連付けを有する追加画像だけが提示されてよい。他の実施態様では、図5に示されるように、関連付けられたキーワードを有する追加画像は、それと関連付けられた選択されたキーワードを有さない他の追加画像よりも高くランク付けされてよい。
選択されたキーワード、及び選択されたキーワードと関連付けられると判断された追加画像に基づいて、キーワードが提示される順序は調整されてよい。例えば、図11に関して以下にさらに説明されるように、キーワードの選択時、選択されたキーワードと関連付けられた追加画像が決定される。同様に、それらの追加画像と関連付けられた他のキーワードが決定されてよく、キーワードは、すでに選択されたキーワードと関連付けられる追加画像と関連付けられたキーワードが、それと関連付けられていないすでに選択されたキーワードを有していない追加画像と関連付けられたキーワードよりも高くランク付けされ得るように、再ランク付けされてよい。再ランク付けされたキーワードは、次いで再ランク付けされた追加画像と同時にユーザーに提示されてよい。
また、ユーザーは追加画像510を選択し、選択された追加画像に関して追加の詳細及び/またはアクションを入手してもよい。例えば、図6は、ユーザーが追加画像510−3(図5)を選択するのに応えて提示されるユーザーインタフェース600を含む。示されるように、選択された追加画像は、追加画像610−3としてより大きいビューに提示される。同様に、選択された追加画像に関して始動されてよい1つ以上のアクション602も提示される。追加のアクションは、「保存する」602−1、「共有する」602−2、及び「買う」602−N、または購入を含むが、これに限定されるものではない。他の実施態様では、追加のより少ない及び/または異なるアクションがある場合がある。選択された追加画像に関して関連付けられてよい、または開始されてよい他のアクションは、送信アクション(例えば、追加画像を電子メールする)、投稿アクション(例えば、ソーシャルウェブサイトに追加画像を投稿する)等を含むが、これに限定されるものではない。
ユーザーはアクションの1つ以上を選択してよく、対応するアクションが追加画像に関して開始される。例えば、ユーザーが「買う」602−Nアクションを選択する場合、追加画像に表されるオブジェクトを購入するアクション、つまり追加画像の購入が開始される。アクションの開始は、表されているオブジェクトに関する追加の詳細を入手すること、価格情報、販売者情報、出荷詳細を提供すること等を含んでよい。理解されるように、あらゆるさまざまなアクションは追加画像の1つ以上と関連付けられてよく、それらのアクションは選択された追加画像に関して開始されてよい。
図7は、実施態様に従って、別のクライアント装置に提示されるユーザーインタフェース700を示す。この例のユーザーインタフェース700は、ユーザーインタフェース500(図5)に対応し、異なるフォームファクタクライアント装置701に提示される。上記の例と同様に、検索コントロール705が、クライアント装置701によってユーザーインタフェース700に提示される表示情報に含まれる画像702に提示されるタイガーレギンス702−1の表現を包囲するために位置決めされるように、ユーザーは検索コントロール705を位置決めし、サイズコントロール706を使用し、検索コントロールのサイズを調整している。同様に、ユーザーは2つのキーワード712「レギンス」及び「プリント柄レギンス」を選択している。上述のように、検索コントロール705によって包囲される表示情報の部分を含む画像セグメントが生成され、追加画像710を決定し、選択されたキーワード712に基づいてそれらの追加画像710を再ランク付けし、クライアント装置701のユーザーインタフェース700に再ランク付けされた追加画像710を提示している。この例では、追加画像710−1は追加画像510−1に対応し、追加画像710−2は追加画像510−2に対応し、追加画像710−3は追加画像510−3に対応し、追加画像710−Nは追加画像510−Nに対応する等である。
ユーザー経験または使用されるクライアント装置に関わらず、本明細書に説明される実施態様は、ユーザーが、表示情報の部分を動的に選択し、表示情報の選択された部分に表されるオブジェクトに視覚的に類似する追加画像を入手することを可能にする。ユーザーは、それらの追加画像と相互に作用し、提示されたキーワードを選択し、検索コントロールを移動し続けることによって表示情報を探索し続ける等であってよい。例えば、図8を参照すると、上記の例と同様に、ユーザーは追加画像710−3を選択し、ユーザーによって開始されてよいアクション802−1、802−2〜802−Nとともに追加画像810−3を提示される。
図9は、実施態様に従って例の動的検索プロセス900を示す流れ図である。このプロセス及び本明細書に説明される各プロセスは、本明細書に説明されるアーキテクチャまたは他のアーキテクチャによって実装されてよい。プロセスは、論理フローグラフでブロックの集合体として示される。ブロックのいくつかは、ハードウェア、ソフトウェア、またはその組み合わせで実施できる動作を表す。ソフトウェアの文脈では、ブロックは、1つ以上のプロセッサによって実行されるときに列挙される動作を実行する1つ以上のコンピュータ可読媒体に記憶されたコンピュータ実行可能命令を表す。概して、コンピュータ実行可能命令は、特定の機能を実行するまたは特定の抽象データ型を実装するプロセス、プログラム、オブジェクト、構成要素、データ構造等を含む。
コンピュータ可読媒体は、ハードドライブ、フロッピーディスケット、光ディスク、CD−ROM、DVD、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、フラッシュメモリ、磁気カードもしくは光カード、ソリッドステートメモリ装置、または電子命令を記憶するために適した他のタイプの記憶媒体を含んでよい非一過性コンピュータ可読記憶媒体を含んでよい。さらに、一部の実施態様では、コンピュータ可読媒体は(圧縮された形式または圧縮されていない形式で)一過性のコンピュータ可読信号を含んでよい。コンピュータ可読信号の例は、搬送波を使用し、変調されるかどうかに関わらず、インターネットまたは他のネットワークを通してダウンロードされる信号を含む、コンピュータプログラムをホストするまたは実行するコンピュータシステムがアクセスするように構成できる信号を含むが、これに限定されるものではない。最後に、動作が説明される順序は限定として解釈されることを意図しておらず、説明された任意の数の操作を、任意の順序及び/または同時に組み合わせて、プロセスを実施することができる。
例のプロセス900は、902でのように動的に調整可能な検索コントロールを使用し、検索を開始する呼び出しまたは要求の受信時に始まる。呼び出しを受信すると、動的検索コントロールは、それが、904でのようにユーザーインタフェースに提示される表示情報の上に位置決めされているように見えるように、ユーザーインタフェースに提示される。例えば、検索コントロールによって包囲されていない表示情報の一部分は、難読化される場合がある、灰色にされる場合がある、ビューから隠される場合等があり、これにより動的検索コントロール及び検索コントロールによって包囲される表示情報の部分は区別される。他の実施態様では、検索コントロールによって包囲される表示情報の部分は、ユーザーが表示情報のどの部分が検索コントロールによって包囲されているのかを識別できるように、強調表示されてよい、拡大されてよい、またはそれ以外の場合表示情報の他の部分から区別されてよい。
ユーザーは、表示情報の異なる部分が検索コントロールによって包囲されるように、例えばユーザーインタフェースの異なる位置に検索コントロールを位置決めし直すことによって検索コントロールと相互に作用してよい。同様に、検索コントロールのサイズ及び/または形状は、表示情報のより多いまたはより少ない情報が検索コントロールによって包囲されるように改変されてよい。
検索コントロールが移動される、及び/またはサイズが調整されるにつれ、908でのように、検索コントロールに対応する位置情報が決定される。位置情報は、検索コントロールのサイズ、形状、及び/または寸法、ならびにユーザーインタフェースでの及び/または表示情報に関して検索コントロールの水平位置及び垂直位置を含む。例えば、検索コントロールの中心点が決定されてよく、ユーザーインタフェース上での中心点の水平位置及び垂直位置が決定されてよく、検索コントロールの寸法(例えば、高さ、幅、形状)が中心点に関して決定されてよい。別の例では、検索コントロールの外周または外周の点が、ユーザーインタフェースに関して水平位置及び垂直位置で決定されてよい。
検索コントロールの位置情報、及びユーザーインタフェースに提示される表示情報に対応するユーザーインタフェース情報が、910でのようにリモートコンピューティングリソースに送信される。ユーザーインタフェース情報は、例えばユーザーインタフェースに表示情報として提示されるウェブページのユニフォームリソースロケータ(URL)を含んでよい。別の例として、ユーザーインタフェース情報は、検索コントロールによって部分的に包囲される表示情報の中の画像に対応する画像署名を含んでよい。係る実施態様では、リモートコンピューティングリソースは、クライアント装置に提示される表示情報を維持する、及び/または提供している。例えば、表示情報は、リモートコンピューティングリソースによってクライアント装置に送信されたまたは提供されたウェブページに対応してよい。代わりに、表示情報は、別の装置によってクライアント装置に及びリモートコンピューティングリソースに提供された可能性がある。ソースに関わらず、図9に関して説明された実施態様では、リモートコンピューティングリソースは、クライアント装置のディスプレイに提示される表示情報に関する情報を有する。
リモートコンピューティングリソースは、ユーザーインタフェース情報及び検索コントロールの位置情報を受信すると、912でのように、検索コントロールによって包囲された表示情報の部分に対応する画像セグメントを決定する。例えば、リモートコンピューティングリソースは、受信したユーザーインタフェース情報に基づいて、表示情報、及びユーザーインタフェースでの表示情報の位置を決定してよい。同様に、検索コントロールの中に包囲される表示情報の部分は、決定された表示情報の上に検索コントロールの位置情報をオーバレイすることによって決定されてよく、位置情報の中に含まれる表示情報の部分は、画像セグメントとして分割されてよい。
画像セグメントは、次いで1100でのように、画像セグメントに表されるオブジェクト、及び画像セグメントに表されるオブジェクトに視覚的に類似するオブジェクトの表現を含む複数の追加画像を決定するために処理される。画像セグメントの処理は、図11に関して以下にさらに詳細に説明される。同様に、1200でのように、追加画像と関連付けられる1つ以上のキーワードも決定されてよい。キーワードの決定は、図12に関して以下にさらに詳細に説明される。
例のプロセス1100によって返されるランク付けされた追加画像、及び例のプロセス1200によって返されるランク付けされたキーワードは、914でのように、リモートコンピューティングリソースによってクライアント装置に送信される。一部の実施態様では、例のプロセス1100及び例のプロセス1200によって返されるすべての追加画像及び/または追加のキーワードは、クライアント装置に送信されてよい。他の実施態様では、追加画像及び/または追加のキーワードの一部分だけがクライアント装置に送信されてよく、リモートコンピューティングリソースは、追加画像及び/または追加のキーワードのすべてのレコード、並びにどの追加画像及び/または追加のキーワードがクライアント装置に送信されたことがあるのかの表示を維持してよい。
最後に、クライアント装置は、916でのように、追加画像及び/または追加のキーワードを受信すると、追加画像を提示する。追加画像を提示することに加えて、918でのように、動的検索コントロールが位置決めし直されたかどうかに関する判断が下される。動的検索コントロールが位置決めし直されたと判断される場合、例のプロセス900はブロック908に戻り、続行し、それによって位置決めし直された検索コントロールによって包囲されるオブジェクトの表現に対応するために、ユーザーに提示される追加画像を更新する。動的検索コントロールが位置決めし直されていないと判断される場合、920でのように、ランク付けされたキーワードがユーザーに提示される。一部の実施態様では、検索コントロールが位置決めし直されていないと判断される前に、及びキーワードが提示される前に遅延がある場合がある。例えば、例のプロセスは、検索コントロールが位置決めし直されなかったと判断され、キーワードが提示される前に2秒の遅延を含む場合がある。一部の実施態様では、画像セグメント、検索コントロール、及び/または表示情報は、追加画像及び/または追加のキーワードとともに提示されてもよい。
図10は、実施態様に従って、別の例の動的検索プロセス1000を示す流れ図である。例のプロセス1000は、1002でのように、動的に調整可能な検索コントロールを使用し、検索を開始する呼び出しまたは要求の受信時に始まる。呼び出しを受信すると、動的検索コントロールは、1004でのように、それが、ユーザーインタフェースに提示される表示情報の上に位置決めされているように見えるように、ユーザーインタフェースに提示される。例えば、検索コントロールによって包囲されていない表示情報の一部分は、難読化される場合がある、灰色にされる場合がある、ビューから隠される場合等があり、これにより動的検索コントロール及び検索コントロールによって包囲される表示情報の部分は区別される。他の実施態様では、検索コントロールによって包囲される表示情報の部分は、ユーザーが、表示情報のどの部分が検索コントロールによって包囲されるのかを識別できるように、強調表示されてよい、拡大されてよい、またはそれ以外の場合、表示情報の他の部分から区別されてよい。
ユーザーは、表示情報の異なる部分が検索コントロールによって包囲されるように、例えばユーザーインタフェース上の異なる位置に検索コントロールを位置決めし直すことによって検索コントロールと相互に作用してよい。同様に、検索コントロールのサイズ及び/または形状が、表示情報のより多いまたはより少ない情報が検索コントロールによって包囲されるように改変されてよい。
検索コントロールを提示することに加えて、1007でのように、ユーザーインタフェースに提示される表示情報の画像が入手され、キャッシュに格納される、またはそれ以外の場合、クライアント装置のメモリに記憶される。一部の実施態様では、表示情報の画像は、検索コントロール呼び出しが受信されるとき(ブロック1002)に入手され、キャッシュに格納される。他の実施態様では、表示情報の画像は、検索コントロールがユーザーによって移動されるのにつれて画像セグメントが生成されるたびに、入手され、キャッシュに格納される。
表示情報の画像を入手することに加えて、1008でのように、検索コントロールに対応する位置情報が決定される。位置情報は、検索コントロールのサイズ、形状、及び/または寸法、並びにユーザーインタフェース上での及び/または表示情報に関する検索コントロールの水平位置及び垂直位置を含む。例えば、検索コントロールの中心点が決定されてよく、ユーザーインタフェース上の中心点の水平位置及び垂直位置が決定されてよく、検索コントロールの寸法(例えば、高さ、幅、形状)が中心点に関して決定されてよい。別の例では、検索コントロールの外周または外周の点は、ユーザーインタフェースに関して水平位置及び垂直位置で決定されてよい。
表示情報の入手された画像は、1009でのように位置情報に基づいて分割される。具体的には、包囲された表示情報に対応する入手された画像の部分を含む画像セグメントは、表示情報の入手されキャッシュに格納された画像から生成される。画像セグメントは次いで、1010でのようにリモートコンピューティングリソースに送信される。一部の実施態様では、クライアント装置で画像セグメントを生成するよりむしろ、表示情報の入手された画像全体がリモートコンピューティングリソースに送信されてよく、リモートコンピューティングリソースは画像セグメントを生成してよい。係る実施態様では、検索コントロールの位置情報が決定されるたびに、位置情報はリモートコンピューティングリソースに送信され、リモートコンピューティングリソースは受信された位置情報及び表示情報の入手された画像を使用して、画像セグメントを生成する。
リモートコンピューティングリソースは、1100でのように、画像セグメント、及び画像セグメントに表されるオブジェクトに視覚的に類似するオブジェクトの表現を含む複数の追加画像に表されるオブジェクトを決定するために画像セグメントを処理する。画像セグメントの処理は、図11に関して以下にさらに詳細に説明される。同様に、1200でのように追加画像と関連付けられる1つ以上のキーワードも決定されてよい。キーワードの決定は、図12に関して以下にさらに詳細に説明される。
例のプロセス1100によって返されるランク付けされた追加画像、及び例のプロセス1200によって返されるランク付けされたキーワードは、1014でのように、リモートコンピューティングリソースによってクライアント装置に送信される。一部の実施態様では、例のプロセス1100及び例のプロセス1200によって返される追加画像及び/または追加のキーワードのすべては、クライアント装置に送信されてよい。他の実施態様では、追加画像及び/または追加のキーワードの一部だけがクライアント装置に送信されてよく、リモートコンピューティングリソースは、追加画像のすべて及び/または追加のキーワードのすべてのレコード、ならびにどの追加画像及び/または追加のキーワードがクライアント装置に送信されたのかの表示を維持してよい。
最後に、クライアント装置は、1016に示されるように、追加画像及び/または追加のキーワードを受信すると、追加画像を提示する。追加画像を提示することに加えて、1018でのように、動的検索コントロールが位置決めし直されたかどうかに関する判断が下される。動的検索コントロールが位置決めし直されたと判断される場合、例のプロセス1000はブロック1008に戻り、続行し、それによって位置決めし直された検索コントロールによって包囲されるオブジェクトの表現に対応するために、ユーザーに提示される追加画像を更新する。動的検索コントロールが位置決めし直されなかったと判断される場合、1020でのように、ランク付けされたキーワードがユーザーに提示される。一部の実施態様では、検索コントロールが位置決めし直されなかったと判断される前に、及びキーワードが提示される前に遅延がある場合がある。例えば、例のプロセスは、検索コントロールが位置決めし直されず、キーワードが提示されると判断される前に2秒の遅延を含む場合がある。一部の実施態様では、画像セグメント、検索コントロール、及び/または表示情報も追加画像及び/または追加のキーワードとともに提示されてよい。
図11は、実施態様に従って、例の画像処理プロセス1100を示す流れ図である。例のプロセス1100は、1102でのように、画像セグメントの受信時に始まる。上述されたように、画像セグメントは、動的に位置決め可能な検索コントロールによって包囲されるユーザーインタフェースの表示情報の一部に対応すると判断される。
受信された画像セグメントは、1104でのように画像セグメントに表されるオブジェクトを決定するために処理される。画像セグメントに表されるオブジェクトを決定するために、1つ以上の技術が活用されてよい。例えば、オブジェクト検出アルゴリズム、エッジ検出アルゴリズム等のオブジェクト検出アルゴリズムの1つ以上がオブジェクトを検出するために使用されてよい。他の実施態様では、画像及び/または画像セグメントに表されるオブジェクトに対応する色ヒストグラムまたは色署名は、画像に表されるオブジェクトを表すとして決定され、活用されてよい。一部の実態態様では、「Image Based Search」と題する共同所有された米国特許出願第14/279,871号に説明される技術は、その内容がその全体として参照により本明細書に援用され、画像セグメントに表されるオブジェクトを決定するために使用されてよい。
1106でのように、決定されたオブジェクトに基づいて、視覚的に類似するオブジェクトを含む1つ以上の追加画像が決定されてよい。例えば、リモートコンピューティングリソースによってデータストアで維持される画像は、類似するオブジェクト検出技術を使用し処理され、オブジェクトタイプ、形状、サイズ、色、ブランド等によってインデックスを付けられてよい。画像セグメントに表されるオブジェクトが決定されると、該オブジェクトは、同じまたは類似するタイプ、形状、サイズ、色、ブランド等を有するオブジェクトを含む追加画像を決定するためにリモートコンピューティングリソースによって維持されるインデックスと比較されてよい。視覚的に類似すると判断されたオブジェクトを有する追加画像は、画像セグメントのオブジェクトの表現が追加画像に表されるオブジェクトにどれほど視覚的に類似するのかに基づいてランク付けされてよい、または重みを付けられてよい。例えば、画像セグメントに表されるオブジェクトの単一の特色ベクトルは、オブジェクト間の類似性を決定するために視覚的に類似するオブジェクトの特色ベクトルと比較されてよい。
追加画像の類似性スコアに基づいて、追加画像は、1108でのようにランク付けされ、1110でのように、最高のランクが付けられた画像は返される。一部の実施態様では、視覚的に類似するオブジェクトを有する画像の一部分だけが、追加画像として返されてよい。例えば、視覚的に類似するオブジェクトを含む追加画像のセグメントだけが返されてよい。他の実施態様では、視覚的に類似するオブジェクトを含む追加画像全体が返されてよい。同様に、追加画像はランク付けに対応する順序集合で返されてよい、及び/または追加画像ランク付けもしくは追加画像ランク付けリストは、追加画像を提供されてよい。
上述のように、一部の実施態様では、ユーザーにも提示される1つ以上のキーワードが決定されてもよい。係る実施態様では、例のプロセス1200(図12)は、追加のキーワードを決定するために実行されてよい。図12に示される例のプロセス1200は、1202でのように、例のプロセス1100(図11)によって決定される追加画像と関連付けられたキーワードのそれぞれを決定することによって始まる。例えば、追加画像の一部またはすべては、1つ以上のキーワード、キーワードとして分析され、使用されてよい、属性、メタデータ、説明等を有してよい。決定されたキーワードごとに、頻度またはカウントが、追加画像のどれほど多くが各キーワードと関連付けられるのかに基づいて決定される。例えば、キーワード「レギンス」が900の追加画像の中から115の画像と関連付けられる場合、キーワード「レギンス」は、それが900の追加画像と関連付けられる115回を表す頻度またはカウントを有する。
キーワードは、次いで、1204でのようにキーワードごとに決定された頻度に基づいてランク付けされ、1206でのように、ランク付けられたキーワードは返される。一部の実施態様では、追加のキーワードのすべてはランク付けされた順序で返されてよい。他の実施態様では、ランク付けされたキーワードの一部分だけが返されてよい。同様に、キーワードはランク付けに対応する順序集合で返されてよい、及び/またはキーワードランク付けもしくはキーワードのキーワードランク付けリストで返されてよい。一部の実施態様では、キーワードランク付けリストは、各キーワードの使用の頻度とともにキーワードのそれぞれを識別してよい。
図13は、実施態様に従って、例の検索結果精緻化及び選択プロセス1300を示す流れ図である。例のプロセス1300は、1302でのように、提示されたキーワードが選択されたかどうかを判断することによって始まる。キーワードが選択されたと判断される場合、判断された追加画像は、1304でのように、選択されたキーワード、及び追加画像の画像セグメントとの類似性に基づいて再ランク付けされる。例えば、それと関連付けられた選択されたキーワード(複数可)を有する追加画像は、それらが他の追加画像よりも高くランク付けされるように、他の追加画像よりも高い重みを与えられる。同様に、選択されたキーワード(複数可)との関連付けを含む追加画像の場合、それらの追加画像は画像セグメントとのその類似性に従ってランク付けされ、これにより関連付けられたキーワード及び最高の視覚的類似性を有する追加画像は最高にランク付けされる。
選択されたキーワードに基づいて追加画像を再ランク付けすることに加えて、1305でのように、キーワードも再ランク付けされてよい。例えば、キーワードの集合は、選択されたキーワードと関連付けられる追加画像と関連付けられたキーワードだけを含むように削減されてよい。係る例では、削減されたキーワードの集合は次いで、それらのキーワードが追加画像と関連付けられる頻度に基づいて再ランク付けされてよい。一例では、削減されたキーワードの集合の頻度は、追加画像のすべてに基づいて決定されてよい。別の例では、削減されたキーワードの集合の頻度は、選択されたキーワードと関連付けられる追加画像だけに基づいて決定されてよい。再ランク付けされた画像及び/または再ランク付けされた非選択キーワードは、1306でのように次いで送信され、ユーザーに提示される。
一部の実施態様では、追加画像を再ランク付けすること及び/またはキーワードを再ランク付けすることのプロセスは、クライアント装置で実行されてよい。他の実施態様では、追加画像及び/またはキーワードの再ランク付けはリモートコンピューティングリソースで実行されてよい。例えば、クライアント装置が追加画像及び対応するキーワードのすべてを受信している場合、キーワードの選択時、クライアント装置は選択されたキーワードに基づいて提示のための追加画像を再ランク付けしてよい。同様に、クライアント装置はキーワードの集合を削減し、削減されたキーワードの集合を再ランク付けしてよい。代わりに、キーワードの選択時、クライアント装置は選択されたキーワードの表示をリモートコンピューティングリソースに送信してよい。リモートコンピューティングリソースは次いで、選択されたキーワードに基づいて追加画像を再ランク付けし、キーワードの集合を削減し、削減されたキーワードの集合を再ランク付けし、クライアント装置に再ランク付けされた追加画像及び再ランク付けされ選択解除されたキーワードを提供してよい。代わりに、リモートコンピューティングリソースはクライアントデバイスに更新された追加画像ランク付けリスト、ならびに/または追加画像及び/もしくは非選択キーワードが提示される順序を示す更新されたキーワードランク付けリスト、またはその組み合わせを提供してよい。例えば、リモートコンピューティングリソースがクライアント装置に、提示された最高のランク付けされた画像だけを送信した場合、再ランク付け時、リモートコンピューティングリソースは、どの追加画像が提示されるのかを判断し、それらの追加画像のどれがすでにクライアント装置に送信されたのかを判断し、クライアント装置に、更新された追加画像ランク付けリスト、及び更新された追加画像ランク付けリストに従って提示されるあらゆる追加画像を提供してよい。クライアント装置は、更新された追加画像ランク付けリスト及びそれがすでに有していなかったあらゆる追加画像を受信すると、更新された追加画像ランク付けリストに従って追加画像を再度並べ替え、提示する。同じような方法で、キーワードの提示は同様に更新されてよい。
図13を参照すると、1308でのように、追加のキーワードが選択されたかどうかに関する判断が次いで下される。追加のキーワードが選択されたと判断される場合、例のプロセス1300はブロック1304に戻り、各選択されたキーワード、及び追加画像と画像セグメントとの間の視覚的な類似性を考慮し、続行する。
決定ブロック1308で追加のキーワードが選択されなかったと判断される場合、または決定ブロック1302でキーワードが選択されなかったと判断される場合、1310でのように、追加画像が選択されるかどうかに関する判断が下される。追加画像が選択されていないと判断される場合、例のプロセス1300は決定ブロック1308に戻り、続行する。追加画像が選択されたと判断される場合、1312でのように、選択された追加画像及び1つ以上の対応するアクションが提示される。例えば、選択された追加画像はより大きいサイズで及び/または選択された追加画像についての追加の情報とともに提示されてよい。同様に、1つ以上の対応するアクションは、ユーザーによって選択または開始されてよいコントロールとして提示されてよい。例のアクションは、画像に表されるオブジェクトの購入を開始すること、画像を共有すること、画像を保存すること、画像を電子メールすること、画像及び/または画像に表されるオブジェクトについての追加の情報を入手すること等を含むが、これに限定されるものではない。一部の実施態様では、アクションの選択時、クライアント装置は選択されたアクションの表示をリモートコンピューティングリソースに提供し、リモートコンピューティングリソースは選択されたアクションを開始してよい。
1314でのように、提示されたアクションの1つが選択されるかどうかに関する判断が次いで下される。アクションが選択されたと判断される場合、1316でのように、選択されたアクションが開始される。アクションが選択されていないと判断される場合、1318でのように、例のプロセス1300は完了する。ユーザーはアクションの1つ以上を選択してよく、対応するアクションは選択された追加画像に関して開始される。例えば、ユーザーが買うアクションまたは購入アクションを選択する場合、追加画像に表されるオブジェクトを購入するアクション、つまり追加画像の購入が開始される。アクションの開始は、表されるオブジェクトに関して追加の詳細を入手すること、価格情報、販売者情報、出荷詳細を提供すること等を含んでよい。理解されるように、あらゆるさまざまなアクションは、追加画像の1つ以上と関連付けられてよく、それらのアクションは選択された追加画像に関して開始されてよい。
図14は、本明細書に説明される多様な実施態様に従って使用できる例のクライアント装置1400を示す。この例では、クライアント装置1400は、ディスプレイ1402、及び任意選択でディスプレイ1402と装置の同じ側にある、カメラ等の少なくとも1つの入力構成要素を含む。また、クライアント装置1400は、スピーカ等の音声変換器、及び任意選択でマイクも含んでよい。概して、クライアント装置1400は、ユーザーが機械コントロール1408等のクライアント装置1400と相互に作用できるようにする任意の形式の入力/出力構成要素を有してよい。装置とのユーザー相互作用を可能にするための多様な他の入力構成要素は、タッチベースのディスプレイ1402(例えば、抵抗、容量)、(ジェスチャ追跡用等の)カメラ、マイク、グローバルポジショニングシステム(GPS)、コンパス、またはその任意の組み合わせを含んでよい。これらの入力構成要素の内の1つ以上は、装置上にまたはそれ以外の場合、装置と通信して含まれてよい。他の入力構成要素、及び入力構成要素の組み合わせは、本明細書に含まれる教示及び示唆を鑑みて明らかになるはずであるように、多様な実施態様の範囲内でも使用できる。
本明細書に説明される多様な機能性を提供するために、図15は、図14に関して説明され、本明細書に説明されるクライアント装置1400等のクライアント装置1400の基本構成要素1500の例の集合を示す。本例では、装置は、少なくとも1つのメモリ装置または要素1504に記憶できる命令を実行するための少なくとも1つの中央処理装置1502を含む。当業者に明らかとなるように、装置は、処理装置1502による実行のためのプログラム命令のための第1のデータストレージ等の、多くのタイプのメモリ、データストレージ、またはコンピュータ可読記憶媒体を含む場合がある。
メモリ1504は、プロセッサ(複数可)1502によってアクセス可能な実行可能命令を記憶するように構成された非一過性コンピュータ可読記憶媒体であってよい。多様な実施態様では、非一過性コンピュータ可読記憶媒体は、例えばスタティックランダムアクセスメモリ(SRAM)、同期性ダイナミックRAM(SDRAM)、不揮発性/フラッシュタイプメモリ、または任意の他のタイプの揮発性メモリもしくは固定記憶装置等の任意の適切なメモリ技術を使用し、実装されてよい。示されている実施態様では、例えば本明細書に説明される機能等の所望される機能を実施するプログラム命令及びデータは、非一過性コンピュータ可読記憶媒体の中に記憶されていると示される。他の実施態様では、プログラム命令は、非一過性媒体等の異なるタイプのコンピュータアクセス可能媒体上に、または非一過性コンピュータ可読記憶媒体とは別個の類似する媒体で受信されてよい、送信されてよい、または記憶されてよい。一般的に言えば、非一過性コンピュータ可読記憶媒体は、例えばディスクまたはCD/DVD−ROM等の磁気媒体または光媒体等の記憶媒体またはメモリ媒体を含んでよい。非一過性コンピュータ可読媒体を介して記憶されたプログラム命令及びデータは、伝送媒体によって、または例えばネットワークインタフェースを介して実装されてよい等、ネットワーク及び/または無線リンク等の通信媒体を介して伝達されてよい電気信号、電磁信号、もしくはデジタル信号等の信号によって伝送されてよい。
また、着脱式記憶メモリが他の装置等と情報を共有するために利用可能であってもよい。装置は、通常、タッチベースのディスプレイ、電子インク(e−インク)、有機発光ダイオード(OLED)、または液晶ディスプレイ(LCD)等の何らかのタイプのディスプレイ1506を含む。一部の実施態様の装置では、装置の近傍でオブジェクトを撮像できる1つ以上のカメラ等の少なくとも1つの画像取り込み素子1508を含んでよい。画像取り込み素子は、決定された解像度、焦点範囲、可視領域、及び取り込み速度を有するCCDまたはCMOS画像取り込み素子等の任意の適切な技術を含む場合がある、または任意の適切な技術に少なくとも部分的に基づく場合がある。装置は、動的検索コントロールを呼び出し、動的検索コントロールの位置、サイズ、及び/または形状に対する調整を受信し、表示情報の画像を入手する、及び/または画像を分割するために少なくとも1つの動的検索コントロール構成要素1510を含む場合がある。また、装置は、GPS、NFC位置追跡、またはWi‐Fi位置モニタリング等の少なくとも1つの位置設定構成要素1512を含む場合もある。
また、例のクライアント装置は、ユーザーから従来の入力を受信することができる少なくとも1つの追加の入力装置を含んでもよい。この従来の入力は、例えば、プッシュボタン、タッチパッド、タッチベースのディスプレイ、ホイール、ジョイスティック、キーボード、マウス、トラックボール、キーパッド、またはユーザーが装置にコマンドを入力できる任意の他の係る装置もしくは要素を含む場合がある。これらのI/O装置は、一部の実施態様で、無線リンク、赤外線リンク、Bluetooth(登録商標)リンク、または他のリンクによっても接続できるだろう。ただし、一部の実施態様では、係る装置はまったくボタンを含まない可能性があり、タッチ(例えば、タッチベースのディスプレイ)、音声(例えば、発話)コマンド、またはその組み合わせによってのみ制御される可能性がある。
図16は、本明細書に説明される実施態様の1つ以上とともに使用され得る、リモートコンピューティングリソース等のサーバシステム1600の例示的な実施態様の絵図である。サーバシステム1600は、1つ以上の冗長プロセッサ等のプロセッサ1601、ビデオディスプレイアダプタ1602、ディスクドライブ1604、入力/出力インタフェース1606、ネットワークインタフェース1608、及びメモリ1612を含んでもよい。プロセッサ1601、ビデオディスプレイアダプタ1602、ディスクドライブ1604、入力/出力インタフェース1606、ネットワークインタフェース1608、及びメモリ1612は、通信バス1610によって互いに通信可能に結合されてよい。
ビデオディスプレイアダプタ1602は、サーバシステム1600のオペレータがサーバシステム1600の動作をモニタし、構成することを可能にする(図16に図示されない)ローカルディスプレイに表示信号を提供する。入力/出力インタフェース1606は、同様に、マウス、キーボード、スキャナ、またはサーバシステム1600のオペレータが操作できる他の入力装置及び出力装置等の、図16に図示されていない外部の入力/出力装置と通信する。ネットワークインタフェース1608は、他のコンピューティング装置と通信するためにハードウェア、ソフトウェア、またはその任意の組み合わせを含む。例えば、ネットワークインタフェース1608は、サーバシステム1600と、クライアント装置1400(図14)等の他のコンピューティング装置との間で通信を提供するように構成されてよい。
メモリ1612は、プロセッサ1601によってアクセス可能な実行可能命令を記憶するように構成された非一過性コンピュータ可読記憶媒体であってよい。多様な実施態様では、非一過性コンピュータ可読記憶媒体は、例えばSRAM、SDRAM、不揮発性/フラッシュタイプメモリ等の任意の適切なメモリ技術、または任意の他のタイプの揮発性メモリもしくは固定記憶装置を使用し、実装されてよい。示されている実施態様では、本明細書に説明される機能等の所望される機能を実施するプログラム命令及びデータは、非一過性コンピュータ可読記憶媒体の中に記憶されていると示される。他の実施態様では、プログラム命令は、非一過性媒体等の異なるタイプのコンピュータアクセス可能媒体に、または非一過性コンピュータ可読記憶媒体とは別個の類似する媒体で受信されてよい、送信されてよい、または記憶されてよい。一般的に言えば、非一過性コンピュータ可読記憶媒体は、例えばディスクまたはCD/DVD−ROM等の磁気媒体または光媒体等の記憶媒体またはメモリ媒体を含んでよい。非一過性コンピュータ可読媒体を介して記憶されたプログラム命令及びデータは、伝送媒体によって、または例えばネットワークインタフェースを介して実装されてよい等、ネットワーク及び/もしくは無線リンク等の通信媒体を介して伝達されてよい電気信号、電磁信号、もしくはデジタル信号等の信号によって伝送されてよい。
サーバシステム1600の動作を制御するためのオペレーティングシステム1614を記憶するメモリ1612が示される。サーバシステム1600の低レベル動作を制御するためのバイナリ入出力システム(BIOS)1616もメモリ1612に記憶される。メモリ1612は、クライアント装置1400及び外部ソースがサーバシステム1600と情報及びデータファイルを交換できるようにするネットワークサービスを提供するためにプログラムコード及びデータをさらに記憶する。したがって、メモリ1612はブラウザアプリケーション1618を記憶してよい。ブラウザアプリケーション1618は、プロセッサ1601による実行時に、ウェブページ等の構成可能なマークアップ文書を生成するまたはそれ以外の場合入手するコンピュータ実行可能命令を含む。ブラウザアプリケーション1618は、データストア1603、クライアント装置1400等のクライアント装置、外部ソース等の間でのデータ交換及びマッピングを容易にするためにデータストアマネージャアプリケーション1620と通信する。
本明細書で使用されるように、用語「データストア」は、任意の標準的な環境、分散環境、またはクラスタ化された環境で、任意の組み合わせ及び任意の数のデータサーバ、データベース、データストレージ装置、及びデータストレージ媒体を含んでよい、データを記憶する、データにアクセスする、及びデータを取り出すことができる任意の装置または装置の組み合わせを指す。サーバシステム1600は、クライアント装置1400、外部ソース、及び/または検索サービス1605のために1つ以上のアプリケーションの態様を実行するために、必要に応じて、データストア1603と統合するための任意の適切なハードウェア及びソフトウェアを含む場合がある。サーバシステム1600は、データストア1603と協調してアクセス制御サービスを提供し、例えば一致する検索結果、視覚的に類似するオブジェクトを含む画像、視覚的に類似するオブジェクトを有する画像のインデックス、キーワード等、コンテンツを生成できる。
データストア1603は、特定の態様に関係するデータを記憶するためのいくつかの別々のデータテーブル、データベース、または他のデータストレージ機構、及び媒体を含む場合がある。例えば、示されているデータストア1603は、デジタルアイテム(例えば、画像)及びそれらの画像についての対応するメタデータ(例えば、インデックス、キーワード)を含む。検索履歴、ユーザーの好み、プロファイル、及び他の情報は、同様にデータストアに記憶されてよい。
必要に応じて上に列挙した機構のいずれかに、またはデータストアのいずれかの追加の機構に記憶できる、データストア1603に記憶されてよい、多くの他の態様がある場合があることが理解されるべきである。データストア1603は、サーバシステム1600から命令を受信し、それに応えてデータを入手する、更新する、またはそれ以外の場合処理するために、それと関連付けられた論理を通して操作可能であってよい。
また、メモリ1612は検索サービス1605を含んでもよい。検索サービス1605は、サーバシステム1600の機能の1つ以上を実装するためにプロセッサ1601によって実行可能であってよい。一実施態様では、検索サービス1605は、メモリ1612に記憶される1つ以上のソフトウェアプログラムで実施される命令を表してよい。別の実施態様では、検索サービス1605は、ハードウェア、ソフトウェア命令、またはその組み合わせを表す場合がある。検索サービスは、上述したように、クライアント装置から画像セグメントを受信する、画像セグメントに表されるオブジェクトを決定するためにそれらの画像セグメントを処理する、視覚的に類似するオブジェクトの表現を含む追加画像を決定する、及び/または追加画像に対応するキーワードを決定するように構成される。同様に、検索サービス1605は、各追加画像またはその中で表されるオブジェクトの、画像セグメント及び/または画像セグメントに表されるオブジェクトに対する類似性に基づいて、追加画像ランク付けリスト等の追加画像のランク付けを決定してよい。同様に、検索サービスは、各キーワードが追加画像と関連付けられる頻度に基づいて決定されたキーワードをランク付けしてよい。
サーバシステム1600は、一実施態様では、1つ以上のコンピュータネットワークまた直接接続を使用し、通信リンクを介して相互接続されるいくつかのコンピュータシステム及び構成要素を活用する分散環境である。しかしながら、係るシステムが、図16に示されているよりも少ないまたは多い数の構成要素を有するシステムでも等しくよく動作できることが当業者によって理解される。したがって、図16の表示は、本質的に例示的であり、本開示の範囲に限定的ではないとして解釈されるべきである。
本明細書に開示される実施態様は、実行可能命令で構成された1つ以上のコンピューティングシステムの制御下で、検索呼び出しを受信することと、表示情報に視覚的に位置決めされる動的検索コントロールを提示することと、表示情報の画像を入手し、画像をメモリに記憶することと、動的検索コントロールの位置に対応する位置情報を決定することと、動的検索コントロールの位置情報に対応する記憶された画像から画像セグメントを生成することと、画像セグメントに表される第1のオブジェクトを決定するために画像セグメントを処理することと、複数の追加画像のそれぞれが第1のオブジェクトに視覚的に類似する追加のオブジェクトの表現を含む複数の追加画像を決定することと、複数の追加画像の少なくとも一部分を提示することとを含むコンピュータによって実装される方法を含んでよい。
任意選択で、コンピュータによって実装される方法は、複数のキーワードのそれぞれが複数の追加画像の少なくとも1つと関連付けられる複数のキーワードを決定することと、複数の追加画像の少なくとも一部分と同時に、複数のキーワードの少なくとも一部分を提示することをさらに含んでよい。任意選択で、コンピュータによって実装される方法は、複数の追加画像の少なくとも一部分を提示する前に、複数の追加画像の提示された少なくとも一部分が最高のランク付けされた画像と一致するように画像セグメントとの類似性に少なくとも部分的に基づいて複数の追加画像をランク付けすることと、複数のキーワードの少なくとも一部分を提示する前に、複数のキーワードの提示された少なくとも一部分が最高の頻度を有するキーワードと対応するように、複数の追加画像との各キーワードの関連付けの頻度に基づいて複数のキーワードをランク付けすることとをさらに含んでよい。任意選択で、コンピュータによって実装される方法は、キーワードの選択を受信することと、キーワードに少なくとも部分的に基づいて複数の追加画像を再ランク付けすることと、複数の追加画像の再ランク付けされた部分がキーワードとの関連付けを有する複数の追加画像の再ランク付けされた部分を提示することとをさらに含んでよい。任意選択で、コンピュータによって実装される方法は、複数の追加画像の提示された少なくとも一部分から画像の選択を受信することと、画像に関して開始されてよい複数のアクションを提示することと、複数のアクションの内のアクションの選択を受信することと、アクションの開始を生じさせることとをさらに含んでよい。
本明細書に開示される実施態様はまた、プロセッサによる実行時に、プロセッサに少なくとも、動的検索コントロールが表示情報に関して視覚的に区別可能であり、動的検索コントロールが表示情報のすべてに満たない情報を包囲し、動的検索コントロールが表示情報の任意の部分に位置決めされるように表示情報の上に動的検索コントロールを視覚的に提示させ、表示情報に関して動的検索コントロールの位置を決定させ、動的検索コントロールによって包囲される表示情報の一部分に対応する表示情報の画像セグメントを決定させ、画像セグメントに表される第1のオブジェクト決定するために画像セグメントを処理させ、複数の追加画像のそれぞれが、第1のオブジェクトに視覚的に類似する追加のオブジェクトの表現を含む複数の追加画像を決定させ、複数の追加画像の少なくとも一部分を提示させる命令を記憶する非一過性コンピュータ可読記憶媒体を含んでもよい。
任意選択で、オブジェクトは、オブジェクトの形状、サイズ、色、またはブランドに少なくとも部分的に基づいて視覚的に類似すると判断される。任意選択で、命令は、実行時にプロセッサにさらに少なくとも、複数の追加画像に少なくとも部分的に基づいて、複数のキーワードのそれぞれが複数の追加画像の少なくとも1つと関連付けられる複数のキーワードを決定させ、複数の追加画像の少なくとも一部分と同時に、複数のキーワードの少なくとも一部分を提示させる。任意選択で、動的検索コントロールの形状が実質的に円形であり、実質的に円形の形状の半径は調整可能である。任意選択で、動的検索コントロールは、動的検索コントロールの中に包囲されていない表示情報を少なくとも部分的に難読化することによって表示情報に関して視覚的に区別可能である。任意選択で、動的検索コントロールの位置は表示情報に関して水平位置、表示情報に関して垂直位置、高さ、及び幅を含む。任意選択で、命令は、プロセッサによる実行時に、プロセッサにさらに少なくとも、表示情報の画像を入手させ、画像をメモリに記憶させる。任意選択で、画像セグメントは、表示情報の記憶された画像から入手され、画像セグメントは、記憶された画像に表される表示情報に関して動的検索コントロールの位置に対応する。任意選択で、画像セグメントは記憶された画像全体に満たない。
また、本明細書に開示される実施態様は、プロセッサと、プロセッサに結合され、プロセッサによる実行時に、プロセッサに少なくとも、動的検索コントロールを提示する要求を受信させ、要求を受信することに応えて、動的検索コントロールが表示情報から視覚的に区別可能であり、表示情報のすべてに満たない情報を包囲するように、表示情報と同時に動的検索コントロールを視覚的に提示させ、動的検索コントロールに対応する位置入力またはサイズ入力の少なくとも1つを受信させ、位置入力またはサイズ入力の受信された少なくとも1つに従って動的検索コントロールの視覚的な提示を調整させ、表示情報の画像を入手及び記憶させ、動的検索コントロールの視覚的な提示が調整された後に動的検索コントロールの位置及びサイズに対応する記憶された画像の一部分を記憶された画像から分割させ、記憶された画像からセグメントをリモートコンピューティングリソースに送信させ、リモートコンピューティングリソースから、記憶された画像からセグメントに表されるオブジェクトに視覚的に類似する複数のランク付けされた追加画像を受信させ、複数のランク付けされた追加画像の少なくともいくつかを提示させるプログラム命令を記憶するメモリとを含むコンピューティングシステムを含んでもよい。
任意選択で、プログラム命令は、プロセッサによる実行時、プロセッサにさらに少なくとも、リモートコンピューティングリソースから複数の追加画像と対応する複数のキーワードを受信させ、複数のキーワードの少なくとも一部分を提示させる。任意選択で、プログラム命令は、プロセッサによる実行時、プロセッサにさらに少なくとも、複数のキーワードの提示された少なくとも一部分からキーワードの選択を受信させ、選択されたキーワードをリモートコンピューティングリソースに送信させ、複数の追加画像の第2のランク付けを受信させ、複数の追加画像の少なくとも一部を第2のランク付けに従って提示させる。任意選択で、プログラム命令は、プロセッサによる実行時に、プロセッサにさらに少なくとも、複数の追加画像の提示させた少なくとも一部の画像の選択を受信させ、選択された画像に関して開始されてよい複数のアクションを提示させ、複数のアクションからアクションの選択を受信させ、アクションを開始させる。任意選択で、複数のアクションは、画像を共有するアクション、画像に表されるオブジェクトを購入するアクション、画像を記憶するアクション、または画像を送信するアクションの少なくとも2つを含む。任意選択で、表示情報は、ウェブページ、電子メール、ビデオ、画像、またはコンピューティングプログラムによって生成される提示を含む、ユーザーに提示される任意の視覚情報であってよい。
主題は構造上の特色及び/または方法論的行為に特有の言語で説明されてきたが、添付の特許請求の範囲に定義される主題が、必ずしも説明された特有の特色または行為に限定されないことが理解されるべきである。むしろ、特有の特色及び行為は、特許請求の範囲を実施する例示的な形式として開示される。

Claims (17)

  1. コンピュータによって実装される方法であって、
    実行可能命令で構成された1つ以上のコンピューティングシステムの制御下で、
    (a)検索呼び出しを受信する工程と、
    (b)表示情報の上に視覚的に位置決めされる動的検索コントロールを提示する工程と、
    (c)前記表示情報の画像を入手し、前記画像をメモリに記憶する工程と、
    (d)前記動的検索コントロールの位置に対応する位置情報を決定する工程と、
    (e)前記動的検索コントロールの前記位置情報に対応する前記記憶された画像から画像セグメントを生成する工程と、
    (f)前記画像セグメントに表される第1のオブジェクトを決定するために前記画像セグメントを処理する工程と、
    (g)複数の追加画像のそれぞれが前記第1のオブジェクトに視覚的に類似する追加のオブジェクトの表現を含む、前記複数の追加画像を決定する工程と、
    (h)複数のキーワードのそれぞれが前記複数の追加画像の少なくとも1つと関連付けられた、前記複数のキーワードを決定する工程と、
    (i)前記複数の追加画像の少なくとも一部分を提示する工程、を含み、
    前記動的検索コントロールが位置決めし直しされたと決定することに応じて、前記(d)工程から前記(i)工程を繰り返し、
    前記動的検索コントロールが位置決めし直しされていないと決定することに応じて、前記複数のキーワードを提示する、前記コンピュータによって実装される方法。
  2. 前記複数の追加画像の前記少なくとも一部分を提示する前に、前記複数の追加画像の前記提示された少なくとも一部分が最高のランク付けされた画像に対応するように、前記画像セグメントとの類似性に基づいて前記複数の追加画像をランク付けする工程と、
    前記複数のキーワードの前記少なくとも一部分を提示する前に、前記複数のキーワードの前記提示された少なくとも一部分が前記最高の頻度を有するキーワードに対応するように、各キーワードの前記複数の追加画像との関連付けの頻度に基づいて前記複数のキーワードをランク付けする工程と、
    をさらに含む、請求項1に記載のコンピュータによって実装される方法。
  3. キーワードの選択を受信することと、
    前記キーワードに基づいて前記複数の追加画像を再ランク付けする工程と、
    前記複数の追加画像の再ランク付けされた部分が前記キーワードとの関連付けを有する、前記複数の追加画像の前記再ランク付けされた部分を提示する工程と、
    をさらに含む、請求項1または請求項2に記載のコンピュータによって実装される方法。
  4. 前記複数の追加画像の前記提示された少なくとも一部分から画像の選択を受信する工程と、
    前記画像に関して開始されてよい複数のアクションを提示する工程と、
    前記複数のアクションの内のアクションの選択を受信する工程と、
    前記アクションの開始を生じさせる工程と、
    をさらに含む、請求項1から請求項3のいずれかに記載のコンピュータによって実装される方法。
  5. 非一過性コンピュータ可読記憶媒体であって、
    プロセッサによる実行時に、前記プロセッサに少なくとも、
    (a) 動的検索コントロールが表示情報に関して視覚的に区別可能であり、
    前記動的検索コントロールが前記表示情報のすべてに満たない情報を包囲し、
    前記動的検索コントロールが前記表示情報の任意の部分に位置決めされ得るように、前記表示情報の上に、前記動的検索コントロールを視覚的に提示させ、
    (b)前記表示情報に関して前記動的検索コントロールの位置を決定させ、
    (c)前記動的検索コントロールによって包囲される前記表示情報の一部分に対応する前記表示情報の画像セグメントを決定させ、
    (d)前記画像セグメントに表される第1のオブジェクトを決定するために前記画像セグメントを処理させ、
    (e)複数の追加画像のそれぞれが前記第1のオブジェクトに視覚的に類似する追加のオブジェクトの表現を含む、前記複数の追加画像を決定させ、
    (f)前記複数の追加画像に基づいて、前記複数の追加画像の少なくとも1つと関連付けられた複数のキーワードを決定させ、
    (g) 前記複数の追加画像の少なくとも一部分を提示させ、
    前記動的検索コントロールが位置決めし直しされたと決定することに応じて、前記(b)から前記(g)を繰り返し、
    前記動的検索コントロールが位置決めし直しされていないと決定することに応じて、前記複数のキーワードを提示させ
    命令を記憶する、前記非一過性コンピュータ可読記憶媒体。
  6. 前記追加のオブジェクトが、前記第1のオブジェクトの形状、サイズ、色、またはブランドに基づいて視覚的に類似すると判断される、請求項5に記載の非一過性コンピュータ可読記憶媒体。
  7. 前記動的検索コントロールの形状が実質的に円形であり、
    前記実質的に円形の形状の半径が調整可能である、
    請求項5または請求項6に記載の非一過性コンピュータ可読記憶媒体。
  8. 前記動的検索コントロールが、前記動的検索コントロールの中に包囲されていない前記表示情報を少なくとも部分的に難読化することによって前記表示情報に関して視覚的に区別可能である、
    請求項5から請求項7のいずれかに記載の非一過性コンピュータ可読記憶媒体。
  9. 前記動的検索コントロールの前記位置が、前記表示情報に関して水平位置、前記表示情報に関して垂直位置、高さ、及び幅を含む、請求項5から請求項8のいずれかに記載の非一過性コンピュータ可読記憶媒体。
  10. 前記命令が、前記プロセッサによる実行時に、前記プロセッサにさらに少なくとも、
    前記表示情報の画像を入手させ、
    前記画像をメモリに記憶させる、
    請求項5または請求項9のいずれかに記載の非一過性コンピュータ可読記憶媒体。
  11. 前記画像セグメントが前記表示情報の前記記憶された画像から入手され、
    前記画像セグメントが、前記記憶された画像に表されるように前記表示情報に関して前記動的検索コントロールの前記位置に対応する、
    請求項10に記載の非一過性コンピュータ可読記憶媒体。
  12. 前記画像セグメントが前記記憶された画像全体に満たない、請求項11に記載の非一過性コンピュータ可読記憶媒体。
  13. コンピューティングシステムであって、
    プロセッサと、
    前記プロセッサに結合され、前記プロセッサによる実行時に、前記プロセッサに少なくとも、
    (a)動的検索コントロールを提示する要求を受信させ、
    (b)前記要求を受信することに応えて、前記動的検索コントロールが表示情報から視覚的に区別可能であり、前記表示情報のすべてに満たない情報を包囲するように前記表示情報と同時に動的検索コントロールを視覚的に提示させ、
    (c)前記動的検索コントロールに対応する位置入力またはサイズ入力の少なくとも1つを受信させ、
    (d)前記位置入力または前記サイズ入力の前記受信された少なくとも1つに従って前記動的検索コントロールの前記視覚的な提示を調整させ、
    (e)前記表示情報の画像を入手及び記憶させ、
    (f)前記動的検索コントロールの前記視覚的な提示が調整された後に、前記動的検索コントロールの位置及びサイズに対応する前記記憶された画像の一部分を前記記憶された画像から画像セグメントとして分割させ、
    (g)前記記憶された画像から前記画像セグメントをリモートコンピューティングリソースに送信させ、
    (h)前記リモートコンピューティングリソースから、前記記憶された画像からの前記画像セグメントに表されるオブジェクトに視覚的に類似する複数のランク付けされた追加画像を受信させ、
    (i)前記複数の追加画像に基づいて、前記複数の追加画像の少なくとも1つと関連付けられた複数のキーワードを決定させ、
    (j)前記複数のランク付けされた追加画像の少なくとも一部を提示させ、
    前記動的検索コントロールが位置決めし直しされたと決定することに応じて、前記(c)から前記(j)を繰り返し、
    前記動的検索コントロールが位置決めし直しされていないと決定することに応じて、前記複数のキーワードを提示させ
    プログラム命令を記憶するメモリと、
    を備える、前記コンピューティングシステム。
  14. 前記プログラム命令が、前記プロセッサによる実行時に、前記プロセッサにさらに少なくとも
    前記複数のキーワードの前記提示された少なくとも一部分からキーワードの選択を受信させ、
    前記選択されたキーワードを前記リモートコンピューティングリソースに送信させ、
    前記複数の追加画像の第2のランク付けを受信させ、
    前記第2のランク付けに従って前記複数の追加画像の少なくとも一部を提示させる、
    請求項13に記載のコンピューティングシステム。
  15. 前記プログラム命令が、前記プロセッサによる実行時に、前記プロセッサにさらに少なくとも
    前記複数の追加画像の前記提示された少なくとも一部の画像の選択を受信させ、
    前記選択された画像に関して開始されてよい複数のアクションを提示させ、
    前記複数のアクションからアクションの選択を受信させ、
    前記アクションを開始させる
    請求項13又は請求項14のいずれかに記載のコンピューティングシステム。
  16. 前記複数のアクションが、前記画像を共有するアクション、前記画像に表されるオブジェクトを購入するアクション、前記画像を記憶するアクション、または前記画像を送信するアクションの少なくとも2つを含む、請求項15に記載のコンピューティングシステム。
  17. 前記表示情報が、ウェブページ、電子メール、ビデオ、画像、またはコンピューティングプログラムによって生成される提示を含む、ユーザーに提示される任意の視覚的な情報であってよい、請求項13から請求項16のいずれかに記載のコンピューティングシステム。
JP2018536705A 2015-10-05 2016-10-03 動的検索入力選択 Active JP6895978B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/875,010 US11609946B2 (en) 2015-10-05 2015-10-05 Dynamic search input selection
US14/875,010 2015-10-05
PCT/US2016/055212 WO2017062317A1 (en) 2015-10-05 2016-10-03 Dynamic search input selection

Publications (2)

Publication Number Publication Date
JP2018536248A JP2018536248A (ja) 2018-12-06
JP6895978B2 true JP6895978B2 (ja) 2021-06-30

Family

ID=58447920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018536705A Active JP6895978B2 (ja) 2015-10-05 2016-10-03 動的検索入力選択

Country Status (5)

Country Link
US (2) US11609946B2 (ja)
EP (1) EP3360062A4 (ja)
JP (1) JP6895978B2 (ja)
CA (1) CA3000966C (ja)
WO (1) WO2017062317A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10380204B1 (en) 2014-02-12 2019-08-13 Pinterest, Inc. Visual search
US11055343B2 (en) 2015-10-05 2021-07-06 Pinterest, Inc. Dynamic search control invocation and visual search
US11609946B2 (en) 2015-10-05 2023-03-21 Pinterest, Inc. Dynamic search input selection
US11841735B2 (en) 2017-09-22 2023-12-12 Pinterest, Inc. Object based image search
US11126653B2 (en) * 2017-09-22 2021-09-21 Pinterest, Inc. Mixed type image based search results
US10942966B2 (en) 2017-09-22 2021-03-09 Pinterest, Inc. Textual and image based search
US11373403B2 (en) * 2020-05-26 2022-06-28 Pinterest, Inc. Object-to-object visual graph
US11829445B1 (en) * 2021-03-08 2023-11-28 Amazon Technologies, Inc. Attribute-based content selection and search

Family Cites Families (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3280881A (en) 1966-01-04 1966-10-25 Harris Calorific Co Torch with an electric igniter
US5579471A (en) 1992-11-09 1996-11-26 International Business Machines Corporation Image query system and method
US5596690A (en) 1993-07-21 1997-01-21 Xerox Corporation Method and apparatus for operating on an object-based model data structure to produce a second image in the spatial context of a first image
JPH07131653A (ja) 1993-11-02 1995-05-19 Fujitsu Ltd 画像階調圧縮表示回路
GB9726654D0 (en) 1997-12-17 1998-02-18 British Telecomm Data input and retrieval apparatus
US7117519B1 (en) 2000-07-26 2006-10-03 Fotomedia Technologies Llc Method and system for selecting actions to be taken by a server when uploading images
US6748398B2 (en) 2001-03-30 2004-06-08 Microsoft Corporation Relevance maximizing, iteration minimizing, relevance-feedback, content-based image retrieval (CBIR)
US7031499B2 (en) 2002-07-22 2006-04-18 Mitsubishi Electric Research Laboratories, Inc. Object recognition system
CA2495046A1 (en) 2002-08-09 2004-02-19 Universite De Sherbrooke Content-based image retrieval method
CA2397424A1 (en) 2002-08-09 2004-02-09 Mohammed Lamine Kherfi Content-based image retrieval using positive and negative examples
US7657059B2 (en) 2003-08-08 2010-02-02 Lockheed Martin Corporation Method and apparatus for tracking an object
JP2005250797A (ja) 2004-03-03 2005-09-15 Ricoh Co Ltd 画像売買システム
US20050225678A1 (en) 2004-04-08 2005-10-13 Andrew Zisserman Object retrieval
US7590310B2 (en) 2004-05-05 2009-09-15 Facet Technology Corp. Methods and apparatus for automated true object-based image analysis and retrieval
US7440586B2 (en) 2004-07-23 2008-10-21 Mitsubishi Electric Research Laboratories, Inc. Object classification using image segmentation
US20160070809A1 (en) 2005-04-08 2016-03-10 Marshall Feature Recognition Llc System and method for accessing electronic data via an image search engine
US7809192B2 (en) 2005-05-09 2010-10-05 Like.Com System and method for recognizing objects from images and identifying relevancy amongst images and information
US7945099B2 (en) * 2005-05-09 2011-05-17 Like.Com System and method for use of images with recognition analysis
US8732025B2 (en) 2005-05-09 2014-05-20 Google Inc. System and method for enabling image recognition and searching of remote content on display
WO2007038612A2 (en) 2005-09-26 2007-04-05 Cognisign, Llc Apparatus and method for processing user-specified search image points
CN1955907A (zh) 2005-10-27 2007-05-02 Ge医疗系统环球技术有限公司 诊断成像辅助方法和设备
US7711145B2 (en) 2006-01-27 2010-05-04 Eastman Kodak Company Finding images with multiple people or objects
US8024343B2 (en) 2006-04-07 2011-09-20 Eastman Kodak Company Identifying unique objects in multiple image collections
TWI403912B (zh) 2006-06-08 2013-08-01 Univ Nat Chiao Tung 圖像檢索之方法及系統
US7840076B2 (en) 2006-11-22 2010-11-23 Intel Corporation Methods and apparatus for retrieving images from a large collection of images
CN103020106B (zh) 2007-01-24 2016-05-18 谷歌公司 混合移动搜索结果
US7898576B2 (en) 2007-02-28 2011-03-01 Honeywell International Inc. Method and system for indexing and searching objects of interest across a plurality of video streams
US8861898B2 (en) 2007-03-16 2014-10-14 Sony Corporation Content image search
US9143573B2 (en) * 2008-03-20 2015-09-22 Facebook, Inc. Tag suggestions for images on online social networks
US8190604B2 (en) 2008-04-03 2012-05-29 Microsoft Corporation User intention modeling for interactive image retrieval
EP2272014A2 (en) * 2008-04-29 2011-01-12 LTU Technologies S.A.S. Method for generating a representation of image content using image search and retrieval criteria
US20090319388A1 (en) 2008-06-20 2009-12-24 Jian Yuan Image Capture for Purchases
US8489627B1 (en) 2008-08-28 2013-07-16 Adobe Systems Incorporated Combined semantic description and visual attribute search
US8239359B2 (en) 2008-09-23 2012-08-07 Disney Enterprises, Inc. System and method for visual search in a video media player
US20100106732A1 (en) 2008-10-29 2010-04-29 Microsoft Corporation Identifying Visually Similar Objects
US9477649B1 (en) 2009-01-05 2016-10-25 Perceptive Pixel, Inc. Multi-layer telestration on a multi-touch display device
US8407267B2 (en) 2009-02-06 2013-03-26 Siemens Aktiengesellschaft Apparatus, method, system and computer-readable medium for storing and managing image data
US8452794B2 (en) 2009-02-11 2013-05-28 Microsoft Corporation Visual and textual query suggestion
US8175376B2 (en) 2009-03-09 2012-05-08 Xerox Corporation Framework for image thumbnailing based on visual similarity
JP2010250426A (ja) 2009-04-13 2010-11-04 Seiko Epson Corp 画像処理装置および印刷装置
US8723988B2 (en) 2009-07-17 2014-05-13 Sony Corporation Using a touch sensitive display to control magnification and capture of digital images by an electronic device
US9384214B2 (en) 2009-07-31 2016-07-05 Yahoo! Inc. Image similarity from disparate sources
US9135277B2 (en) * 2009-08-07 2015-09-15 Google Inc. Architecture for responding to a visual query
US8352465B1 (en) * 2009-09-03 2013-01-08 Google Inc. Grouping of image search results
EP3660813A1 (en) 2009-10-07 2020-06-03 iOnRoad Technologies Ltd. Automatic content analysis method and system
US20110128288A1 (en) 2009-12-02 2011-06-02 David Petrou Region of Interest Selector for Visual Queries
US8429168B1 (en) 2009-12-15 2013-04-23 Google Inc. Learning semantic image similarity
US8185526B2 (en) * 2010-01-21 2012-05-22 Microsoft Corporation Dynamic keyword suggestion and image-search re-ranking
US8775424B2 (en) 2010-01-26 2014-07-08 Xerox Corporation System for creative image navigation and exploration
US8774526B2 (en) 2010-02-08 2014-07-08 Microsoft Corporation Intelligent image search results summarization and browsing
US20110202543A1 (en) 2010-02-16 2011-08-18 Imprezzeo Pty Limited Optimising content based image retrieval
US9223529B1 (en) 2010-03-26 2015-12-29 Open Invention Network, Llc Method and apparatus of processing information in an environment with multiple devices and limited resources
US9043296B2 (en) 2010-07-30 2015-05-26 Microsoft Technology Licensing, Llc System of providing suggestions based on accessible and contextual information
EP2420941A1 (en) 2010-08-20 2012-02-22 Deutsche Telekom AG System and method for providing object-related information
US8412594B2 (en) 2010-08-28 2013-04-02 Ebay Inc. Multilevel silhouettes in an online shopping environment
US8494983B2 (en) 2010-11-16 2013-07-23 Microsoft Corporation Object-sensitive image search
US9043316B1 (en) 2011-03-28 2015-05-26 Google Inc. Visual content retrieval
US9235566B2 (en) * 2011-03-30 2016-01-12 Thinkmap, Inc. System and method for enhanced lookup in an online dictionary
US8553981B2 (en) 2011-05-17 2013-10-08 Microsoft Corporation Gesture-based visual search
US8909563B1 (en) 2011-06-17 2014-12-09 Google Inc. Methods, systems, and programming for annotating an image including scoring using a plurality of trained classifiers corresponding to a plurality of clustered image groups associated with a set of weighted labels
JP5107453B1 (ja) 2011-08-11 2012-12-26 シャープ株式会社 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体
US20150170333A1 (en) * 2011-08-31 2015-06-18 Google Inc. Grouping And Presenting Images
US8533204B2 (en) 2011-09-02 2013-09-10 Xerox Corporation Text-based searching of image data
US8805116B2 (en) 2011-09-17 2014-08-12 Adobe Systems Incorporated Methods and apparatus for visual search
US9734167B2 (en) * 2011-09-21 2017-08-15 Horsetooth Ventures, LLC Interactive image display and selection system
US8589410B2 (en) 2011-10-18 2013-11-19 Microsoft Corporation Visual search using multiple visual input modalities
US20140250110A1 (en) 2011-11-25 2014-09-04 Linjun Yang Image attractiveness based indexing and searching
US8891907B2 (en) 2011-12-06 2014-11-18 Google Inc. System and method of identifying visual objects
US9443314B1 (en) 2012-03-29 2016-09-13 Google Inc. Hierarchical conditional random field model for labeling and segmenting images
US9898742B2 (en) * 2012-08-03 2018-02-20 Ebay Inc. Virtual dressing room
US8935246B2 (en) 2012-08-08 2015-01-13 Google Inc. Identifying textual terms in response to a visual query
US20140129370A1 (en) * 2012-09-14 2014-05-08 James L. Mabrey Chroma Key System and Method for Facilitating Social E-Commerce
US9087078B2 (en) * 2012-09-25 2015-07-21 Adobe Systems Incorporated Single user interface for selecting, modifying, and querying images
US20140095479A1 (en) 2012-09-28 2014-04-03 Sherry S. Chang Device, method, and system for recipe recommendation and recipe ingredient management
US9582156B2 (en) * 2012-11-02 2017-02-28 Amazon Technologies, Inc. Electronic publishing mechanisms
WO2014107193A1 (en) 2013-01-03 2014-07-10 Board Of Regents, The University Of Texas System Efficiently identifying images, videos, songs or documents most relevant to the user based on attribute feedback
JP5539555B2 (ja) 2013-02-07 2014-07-02 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN105027162B (zh) 2013-02-27 2018-02-02 株式会社日立制作所 图像解析装置、图像解析系统、图像解析方法
US9098741B1 (en) 2013-03-15 2015-08-04 Google Inc. Discriminitive learning for object detection
US9904949B1 (en) 2013-06-21 2018-02-27 Amazon Technologies, Inc. Product recommendations
US9445713B2 (en) * 2013-09-05 2016-09-20 Cellscope, Inc. Apparatuses and methods for mobile imaging and analysis
US10515110B2 (en) 2013-11-12 2019-12-24 Pinterest, Inc. Image based search
JP6158690B2 (ja) 2013-11-15 2017-07-05 株式会社 日立産業制御ソリューションズ 画像表示装置
US20150142787A1 (en) 2013-11-19 2015-05-21 Kurt L. Kimmerling Method and system for search refinement
US9773274B2 (en) * 2013-12-02 2017-09-26 Scott William Curry System and method for online virtual fitting room
US9846708B2 (en) 2013-12-20 2017-12-19 International Business Machines Corporation Searching of images based upon visual similarity
JP2015143951A (ja) 2014-01-31 2015-08-06 オムロン株式会社 物体判別装置、画像センサ、物体判別方法
US20150248429A1 (en) 2014-02-28 2015-09-03 Microsoft Corporation Generation of visual representations for electronic content items
US9311340B2 (en) * 2014-04-15 2016-04-12 International Business Machines Corporation Multiple partial-image compositional searching
US10409822B2 (en) * 2014-05-06 2019-09-10 Shutterstock, Inc. Systems and methods for presenting ranked search results
US9990433B2 (en) 2014-05-23 2018-06-05 Samsung Electronics Co., Ltd. Method for searching and device thereof
WO2016004330A1 (en) 2014-07-03 2016-01-07 Oim Squared Inc. Interactive content generation
US10262060B1 (en) 2014-07-07 2019-04-16 Clarifai, Inc. Systems and methods for facilitating searching, labeling, and/or filtering of digital media items
US20160225053A1 (en) 2015-01-29 2016-08-04 Clear Research Corporation Mobile visual commerce system
US9798949B1 (en) * 2015-03-19 2017-10-24 A9.Com, Inc. Region selection for image match
US10082941B2 (en) 2015-05-20 2018-09-25 Vmware, Inc. Optimizing window move actions for remoted applications
US10789525B2 (en) * 2015-10-02 2020-09-29 Adobe Inc. Modifying at least one attribute of an image with at least one attribute extracted from another image
US11609946B2 (en) 2015-10-05 2023-03-21 Pinterest, Inc. Dynamic search input selection
US10616199B2 (en) 2015-12-01 2020-04-07 Integem, Inc. Methods and systems for personalized, interactive and intelligent searches
RU2632143C1 (ru) 2016-04-11 2017-10-02 Общество С Ограниченной Ответственностью "Яндекс" Способ обучения модуля ранжирования с использованием обучающей выборки с зашумленными ярлыками
US10540378B1 (en) 2016-06-28 2020-01-21 A9.Com, Inc. Visual search suggestions
US10043109B1 (en) 2017-01-23 2018-08-07 A9.Com, Inc. Attribute similarity-based search
US10824942B1 (en) 2017-04-10 2020-11-03 A9.Com, Inc. Visual similarity and attribute manipulation using deep neural networks

Also Published As

Publication number Publication date
US11609946B2 (en) 2023-03-21
EP3360062A1 (en) 2018-08-15
US20230229695A1 (en) 2023-07-20
CA3000966C (en) 2024-04-16
US20170097945A1 (en) 2017-04-06
WO2017062317A1 (en) 2017-04-13
JP2018536248A (ja) 2018-12-06
CA3000966A1 (en) 2017-04-13
EP3360062A4 (en) 2019-05-15

Similar Documents

Publication Publication Date Title
JP6895978B2 (ja) 動的検索入力選択
US11543958B2 (en) Control of search results with multipoint pinch gestures
US20210382934A1 (en) Dynamic search control invocation and visual search
TWI522893B (zh) 用於顯示基於行爲的使用者介面之版面配置(build)之方法、系統、電子裝置及電腦程式產品
US10444979B2 (en) Gesture-based search
US9443017B2 (en) System and method for displaying search results
US20120197857A1 (en) Gesture-based search
US20150378600A1 (en) Context menu utilizing a context indicator and floating menu bar
US10788980B2 (en) Apparatus and method for displaying application
US10402470B2 (en) Effecting multi-step operations in an application in response to direct manipulation of a selected object
US11625160B2 (en) Content navigation method and user interface
KR20160131103A (ko) 메타데이터 기반 사진 및/또는 비디오 애니메이션화
US20160063074A1 (en) Transition from first search results environment to second search results environment
US20170168683A1 (en) Enhanced graphical display controls for user interface
WO2013040761A1 (en) Gesture based search
US20150074596A1 (en) Techniques to display location-based information
US20130325832A1 (en) Presenting search results with concurrently viewable targets
US20230123345A1 (en) Overflow application tool for computing devices
CN117099095A (zh) 图像缩放区的智能建议

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201202

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20201202

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20201202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210608

R150 Certificate of patent or registration of utility model

Ref document number: 6895978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250