JP2014503914A - 生成された画像中に含まれるオブジェクトの収集をサポートするための方法、端末およびコンピュータ可読記録媒体 - Google Patents

生成された画像中に含まれるオブジェクトの収集をサポートするための方法、端末およびコンピュータ可読記録媒体 Download PDF

Info

Publication number
JP2014503914A
JP2014503914A JP2013548346A JP2013548346A JP2014503914A JP 2014503914 A JP2014503914 A JP 2014503914A JP 2013548346 A JP2013548346 A JP 2013548346A JP 2013548346 A JP2013548346 A JP 2013548346A JP 2014503914 A JP2014503914 A JP 2014503914A
Authority
JP
Japan
Prior art keywords
image
information
collection
generated
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013548346A
Other languages
English (en)
Other versions
JP5642890B2 (ja
Inventor
ナ リュ,ハ
Original Assignee
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2014503914A publication Critical patent/JP2014503914A/ja
Application granted granted Critical
Publication of JP5642890B2 publication Critical patent/JP5642890B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/40Data acquisition and logging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/268Lexical context
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Algebra (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明のある側面によれば、生成された画像に含まれるオブジェクトの収集をサポートする方法であって:(a)あるオブジェクトの画像を動作させるよう端末が使用される段階と;(b)前記オブジェクトの性質についての認識情報、前記画像が生成された場所についての認識情報または前記画像が生成された時間についての認識情報が使用されて、適用可能な言語の文法に従うよう組み合わされた文を自動的に生成して端末の画面の第一の領域上で提供し、認識されたオブジェクトに対応するサムネイルが自動的に取得されて端末の画面の第二の領域上に表示される、段階と;(c)オブジェクトについての収集を実行するよう、第一の領域および第二の領域上に提供されるデータが記憶される段階とを含む、方法が提供される。

Description

本発明は、生成された画像中に含まれるオブジェクトの収集をサポートするための方法、端末およびコンピュータ可読記録媒体に関する。より詳細には、本発明は、画像中に含まれるオブジェクトに対する複数のユーザーの経験をサポートし、その情報が非常に簡単に生成され、非常に効果的に共有されるようにするための方法、端末およびコンピュータ可読記録媒体に関する。それは、前記オブジェクトを認識し、前記オブジェクトの素性が何であるか、前記画像が生成された場所および前記画像が生成された時間についての認識情報からの少なくとも一つを使って前記オブジェクトについての自動コメントとしてある言語で文法的に組み合わされた文を生成して端末の画面の第一の領域に提供し、認識されたオブジェクトに対応するサムネイルを自動的に取得して端末画面の第二の領域上に表示し、収集ボタン上の選択情報が入力されたら、前記オブジェクトの収集を実行するよう第一および第二の領域上に表示されるデータを記憶スペースに記憶することによる。
近年、インターネットの広範な使用のため、かつて書籍のような印刷された素材の形で提供された情報をデジタル形式に変換したものを提供することが一般的な慣行となった。デジタル・データに変換された情報は、インターネットおよび3Gネットワークもしくは他の高速通信システムのおかげで、多くのユーザーによってリアルタイムで共有され、送達されうるので、情報共有および送達の立場からは比較的欠点をもつ印刷素材に比べて、広く使用される。
特に、ユーザー端末によってリアルタイムで撮影された入力画像上に組み合わされたコンピュータ・グラフィック(CG)、テキストなどを含む補足情報を表示する拡張現実感(AR: augmented reality)のための方法を通じていくつかの情報形を提供する技術が最近導入された。拡張現実感技術によれば、該技術は、ユーザーが見る現実世界が表示される画面上で視覚的に互いに重なっていてもよい必要とされる情報を提供しうるので、ユーザーにとってのよりよい環境を提供しうる。
他方、上記の拡張現実感を使っていくつかの情報源が提供され、共有されるとき、実際には、ユーザー端末によって撮影されたまたは入力された画像上に含まれるすべてのオブジェクトについての情報を判別し、該情報を効果的に記憶することは難しい。たとえユーザーが比較的関心(または重要性)の高いオブジェクトについての情報だけを異なる仕方で記憶したいとしても、該情報を系統的に記録し、記憶することはきわめてわずらわしい。したがって、ユーザーのより積極的な参加を引き出すにはある程度の限界があることが確かである。
上記の問題のすべてを解決することが本発明の目的である。
事前設定画像に含まれる、素性、位置および時間のような情報を使うことによってオブジェクトの自動コメントを完成させ、前記オブジェクトに対応する画像サムネイルなどを含むデータを自動的に取得し、完成させ、表示し、これが系統的に記憶されることを簡単なボタン操作だけで許容することが本発明のもう一つの目的である。それにより、ユーザーのまわりの多数のオブジェクトについてのさまざまな情報を一つ一つ編集するというわずらわしい操作なしに、データが情報が便利かつ迅速に記憶されうる。
生成された画像に含まれるさまざまなオブジェクトについての収集された情報に基づいて、ユーザーが他のユーザーの収集についての情報を共有することを許容することが本発明のさらにもう一つの目的である。それによりそのユーザーは、そのユーザーの選好に適切な情報を与えられる。
下記は、上記目的を達成するための本発明の代表的な構成を記述する。
本発明のある側面によれば、生成された画像に含まれるオブジェクトの収集をサポートする方法であって、(a)オブジェクトの画像を動作させるよう端末が使用される段階と;(b)ひとたび前記画像が生成されたら、前記画像に含まれるオブジェクトの収集を実行することをサポートするために、前記オブジェクトの素性についての認識情報、前記画像が生成された場所についての認識情報および前記画像が生成された時間についての認識情報のうち少なくとも一つが使用されて、前記オブジェクトについての自動コメントとしてある言語の文法のもとで正しい組み合わされた文を生成して端末の画面の第一の領域上で提供し、認識されたオブジェクトに対応するサムネイルが自動的に取得されて端末の画面の第二の領域上に表示される、段階と;(c)ひとたび収集実行ボタン上の選択情報が入力されたら、前記オブジェクトについての収集を実行するよう、第一の領域および第二の領域上に提供されるデータが記憶スペースに提供されることが許容される段階とを含む方法が提供される。
本発明のもう一つの側面によれば、生成された画像に含まれるオブジェクトの収集をサポートするための端末であって、オブジェクトの画像を生成する画像撮影部と;ひとたび画像が生成されたら、画像に含まれるオブジェクトの収集を実行するためにサポートするために、前記オブジェクトの素性についての認識情報、前記画像が生成された場所についての認識情報および前記画像が生成された時間についての認識情報からの少なくとも一つが、前記オブジェクトについての自動コメントとしてある言語の文法のもとで正しい組み合わされた文を生成して画面の第一の領域上で提供するために、使用される、自動コメント生成部と;ひとたび画像が画像撮影部によって生成されたら、画像に含まれるオブジェクトの収集を実行するためにサポートするために、認識されたオブジェクトに対応するサムネイルを自動的に取得して画面の第二の領域上に表示する対応画像選択部と;ひとたび収集実行ボタン上の選択情報が入力されたら、オブジェクトについての収集を実行するよう、第一の領域および第二の領域上で提供されるべきデータが記憶スペース上に提供されることを許容する収集実行部とを有する端末が提供される。
加えて、本発明を実装するための別の方法およびシステムならびに前記方法を実行するためのコンピュータ・プログラムを記録するための他のコンピュータ可読記録媒体がさらに提供される。
本発明によれば、生成された画像に含まれるオブジェクトの素性、画像が生成された時間と場所などを含む情報が、適用可能な年代の文法に従った文の形で自動的に完成するために使用され、適用可能なオブジェクトに対応するサムネイル画像が自動的に表示される。それにより、ユーザーは、非常に簡単かつ効率的に、一つずつ編集するという面倒なしに、ユーザーによって所望されるオブジェクトについての収集を実行しうる。
加えて、本発明によれば、ユーザーは、自分のまわりに散乱している多数のオブジェクトについての収集を非常に簡単に実行しうる。より具体的には、自分のまわりに存在するオブジェクトについて写真撮影ボタンを押し、次いで収集登録ボタンを今一度押すことによって(つまり、たった二回のボタン選択によって)そのオブジェクトについての情報の収集を系統的に実行しうる。これは、オブジェクトについての情報の収集を系統的に実行することを可能にするために自動的に提供される自動コメントおよび自動画像に基づく。これは、ユーザーの積極的な参加につながる。
さらに、本発明によれば、特定のオブジェクトについての収集は非常に簡単に実行されることができるので、収集情報の爆発的な増大を通じて、多くのユーザーの間での関係情報がより正確に取得される。それにより、真のソーシャル・ネットワークが形成されうる。
本発明のある実施例に基づく端末の内部構成を例示的に表すブロック図である。 本発明のある実施例におけるオブジェクトに含まれる画像を取得するプロセスを記述する図である。 本発明のある実施例における自動コメントおよびサムネイル画像を表示するプロセスを記述する図である。 本発明のある実施例におけるオブジェクトについての収集を実行するプロセスを記述する図である。 本発明のある実施例における収集されたオブジェクトを管理するプロセスを記述する図である。 本発明のある実施例におけるオブジェクトの自動コメントを編集するプロセスを記述する図である。 本発明のある実施例におけるオブジェクトのサムネイルを編集するプロセスを記述する図である。
以下の本発明の詳細な記述では、付属の図面が参照される。図面は本発明が実施されうる例として個別的な実施例を示す。これらの実施例は、当業者が本発明を実施できるようにするのに十分な詳細さで記述される。本発明のさまざまな実施例は、異なる実施例ではあっても、必ずしも互いに排反ではないことを理解しておくものとする。たとえば、本稿においてある実施例との関連で記述される特定の特徴、構造または特性は、本発明の精神および範囲から外れることなく、他の実施例において実装されてもよい。加えて、開示される各実施例内での個々の要素の位置または配置は、本発明の精神および範囲から外れることなく修正されてもよいことは理解しておくものとする。したがって、以下の詳細な記述は、限定する意味で解釈されるものではなく、本発明の範囲は、適切に解釈される場合の付属の請求項および請求項が請求する等価物全体の範囲によってのみ定義される。図面においては、同様の参照符号は、各側面を通じて同じまたは同様の機能を指す。
下記は、本発明が属する技術分野における通常の知識を有する者が本発明を容易に実施できるよう、本発明の好ましい実施例を参照することによって本発明を詳細に記述する。
本明細書では、収集は、画像に含まれる、型、属性などを含むオブジェクトの素性についての情報および該当オブジェクトを含む画像を撮影する時間と場所についての情報のうちの少なくとも一つを使うことによって作られる自動コメントならびに該当オブジェクトに対応するサムネイルをデータとして収集し、記憶する一連のプロセスを指すものと定義されうる。たとえば、映画ポスターが入力画像に含まれる場合、該当ポスターを収集のターゲット・オブジェクトとして認識し、該ポスターに対応する映画についての情報(その梗概、監督および主演俳優・女優情報を含む)およびそのポスターを含む画像がデータとして撮影された時間と場所についての情報から、ある言語の文法のもとで正しい組み合わされた文についての情報を収集して記憶する一連のプロセスが、映画ポスターについての収集に該当する。
図1は、本発明のある実施例に基づく端末の内部構成を例示的に表すブロック図である。
図1に示されるように、本発明のある実施例に基づく端末(100)は、画像撮影部(110)と、自動コメント生成部(120)と、対応画像選択部(130)と、収集実行部(140)と、通信部(150)と、データベース(160)と、制御部(170)とを含んでいてもよい。
画像撮影部(110)は、画像を生成するよう外部から入力された像を受けるカメラを含んでいてもよい。さらに、画像撮影部(110)は、画像に含まれる、収集のターゲットとなるべきオブジェクトがあるかどうかを判定してもよい。
収集のターゲットとなるべきオブジェクトが撮影された画像中に含まれていると判定される場合、自動コメント生成部(120)がそのオブジェクトについての情報を収集し、自動的に自動コメントを完成させる。実施例として、完成された自動コメントは、オブジェクトの型、名前、アプリケーションなどを含むオブジェクトの素性についての登録情報、そのオブジェクトをもつ画像が撮影された場所についての情報、撮影された時間についての認識情報などを含む。
さらに、収集のターゲットとなるべきオブジェクトが撮影された画像に含まれていると判定される場合、対応画像選択部(130)は、そのオブジェクトに対応するサムネイル画像を選択してもよい。そのための詳細な方法はのちに述べる。選択されたサムネイル画像は、自動コメント生成部(120)によって完成された自動コメントとともに、端末(100)の画面上に自動的に表示されてもよい。
収集のターゲット・オブジェクトについて自動コメントおよびサムネイル画像が画面上で自動的に提供された状態で、ユーザーによって収集ボタンが押されたら、収集実行部(140)が、後述する自動コメントおよびサムネイル画像をデータベース(160)上に記憶することによって、オブジェクトの収集を完成させる。
他方、本発明のある実施例によれば、ソーシャル・ネットワーク・サービス(SNS)との関連で、特定のユーザーと、データベース(160)に記憶されているものと同じまたは同様であるオブジェクトを収集した他のユーザーとの間の関係についての情報を提供することも可能である。たとえば、収集されたオブジェクトの素性、該オブジェクトが属するカテゴリー、該オブジェクトが収集された場所、該オブジェクトが収集された時間などを参照することによって、特定のユーザーと同じまたは同様の選好をもつ他のユーザーについての情報を得て、前記特定のユーザーにこれを推薦するためのサービスを与えることが可能である。そのようなサービスを提供するために、端末(100)はさらに、別個の人間関係推定部(図示せず)のようなモジュールが備えられていてもよい。
図2は、本発明のある実施例においてオブジェクトに含まれる画像を得るプロセスを記述するための図である。
図2を参照するに、画像撮影部(110)によって撮影される画像(200)が端末(100)の画面上に表示されている。図2に示されるように、収集のための画像を撮影するための機能を提供するアイコン(220)が表示されており、ユーザーがそのアイコン(220)を選択する場合、画面上に表示されている画像(200)を撮影することが可能となる。
画像(200)が撮影され、記憶される場合、画像撮影部(110)は、収集のターゲットとなるべきオブジェクト(210)が画像(200)に含まれているか否かを判定する。オブジェクト(210)は、ユーザーによって直接選択させられても、あるいはオブジェクト認識技術、光学式文字認識技術またはバーコード認識技術によって画像(200)内で自動的に選択されてもよい。ユーザーは、ユーザーが収集したいオブジェクト(210)を画像(200)の中心近くに置きながら画像(200)を撮影するのがしばしばであり、一般的なので、図2に示されるように、画像(200)の中心のオブジェクト(210)が収集のターゲットであると認識されることを許容することが可能であってもよい。
他方、本実施例では、書籍がオブジェクト(210)、収集のターゲットとして認識される場合は、一実施例として記述されている。
図3は、本発明のある実施例における自動コメントおよびサムネイル画像を表示するプロセスを記述する図である。
図3を参照するに、収集のターゲットであるオブジェクト(210)のための収集をサポートするために、オブジェクト(210)の素性(すなわち、書籍の書名)についての認識情報、オブジェクト(210)を含む画像が生成された場所(すなわち、XX書店)についての認識情報および画像が生成された時間(すなわち、2010年10月20日)についての認識情報からの少なくとも一つを使って、ある言語の文法のもとで正しい組み合わされた文を、オブジェクト(210)についての自動コメントとして(すなわち、2010年10月20日の晩にxx書店にて『ジョブズのように夢見てゲイツのように実現せよ』を購入した)、自動的に生成し、画面(300)の第一の領域(320)上に表示するとともに、認識されたオブジェクト(210)に対応するサムネイルを自動的に取得し、端末(300)の第二の領域(330)上に表示してもよい。
この時点で、画面(300)上の領域(310)には、オブジェクト、収集のターゲットを識別することを可能にするオブジェクトの素性についての認識情報の一つである書籍の書名(すなわち、ジョブズのように夢見てゲイツのように実現せよ)が、領域(320)の内容の一部に重複して表示されてもよい。それは、オブジェクトの素性についての認識情報を表示するための領域と考えられてもよい。それはまた、領域(320)とともに前記第一の領域としても扱われる。すなわち、前記第一の領域は、領域(310)および領域(320)に分離されて構成されていてもよい。
他方、第二の領域(330)上で与えられるサムネイルは、生成された画像から直接取得されてもよく、または生成された画像に含まれるオブジェクトに対応する事前記憶された画像から間接的に取得されてもよい。生成された画像に含まれるオブジェクトは、オブジェクト認識技術、光学式文字認識技術またはバーコード認識技術からの少なくとも一つを使って認識されたものである。
上記のように、画面(300)の第一および第二の領域上に自動的に表示される書名(310)、自動コメント(320)、サムネイル(330)などを含む収集ページをデータベース(160)に記憶するためには、単に登録ボタン(340)が選択されるだけでよい。
他方、画像(200)内の収集のターゲットとしてのオブジェクトが誤って選択されている場合、ユーザーは画面(300)の上の取り消しボタンをタップして、前のページに戻ってもよい。
オブジェクトは正しく選択されたが、自動コメント(320)またはサムネイル(330)が誤って提供されているまたはコンテンツを追加する必要がある場合、ユーザーは、画面(300)上で該当データが表示されている領域(単数または複数)を選択して、自動コメント(320)またはサムネイル(330)を編集してもよい。詳細な説明は図6および図7を参照して下記で与える。
図4は、本発明のある実施例における、オブジェクトについての収集を実行するプロセスを記述するための図である。
ユーザーが、画面(300)上に表示される自動コメント(320)、サムネイル(330)などを含む収集ページのデータをチェックし、収集を実行するために登録ボタン(340)をタップする場合、ユーザーに収集ページのデータをデータベース(160)に記憶する過程を示すために、収集画像(350)が表示される。
記憶プロセスが完了したら、記憶プロセスが完了したことを知らせる表示(400)が現れる。表示(400)上で収集のためのターゲットとされるオブジェクトのサムネイル(330)に対応する画像(420)を表示することが可能である。上には、ユーザーに収集の完了を確認して別の画面に移ることを許容する変換ボタン(410)が表示される。
図5は、本発明のある実施例における収集されたオブジェクトを管理するプロセスを記述するための図である。
図5を参照するとき、特定のユーザーによって収集されたオブジェクトが、あたかも書籍(540)が本棚に表示されるかのように表示される「マイ・ルーム」、すなわち管理画面(500)が示される。このとき、もし複数のユーザーがデータベース(160)にアクセス可能であれば、各ユーザーが収集したオブジェクトのデータを各ユーザーが管理しうる仮想空間が各ユーザーに割り当てられてもよい。効率性およびデータへのアクセスしやすさのため、収集された情報はさらに、分離され、各ユーザーによって管理されてもよい。
本棚に表示される各書籍(540)の画像は収集された各オブジェクトに対応する。収集された各オブジェクトが図2に示されるような書籍である場合、書籍(540)の画像はその書籍の実際のカバーであってもよく、オブジェクトが映画であれば、映画のポスターなどが利用されてもよい。本棚の形で表示される管理画面(500)を見るために管理画面(500)上のコレクション・ボタン(510)がタップされてもよいし、あるいは収集を完了したユーザーのプロファイル、そのコレクションについての詳細な情報などをチェックするためにプロファイル・ボタン(520)がタップされてもよい。
図5に示されるように、管理画面(500)は、本(540)の形のアイコンで、または各収集オブジェクトの典型的な特性(オブジェクト名、収集が実行された位置、収集が実行された時間など)を表す文の形で各収集オブジェクトを表示してもよい。オブジェクトは、管理画面(500)の下部のアイコンの形のボタン(550)または文の型のボタン(560)のいずれかをタップしたのちに選択されてもよいが、それに限定されるものではない。
図6は、本発明のある実施例におけるオブジェクトの自動コメントを編集するプロセスを記述するための図である。
図6を参照するとき、オブジェクトの自動コメント(620)およびサムネイル(630)のデータが新たに収集される画面(600)が表示されている。画面(600)の上には、収集のためのオブジェクトの型(または名前)および収集が実行された場所が代表的な情報(610)として表示されている。図3に示されたように、画面(600)の下部には、収集ページを登録するための収集ボタン(650)が表示されている。
ユーザーが収集が実行された場所が、代表的な情報(610)に誤って入力されていると判定し、それを編集するために代表的な情報(610)における右側に表示される位置をタップする場合、図6の二番目の位置に示される位置編集画面(700)が表示される。位置編集画面(700)では、ユーザーが位置を直接入力しうる入力ボタン(710)、その位置のまわりの登録されたPOIのリストが候補として表示されるリスト・ボタン(720)および現在の位置が追加されうる現在位置情報(730)が表示される。
ユーザーが位置を直接入力するために入力ボタン(710)をタップする場合、画面上に文字を入力するためのキーパッドが表示されてもよい。他方、ユーザーがリスト・ボタン(720)上の特定の項目を選択してタップする場合、選択された項目が、新たな収集が実行された位置に適用される。
他方、ユーザーが現在位置を追加するために現在位置情報(730)をタップする場合、現在位置の名前、住所、電話番号などが入力されうる入力窓(740)と、現在位置が表示されるある種のスケールのマップ(750)とを出現させることが可能でありうる。ユーザーは、マップ(750)上でユーザーがどこに位置しているかをチェックしてもよく、次いで位置を編集する、または表示されるマップを参照することによってユーザーが入力窓(740)内に求める位置情報を自分の現在位置として入力するために、マップをドラッグしてもよい。
入力が完了したら、ユーザーによって編集された位置情報が画面(600)の代表的情報(610)上に現れ、自動コメント(620)に含まれる、収集が実行された場所も修正され、次いで再び表示されてもよい。図3で上述したように、自動コメント(620)を直接編集するために、自動コメント(620)が表示される画面領域がタップされてもよいことは言うまでもない
図7は、本発明のある実施例におけるオブジェクトのサムネイルを編集するプロセスを解釈するための図である。
画面上に表示されるオブジェクトのサムネイル(730)が適切でないためユーザーがこれを編集しようと意図する場合、ユーザーはサムネイル(730)が表示されている画面領域またはその下部の編集ボタン(740)をタップする。ユーザーによるタップに際して、ユーザーがサムネイル(830)を修正することを許容する画像編集画面(800)が表示される。
画像編集画面(800)上では、ユーザーが収集のためのオブジェクトの型を選択するまたはオブジェクトの名前を直接入力するのに用いうるオブジェクト検索ボタン(810)が設けられる。ユーザーがオブジェクトの型を選択するまたは名前を直接入力し、次いでオブジェクト検索ボタン(810)をタップすると、ユーザーによって入力されたオブジェクトに対応する画像の画像リスト(820)が画面上でブラウズおよび表示されうる。
ユーザーが望むサムネイルが検索されたリスト(820)上に存在する場合、ユーザーは対応する画像をリスト(820)から選択してエントリーを作成してもよい。利用可能な検索結果がなければ、ユーザーがタグを直接入力するのを助けるタグ入力窓(830)が提供されてもよい。
次に、本発明のある実施例に基づく通信部(150)が、端末(100)が外部装置と通信することを許容する機能を実行してもよい。
本発明のある実施例によれば、データベース(160)は、狭義のみならず、コンピュータ・ファイル・システムに基づくデータ・レコード等を含む広義でのデータベースの概念である。この側面から、一組の単純な操作処理ログがブラウズされ、その組からデータが抽出されるとしても、それは本発明でいうデータベースに含まれうることは理解しなければならない。図1に示したデータベース(160)は端末(100)に含まれることによって画像中に含まれるオブジェクトの収集をサポートするために構成されるものの、データベース(160)は可能性としては、本発明を実装する当業者に必要性により、端末(100)とは別個に構成されてもよい。
次に、本発明のある実施例に基づく制御部(170)が、画像撮影部(110)、自動コメント生成部(120)、対応画像選択部(130)、収集実行部(140)、通信部(150)およびデータベース(160)の間のデータ流れを制御する機能を実行する。換言すれば、本発明に基づく制御部(170)は、画像撮影部(110)、自動コメント生成部(120)、対応画像選択部(130)、収集実行部(140)、通信部(150)およびデータベース(160)にその特有の機能を実行させるよう、端末(100)の構成要素の外部からの/外部へのまたは該構成要素の間でのデータの流れを制御する。
本発明に基づく上記の実施例は、多様なコンピュータ・コンポーネントを通じて実行されてもよく、コンピュータ可読記録媒体に記録されてもよいプログラム・コマンドの形で実装されることができる。コンピュータ可読媒体は、プログラム・コマンド、データ・ファイルおよびデータ構造を単独でまたは組み合わせにおいて含みうる。コンピュータ可読記録媒体に記録されたプログラム・コマンドは特に本発明のために設計および構成されていてもよいし、あるいはコンピュータ・ソフトウェアの分野の当業者に既知であり使用可能なものであってもよい。コンピュータ可読記録媒体の例は、ハードディスク、フロッピー(登録商標)ディスクおよび磁気テープのような磁気媒体、CD-ROMおよびDVDのような光学式媒体、フロプティカル・ディスクのような光磁気媒体およびROM、RAMおよびフラッシュ・メモリのような、プログラム・コマンドを記憶および実行するよう特に構成されたハードウェア・デバイスを含む。プログラム・コマンドは、コンパイラによって作られる機械語コードのみならず、コンピュータによって実行されるインタープリタなどによって使用できる高水準コードをも含む。前記ハードウェア・デバイスは、本発明に基づく動作を実行する一つまたは複数のソフトウェア・モジュールとして機能するよう構成されていてもよく、逆も同じである。
本発明についてこれまで個別的な構成要素および限定された実施例および図面といったある種の詳細により記述してきたが、それらは単に本発明の全体的な理解を促進するために与えられたのであって、本発明は上記の実施例によって限定されるものではない。かかる記述に基づいて、当業者は、さまざまな修正および変更を試みることができる。
したがって、本発明の発想は、記載されている実施例に限定されてはならず、別途記載される特許請求の範囲および該特許請求の範囲に等しいまたはこれと等価な変形を含むあらゆるものが本発明の発想の範疇に属する。

Claims (21)

  1. 生成された画像に含まれるオブジェクトの収集をサポートする方法であって:
    (a)オブジェクトの画像を動作させるよう端末が使用される段階と;
    (b)ひとたび前記画像が生成されたら、前記画像に含まれるオブジェクトの収集を実行することをサポートするために、前記オブジェクトの素性についての認識情報、前記画像が生成された場所についての認識情報および前記画像が生成された時間についての認識情報のうち少なくとも一つが使用されて、前記オブジェクトについての自動コメントとしてある言語の文法のもとで正しい組み合わされた文を生成して端末の画面の第一の領域上で提供し、認識されたオブジェクトに対応するサムネイルが自動的に取得されて端末の画面の第二の領域上に表示される、段階と;
    (c)ひとたび収集実行ボタンの選択情報が入力されたら、前記オブジェクトについての収集を実行して収集ページを生成するよう、第一の領域および第二の領域上に提供されるデータが記憶スペースに提供されることが許容される段階とを含む、
    方法。
  2. (d)複数の端末から取得された収集情報が、同じまたは同様のオブジェクトを収集した該複数の端末のユーザー間の選好についての関係情報を取得するために使用される段階をさらに含む、請求項1記載の方法。
  3. 前記第一の領域が、スペースにおいて分割された複数の領域を含む、請求項1記載の方法。
  4. 前記第一の領域において提供される文が、提供される形で編集可能である、請求項1記載の方法。
  5. 前記第二の領域に提供上されるサムネイルが、生成された画像から直接取得される、または生成された画像に含まれる認識されたオブジェクトに対応する事前記憶された画像から間接的に取得される、請求項1記載の方法。
  6. 前記オブジェクトの素性についての認識情報が、オブジェクト認識技術、光学式文字認識技術またはバーコード認識技術のうちからの少なくとも一つを適用することによって取得される、請求項1記載の方法。
  7. 収集された情報が、前記オブジェクトを収集するユーザーによって管理されうるよう記憶される、請求項1記載の方法。
  8. ユーザーが収集された情報を管理することを許容するよう、各ユーザーに一意的な仮想空間が割り当てられる、請求項7記載の方法。
  9. ある時間期間にわたってユーザーによるそれぞれの収集されたオブジェクトに関係する各画像が書籍の画像のようにされ、前記仮想空間を通じて本棚に陳列されているかのように表示される、請求項8記載の方法。
  10. 前記第一の領域上に表示されている前記場所についての認識情報が不適切に選択されている場合、POIを直接選択するのをサポートするために、認識された場所のまわりのPOI関係情報が与えられる、あるいは現在位置を新たなPOIとして登録することをサポートするために、現在位置についての情報が提供される、請求項1記載の方法。
  11. 生成された画像に含まれるオブジェクトの収集をサポートするための端末であって:
    オブジェクトの画像を生成する画像撮影部と;
    ひとたび画像が生成されたら、前記画像に含まれるオブジェクトの収集を実行するのをサポートするために、前記オブジェクトの素性についての認識情報、前記画像が生成された場所についての認識情報および前記画像が生成された時間についての認識情報からの少なくとも一つが、前記オブジェクトについての自動コメントとしてある言語の文法のもとで正しい組み合わされた文を生成して画面の第一の領域上で提供するために、使用される、自動コメント生成部と;
    ひとたび前記画像が前記画像撮影部によって生成されたら、前記画像に含まれるオブジェクトの収集を実行するのをサポートするために、認識されたオブジェクトに対応するサムネイルを自動的に取得して画面の第二の領域上に表示する対応画像選択部と;
    ひとたび収集実行ボタンの選択情報が入力されたら、前記オブジェクトについての収集を実行して収集ページを生成するよう、前記第一の領域および前記第二の領域上で提供されるべきデータが記憶スペース上に提供されることを許容する収集実行部とを有する、
    端末。
  12. 複数の端末から取得された収集情報を、同じまたは同様のオブジェクトを収集する該複数の端末におけるユーザーの選好に関する関係についての情報を取得するために使用する人間関係推定部をさらに含む、請求項11記載の端末。
  13. 前記第一の領域が、スペースにおいて分割され、表示される複数の領域を含む、請求項11記載の端末。
  14. 前記自動コメント生成部が、前記提供される文が、前記第一の領域上で編集可能であることを許容するよう備えられる、請求項11記載の端末。
  15. 前記対応画像選択部が、前記第二の領域に提供上されるサムネイルを、生成された画像から直接取得する、または生成された画像に含まれるオブジェクトを認識する際に該オブジェクトに対応する事前記憶された画像から間接的に取得する、請求項11記載の端末。
  16. 前記自動コメント生成部が、前記オブジェクトの素性についての認識情報を、オブジェクト認識技術、光学式文字認識技術またはバーコード認識技術のうちからの少なくとも一つを前記画像に適用することによって取得する、請求項11記載の端末。
  17. 前記収集実行部が、収集された情報を、各ユーザーによって管理されうるよう記憶スペースに記憶する、請求項11記載の端末。
  18. 記憶スペースにおいて、収集された情報が各ユーザーによって管理されうるよう、一意的な仮想空間が割り当てられる、請求項17記載の端末。
  19. ある時間期間にわたってユーザーによるそれぞれの収集されたオブジェクトに関係する各画像が書籍の画像のようにされ、前記仮想空間を通じて本棚に陳列されているかのように表示される、請求項18記載の端末。
  20. 前記第一の領域上に表示されている前記場所についての認識情報が不適切である場合、POIを直接選択するのをサポートするために、認識された場所のまわりのPOI関係情報が与えられる、あるいは現在位置を新たなPOIとして登録することをサポートするために、現在位置についての情報が提供される、請求項11記載の端末。
  21. 請求項1ないし10のうちいずれか一項記載の方法を実行するためのコンピュータ・プログラムが記録されているコンピュータ可読記録媒体。
JP2013548346A 2011-01-04 2011-12-30 生成された画像中に含まれるオブジェクトの収集をサポートするための方法、端末およびコンピュータ可読記録媒体 Expired - Fee Related JP5642890B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2011-0000652 2011-01-04
KR1020110000652A KR101062929B1 (ko) 2011-01-04 2011-01-04 생성된 이미지에 포함된 객체에 대한 콜렉션을 지원하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
PCT/KR2011/010386 WO2012093816A2 (ko) 2011-01-04 2011-12-30 생성된 이미지에 포함된 객체에 대한 콜렉션을 지원하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체

Publications (2)

Publication Number Publication Date
JP2014503914A true JP2014503914A (ja) 2014-02-13
JP5642890B2 JP5642890B2 (ja) 2014-12-17

Family

ID=44957032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013548346A Expired - Fee Related JP5642890B2 (ja) 2011-01-04 2011-12-30 生成された画像中に含まれるオブジェクトの収集をサポートするための方法、端末およびコンピュータ可読記録媒体

Country Status (6)

Country Link
US (1) US8457412B2 (ja)
EP (1) EP2665005A4 (ja)
JP (1) JP5642890B2 (ja)
KR (1) KR101062929B1 (ja)
CN (1) CN103649947B (ja)
WO (1) WO2012093816A2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9747019B2 (en) * 2012-02-24 2017-08-29 Lg Electronics Inc. Mobile terminal and control method thereof
CN103888576B (zh) * 2012-12-21 2017-10-31 比亚迪股份有限公司 基于图像扫描的联系人信息添加方法及终端设备
US9536352B2 (en) * 2014-03-27 2017-01-03 Intel Corporation Imitating physical subjects in photos and videos with augmented reality virtual objects
KR102319456B1 (ko) * 2014-12-15 2021-10-28 조은형 콘텐츠 재생 방법 및 이를 수행하는 전자 기기
KR20170087424A (ko) * 2016-01-20 2017-07-28 (주)라이앤캐처스 도서의 이미지를 이용한 도서 데이터베이스 구축하는 방법, 이를 이용한 도서 추천 방법, 및 그 시스템.
KR102477523B1 (ko) 2017-12-22 2022-12-15 삼성전자주식회사 360 비디오에서 POI(Point of Interest) 정보를 제공하기 위한 장치 및 방법
CN108805519B (zh) * 2018-05-18 2021-09-28 赵崇标 纸质日程表电子化生成方法、装置及电子日程表生成方法
CN110045937B (zh) * 2019-04-16 2024-03-19 努比亚技术有限公司 双面屏终端显示控制方法、装置、双面屏终端及存储介质
CN113380000B (zh) * 2021-04-30 2022-12-16 海纳云物联科技有限公司 一种基于视频的火灾报警控制器警情处理操作监控方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0844886A (ja) * 1994-07-27 1996-02-16 Nippon Telegr & Teleph Corp <Ntt> 仮想空間内仮想物体レイアウト方法
JP2000322435A (ja) * 1999-05-13 2000-11-24 Nippon Telegr & Teleph Corp <Ntt> サイバー図鑑補足データ収集システムおよびその入力装置
JP2004151979A (ja) * 2002-10-30 2004-05-27 Olympus Corp 電子カタログ用索引自動作成システム
JP2005107990A (ja) * 2003-09-30 2005-04-21 Ricoh Co Ltd 電子図鑑生成方法及び電子図鑑生成プログラム
JP2008257358A (ja) * 2007-04-02 2008-10-23 Olympus Imaging Corp 文書自動作成装置、文書自動作成方法、及びプログラム
JP2009087040A (ja) * 2007-09-28 2009-04-23 Fujifilm Corp マルチメディアデータの自動取得方法、マルチメディアデータ再生装置、およびマルチメディアデータの自動取得システム
JP2010049633A (ja) * 2008-08-25 2010-03-04 Epics Inc 情報処理装置及びプログラム
JP2010210257A (ja) * 2009-03-06 2010-09-24 Sony Corp ナビゲーション装置及びナビゲーション方法
WO2012166577A1 (en) * 2011-05-27 2012-12-06 A9.Com, Inc. Augmenting a live view

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003076719A (ja) * 2001-06-22 2003-03-14 Sony Computer Entertainment Inc 情報閲覧プログラム、情報閲覧プログラムを記録した記録媒体、情報閲覧装置及び方法、情報生成プログラム、情報生成プログラムを記録した記録媒体、情報生成装置及び方法、情報生成閲覧システム
US7289132B1 (en) * 2003-12-19 2007-10-30 Apple Inc. Method and apparatus for image acquisition, organization, manipulation, and publication
GB2404546B (en) * 2003-07-25 2005-12-14 Purple Interactive Ltd A method of organising and displaying material content on a display to a viewer
US20060241859A1 (en) * 2005-04-21 2006-10-26 Microsoft Corporation Virtual earth real-time advertising
KR100681247B1 (ko) * 2005-05-27 2007-02-09 햄펙스 주식회사 이미지 기반의 컨텐츠 제공 시스템 및 그 방법
US7945653B2 (en) * 2006-10-11 2011-05-17 Facebook, Inc. Tagging digital media
KR100641791B1 (ko) * 2006-02-14 2006-11-02 (주)올라웍스 디지털 데이터에 대한 태깅 방법 및 시스템
US20080268876A1 (en) * 2007-04-24 2008-10-30 Natasha Gelfand Method, Device, Mobile Terminal, and Computer Program Product for a Point of Interest Based Scheme for Improving Mobile Visual Searching Functionalities
KR100827849B1 (ko) * 2007-08-08 2008-06-10 (주)올라웍스 화상 데이터에 나타난 인물에 부착된 상품 정보를 획득하기위한 방법 및 장치
KR100963236B1 (ko) * 2007-11-01 2010-06-10 광주과학기술원 증강현실을 이용한 제품정보 제공 시스템 및 그 제공방법
US8239132B2 (en) * 2008-01-22 2012-08-07 Maran Ma Systems, apparatus and methods for delivery of location-oriented information
KR100957189B1 (ko) * 2008-02-13 2010-05-11 광주과학기술원 심플 프레임 마커를 이용하는 증강현실 시스템 및 그 방법,상기 방법을 구현하는 프로그램이 기록된 기록매체
US9195898B2 (en) * 2009-04-14 2015-11-24 Qualcomm Incorporated Systems and methods for image recognition using mobile devices
KR101561913B1 (ko) * 2009-04-17 2015-10-20 엘지전자 주식회사 이동 단말기의 영상 표시 방법 및 그 장치
KR20100124947A (ko) * 2009-05-20 2010-11-30 삼성에스디에스 주식회사 증강현실을 이용하여 휴대형 단말기에 실시간 지역정보를 제공하는 ar컨텐츠 제공시스템 및 그 제공방법
US20100325154A1 (en) * 2009-06-22 2010-12-23 Nokia Corporation Method and apparatus for a virtual image world
US8121618B2 (en) * 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
KR20100138863A (ko) * 2010-12-14 2010-12-31 에스케이씨앤씨 주식회사 카메라 탑재 단말기에서 코드에 대응하는 증강현실과 개인화된 콘텐츠를 제공하는 방법

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0844886A (ja) * 1994-07-27 1996-02-16 Nippon Telegr & Teleph Corp <Ntt> 仮想空間内仮想物体レイアウト方法
JP2000322435A (ja) * 1999-05-13 2000-11-24 Nippon Telegr & Teleph Corp <Ntt> サイバー図鑑補足データ収集システムおよびその入力装置
JP2004151979A (ja) * 2002-10-30 2004-05-27 Olympus Corp 電子カタログ用索引自動作成システム
JP2005107990A (ja) * 2003-09-30 2005-04-21 Ricoh Co Ltd 電子図鑑生成方法及び電子図鑑生成プログラム
JP2008257358A (ja) * 2007-04-02 2008-10-23 Olympus Imaging Corp 文書自動作成装置、文書自動作成方法、及びプログラム
JP2009087040A (ja) * 2007-09-28 2009-04-23 Fujifilm Corp マルチメディアデータの自動取得方法、マルチメディアデータ再生装置、およびマルチメディアデータの自動取得システム
JP2010049633A (ja) * 2008-08-25 2010-03-04 Epics Inc 情報処理装置及びプログラム
JP2010210257A (ja) * 2009-03-06 2010-09-24 Sony Corp ナビゲーション装置及びナビゲーション方法
WO2012166577A1 (en) * 2011-05-27 2012-12-06 A9.Com, Inc. Augmenting a live view

Also Published As

Publication number Publication date
EP2665005A4 (en) 2017-08-23
WO2012093816A3 (ko) 2012-11-08
US20120173227A1 (en) 2012-07-05
EP2665005A2 (en) 2013-11-20
US8457412B2 (en) 2013-06-04
WO2012093816A2 (ko) 2012-07-12
CN103649947A (zh) 2014-03-19
JP5642890B2 (ja) 2014-12-17
CN103649947B (zh) 2017-02-08
KR101062929B1 (ko) 2011-09-07

Similar Documents

Publication Publication Date Title
JP5642890B2 (ja) 生成された画像中に含まれるオブジェクトの収集をサポートするための方法、端末およびコンピュータ可読記録媒体
US10359927B2 (en) Methods and systems for photo, page, and spread arrangement on space-constrained user devices
JP5642889B2 (ja) 入力された画像中に含まれるオブジェクトの収集をサポートするための方法、端末およびコンピュータ可読記録媒体
US9329762B1 (en) Methods and systems for reversing editing operations in media-rich projects
JP5931829B2 (ja) 合成画像作成アシスト装置、合成画像作成アシスト方法、合成画像作成アシストプログラムおよびその記録媒体
US8923551B1 (en) Systems and methods for automatically creating a photo-based project based on photo analysis and image metadata
CN108369633B (zh) 相册的视觉表示
US20230229718A1 (en) Shared User Driven Clipping of Multiple Web Pages
CN110023927B (zh) 用于将布局应用于文档的系统和方法
JP6771259B2 (ja) 画像および関連するテキストを処理するためのコンピュータ実装される方法、コンピュータ・プログラム製品、ならびにコンピュータ・システム
US8935322B1 (en) Methods and systems for improved uploading of media files for use in media-rich projects
US20120290589A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable storage medium
KR101837558B1 (ko) 컨텐츠 공유 서비스 제공 방법, 표시 제어 방법 및 컴퓨터 프로그램
CN111371999A (zh) 一种图像管理方法、装置、终端及存储介质
KR20210056404A (ko) 영역 기반 메타데이터 인덱싱을 이용한 화상 관리
US20150039643A1 (en) System for storing and searching image files, and cloud server
US11010978B2 (en) Method and system for generating augmented reality interactive content
US20180189602A1 (en) Method of and system for determining and selecting media representing event diversity
JP7389367B2 (ja) 展示会支援装置、展示会支援システム、展示会支援方法、及びプログラム
JP6177378B2 (ja) 合成画像作成アシスト装置、合成画像作成アシスト方法、合成画像作成アシストプログラムおよびその記録媒体
TWI537759B (zh) 行程產生裝置、方法及其電腦程式產品
JP2021149208A (ja) 情報処理装置及びプログラム
JP5953248B2 (ja) インテント分類装置、方法及びプログラム、サービス選択支援装置、方法及びプログラム
CN117743686A (zh) 目标推送方法、装置和计算机可读存储介质
JP2012226698A (ja) キーワード付与装置およびキーワード付与方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141014

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141029

R150 Certificate of patent or registration of utility model

Ref document number: 5642890

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees