JP2022550548A - 機械学習を利用した画像内客体認識方法及び装置 - Google Patents

機械学習を利用した画像内客体認識方法及び装置 Download PDF

Info

Publication number
JP2022550548A
JP2022550548A JP2022519820A JP2022519820A JP2022550548A JP 2022550548 A JP2022550548 A JP 2022550548A JP 2022519820 A JP2022519820 A JP 2022519820A JP 2022519820 A JP2022519820 A JP 2022519820A JP 2022550548 A JP2022550548 A JP 2022550548A
Authority
JP
Japan
Prior art keywords
image
related image
object recognition
display time
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022519820A
Other languages
English (en)
Inventor
ヒョン キム,ジェ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zackdang Co
Original Assignee
Zackdang Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200015042A external-priority patent/KR102539072B1/ko
Application filed by Zackdang Co filed Critical Zackdang Co
Publication of JP2022550548A publication Critical patent/JP2022550548A/ja
Priority to JP2023198484A priority Critical patent/JP2024016283A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、機械学習を利用した画像内客体認識方法及び装置に関する。本発明の一実施例に係る客体認識方法は、(a)客体関連画像を獲得するステップと、(b)客体認識ディープラーニングモデルを利用して、前記獲得された客体関連画像から前記客体及び客体表示時間を認識するステップとを含むことができる。

Description

本発明は、機械学習を利用した画像内客体認識方法及び装置に関するもので、より詳しくは、機械学習を利用して客体及び客体表示時間を認識するための方法及び装置に関する。
最近、個人のノーハウを共有する方法がTEXT中心から画像中心に移動している傾向である。このような画像で用いた事物を判別することができれば、多様なビジネスモデルを用いることができ、コンテンツを豊富に加工することができる基本にあり得る。これを具現するために、人が人為的に代入する方式は多くの時間と資本労動が必要となり、一定の品質管理を保持しにくいという短所がある。これを活用すれば、画像を加工する人や、画像を通じてノーハウを受ける人々に有益な情報としての意味があるはずである。
ただ、画像の中で客体を認知することができるようにする過程で多量のイメージ学習データを収集してタギングしなければならない初期データ収集努力が大きすぎるという問題点がある。
本発明は、前述の問題点を解決するために創出されたもので、機械学習を利用した画像内客体認識方法及び装置を提供することをその目的とする。
また、本発明は、人工知能を取り入れて画像の中で客体を見つけ出すために、人の手作業が大量投入されてこそ学習することができる従来の状況を改善することを目的とする。
また、本発明は、最初数百個程度の少ない数から始めて製品学習を始めることができるスパイラル学習モデルを取り入れて早い時間内に客体の特性上、画像の中で客体を認識することができるようにする装置及び方法を提供することをその目的とする。
本発明の目的は、以上で言及した目的に制限されず、言及しなかったまた他の目的は以下の記載から明確に理解され得るはずである。
前記した目的を達するために、本発明の一実施例に係る客体認識方法は、(a)客体関連画像を獲得するステップと、(b)客体認識ディープラーニングモデルを利用して、前記獲得された客体関連画像から前記客体及び客体表示時間を認識するステップと、を含むことができる。
実施例において、前記(a)ステップは、前記客体関連画像を獲得するステップと、前記客体関連画像を複数のフレームに分割するステップと、前記複数のフレームの中で前記客体が含まれたフレームを決めるステップと、を含むことができる。
実施例において、前記(b)ステップは、予めタギングされた客体の学習イメージから前記客体認識ディープラーニングモデルを学習させるステップと、前記学習された客体認識ディープラーニングモデルを利用して前記客体関連画像に含まれた客体をタギングするステップと、を含むことができる。
実施例において、前記学習させるステップは、前記予めタギングされた客体の学習イメージから特徴(feature)を決めるステップと、前記決められた特徴をベクトル(vector)値に変換するステップと、を含むことができる。
実施例において、前記客体認識方法は、前記客体及び客体表示時間に基づいて前記客体関連画像をディスプレーするステップをさらに含むことができる。
実施例において、前記客体認識方法は、前記客体表示時間に対する入力を獲得するステップと、前記複数のフレームのうち、前記客体表示時間に対応する前記客体が含まれたフレームをディスプレーするステップと、をさらに含むことができる。
実施例において、客体認識装置は、客体関連画像を獲得する通信部と、客体認識ディープラーニングモデルを利用して、前記獲得された客体関連画像から前記客体及び客体表示時間を認識する制御部と、を含むことができる。
実施例において、前記通信部は、前記客体関連画像を獲得し、前記制御部は、前記客体関連画像を複数のフレームに分割し、前記複数のフレームの中で前記客体が含まれたフレームを決めることができる。
実施例において、前記制御部は、予めタギングされた客体の学習イメージから前記客体認識ディープラーニングモデルを学習させ、前記学習された客体認識ディープラーニングモデルを利用して前記客体関連画像に含まれた客体をタギングすることができる。
実施例において、前記制御部は、前記予めタギングされた客体の学習イメージから特徴(feature)を決め、前記決められた特徴をベクトル(vector)値に変換することができる。
実施例において、前記客体認識装置は、前記客体及び客体表示時間に基づいて前記客体関連画像をディスプレーする表示部をさらに含むことができる。
実施例において、前記客体認識装置は、前記客体表示時間に対する入力を獲得する入力部と、前記複数のフレームのうち、前記客体表示時間に対応する前記客体が含まれたフレームをディスプレーする表示部と、をさらに含むことができる。
前記目的を達するための具体的な事項は、添付図面とともに詳細に後述される実施例を参照すれば明確になり得るはずである。
しかしながら、本発明は、以下で開示される実施例に限定されるのではなく、互いに異なる多様な形態で構成されることができ、本発明の開示が完全になるようにし、本発明が属する技術分野において通常の知識を有する者(以下、「当業者」)に発明の範疇を完全に知らせるために提供されるのである。
本発明の一実施例に係ると、機械学習を通じて画像内客体を検出して利用することにより、画像コンテンツを提供する際において、より豊かで活用度のあるサービスを提供することができる。
また、本発明の一実施例に係ると、画像内多様な製品が用いられている現象を分かることができ、特定ブランドや製品がどれだけ画像で所要されるかを特定することができる。
また、本発明の一実施例に係ると、顧客の疑問を解決することができ、長い画像内特定製品が露出された箇所に直ちに進入させるサービスが可能である。
本発明の効果は、前述の効果に制限されず、本発明の技術的特徴によって期待される暫定的な効果は、以下の記載から明確に理解され得るはずである。
本発明の一実施例に係る客体認識方法を示した図面である。 本発明の一実施例に係る画像収集の例を示した図面である。 本発明の一実施例に係る客体認識ディープラーニングモデル学習の例を示した図面である。 本発明の一実施例に係る客体認識の例を示した図面である。 本発明の一実施例に係る客体認識の例を示した図面である。 本発明の一実施例に係る客体認識のための事前準備動作方法を示した図面である。 本発明の一実施例に係る客体認識のための認識抽出動作方法を示した図面である。 本発明の一実施例に係る客体認識装置の機能的構成を示した図面である。
本発明は、多様な変更を施すことができ、さまざまな実施形態を有することができ、特定の実施例を図面に例示してこれについて詳しく説明する。
特許請求範囲に開示された発明の多様な特徴は、図面及び詳細な説明を考慮してより理解され得るはずである。明細書に開示された装置、方法、製法及び多様な実施例は例示のために提供されるのである。開示された構造及び機能上の特徴は、当業者にとって多様な実施例を具体的に実施することができるようにするためのもので、発明の範囲を制限するのではない。開示された用語及び文章は開示された発明の多様な特徴を容易に理解するために説明するもので、発明の範囲を制限するのではない。
本発明を説明する際において、係わる公知技術に対する具体的な説明が本発明の要旨を不必要に曖昧にする虞があると判断される場合、その詳細な説明を省略する。
以下、本発明の一実施例に係る機械学習を利用した画像内客体認識方法及び装置について説明する。
図1は、本発明の一実施例に係る客体認識方法を示した図面である。図2aは、本発明の一実施例に係る画像収集の例を示した図面である。図2bは、本発明の一実施例に係る客体認識ディープラーニングモデル学習の例を示した図面である。図2c及び2dは、本発明の一実施例に係る客体認識の例を示した図面である。
図1を参照すると、S101ステップは、客体関連画像を獲得するステップである。一実施例において、図2aを参照すると、客体関連画像201を獲得し、客体関連画像201を複数のフレームに分割し、複数のフレームの中で客体が含まれたフレーム203を決めることができる。
例えば、複数のフレームは、客体関連画像201を1秒単位に分割して生成されることができる。
S103ステップは、客体認識ディープラーニングモデルを利用して、客体関連画像から客体及び客体表示時間を認識するステップである。
一実施例において、図2bを参照すると、予めタギングされた客体の学習イメージから客体認識ディープラーニングモデル210を学習させることができる。例えば、予めタギングされた客体の学習イメージから特徴(feature)を決め、決められた特徴をベクトル(vector)値に変換することができる。
一実施例において、図2c及び2dを参照すると、客体ID220及び当該客体が表示される画面に対する客体表示時間を決めることができる。
一実施例において、客体及び客体表示時間に基づいて客体関連画像をディスプレーすることができる。
一実施例において、客体表示時間に対する入力を獲得し、複数のフレームのうち客体表示時間に対応する客体が含まれたフレームをディスプレーすることができる。
一実施例において、使用者による客体表示時間に対する入力の回数が閾値以上の場合、前記客体表示時間に対応する客体が含まれる少なくとも一つの客体関連画像のリストをディスプレーすることができる。
すなわち、当該客体表示時間へのタイムワープの回数が所定数以上である場合、当該客体に対する使用者の選好度が高いことと判断し、当該客体に関する多様な画像のリストを使用者に提供することにより、使用者の客体検索活用性を高めることができる。
例えば、前記客体は、化粧品、アクセサリ、ファッション雑貨など多様な製品を含むことができるが、これに制限されない。
図3は、本発明の一実施例に係る客体認識のための事前準備動作方法を示した図面である。
図3を参照すると、S301ステップは、自ら確保したアルゴリズムで学習画像を収集するステップである。ここで、学習画像は客体認識ディープラーニングモデルの学習のための画像を含むことができる。
一実施例において、学習画像に存在するキーワードを把握し、キーワードが自ら確保したアルゴリズムを利用して、画像として用いることができる画像と用いることのできない画像を区分することができる。
S303ステップは、学習画像から客体イメージを抽出するステップである。例えば、ブラー現象と滲み現象に対する問題を最小化するために、1秒単位で客体イメージを抽出して学習画像を細分化することができる。
S305ステップは、客体イメージから客体認識ディープラーニングモデル210を学習させるステップである。この場合、客体イメージは客体の学習イメージを含むことができる。
この場合、学習イメージの客体は、使用者によって予めタギングされることができる。すなわち、最初使用者の介入で客体をタギングし、最小化させることができる最小数量を求めて取り入れることができる。
その後、客体のイメージの中で特徴を把握してベクトル形態を計算することができる。例えば、客体認識ディープラーニングモデル210は、YOLOアルゴリズム、SSD(Single Shot Multibox Detector)アルゴリズム及びCNNアルゴリズムなどがあるが、他のアルゴリズムの適用を排除するのではない。
S307ステップは、客体認識ディープラーニングモデル210の学習によって計算された学習ファイルを保存するステップである。この場合、学習ファイルは、抽出するサーバに移動して抽出の適正性を測定することができる。
S309ステップは、学習ファイルを活用して客体関連画像で客体を自動タギングするステップである。すなわち、新たに流入された客体関連画像での客体を学習することができるデータとして自動に流入されることができるようにする自動タギングステップである。
一実施例において、良質の学習イメージをたくさん手に入れて学習をさせるほど認識率がたくさん上がるので、これを繰り返し学習して所望の認識率が出るまでS305ステップ乃至S309ステップを繰り返すことができる。
図4は、本発明の一実施例に係る客体認識のための認識抽出動作方法を示した図面である。
図4を参照すると、S401ステップは、客体関連画像を獲得するステップである。すなわち、新しい画像を入力することができる。一実施例において、新しい画像は、図3のS301ステップと同じ方式で獲得されることができる。
S403ステップは、客体関連画像から客体イメージを抽出することができる。すなわち、客体関連画像から客体が含まれたフレームを抽出することができる。例えば、客体イメージが入力されることができるように1秒単位イメージで抽出することができる。
S405ステップは、客体イメージと客体認識ディープラーニングモデルによって生成された学習ファイルの一致可否を判断するステップである。すなわち、客体イメージと学習ファイルを有し、客体の種類を見つけ出すことができる。ここで、学習ファイルは既存客体DB(database)を含むことができる。
S407ステップは、客体イメージと客体認識ディープラーニングモデルによって生成された学習ファイルが一致する場合、客体イメージに対応する客体のID(identification)及び客体表示時間(time)を抽出するステップである。
S409ステップは、客体イメージと客体認識ディープラーニングモデルによって生成された学習ファイルが一致しない場合、新しい客体を登録することができるように客体イメージを保存するステップである。
すなわち、マッチングできないデータは、また手動でタギングして客体認識ディープラーニングモデルの学習に利用して、次回の認識抽出ステップでは、客体DBとマッチングされることができるように、先循環サイクル(Circle)が円滑に行われるようにシステムを構成することができる。
図5は、本発明の一実施例に係る客体認識装置500の機能的構成を示した図面である。
図5を参照すると、客体認識装置500は、通信部510、制御部520、表示部530、入力部540及び保存部550を含むことができる。
通信部510は、客体関連画像を獲得することができる。
一実施例において、通信部510は、有線通信モジュール及び無線通信モジュールの少なくとも一つを含むことができる。通信部510の全部または一部は、「送信部」、「受信部」または「送受信部(transceiver)」に指称されることができる。
制御部520は、客体認識ディープラーニングモデルを利用して、客体関連画像から客体及び客体表示時間を認識することができる。
一実施例において、制御部520は、ビューティ関連クリエータ及び関連画像を収集する画像収集部522、収集された画像を集めて深化学習(Deep Learning)し、既学習した学習データを活用して新規製品を自動にタギングして学習する事物学習部524、及び特定のイメージを提示した時、学習された製品の中でこの製品が何なのかを区分する事物抽出部526を含むことができる。
一実施例において、制御部520は、少なくとも一つのプロセッサまたはマイクロ(micro)プロセッサを含むか、または、プロセッサの一部であり得る。また、制御部520は、CP(communication processor)と指称され得る。制御部520は、本発明の多様な実施例に係る客体認識装置500の動作を制御することができる。
表示部530は、客体及び客体表示時間に基づいて客体関連画像をディスプレーすることができる。一実施例において、表示部530は、複数のフレームのうち、客体表示時間に対応する客体が含まれたフレームをディスプレーすることができる。
一実施例において、表示部530は、客体認識装置500で処理される情報を表示することができる。例えば、表示部530は、液晶ディスプレー(LCD;Liquid Crystal Display)、発光ダイオード(LED;Light Emitting Diode)ディスプレー、有機発光ダイオード(OLED;Organic LED)ディスプレー、マイクロ電子機械システム(MEMS;Micro Electro Mechanical Systems)ディスプレー及び電子ペーパー(electronic paper)ディスプレーの少なくとも何れか一つを含むことができる。
入力部540は、客体表示時間に対する入力を獲得することができる。一実施例において、入力部540は、使用者による客体表示時間に対する入力を獲得することができる。
保存部550は、客体認識ディープラーニングモデル210の学習ファイル、客体関連画像、客体ID及び客体表示時間を保存することができる。
一実施例において、保存部550は、揮発性メモリ、不揮発性メモリまたは揮発性メモリと不揮発性メモリの組み合わせで構成されることができる。そして、保存部550は、制御部520の要請によって保存されたデータを提供することができる。
図5を参照すると、客体認識装置500は、通信部510、制御部520、表示部530、入力部540及び保存部550を含むことができる。本発明の多様な実施例において、客体認識装置500は、図5に説明された構成が必須的でないので、図5に説明された構成よりも多い構成を有するか、またはそれよりも少ない構成を有することに具現されることができる。
本発明に係ると、最初数百個の画像で手動で学習し、学習したデータを活用して他のイメージを自動に抽出することができるようにシステムを構築した。
また、本発明に係ると、客体イメージを取り入れると、自動にタギングすることができることは、自動にタギングされることができるようにし、自動にタギングされなかったものを別途に集めてタギングするようにシステムを構築して、人の手作業が最小化されることができる。
また、本発明に係ると、初期データ収集を最小化することができるように、最初少量のデータを利用して学習し、この学習データを活用して自動にイメージの形態を抽出して学習データを作るのに活用し、このような過程を繰り返して高品質の学習データを学習することができる。
以上の説明は、本発明の技術的思想を例示的に説明したことに過ぎず、当業者であれば本発明の本質的な特性から逸脱しない範囲で多様な変更及び修正が可能であり得る。
したがって、本明細書に開示された実施例は、本発明の技術的思想を限定するためのものではなく、説明するためのもので、このような実施例によって本発明の範囲が限定されるのではない。
本発明の保護範囲は特許請求範囲によって解釈されるべきであり、それと同等な範囲内にある全ての技術思想は、本発明の権利範囲に含まれることに理解されるべきである。

Claims (12)

  1. (a)客体関連画像を獲得するステップと、
    (b)客体認識ディープラーニングモデルを利用して、前記獲得された客体関連画像から前記客体及び客体表示時間を認識するステップとを含む、客体認識方法。
  2. 前記(a)ステップは、
    前記客体関連画像を獲得するステップと、
    前記客体関連画像を複数のフレームに分割するステップと、
    前記複数のフレームのうち前記客体が含まれたフレームを決めるステップとを含む、請求項1に記載の客体認識方法。
  3. 前記(b)ステップは、
    予めタギングされた客体の学習イメージから前記客体認識ディープラーニングモデルを学習させるステップと、
    前記学習された客体認識ディープラーニングモデルを利用して前記客体関連画像に含まれた客体をタギングするステップとを含む、請求項1に記載の客体認識方法。
  4. 前記学習させるステップは、
    前記予めタギングされた客体の学習イメージから特徴(feature)を決めるステップと、
    前記決められた特徴をベクトル(vector)値に変換するステップとを含む、請求項3に記載の客体認識方法。
  5. 前記客体及び客体表示時間に基づいて前記客体関連画像をディスプレーするステップをさらに含む、請求項1に記載の客体認識方法。
  6. 前記客体表示時間に対する入力を獲得するステップと、
    前記複数のフレームのうち、前記客体表示時間に対応する前記客体が含まれたフレームをディスプレーするステップとをさらに含む、請求項2に記載の客体認識方法。
  7. 客体関連画像を獲得する通信部と、
    客体認識ディープラーニングモデルを利用して、前記獲得された客体関連画像から前記客体及び客体表示時間を認識する制御部とを含む、客体認識装置。
  8. 前記通信部は、前記客体関連画像を獲得し、
    前記制御部は、前記客体関連画像を複数のフレームに分割し、
    前記複数のフレームのうち前記客体が含まれたフレームを決める、請求項7に記載の客体認識装置。
  9. 前記制御部は、
    予めタギングされた客体の学習イメージから前記客体認識ディープラーニングモデルを学習させ、
    前記学習された客体認識ディープラーニングモデルを利用して前記客体関連画像に含まれた客体をタギングする、請求項7に記載の客体認識装置。
  10. 前記制御部は、
    前記予めタギングされた客体の学習イメージから特徴(feature)を決め、
    前記決められた特徴をベクトル(vector)値に変換する、請求項9に記載の客体認識装置。
  11. 前記客体及び客体表示時間に基づいて前記客体関連画像をディスプレーする表示部をさらに含む、請求項7に記載の客体認識装置。
  12. 前記客体表示時間に対する入力を獲得する入力部と、
    前記複数のフレームのうち前記客体表示時間に対応する前記客体が含まれたフレームをディスプレーする表示部とをさらに含む、請求項8に記載の客体認識装置。

JP2022519820A 2019-09-29 2020-07-17 機械学習を利用した画像内客体認識方法及び装置 Pending JP2022550548A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023198484A JP2024016283A (ja) 2019-09-29 2023-11-22 機械学習を利用した客体画像提供方法及び装置

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2019-0120261 2019-09-29
KR20190120261 2019-09-29
KR10-2020-0015042 2020-02-07
KR1020200015042A KR102539072B1 (ko) 2019-09-29 2020-02-07 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치
PCT/KR2020/009479 WO2021060684A1 (ko) 2019-09-29 2020-07-17 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023198484A Division JP2024016283A (ja) 2019-09-29 2023-11-22 機械学習を利用した客体画像提供方法及び装置

Publications (1)

Publication Number Publication Date
JP2022550548A true JP2022550548A (ja) 2022-12-02

Family

ID=75166718

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022519820A Pending JP2022550548A (ja) 2019-09-29 2020-07-17 機械学習を利用した画像内客体認識方法及び装置
JP2023198484A Pending JP2024016283A (ja) 2019-09-29 2023-11-22 機械学習を利用した客体画像提供方法及び装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023198484A Pending JP2024016283A (ja) 2019-09-29 2023-11-22 機械学習を利用した客体画像提供方法及び装置

Country Status (3)

Country Link
US (1) US20220319176A1 (ja)
JP (2) JP2022550548A (ja)
WO (1) WO2021060684A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014208575A1 (ja) * 2013-06-28 2014-12-31 日本電気株式会社 映像監視システム、映像処理装置、映像処理方法および映像処理プログラム
JP2015191334A (ja) * 2014-03-27 2015-11-02 キヤノン株式会社 情報処理装置、情報処理方法
WO2019111976A1 (ja) * 2017-12-08 2019-06-13 日本電気通信システム株式会社 対象物検出装置、予測モデル作成装置、対象物検出方法及びプログラム
KR20190106865A (ko) * 2019-08-27 2019-09-18 엘지전자 주식회사 동영상 검색방법 및 동영상 검색 단말기

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5816098B2 (ja) * 2009-02-02 2015-11-18 アイサイト モバイル テクノロジーズ リミテッド ビデオストリームの中のオブジェクト認識および追跡システムおよび方法
GB2554633B (en) * 2016-06-24 2020-01-22 Imperial College Sci Tech & Medicine Detecting objects in video data
US11068721B2 (en) * 2017-03-30 2021-07-20 The Boeing Company Automated object tracking in a video feed using machine learning
KR102103521B1 (ko) * 2018-01-12 2020-04-28 상명대학교산학협력단 인공지능 심층학습 기반의 영상물 인식 시스템 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014208575A1 (ja) * 2013-06-28 2014-12-31 日本電気株式会社 映像監視システム、映像処理装置、映像処理方法および映像処理プログラム
JP2015191334A (ja) * 2014-03-27 2015-11-02 キヤノン株式会社 情報処理装置、情報処理方法
WO2019111976A1 (ja) * 2017-12-08 2019-06-13 日本電気通信システム株式会社 対象物検出装置、予測モデル作成装置、対象物検出方法及びプログラム
KR20190106865A (ko) * 2019-08-27 2019-09-18 엘지전자 주식회사 동영상 검색방법 및 동영상 검색 단말기

Also Published As

Publication number Publication date
WO2021060684A1 (ko) 2021-04-01
US20220319176A1 (en) 2022-10-06
JP2024016283A (ja) 2024-02-06

Similar Documents

Publication Publication Date Title
CN103824481B (zh) 一种检测用户背诵的方法及装置
CN114258559A (zh) 用于标识具有不受控制的光照条件的图像中的肤色的技术
US10311115B2 (en) Object search method and apparatus
WO2015101289A1 (zh) 图片管理方法、装置及系统
US20130258198A1 (en) Video search system and method
CN110427859A (zh) 一种人脸检测方法、装置、电子设备及存储介质
US10402777B2 (en) Method and a system for object recognition
TWI586160B (zh) 利用行動電話及雲端可視化搜尋引擎之即時物體掃描
CN109803180A (zh) 视频预览图生成方法、装置、计算机设备及存储介质
EP3065079A1 (en) Terminal and method for managing video file
US20170200068A1 (en) Method and a System for Object Recognition
US11126822B2 (en) Method and apparatus for obtaining painting
CN112889065B (zh) 用于使用深度学习来提供个性化产品推荐的系统和方法
CN111274848A (zh) 一种图像检测方法、装置、电子设备及存储介质
CN109857878B (zh) 物品标注方法及装置、电子设备及存储介质
US9904361B2 (en) Electronic device and facial expression operation method
CN107395986A (zh) 图像获取方法、装置及电子设备
KR102539072B1 (ko) 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치
US20100150447A1 (en) Description based video searching system and method
JP2022550548A (ja) 機械学習を利用した画像内客体認識方法及び装置
WO2015184971A1 (en) Method and apparatus for generating human portrait material image
US9269159B2 (en) Systems and methods for tracking object association over time
US9141850B2 (en) Electronic device and photo management method thereof
KR20160012901A (ko) 이미지를 검색하는 방법 및 그 전자 장치
CN113177607A (zh) 一种对训练对象的标注方法及客户端

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230801