JP2021526269A - オブジェクト追跡方法および装置、電子設備並びに記憶媒体 - Google Patents

オブジェクト追跡方法および装置、電子設備並びに記憶媒体 Download PDF

Info

Publication number
JP2021526269A
JP2021526269A JP2020567591A JP2020567591A JP2021526269A JP 2021526269 A JP2021526269 A JP 2021526269A JP 2020567591 A JP2020567591 A JP 2020567591A JP 2020567591 A JP2020567591 A JP 2020567591A JP 2021526269 A JP2021526269 A JP 2021526269A
Authority
JP
Japan
Prior art keywords
frame image
current frame
target object
selection information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020567591A
Other languages
English (en)
Other versions
JP7093427B2 (ja
Inventor
▲強▼ 王
▲強▼ 王
政 朱
政 朱
搏 李
搏 李
▲偉▼ 武
▲偉▼ 武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Publication of JP2021526269A publication Critical patent/JP2021526269A/ja
Application granted granted Critical
Publication of JP7093427B2 publication Critical patent/JP7093427B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

【課題】本願は、オブジェクト追跡方法および装置、電子設備並びに記憶媒体を開示する。【解決手段】ただし、上記方法は、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出することと、前記ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得することと、取得された干渉オブジェクトに基づいて、前記少なくとも1つの候補オブジェクトの選別情報を調整することと、前記現在フレーム画像の目標オブジェクトとして、選別情報が所定の条件を満たす候補オブジェクトを確定することと、を含む。本発明の実施例によれば、オブジェクト追跡の判別能力を向上させることができる。【選択図】図1

Description

本発明は、コンピュータビジョン技術に関し、特に、オブジェクト追跡方法および装置、電子設備並びに記憶媒体に関する。
<関連出願の相互引用>
本発明は、2018年08月07日に中国専利局に提出した中国特許出願号が第CN201810893022.3号であり、発明の名称が「オブジェクト追跡方法および装置、電子設備並びに記憶媒体」の優先権を主張するものであり、当該出願の内容を全て取り込んで本文に結合させる。
目標追跡は、コンピュータビジョンの分野においてよく検討される技術であり、多くの分野で幅広い用途がある。例えば、カメラにおける追跡焦点合わせ、ドローンにおける目標自動追跡、人体の追跡、交通監視システムにおける車両追跡、顔の追跡、インテリジェントなインタラクティブシステムにおけるジェスチャー追跡などが挙げられる。
本発明の実施例は、オブジェクト追跡技術を提供する。
本発明の実施例の一態様によると、オブジェクト追跡方法を提供し、上記オブジェクト追跡方法は、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出することと、前記ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得することと、取得された干渉オブジェクトに基づいて、前記少なくとも1つの候補オブジェクトの選別情報を調整することと、前記現在フレーム画像における目標オブジェクトとして、選別情報が所定の条件を満たす候補オブジェクトを確定することと、含む。
本発明の実施例の他の一態様によると、オブジェクト追跡装置を提供し、上記オブジェクト追跡装置は、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出するための検出ユニットと、前記ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得するための取得ユニットと、取得された干渉オブジェクトに基づいて、前記少なくとも1つの候補オブジェクトの選別情報を調整するための調整ユニットと、前記現在フレーム画像の目標オブジェクトとして、選別情報が所定の条件を満たす候補オブジェクトを確定するための確定ユニットと、を備える。
本発明の実施例の他の一態様によると、上記の実施例のいずれかの前記装置を備える電子設備を提供する。
本発明の実施例の他の一態様によると、電子設備を提供し、上記電子設備は、実行可能命令を記憶するためのメモリと、前記実行可能命令を実行して上記の実施例のいずれかの前記方法を実現するためのプロセッサと、を備える。
本発明の実施例の他の一態様によると、コンピュータ可読コードを含むコンピュータプログラムであって、前記コンピュータ可読コードが設備により実行されて上記の実施例のいずれかの前記方法を実現するための命令が前記設備のプロセッサにより実行されるコンピュータプログラムを提供する。
本発明の実施例の他の一態様によると、コンピュータ可読な命令を記憶するコンピュータ記憶媒体を提供し、上記コンピュータ記憶媒体は、前記命令が実行されて上記の実施例のいずれかの前記方法が実現される。
本発明の上記の実施例に提供されるオブジェクト追跡方法および装置、電子設備、コンピュータプログラム並びに記憶媒体によれば、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出し、ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得し、取得された干渉オブジェクトに基づいて少なくとも1つの候補オブジェクトの選別情報を調整し、現在フレーム画像の目標オブジェクトとして選別情報が所定の条件を満たす候補オブジェクトを確定することによって、本発明の実施例のオブジェクト追跡の過程において、現在フレーム画像の前のフレーム画像における干渉オブジェクトを用いて候補オブジェクトの選別情報を調整することによって、候補オブジェクトの選別情報を用いて現在フレーム画像における目標オブジェクトを確定する場合、候補オブジェクトにおける干渉オブジェクトを効果的に抑制でき、候補オブジェクトから目標オブジェクトを取得することによって、現在フレーム画像における目標オブジェクトを確定する過程において、目標オブジェクトの周囲の干渉オブジェクトによる判別結果に対する影響を効果的に抑制でき、目標オブジェクト追跡の判別能力を向上させることができる。
以下、本発明の技術について、図面および実施例を参考して、詳しく説明する。
添付の図面は、明細書の一部を構成し、本発明の実施例を示しつつ、記載内容とともに本発明の原理を説明するものである。
添付の図面を参考しながら、以下の詳しい説明に従ってより明確に理解することができる。
本発明の一部の実施例のオブジェクト追跡方法のフローチャートである。 本発明の他の実施例のオブジェクト追跡方法のフローチャートである。 本発明の又の実施例のオブジェクト追跡方法のフローチャートである。 本発明の一部の実施例のオブジェクト追跡方法の一適用例の概念図である。 本発明の一部の実施例のオブジェクト追跡方法の他の適用例の概念図である。 本発明の一部の実施例のオブジェクト追跡装置の構成を示す概念図である。 本発明の他の実施例のオブジェクト追跡装置の構成を示す概念図である。 本発明の一部の実施例によって提供される電子設備の構成を示す概念図である。
以下、添付の図面を参照しながら、本発明の例示的な各実施例を詳細に説明する。特に明記しない限り、これらの実施例に記載される構成要素およびステップの相対的な配置、数式および値は、本発明の範囲を限定しないことに留意されたい。
また、本発明の実施例では、「複数」は2つ以上を意味し、「少なくとも1つ」は1つ、2つ、または2つ以上を意味することを理解すべきである。
当業者は、本発明の実施例における「第1」および「第2」などの用語が、異なるステップ、設備またはモジュールなどを区別するためにのみ使用され、特定の技術的な意味を表さず、これらの間の必要な論理的順序を表さないことを理解すべきである。
また、本発明の実施例で言及される任意の部品、データまたは構造は、明確に定義されていないか、または前後の内容に反対する示唆が与えられない限り、一般的に1つまたは複数として理解してよいことをさらに理解すべきである。
また、本発明における各実施例の説明は、各実施例間の相違点を強調し、等価または類似の部分は互いに参考することができ、簡潔化のために、繰り返して説明しないことをさらに理解すべきである。
そして、説明を簡単にするために、添付の図面に示される各部品の大きさは、実際の比例関係に従って描かれているものではないことを了解すべきである。
以下、少なくとも1つの例示的な実施例に関する説明は、実際には単なる説明的なものであり、決して本発明およびその適用または使用に対して限定するものではない。
関連分野の当業者に知られている技術、方法、設備について詳細に説明されない場合があるが、適切な場合には、それらの技術、方法、設備を、本発明の一部として見なすべきである。
以下、添付の図面で類似な符号と文字は類似な項目を示しているため、ある項目を添付の図面で定義した後に、以降の図面でさらに説明する必要がないことに留意されたい。
また、本発明における「および/または」という用語は、ただ、関連オブジェクトの関連関係を表すものであり、例えば、「Aおよび/またはB」が、「Aだけがあり、AとBの両方があり、Bだけがあり」という3つの状況を表す。また、本発明において、「/」は、一般的に、前後の関連オブジェクトが「或は」の関係であることを表す。
本発明の実施例は、多数の他の汎用または専用コンピュータシステム環境または構成と一并動作するコンピュータシステム/サーバーに適用できる。コンピュータシステム/サーバーと一并使用される既知のココンピュータシステム、環境、構成の例として、パソコンシステム、サーバーコンピューターシステム、シンクライアント、ファットクライアント、ハンドヘルドまたはラップトップデバイス、マイクロプロセッサによるシステム、セットトップボックス、プログラマブル家庭用電化製品、ネットワークパソコン、小型コンピュータシステム、大型コンピュータシステム、および、上記の任意のシステムを含む分散型クラウドコンピュータ環境などを、含むが、これらに限定されない。
コンピュータシステム/サーバーは、コンピュータシステムによって実行されるコンピュータシステム実行可能命令(たとえばプログラムモジュールなど)の一般的なコンテキストで説明することができる。一般的に、プログラムモジュールには、特定のタスクを実行したり特定の抽象データ型を実現したりするルーチン、プログラム、オブジェクトプログラム、コンポーネント、ロジック、データ構造などが含まれる。コンピュータシステム/サーバーは、分散型クラウドコンピュータ環境で実現でき、分散型クラウドコンピュータ環境では、通信ネットワークを介してリンクされたリモート処理装置によってタスクが実行される。分散型クラウドコンピュータ環境で、プログラムモジュールは、ストレージデバイスを含むローカルまたはリモートコンピュータシステムの記憶媒体に配置されてもよい。
図1は、本発明の一部の実施例のオブジェクト追跡方法のフローチャートである。図1に示すように、当該方法は、以下の操作を含む。
102:ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出する。
本実施例において、オブジェクト追跡が実行されるビデオは、たとえばビデオカメラおよびカメラなどを含むビデオ収集設備により取得された1くだりのビデオであってもよいし、たとえば光ディスク、ハードディスク、および、USBフラッシュディスクなどを含むストレージデバイスから取得された1くだりのビデオであってもよいし、ネットワークサーバーから取得された1くだりのビデオであってもよい。本実施例では、処理待ちのビデオの取得方法に対して限定しない。参考フレーム画像は、ビデオ中の最初のフレーム画像であってもよいし、ビデオに対しオブジェクト追跡処理が実行される最初のフレーム画像であってもよいし、ビデオ中の中間フレーム画像のいずれかであってもよい。本実施例では、参考フレーム画像の選別に対して限定しない。現在フレーム画像は、ビデオ中の参考フレーム画像を除く他の1フレーム画像であってもよいし、参考フレーム画像の前に位置してもよいし、参考フレーム画像の後に位置してもよい。本実施例では、それらに対して限定しない。オプションの一例において、ビデオ中の現在フレーム画像は、参考フレーム画像の後に位置する。
オプションとして、参考フレーム画像における目標オブジェクトの画像と現在フレーム画像との相関性を確定して、相関性に基づいて現在フレーム画像における少なくとも1つの候補オブジェクトの検出枠および選別情報を取得してもよい。オプションの一例において、参考フレーム画像における目標オブジェクトの画像の第1特徴および現在フレーム画像の第2特徴に基づいて、参考フレーム画像における目標オブジェクトの画像と現在フレーム画像との相関性を確定してもよい。例えば、畳み込み処理によって、その相関性を取得する。本実施例では、参考フレーム画像における目標オブジェクトの画像と現在フレーム画像との相関性の確定方法に対して限定しない。ただし、例えば、非最大抑制(non maximum suppression、NMS)の方法により候補オブジェクトの検出枠が取得され、候補オブジェクトの選別情報は、例えば、候補オブジェクトの検出枠の点数、選択される確率など情報であってもよい。本実施例では、相関性に基づいて候補オブジェクトの検出枠および選別情報を取得する方法に対して限定しない。
オプションの一例において、当該操作102は、メモリに格納された該当する命令を呼び出すプロセッサによって実行されてもよいし、プロセッサで実行される検出ユニットによって実行されてもよい。
104:ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得する。
本実施例において、前のフレーム画像には、参考フレーム画像、及び/又は、参考フレーム画像と現在フレーム画像との間に位置する少なくとも1つの中間フレーム画像が含まれる。
オプションとして、予め設定された干渉オブジェクトセットに基づいて、ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得してもよく、予め設定された干渉オブジェクト集合によりビデオ中の各フレーム画像をオブジェクト追跡処理する場合、現在フレーム画像における干渉オブジェクトとして、少なくとも1つの候補オブジェクトのうちの目標オブジェクトに確定されなかった1つまたは複数の候補オブジェクトを確定して、干渉オブジェクトセットに入れてもよい。オプションの一例において、干渉オブジェクトとして、目標オブジェクトに確定されなかった少なくとも1つの候補オブジェクトのうち、選別情報が干渉オブジェクトの所定の条件を満たす候補オブジェクトを確定して、干渉オブジェクトセットに入れてもよい。例えば、選別情報は、検出枠の点数であり、干渉オブジェクトの所定の条件は、検出枠の点数が所定閾値より大きいことであってもよい。
オプションの一例において、ビデオ中の全ての前のフレーム画像における干渉オブジェクトを取得する。
オプションの一例において、当該操作104は、メモリに格納された該当する命令を呼び出すプロセッサによって実行されてもよいし、プロセッサで実行される取得ユニットによって実行されてもよい。
106:取得された干渉オブジェクトに基づいて、少なくとも1つの候補オブジェクトの選別情報を調整する。
オプションとして、少なくとも1つの候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を確定して、第1類似度に基づいて少なくとも1つの候補オブジェクトの選別情報を調整してもよい。オプションの一例において、少なくとも1つの候補オブジェクトの特徴および取得された干渉オブジェクトの特徴に基づいて、少なくとも1つの候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を確定してもよい。オプションの一例において、選別情報は検出枠の点数であり、候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度がより高い場合、当該候補オブジェクトの検出枠の点数を下げる調整をしてもよく、逆に、候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度がより低い場合、当該候補オブジェクトの検出枠の点数を上げる調整をするか、または、点数をそのまま維持してもよい。
オプションとして、取得された干渉オブジェクトの数が1つではない場合、候補オブジェクトと取得された全ての干渉オブジェクトとの類似度の加重平均値を算出して、当該加重平均値を用いて当該候補オブジェクトの選別情報を調整してもよい。ただし、加重平均値中の各干渉オブジェクトの重みは、目標オブジェクトの選別に対する当該干渉オブジェクトの干渉度合に関連されている。例えば、目標オブジェクトの選別に対する干渉が大きいほど、干渉オブジェクトの重みの値が大きくなる。オプションの一例において、選別情報は検出枠の点数であり、候補オブジェクトと取得された干渉オブジェクトとの相関性係数で候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を表し、参考フレーム画像における目標オブジェクトと候補オブジェクトとの相関性係数と、候補オブジェクトと取得された干渉オブジェクトとの第1類似度と、の加重平均値の差分値によって、当該候補オブジェクトの検出枠の点数を調整してもよい。
オプションの一例において、当該操作106は、メモリに格納された該当する命令を呼び出すプロセッサによって実行されてもよいし、プロセッサで実行される調整ユニットによって実行されてもよい。
108:現在フレーム画像の目標オブジェクトとして、選別情報が所定の条件を満たす候補オブジェクトを確定する。
オプションとして、現在フレーム画像の目標オブジェクトの検出枠として、選別情報が所定の条件を満たす候補オブジェクトの検出枠を確定してもよい。オプションの一例において、選別情報は検出枠の点数であり、候補オブジェクトの検出枠の点数に基づいて候補オブジェクトをソートして、点数が一番高い候補オブジェクトの検出枠を現在フレーム画像の目標オブジェクトの検出枠として、現在フレーム画像における目標オブジェクトを確定してもよい。
オプションとして、さらに、候補オブジェクトの検出枠の位置および形状を、ビデオ中の現在フレーム画像の一つ前の1フレーム画像における目標オブジェクトの検出枠の位置および形状と比較して、比較結果に基づいて現在フレーム画像における候補オブジェクトの検出枠の点数を調整し、調整された現在フレーム画像における候補オブジェクトの検出枠の点数を再度ソートして、再度ソートされた後に点数が一番高い候補オブジェクトの検出枠を現在フレーム画像における目標オブジェクトの検出枠としてもよい。例えば、一つ前の1フレーム画像と比べて、位置の移動量が大きいし、形状の変化量が大きい候補オブジェクトの検出枠に対し、点数を下げる調整を行う。
オプションとして、現在フレーム画像の目標オブジェクトの検出枠として、選別情報が所定の条件を満たす候補オブジェクトの検出枠を確定した後に、さらに、現在フレーム画像において目標オブジェクトの位置をマークするように、現在フレーム画像に目標オブジェクトの検出枠を表示してもよい。
オプションの一例において、当該操作108は、メモリに格納された該当する命令を呼び出すプロセッサによって実行されてもよいし、プロセッサで実行される確定ユニットによって実行されてもよい。
本実施例に係るオブジェクト追跡方法によれば、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出し、ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得し、取得された干渉オブジェクトに基づいて、少なくとも1つの候補オブジェクトの選別情報を調整し、現在フレーム画像の目標オブジェクトとして、選別情報が所定の条件を満たす候補オブジェクトを確定し、オブジェクト追跡の過程において、現在フレーム画像の前のフレーム画像における干渉オブジェクトを用いて候補オブジェクトの選別情報を調整することによって、候補オブジェクトの選別情報を用いて現在フレーム画像における目標オブジェクトを確定する場合、候補オブジェクトにおける干渉オブジェクトを効果的に抑制でき、候補オブジェクトから目標オブジェクトを取得することによって、現在フレーム画像における目標オブジェクトを確定する過程において、目標オブジェクトの周囲の干渉オブジェクトによる判別結果に対する影響を効果的に抑制でき、オブジェクト追跡の判別能力を向上させることができる。
図4A〜図4Cは、本発明の一部の実施例のオブジェクト追跡方法の一適用例の概念図である。図4A〜図4Cに示すように、ここで、図4Aは、オブジェクト追跡を処理待ちビデオの現在フレーム画像を示し、図4Aにおいて、四角枠a、b、d、e、f、gは現在フレーム画像における候補オブジェクトの検出枠であり、四角枠cは現在フレーム画像における目標オブジェクトの検出枠であり、図4Bは、従来のオブジェクト追跡方法を用いて取得された現在フレーム画像における候補オブジェクトの検出枠の点数の概念図であり、図4Bにより、一番高い点数を取得すると予想される目標オブジェクト、即ち、四角枠cに対応する目標オブジェクトは、干渉オブジェクトの影響により一番高い点数が取得されなかったことが分かり、図4Cは、本発明の一部の実施例のオブジェクト追跡方法を用いて取得された現在フレーム画像における候補オブジェクトの検出枠の点数の概念図であり、図4Cにより、一番高い点数を取得すると予想される目標オブジェクト、即ち、四角枠cに対応する目標オブジェクトは、一番高い点数が取得され、その周囲の干渉オブジェクトの点数が抑制されたことが分かる。
一部の実施例において、オブジェクト追跡方法は、さらに、ビデオ中の参考フレーム画像と現在フレーム画像との間の少なくとも1つの中間フレーム画像における目標オブジェクトを取得し、取得された少なくとも1つの中間フレーム画像における目標オブジェクトに基づいて、少なくとも1つの候補オブジェクトの選別情報を最適化してもよい。オプションの一例において、少なくとも1つの候補オブジェクトと取得された少なくとも1つの中間フレーム画像における目標オブジェクトとの間の第2類似度を確定した後に、第2類似度に基づいて、少なくとも1つの候補オブジェクトの選別情報を最適化してもよい。例えば、少なくとも1つの候補オブジェクトの特徴および取得された少なくとも1つの中間フレーム画像における目標オブジェクトの特徴に基づいて、少なくとも1つの候補オブジェクトと取得された少なくとも1つの中間フレーム画像における目標オブジェクトとの間の第2類似度を確定してもよい。
オプションとして、ビデオ中の参考フレーム画像と現在フレーム画像との間の、既に目標オブジェクトが確定された少なくとも1つの中間フレーム画像から、目標オブジェクトを取得してもよい。オプションの一例において、ビデオ中の参考フレーム画像と現在フレーム画像との間の、既に目標オブジェクトが確定された全ての中間フレーム画像における目標オブジェクトを取得してもよい。
オプションとして、取得された目標オブジェクトの数は1つではない場合、候補オブジェクトと取得された全ての目標オブジェクトとの類似度の加重平均値を算出して、当該加重平均値を用いて当該候補オブジェクトの選別情報を最適化してもよく、ここで、加重平均値中の各目標オブジェクトの重みは、現在フレーム画像における目標オブジェクトの選別に対する当該目標オブジェクトの影響度合に関連されている。例えば、1フレーム画像の時点が現在フレーム画像の時点に接近するほど、目標オブジェクトの重みの値が大くなる。オプションの一例において、選別情報は検出枠の点数であり、候補オブジェクトと取得された干渉オブジェクトとの相関性係数で候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を表し、参考フレーム画像における目標オブジェクトと候補オブジェクトの相関性係数および候補オブジェクトと取得された目標オブジェクトの第2類似度との加重平均値と、候補オブジェクトと取得された干渉オブジェクトとの第1類似度の加重平均値と、の差分値によって、当該候補オブジェクトの検出枠の点数を調整してもよい。
本実施例によれば、ビデオ中の参考フレーム画像と現在フレーム画像との間から1つの中間フレーム画像の目標オブジェクトを取得して、候補オブジェクトの選別情報を最適化することによって、取得された現在フレーム画像における候補オブジェクトの選別情報が各候補オブジェクトの属性をより正しく反映できるため、処理待ちのビデオ中の現在フレーム画像における目標オブジェクトの位置を確定する際に、より正確な判別結果を取得できる。
一部の実施例において、操作102では、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出する前に、さらに、演算スピードを向上させるように、現在フレーム画像における検索領域を取得してもよい。操作102では、現在フレーム画像における検索領域において、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出してもよい。ただし、現在フレーム画像における検索領域を取得する操作では、予め設定されたの検索アルゴリズムにより、現在フレーム画像における目標オブジェクトの出現する可能性のある領域を推定および仮定してもよい。
オプションとして、操作108では、現在フレーム画像の目標オブジェクトとして選別情報が所定の条件を満たす候補オブジェクトを確定した後に、さらに、現在フレーム画像における目標オブジェクトの選別情報に基づいて、ビデオ中の現在フレーム画像の次の1フレーム画像における検索領域を確定してもよい。以下、図2に参考して、現在フレーム画像における目標オブジェクトの選別情報に基づいて、ビデオ中の現在フレーム画像の次の1フレーム画像における検索領域を確定するフローについて、詳しく説明する。図2に示すように、当該方法は、以下の操作を含む。
202:目標オブジェクトの選別情報が第1所定閾値未満であるか否かを検出する。
オプションとして、第1所定閾値は、目標オブジェクトの選別情報および目標オブジェクトが遮れた状態、または、視野から離れた状態に基づいて、統計して確定されてもよい。オプションの一例において、選別情報は、目標オブジェクトの検出枠の点数である。
目標オブジェクトの選別情報が第1所定閾値未満である場合、操作204を実行し、及び/又は、目標オブジェクトの選別情報が第1所定閾値以上である場合、操作206を実行する。
204:予め設定されたステップ幅に基づいて、検索領域を、当該検索領域が現在フレーム画像を覆うまで次第に拡張し、拡張された検索領域を現在フレーム画像の次の1フレーム画像における検索領域とする。
オプションとして、操作204の後に、さらに、ビデオ中の現在フレーム画像の次の1フレーム画像を現在フレーム画像とし、拡張された検索領域において現在フレーム画像の目標オブジェクトを確定してもよい。
206:ビデオ中の現在フレーム画像の次の1フレーム画像を現在フレーム画像とし、現在フレーム画像における検索領域を取得する。
オプションとして、ビデオ中の現在フレーム画像の次の1フレーム画像を現在フレーム画像とし、現在フレーム画像における検索領域を取得した後に、さらに、現在フレーム画像における検索領域において現在フレーム画像の目標オブジェクトを確定してもよい。
オプションの一例において、これら操作202〜206は、メモリに格納された該当する命令を呼び出すプロセッサによって実行されてもよいし、プロセッサで実行される検索ユニットによって実行されてもよい。
本実施例によれば、現在フレーム画像における目標オブジェクトの選別情報と第1所定閾値とを比較して、現在フレーム画像における目標オブジェクトの選別情報が第1所定閾値未満である場合、検索領域を、当該検索領域が前記現在フレーム画像を覆うまで拡張することによって、オブジェクトを追跡する現在フレーム画像において、目標オブジェクトが遮れた場合、または、目標オブジェクトが視野から離れる場合、現在フレーム画像と同一な拡張された検索領域を用いて現在フレーム画像全体を覆って、次の1フレーム画像に対してオブジェクト追跡を実行する際に、拡張された検索領域が次の1フレーム画像全体を覆い、目標オブジェクトが次の1フレーム画像に出現された場合、拡張された検索領域が次の1フレーム画像全体を覆うため、目標オブジェクトが検索領域以外の領域に出現されて目標オブジェクトを追跡できない状況が発生されなくなり、目標オブジェクトの長期間追跡を実現できる。
一部の実施例において、操作204では、予め設定されたステップ幅に基づいて前記検索領域を次第に拡張して、拡張された検索領域が前記現在フレーム画像を覆った後に、さらに、ビデオ中の現在フレーム画像の次の1フレーム画像を現在フレーム画像とし、現在フレーム画像における検索領域として、拡張された検索領域を取得し、拡張された検索領域において現在フレーム画像の目標オブジェクトを確定してもよく、また、さらに、現在フレーム画像における目標オブジェクトの選別情報に基づいて、現在フレーム画像における検索領域を復元する必要があるか否かを確定してもよい。以下、図3に参考して、現在フレーム画像における目標オブジェクトの選別情報に基づいて現在フレーム画像における検索領域の復元を確定するフローについて、詳しく説明する。図3に示すように、当該方法は、以下の操作を含む。
302:目標オブジェクトの選別情報が第2所定閾値より大きいか否かを検出する。
ここで、第2所定閾値は、第1所定閾値より大きいし、第2所定閾値は、目標オブジェクトの選別情報と目標オブジェクトが遮れない状態および視野から離れない状態に基づいて、統計して確定されてもよい。
目標オブジェクトの選別情報が第2所定閾値より大きい場合、操作304を実行し、及び/又は、目標オブジェクトの選別情報が第2所定閾値以下である場合、操作306を実行する。
304:現在フレーム画像における検索領域を取得する。
オプションとして、操作304の後、現在フレーム画像における検索領域において現在フレーム画像の目標オブジェクトを確定する。
306:ビデオ中の現在フレーム画像の次の1フレーム画像を現在フレーム画像とし、現在フレーム画像における検索領域として拡張された検索領域を取得する。
ただし、ビデオ中の現在フレーム画像の次の1フレーム画像を現在フレーム画像とし、現在フレーム画像における検索領域像として拡張された検索領域を取得した後に、さらに、拡張された検索領域において現在フレーム画像の目標オブジェクトを確定してもよい。
オプションの一例において、当該操作302〜306は、メモリに格納された該当する命令を呼び出すプロセッサによって実行されてもよいし、プロセッサで実行される検索ユニットによって実行されてもよい。
本実施例において、現在フレーム画像における目標オブジェクトの選別情報に基づいて検索領域が拡張された次の1フレーム画像に対してオブジェクト追跡を実行する場合、次の1フレーム画像を現在フレーム画像とした後に、現在フレーム画像における目標オブジェクトの選別情報と第2所定閾値とを比較する。現在フレーム画像における目標オブジェクトの選別情報が第2所定閾値より大きい場合、現在フレーム画像における検索領域を取得し、検索領域において現在フレーム画像の目標オブジェクトを確定して、オブジェクト追跡の現在フレーム画像における目標オブジェクトが遮れない場合および目標オブジェクトが視野から離れない場合、元のオブジェクト追跡方法に復元し、すなわち、予め設定された検索アルゴリズムを用いて現在フレーム画像における検索領域を取得してオブジェクト追跡を実行してもよい。このように、データの処理量を減少でき、演算スピードを向上させることができる。
図4Dおよび図4Eは、本発明の一部の実施例のオブジェクト追跡方法の他の適用例の概念図である。図4Dおよび図4Eに示すように、ここで、図4Dは、オブジェクト追跡のビデオの4フレーム画像であり、図4Dにおいて、4フレーム画像の番号はそれぞれ692、697、722、および、727であり、四角枠aは、現在フレーム画像の検索領域を確定する検索枠であり、四角枠bは、目標オブジェクトの真の輪郭を表す四角枠であり、c四角枠は、目標追跡の検出枠であり、図4Dにより、697と722の2フレーム画像の目標オブジェクトが両方とも視野範囲内にいないことが分かり、そのため、検索領域を拡張したところ、692と727の2フレーム画像の目標オブジェクトが両方とも再び視野範囲内に戻るため、検索領域を再び正常の検索領域に復元する。図4Eは、図4Dにおける目標オブジェクトの点数の変化状況、および、目標オブジェクトと検出枠との重なり状況の変化を示す概念図である。そのうち、d線は目標オブジェクトの点数の変化状況を表し、e線は目標オブジェクトと検出枠との重なり状況を表し、図4Dにより、目標オブジェクトの点数が697で急に減少されつつ、目標オブジェクトと検出枠との重なり状況も697で急に減少され、目標オブジェクトの点数が722で既に大きい値に復元され、目標オブジェクトと検出枠との重なり状況も722で急に増加されることが分かり、そのため、目標オブジェクトの点数の判断を用いて、目標オブジェクトが視野範囲にいない場合または遮れたオブジェクトの追跡する場合に存在する問題を改善できる。
一部の実施例において、操作108では、現在フレーム画像の目標オブジェクトとして選別情報が所定の条件を満たす候補オブジェクトを確定した後に、さらに、現在フレーム画像における目標オブジェクトの種類を認識して、オブジェクト追跡の機能を補強し、オブジェクト追跡の適用シナリオを拡張できる。
一部の実施例において、上記の各実施例のオブジェクト追跡方法は、ニューラルネットワークによって実行できる。
オプションとして、オブジェクト追跡方法を実行する前に、サンブル画像に基づいて、ニューラルネットワークを訓練してもよい。ただし、ニューラルネットワークを訓練するためのサンブル画像は、ポジティブサンプルおよびネガティブサンプルを含み、そのうち、ポジティブサンプルは、予め設定された訓練データセット中のポジティブサンプル画像および予め設定されたテストデータセット中のポジティブサンプル画像を含む。例えば、予め設定された訓練データセットは、Youtube BBおよびVIDからのビデオシーケンスを使用してもよく、予め設定されたテストデータセットは、ImageNetおよびCOCOからの検出データを使用してもよい。本実施例によれば、テストデータセット中のポジティブサンプル画像を使用して、ニューラルネットワークを訓練して、ポジティブサンプルの種類を増加させ、ニューラルネットワークの汎化性能を確保でき、オブジェクト追跡の判別能力を向上させることができる。
オプションとして、ポジティブサンプルには、予め設定された訓練データセット中のポジティブサンプル画像および予め設定されたテストデータセット中のポジティブサンプル画像に加え、予め設定されたテストデータセット中のポジティブサンプル画像のデータ強調処理によって取得されたポジティブサンプル画像がさらに含まれてもよい。例えば、平行移動、スケール変化、光線変化などの通常のデータ強調処理に加え、動きぼけなどの特定運動モードに対するデータ強調処理を使用してもよい。本実施例では、データ強調処理方法に対して限定しない。本実施例において、テストデータセット中のポジティブサンプル画像に対しデータ強調処理を実行して、ポジティブサンプル画像を取得し、ポジティブサンプル画像でニューラルネットワークを訓練して、ポジティブサンプル画像の多様性を増加し、ニューラルネットワークのロバスト性を向上させて、オーバーフィッティングを避けることができる。
オプションとして、ネガティブサンプルには、目標オブジェクトと同じ種類のオブジェクトを有するネガティブサンプル画像、及び/又は、目標オブジェクトと異なる種類のオブジェクトを有するネガティブサンプル画像が含まれてもよい。例えば、予め設定されたテストデータセット中のポジティブサンプル画像に基づいて取得されたネガティブサンプル画像は、予め設定されたテストデータセット中のポジティブサンプル画像における目標オブジェクトの周囲の背景から選択した画像であってもよい。それら2種類のネガティブサンプル画像は、一般的に、セマンティックを有さない画像である。一方、目標オブジェクトと同じ種類のオブジェクトを有するネガティブサンプル画像は、他のビデオまたは画像からランダムに抽出された1フレーム画像であってもよく、当該画像におけるオブジェクトは、ポジティブサンプル画像における目標オブジェクトと同じ種類である。目標オブジェクトと異なる種類のオブジェクトを有するネガティブサンプル画像は、他のビデオまたは画像からランダムに抽出された1フレーム画像であってもよく、当該画像におけるオブジェクトは、ポジティブサンプル画像における目標オブジェクトと異なる種類であり、これら2種類のネガティブサンプル画像は、一般的に、セマンティックを有する画像である。本実施例において、目標オブジェクトと同じ種類のオブジェクトを有するネガティブサンプル画像、及び/又は、目標オブジェクトと異なる種類のオブジェクトを有するネガティブサンプル画像を使用してニューラルネットワークを訓練して、ポジティブ・ネガティブサンプル画像の分布バランスを確保でき、ニューラルネットワークの性能を改善して、オブジェクト追跡の判別能力を向上させることができる。
本発明の実施例に係る任意のオブジェクト追跡方法は、データ処理能力を有する任意の適宜な設備によって実行されてもよく、当該設備は端末設備およびサーバーなどを含むが、これらに限定されない。あるいは、本発明の実施例によって提供されるオブジェクト追跡方法は、プロセッサによって実行されてもよく、例えば、プロセッサは、メモリに記憶された該当する命令呼び出して、本発明の実施例に言及された任意のオブジェクト追跡方法を実行する。以下、繰り返して説明しない。
当業者は、プログラム命令に関連するハードウェアによって上記の方法の実施例の全てのステップ或いは一部のステップが実現されることでき、前述したプログラムは、コンピュータ可読記憶媒体に記憶され、当該プログラムが実行されると、上記の方法の実施例のステップが実行され、前述した記憶媒体には、ROM、RAM、磁気ディスク、または光ディスクなどの各種類の、プログラムコードを記憶する媒体が含まれることを理解できる。
図5は、本発明の一部の実施例のオブジェクト追跡装置を示すブロック図である。図5に示すように、当該装置は、検出ユニット510と、取得ユニット520と、調整ユニット530と、確定ユニット540とを含む。そのうち、
検出ユニット510は、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出する。
本実施例において、オブジェクト追跡が実行されるビデオは、たとえばビデオカメラおよびカメラなどを含むビデオ収集設備により取得された1くだりのビデオであってもよいし、たとえば光ディスク、ハードディスク、および、USBフラッシュディスクなどを含むストレージデバイスから取得された1くだりのビデオであってもよいし、ネットワークサーバーから取得された1くだりのビデオであってもよい。本実施例では、処理待ちのビデオの取得方法に対して限定しない。参考フレーム画像は、ビデオ中の最初のフレーム画像であってもよいし、ビデオに対しオブジェクト追跡処理が実行される最初のフレーム画像であってもよいし、ビデオ中の中間フレーム画像のいずれかであってもよい。本実施例では、参考フレーム画像の選別に対して限定しない。現在フレーム画像は、ビデオ中の参考フレーム画像を除く他の1フレーム画像であってもよいし、参考フレーム画像の前に位置してもよいし、参考フレーム画像の後に位置してもよい。本実施例では、それらに対して限定しない。オプションの一例において、ビデオ中の現在フレーム画像は、参考フレーム画像の後に位置する。
オプションとして、検出ユニット510は、参考フレーム画像における目標オブジェクトの画像と現在フレーム画像との相関性を確定し、相関性に基づいて現在フレーム画像における少なくとも1つの候補オブジェクトの検出枠および選別情報を取得してもよい。オプションの一例において、検出ユニット510は、参考フレーム画像における目標オブジェクトの第1特徴および現在フレーム画像の第2特徴に基づいて、参考フレーム画像における目標オブジェクトの画像と現在フレーム画像との相関性を確定する。例えば、畳み込み処理によって、その相関性を取得する。本実施例では、参考フレーム画像における目標オブジェクトの画像と現在フレーム画像との相関性の確定方法に対して限定しない。ここで、候補オブジェクトの検出枠は、例えば、非最大抑制(non maximum suppression、NMS)の方法によって取得され、候補オブジェクトの選別情報は、候補オブジェクト自身の性質と関連がある情報であってもよく、これら情報に基づいて当該候補オブジェクトを他の候補オブジェクトと区別してもよい。例えば、これら情報は、候補オブジェクトの検出枠の点数、選択される確率などの情報であってもよく、ここで、検出枠の点数、選択される確率は、相関性に基づいて取得された候補オブジェクトの相関性係数であってもよい。本実施例では、相関性に基づいて候補オブジェクトの検出枠および選別情報を取得する方法に対して限定しない。
取得ユニット520は、ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得する。
本実施例において、前のフレーム画像は、参考フレーム画像、及び/又は、参考フレーム画像と現在フレーム画像との間に位置する少なくとも1つの中間フレーム画像を含む。
オプションとして、取得ユニット520は、予め設定された干渉オブジェクトセットに基づいて、ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得して、予め設定された干渉オブジェクトセットによりビデオ中の各フレーム画像をオブジェクト追跡処理する場合、現在フレーム画像における干渉オブジェクトとして、少なくとも1つの候補オブジェクトのうちの目標オブジェクトに確定されなかった1つまたは複数の候補オブジェクトを確定して、干渉オブジェクトセットに入れてもよい。オプションの一例において、干渉オブジェクトとして、目標オブジェクトに確定されなかった少なくとも1つの候補オブジェクトのうち選別情報が干渉オブジェクトの所定の条件を満たす候補オブジェクトを確定して、干渉オブジェクトセットに入れてもよい。例えば、選別情報は、検出枠の点数であり、干渉オブジェクトの所定の条件は、検出枠の点数が所定閾値より大きいことであってもよい。
オプションの一例において、取得ユニット520は、ビデオ中の全ての前のフレーム画像における干渉オブジェクトを取得する。
調整ユニット530は、取得された干渉オブジェクトに基づいて、少なくとも1つの候補オブジェクトの選別情報を調整する。
オプションとして、調整ユニット530は、少なくとも1つの候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を確定して、第1類似度に基づいて、少なくとも1つの候補オブジェクトの選別情報を調整してもよい。オプションの一例において、調整ユニット530は、少なくとも1つの候補オブジェクトの特徴および取得された干渉オブジェクトの特徴に基づいて、少なくとも1つの候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を確定してもよい。オプションの一例において、選別情報は検出枠の点数であり、候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度がより高い場合、当該候補オブジェクトの検出枠の点数を下げる調整をしてもよく、逆に、候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度がより低い場合、当該候補オブジェクトの検出枠の点数を上げる調整をするか、または、点数をそのまま維持してもよい。
オプションとして、取得された干渉オブジェクトの数が1つではない場合、候補オブジェクトと取得された全ての干渉オブジェクトとの類似度の加重平均値を算出して、当該加重平均値を用いて当該候補オブジェクトの選別情報を調整してもよい。ただし、加重平均値中の各干渉オブジェクトの重みは、目標オブジェクトの選別に対する当該干渉オブジェクトの干渉度合に関連されている。例えば、目標オブジェクトの選別に対する干渉が大きいほど、干渉オブジェクトの重みの値が大きくなる。オプションの一例において、選別情報は検出枠の点数であり、候補オブジェクトと取得された干渉オブジェクトとの相関性係数で候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を表し、参考フレーム画像における目標オブジェクトと候補オブジェクトとの相関性係数と、候補オブジェクトと取得された干渉オブジェクトとの第1類似度と、の加重平均値の差分値によって、当該候補オブジェクトの検出枠の点数を調整してもよい。
確定ユニット540は、現在フレーム画像の目標オブジェクトとして、選別情報が所定の条件を満たす候補オブジェクトを確定する。
オプションとして、確定ユニット540は、現在フレーム画像の目標オブジェクトの検出枠として、選別情報が所定の条件を満たす候補オブジェクトの検出枠を確定してもよい。オプションの一例において、選別情報は検出枠の点数であり、候補オブジェクトの検出枠の点数に基づいて候補オブジェクトをソートして、点数が一番高い候補オブジェクトの検出枠を現在フレーム画像の目標オブジェクトの検出枠として、現在フレーム画像における目標オブジェクトを確定してもよい。
オプションとして、さらに、候補オブジェクトの検出枠の位置および形状を、ビデオ中の現在フレーム画像の一つ前の1フレーム画像における目標オブジェクトの検出枠の位置および形状と比較して、比較結果に基づいて現在フレーム画像における候補オブジェクトの検出枠の点数を調整し、調整された現在フレーム画像における候補オブジェクトの検出枠の点数を再度ソートして、再度ソートされた点数が一番高い候補オブジェクトの検出枠を現在フレーム画像における目標オブジェクトの検出枠としてもよい。例えば、一つ前の1フレーム画像と比べて、位置の移動量が大きいし、形状の変化量が大きい候補オブジェクトの検出枠に対し、点数を下げる調整を行う。
オプションとして、当該装置は、表示ユニットをさらに備えてもよく、現在フレーム画像の目標オブジェクトの検出枠として選別情報が所定の条件を満たす候補オブジェクトの検出枠を確定した後に、表示ユニットは、さらに、現在フレーム画像において目標オブジェクトの位置をマークするように、現在フレーム画像に目標オブジェクトの検出枠を表示してもよい。
本実施例に係るオブジェクト追跡装置によれば、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出し、ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得し、取得された干渉オブジェクトに基づいて、少なくとも1つの候補オブジェクトの選別情報を調整し、現在フレーム画像の目標オブジェクトとして、選別情報が所定の条件を満たす候補オブジェクトを確定し、オブジェクト追跡の過程において、現在フレーム画像の前のフレーム画像における干渉オブジェクトを用いて候補オブジェクトの選別情報を調整することによって、候補オブジェクトの選別情報を用いて現在フレーム画像における目標オブジェクトを確定する場合、候補オブジェクトにおける干渉オブジェクトを効果的に抑制でき、候補オブジェクトから目標オブジェクトを取得することによって、現在フレーム画像における目標オブジェクトを確定する過程において、目標オブジェクトの周囲の干渉オブジェクトによる判別結果に対する影響を効果的に抑制でき、オブジェクト追跡の判別能力を向上させることができる。
一部の実施例において、ユニット520は、さらに、ビデオ中の参考フレーム画像と現在フレーム画像との間の少なくとも1つの中間フレーム画像における目標オブジェクトを取得してもよく、当該装置は、取得された少なくとも1つの中間フレーム画像における目標オブジェクトに基づいて、少なくとも1つの候補オブジェクトの選別情報を最適化するための最適化ユニットをさらに備えてもよい。オプションの一例において、最適化ユニットは、少なくとも1つの候補オブジェクトと取得された少なくとも1つの中間フレーム画像における目標オブジェクトとの間の第2類似度を確定した後に、第2類似度に基づいて少なくとも1つの候補オブジェクトの選別情報を最適化してもよい。例えば、最適化ユニットは、少なくとも1つの候補オブジェクトの特徴および取得された少なくとも1つの中間フレーム画像における目標オブジェクトの特徴に基づいて、少なくとも1つの候補オブジェクトと取得された少なくとも1つの中間フレーム画像における目標オブジェクトとの間の第2類似度を確定してもよい。
オプションとして、取得ユニット520は、ビデオ中の参考フレーム画像と現在フレーム画像との間の、既に目標オブジェクトが確定された少なくとも1つの中間フレーム画像から目標オブジェクトを取得してもよい。オプションの一例において、取得ユニット520は、ビデオ中の参考フレーム画像と現在フレーム画像との間の、既に目標オブジェクトが確定された全ての中間フレーム画像における目標オブジェクトを取得する。
オプションとして、取得された目標オブジェクトの数は1つではない場合、候補オブジェクトと取得された全ての目標オブジェクトとの類似度の加重平均値を算出して、当該加重平均値を用いて当該候補オブジェクトの選別情報を最適化してもよく、ここで、加重平均値中の各目標オブジェクトの重みは、現在フレーム画像における目標オブジェクトの選別に対する当該目標オブジェクトの影響度合に関連されている。例えば、1フレーム画像の時点が現在フレーム画像の時点に接近するほど、目標オブジェクトの重みの値が大くなる。オプションの一例において、選別情報は検出枠の点数であり、候補オブジェクトと取得された干渉オブジェクトとの相関性係数で候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を表し、参考フレーム画像における目標オブジェクトと候補オブジェクトの相関性係数および候補オブジェクトと取得された目標オブジェクトの第2類似度との加重平均値と、候補オブジェクトと取得された干渉オブジェクトとの第1類似度の加重平均値と、の差分値によって、当該候補オブジェクトの検出枠の点数を調整してもよい。
本実施例によれば、ビデオ中の参考フレーム画像と現在フレーム画像との間から1つの中間フレーム画像の目標オブジェクトを取得して、候補オブジェクトの選別情報を最適化することによって、取得された現在フレーム画像における候補オブジェクトの選別情報が各候補オブジェクトの属性をより正しく反映できるため、処理待ちのビデオ中の現在フレーム画像における目標オブジェクトの位置を確定する際に、より正確な判別結果を取得できる。
図6は、本発明の他の実施例のオブジェクト追跡装置を示すブロック図である。図6に示すように、当該装置は、図5に示す実施例と比較すると、検出ユニット610と、取得ユニット620と、調整ユニット630と、確定ユニット640に加え、検索ユニット650をさらに含む。検索ユニット650は、現在フレーム画像における検索領域を取得し、検出ユニット610は、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、検索領域においてビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出する。ただし、現在フレーム画像における検索領域を取得する操作では、予め設定されたの検索アルゴリズムにより、現在フレーム画像における目標オブジェクトの出現する可能性のある領域を推定および仮定してもよい。
オプションとして、検索ユニット650は、さらに、現在フレーム画像における目標オブジェクトの選別情報に基づいて、検索領域を確定する。
一部の実施例において、検索ユニット650は、目標オブジェクトの選別情報が第1所定閾値未満であるか否かを検出し、目標オブジェクトの選別情報が第1所定閾値未満である場合、予め設定されたステップ幅に基づいて、検索領域を、当該検索領域が現在フレーム画像を覆うまで次第に拡張し、及び/又は、目標オブジェクトの選別情報が第1所定閾値以上である場合、ビデオ中の現在フレーム画像の次の1フレーム画像を現在フレーム画像として、現在フレーム画像における検索領域を取得する。
本実施例によれば、現在フレーム画像における目標オブジェクトの選別情報と第1所定閾値とを比較して、現在フレーム画像における目標オブジェクトの選別情報が第1所定閾値未満である場合、検索領域を、当該検索領域が前記現在フレーム画像を覆うまで拡張することによって、オブジェクトを追跡する現在フレーム画像において、目標オブジェクトが遮れた場合、または、目標オブジェクトが視野から離れる場合、現在フレーム画像と同一な拡張された検索領域を用いて現在フレーム画像全体を覆って、次の1フレーム画像に対してオブジェクト追跡を実行する際に、拡張された検索領域が次の1フレーム画像全体を覆い、目標オブジェクトが次の1フレーム画像に出現された場合、拡張された検索領域が次の1フレーム画像全体を覆うため、目標オブジェクトが検索領域以外の領域に出現されて目標オブジェクトを追跡できない状況が発生されなくなり、目標オブジェクトの長期間追跡を実現できる。
一部の実施例において、検索ユニット650は、さらに、拡張された検索領域において現在フレーム画像の目標オブジェクトを確定した後、目標オブジェクトの選別情報が第1所定閾値よりも大きい第2所定閾値より大きいか否かを検出し、目標オブジェクトの選別情報が第2所定閾値より大きい場合、現在フレーム画像における検索領域を取得し、及び/又は、目標オブジェクトの選別情報が第2所定閾値以下である場合、ビデオ中の現在フレーム画像の次の1フレーム画像を現在フレーム画像として、現在フレーム画像における検索領域として拡張された検索領域を取得する。
本実施例において、現在フレーム画像における目標オブジェクトの選別情報に基づいて検索領域が拡張された次の1フレーム画像に対してオブジェクト追跡を実行する場合、次の1フレーム画像を現在フレーム画像とした後に、現在フレーム画像における目標オブジェクトの選別情報と第2所定閾値とを比較する。現在フレーム画像における目標オブジェクトの選別情報が第2所定閾値より大きい場合、現在フレーム画像における検索領域を取得し、検索領域において現在フレーム画像の目標オブジェクトを確定して、オブジェクト追跡の現在フレーム画像における目標オブジェクトが遮れない場合および目標オブジェクトが視野から離れない場合、元のオブジェクト追跡方法に復元し、すなわち、予め設定された検索アルゴリズムを用いて現在フレーム画像における検索領域を取得してオブジェクト追跡を実行してもよい。このように、データの処理量を減少でき、演算スピードを向上させることができる。
一部の実施例において、オブジェクト追跡装置は、現在フレーム画像の目標オブジェクトとして選別情報が所定の条件を満たす候補オブジェクトを確定した後に、さらに、現在フレーム画像における目標オブジェクトの種類を認識して、オブジェクト追跡の機能を補強し、オブジェクト追跡の適用シナリオを拡張できる。
一部の実施例において、オブジェクト追跡装置は、オブジェクト追跡方法を実行するニューラルネットワークを含む。
オプションとして、オブジェクト追跡方法を実行する前に、サンブル画像に基づいて、ニューラルネットワークを訓練してもよい。ただし、ニューラルネットワークを訓練するためのサンブル画像は、ポジティブサンプルおよびネガティブサンプルを含み、そのうち、ポジティブサンプルは、予め設定された訓練データセット中のポジティブサンプル画像および予め設定されたテストデータセット中のポジティブサンプル画像を含む。例えば、予め設定された訓練データセットは、Youtube BBおよびVIDからのビデオシーケンスを使用してもよく、予め設定されたテストデータセットは、ImageNetおよびCOCOからの検出データを使用してもよい。本実施例によれば、テストデータセット中のポジティブサンプル画像を使用して、ニューラルネットワークを訓練して、ポジティブサンプルの種類を増加させ、ニューラルネットワークの汎化性能を確保でき、オブジェクト追跡の判別能力を向上させることができる。
オプションとして、ポジティブサンプルには、予め設定された訓練データセット中のポジティブサンプル画像および予め設定されたテストデータセット中のポジティブサンプル画像に加え、予め設定されたテストデータセット中のポジティブサンプル画像のデータ強調処理によって取得されたポジティブサンプル画像がさらに含まれてもよい。例えば、平行移動、スケール変化、光線変化などの通常のデータ強調処理に加え、動きぼけなどの特定運動モードに対するデータ強調処理を使用してもよい。本実施例では、データ強調処理方法に対して限定しない。本実施例において、テストデータセット中のポジティブサンプル画像に対しデータ強調処理を実行して、ポジティブサンプル画像を取得し、ポジティブサンプル画像でニューラルネットワークを訓練して、ポジティブサンプル画像の多様性を増加し、ニューラルネットワークのロバスト性を向上させて、オーバーフィッティングを避けることができる。
オプションとして、ネガティブサンプルには、目標オブジェクトと同じ種類のオブジェクトを有するネガティブサンプル画像、及び/又は、目標オブジェクトと異なる種類のオブジェクトを有するネガティブサンプル画像が含まれてもよい。例えば、予め設定されたテストデータセット中のポジティブサンプル画像に基づいて取得されたネガティブサンプル画像は、予め設定されたテストデータセット中のポジティブサンプル画像における目標オブジェクトの周囲の背景から選択した画像であってもよい。それら2種類のネガティブサンプル画像は、一般的に、セマンティックを有さない画像である。一方、目標オブジェクトと同じ種類のオブジェクトを有するネガティブサンプル画像は、他のビデオまたは画像からランダムに抽出された1フレーム画像であってもよく、当該画像におけるオブジェクトは、ポジティブサンプル画像における目標オブジェクトと同じ種類である。目標オブジェクトと異なる種類のオブジェクトを有するネガティブサンプル画像は、他のビデオまたは画像からランダムに抽出された1フレーム画像であってもよく、当該画像におけるオブジェクトは、ポジティブサンプル画像における目標オブジェクトと異なる種類であり、これら2種類のネガティブサンプル画像は、一般的に、セマンティックを有する画像である。本実施例において、目標オブジェクトと同じ種類のオブジェクトを有するネガティブサンプル画像、及び/又は、目標オブジェクトと異なる種類のオブジェクトを有するネガティブサンプル画像を使用してニューラルネットワークを訓練して、ポジティブ・ネガティブサンプル画像の分布バランスを確保でき、ニューラルネットワークの性能を改善して、オブジェクト追跡の判別能力を向上させることができる。
オプションの一例において、他の方法を使用して取得された訓練データの「ラベル付きデータ」が比較的スパースであり、すなわち、デプスマップにおける有效ピクセル値が比較的少ないため、訓練データの「ラベル付きデータ」として、両眼画像のステレオマッチングによって取得されたデプスマップを使用する。
また、本発明の実施例は、例えば、モバイル端末、パソコン(PC)、タブレット、サーバーなどの電子設備をさらに提供する。図7は、本発明の実施例の端末設備、または、サーバーを実現するための電子設備700の構成を示す概念図である。以下、図7を参考しながら、説明する。図7に示すように、電子設備700は、1つまたは複数のプロセッサ、通信部などを含み、前記1つまたは複数のプロセッサは、例えば、1つまたは複数の中央処理ユニット(CPU)701、及び/又は、1つまたは複数の画像プロセッサ(GPU)713などであり、プロセッサは、読み取り専用メモリ(ROM)702に記憶された実行可能命令、または、記憶部708からランダムアクセスメモリ(RAM)703にロードされた実行可能命令に基づいて、各種類の適宜な動作および処理を実行する。通信部712は、ネットワークカードを含むが、これに限定されない。前記ネットワークカードは、IB(Infiniband)ネットワークカードを含むが、これに限定されない。プロセッサは、読み取り専用メモリ702、及び/又は、ランダムアクセスメモリ730と通信して、実行可能命令を実行し、バス704を介して通信部712に接続され、通信部712を介して他の目標設備と通信して、本発明の実施例によって提供される任意の方法に対応する操作を完成する。例えば、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出し、前記ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得し、取得された干渉オブジェクトに基づいて前記少なくとも1つの候補オブジェクトの選別情報を調整し、前記現在フレーム画像の目標オブジェクトとして前記選別情報が所定の条件を満たす候補オブジェクトを確定する。
なお、RAM 703には、装置の操作に必要な各種類のプログラムおよびデータが記憶されてもよい。CPU701、ROM702、RAM703は、バス704を介して、互いに接続される。RAM703がある場合には、ROM702がオプションの候補モジュールである。RAM703は、中央処理ユニット701に上記オブジェクト追跡方法に対応する操作を実行させる実行可能命令を記憶したり、稼働中にROM702に書き込んだりする。入出力(I/O)インターフェース705も、バス704に接続される。通信部712は、統合設置されるものであってもよいし、複数のサブモジュール(例えば、複数のIBネットワークカード)を有し、且つバスに接続されるように設置されるものであってもよい。
I/Oインターフェース705には、キーボード、マウスなどを含む入力部706と、陰極線管(CRT)、液晶ディスプレイ(LCD)など、および、スピーカーなどを含む出力部707と、ハードディスクなどを含む記憶部708と、LANカード、モデムなどを含むネットワークインターフェースカードの通信部709と、が接続される。通信部709は、インターネットなどのネットワークを介して、通信処理を実行する。ドライバ710も、必要に応じて、I/Oインターフェース705に接続される。リムーバブル媒体711は、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどであり、ドライバ710から読み取られたコンピュータプログラムを必要に応じて記憶部708にインストールするように、必要に応じてドライバ710に取り付ける。
図7に示す構成は、オプションの一実現形態に過ぎず、実現する過程において、必要に応じて、上記の図7の部品の数や種類を、選択、削除、追加、置換してもよいし、異なる機能を持つ部品の配置には、分離設置または統合設置など実現形態を使用してもよいし、例えば、GPU713とCPU701とは分離設置してもよいし、または、GPU713をCPU701に整合してもよいし、通信部を分離設置してもよく、CPU701またはGPU713に整合するように設置してもよい。これらの置換可能な実施形態はすべて、本発明の保護範囲に入ることを説明する必要がある。
特に、本発明の実施例によれば、上記でフローチャートを参考して説明された過程は、コンピュータソフトウェアプログラムとして実現されてもよい。例えば、本発明の実施例は、コンピュータプログラム製品を含み、当該コンピュータプログラム製品は、コンピュータ可読媒体に有形に含まれたコンピュータプログラムを含み、前記コンピュータプログラムは、フローチャートに示される方法を実現するためのプログラムコードを含み、前記プログラムコードは、本発明の実施例によって提供される方法のステップに対応する命令を含んでもよく、前記方法のステップは、例えば、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出することと、前記ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得することと、取得された干渉オブジェクトに基づいて、前記少なくとも1つの候補オブジェクトの選別情報を調整することと、前記現在フレーム画像の目標オブジェクトとして、選別情報が所定の条件を満たす候補オブジェクトを確定することと、を含む。このような実施例では、当該コンピュータプログラムが通信部709を介してネットワークからダウンロードしてインストールされ、及び/又は、リムーバブル記憶媒体711からインストールされてもよい。当該コンピュータプログラムは、中央処理ユニット(CPU)701によって実行されると、本発明の方法の上記機能が実現される。
1つまたは複数の好適な実施例において、本発明の実施例は、コンピュータ可読な命令を記憶するためのコンピュータプログラム製品をさらに提供し、当該命令が実行されると、コンピュータが上記のいずれかの実施態様の画像復元方法を実現するようにする。
当該コンピュータプログラム製品は、ハードウェア、ソフトウェア、または、これらの組み合わせによって、実現される。オプションの一例において、当該コンピュータプログラム製品は、コンピュータ記憶媒体によって体現され、他のオプションの一例において、当該コンピュータプログラム製品は、フトウェア開発キット(Software Development Kit、SDK)などのソフトウェア製品によって体現される。
1つまたは複数の好適な実施例において、本発明の実施例は、オブジェクト追跡方法および対応する装置、電子設備、コンピュータ記憶媒体、コンピュータプログラム並びにコンピュータプログラム製品を提供し、ここで、当該方法は、第2装置が上記のいずれかの実施例のオブジェクト追跡方法を実行するようにするオブジェクト追跡指令を、第1装置から第2装置へ送信することと、第1装置が第2装置から送信されたオブジェクト追跡の結果を受信することと、を含む。
一部の実施例において、当該オブジェクト追跡指令は、呼出命令であり、第1装置は、呼出の形式によって、第2装置がオブジェクト追跡を実行するように指示する。これに応じて、第2装置は、呼出命令の受信に応答して、上記オブジェクト追跡方法中の任意の実施例中のステップ、及び/又は、フローを実行する。
本発明の実施例中の「第1」および「第2」などの用語は、ただ区別するためのものであり、本発明の実施形態を限定するものとして理解してはいけないことを理解すべきである。
また、本発明では、「複数」は2つ以上を意味し、「少なくとも1つ」は1つ、2つ、または2つ以上を意味することをさらに理解すべきである。
また、本発明の実施例で言及される任意の部品、データまたは構造は、明確に定義されていないか、または前後の内容に反対する示唆が与えられない限り、一般的に1つまたは複数として理解してよいことをさらに理解すべきである。
また、本発明における各実施例の説明は、各実施例間の相違点を強調し、等価または類似の部分は互いに参考することができ、簡潔化のために、繰り返して説明しないことをさらに理解すべきである。
本発明の各実施例は、いずれも漸進的に説明されたが、各実施例で強調して説明したのはいずれもその他の実施例との相違点であり、各実施例間の同一または類似な部分については、相互的に参考すればよい。システム実施例の場合は、基本的に方法実施例に対応されるため、関連箇所は、方法実施例の部分の説明を参考すれば良い。
本発明の方法および装置は、多くの形式で実現されてもよい。例えば、本発明の方法および装置は、ソフトウェア、ハードウェア、ファームウェア、または、これらの任意の組み合わせによって実現されてもよい。上記の方法のステップの順序は、ただ、例示のためのものであり、本発明の方法のステップは、特に別の記載がない限り、上記の順序に限定されない。なお、一部の実施例で、本発明は、記憶媒体に記憶されたプログラムとして実現されてもよく、これらのプログラムは、本発明による方法を実現するためのコンピュータ可読命令を含んでもよい。したがって、本発明は、本発明の方法を実行するためのプログラムを記憶する記録媒体を、さらに含む。
本発明の説明は、例示と説明のためのものであり、全面的なものではなく、開示された形態に限定するものではない。当業者にとって、多くの変化および変更は明らかである。実施例の選択および説明は、本発明の原理および実際の応用をよりよく説明し、当業者が本発明を理解して特定の用途に適した様々な変更を伴う様々な実施形態を設計するようにするものである。
図4Dおよび図4Eは、本発明の一部の実施例のオブジェクト追跡方法の他の適用例の概念図である。図4Dおよび図4Eに示すように、ここで、図4Dは、オブジェクト追跡のビデオの4フレーム画像であり、図4Dにおいて、4フレーム画像の番号はそれぞれ692、697、722、および、727であり、四角枠aは、現在フレーム画像の検索領域を確定する検索枠であり、四角枠bは、目標オブジェクトの真の輪郭を表す四角枠であり、c四角枠は、目標追跡の検出枠であり、図4Dにより、697と722の2フレーム画像の目標オブジェクトが両方とも視野範囲内にいないことが分かり、そのため、検索領域を拡張したところ、692と727の2フレーム画像の目標オブジェクトが両方とも再び視野範囲内に戻るため、検索領域を再び正常の検索領域に復元する。図4Eは、図4Dにおける目標オブジェクトの点数の変化状況、および、目標オブジェクトと検出枠との重なり状況の変化を示す概念図である。そのうち、d線は目標オブジェクトの点数の変化状況を表し、e線は目標オブジェクトと検出枠との重なり状況を表し、図4により、目標オブジェクトの点数が697で急に減少されつつ、目標オブジェクトと検出枠との重なり状況も697で急に減少され、目標オブジェクトの点数が722で既に大きい値に復元され、目標オブジェクトと検出枠との重なり状況も722で急に増加されることが分かり、そのため、目標オブジェクトの点数の判断を用いて、目標オブジェクトが視野範囲にいない場合または遮れたオブジェクトの追跡する場合に存在する問題を改善できる。
オプションとして、調整ユニット530は、さらに、少なくとも1つの候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を確定して、第1類似度に基づいて、少なくとも1つの候補オブジェクトの選別情報を調整してもよい。オプションの一例において、調整ユニット530は、少なくとも1つの候補オブジェクトの特徴および取得された干渉オブジェクトの特徴に基づいて、少なくとも1つの候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を確定してもよい。オプションの一例において、選別情報は検出枠の点数であり、候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度がより高い場合、当該候補オブジェクトの検出枠の点数を下げる調整をしてもよく、逆に、候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度がより低い場合、当該候補オブジェクトの検出枠の点数を上げる調整をするか、または、点数をそのまま維持してもよい。

Claims (44)

  1. オブジェクト追跡方法であって、
    ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出することと、
    前記ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得することと、
    取得された干渉オブジェクトに基づいて、前記少なくとも1つの候補オブジェクトの選別情報を調整することと、
    前記現在フレーム画像における目標オブジェクトとして、選別情報が所定の条件を満たす候補オブジェクトを確定することと、を含む
    ことを特徴とするオブジェクト追跡方法である。
  2. 前記ビデオ中の前記現在フレーム画像は、前記参考フレーム画像の後に位置しており、
    前記前のフレーム画像は、前記参考フレーム画像、及び/又は、前記参考フレーム画像と前記現在フレーム画像との間に位置する少なくとも1つの中間フレーム画像を含む
    ことを特徴とする請求項1に記載の前記オブジェクト追跡方法。
  3. 前記現在フレーム画像における干渉オブジェクトとして、前記少なくとも1つの候補オブジェクトのうちの目標オブジェクトに確定されなかった1つまたは複数の候補オブジェクトを確定することをさらに含む
    ことを特徴とする請求項1または2に記載の前記オブジェクト追跡方法。
  4. 前記取得された干渉オブジェクトに基づいて前記少なくとも1つの候補オブジェクトの選別情報を調整することは、
    前記少なくとも1つの候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を確定することと、
    前記第1類似度に基づいて、前記少なくとも1つの候補オブジェクトの選別情報を調整することと、を含む
    ことを特徴とする請求項1ないし3のいずれか1項に記載の前記オブジェクト追跡方法。
  5. 前記少なくとも1つの候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を確定することは、
    前記少なくとも1つの候補オブジェクトの特徴および取得された干渉オブジェクトの特徴に基づいて、前記第1類似度を確定することを含む
    ことを特徴とする請求項4に記載の前記オブジェクト追跡方法。
  6. 前記ビデオ中の前記参考フレーム画像と前記現在フレーム画像との間の少なくとも1つの中間フレーム画像における目標オブジェクトを取得することと、
    前記少なくとも1つの中間フレーム画像における目標オブジェクトに基づいて、前記少なくとも1つの候補オブジェクトの選別情報を最適化することと、をさらに含む
    ことを特徴とする請求項1ないし5のいずれか1項に記載の前記オブジェクト追跡方法。
  7. 前記少なくとも1つの中間フレーム画像における目標オブジェクトに基づいて前記少なくとも1つの候補オブジェクトの選別情報を最適化することは、
    前記少なくとも1つの候補オブジェクトと前記少なくとも1つの中間フレーム画像における目標オブジェクトとの間の第2類似度を確定することと、
    前記第2類似度に基づいて、前記少なくとも1つの候補オブジェクトの選別情報を最適化することと、を含む
    ことを特徴とする請求項6に記載の前記オブジェクト追跡方法。
  8. 前記少なくとも1つの候補オブジェクトと前記少なくとも1つの中間フレーム画像における目標オブジェクトとの間の第2類似度を確定することは、
    前記少なくとも1つの候補オブジェクトの特徴および前記少なくとも1つの中間フレーム画像における目標オブジェクトの特徴に基づいて、前記第2類似度を確定することを含む
    ことを特徴とする請求項7に記載の前記オブジェクト追跡方法。
  9. ビデオ中の参考フレーム画像における目標オブジェクトに基づいて前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出することは、
    前記参考フレーム画像における目標オブジェクトの画像と前記現在フレーム画像との相関性を確定することと、
    前記相関性に基づいて、前記現在フレーム画像における少なくとも1つの候補オブジェクトの検出枠および前記選別情報を取得することと、を含む
    ことを特徴とする請求項1ないし8のいずれか1項に記載の前記オブジェクト追跡方法。
  10. 前記参考フレーム画像における目標オブジェクトの画像と前記現在フレーム画像との相関性を確定することは、
    前記参考フレーム画像における目標オブジェクトの画像の第1特徴および前記現在フレーム画像の第2特徴に基づいて、前記相関性を確定することを含む
    ことを特徴とする請求項9に記載の前記オブジェクト追跡方法。
  11. 前記現在フレーム画像における目標オブジェクトとして選別情報が所定の条件を満たす候補オブジェクトを確定することは、
    前記現在フレーム画像の目標オブジェクトの検出枠として、選別情報が所定の条件を満たす候補オブジェクトの検出枠を確定することを含む
    ことを特徴とする請求項9または10に記載の前記オブジェクト追跡方法。
  12. 前記現在フレーム画像の目標オブジェクトの検出枠として選別情報が所定の条件を満たす候補オブジェクトの検出枠を確定することの後に、
    前記現在フレーム画像において前記目標オブジェクトの検出枠を表示することをさらに含む
    ことを特徴とする請求項11に記載の前記オブジェクト追跡方法。
  13. ビデオ中の参考フレーム画像における目標オブジェクトに基づいて前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出することの前に、
    前記現在フレーム画像における検索領域を取得することをさらに含み、
    前記ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出することは、
    前記現在フレーム画像における検索領域において、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出することを含む
    ことを特徴とする請求項1ないし12のいずれか1項に記載の前記オブジェクト追跡方法。
  14. 現在フレーム画像の目標オブジェクトとして前記選別情報が所定の条件を満たす候補オブジェクトを確定することの後に、
    前記現在フレーム画像における目標オブジェクトの選別情報に基づいて、前記ビデオ中の前記現在フレーム画像の次の1フレーム画像における検索領域を確定することをさらに含む
    ことを特徴とする請求項1ないし13のいずれか1項に記載の前記オブジェクト追跡方法。
  15. 前記現在フレーム画像における目標オブジェクトの選別情報に基づいて前記ビデオ中の前記現在フレーム画像の次の1フレーム画像における検索領域を確定することは、
    前記目標オブジェクトの選別情報が第1所定閾値未満であるか否かを検出することと、
    前記目標オブジェクトの選別情報が第1所定閾値未満である場合、予め設定されたステップ幅に基づいて、前記検索領域を、前記検索領域が前記現在フレーム画像を覆うまで次第に拡張し、前記拡張された検索領域を前記現在フレーム画像の次の1フレーム画像における検索領域とすること、及び/又は、
    前記目標オブジェクトの選別情報が第1所定閾値以上である場合、前記ビデオ中の前記現在フレーム画像の次の1フレーム画像を現在フレーム画像として、前記現在フレーム画像における検索領域を取得することと、を含む
    ことを特徴とする請求項14に記載の前記オブジェクト追跡方法。
  16. 予め設定されたステップ幅に基づいて前記検索領域を前記検索領域が前記現在フレーム画像を覆うまで次第に拡張することの後に、
    前記ビデオ中の前記現在フレーム画像の次の1フレーム画像を現在フレーム画像とすることと、
    前記拡張された検索領域において前記現在フレーム画像の目標オブジェクトを確定することと、
    前記目標オブジェクトの選別情報が、前記第1所定閾値よりも大きい第2所定閾値より大きいか否かを検出することと、
    前記目標オブジェクトの選別情報が第2所定閾値より大きい場合、前記現在フレーム画像における検索領域を取得すること、及び/又は、
    前記目標オブジェクトの選別情報が第2所定閾値以下である場合、前記ビデオ中の前記現在フレーム画像の次の1フレーム画像を現在フレーム画像として、前記現在フレーム画像における検索領域として前記拡張された検索領域を取得することと、をさらに含む
    ことを特徴とする請求項15に記載の前記オブジェクト追跡方法。
  17. 現在フレーム画像の目標オブジェクトとして前記選別情報が所定の条件を満たす候補オブジェクトを確定することの後に、
    前記現在フレーム画像における目標オブジェクトの種類を認識することをさらに含む
    ことを特徴とする請求項1ないし16のいずれか1項に記載の前記オブジェクト追跡方法。
  18. サンブル画像訓練に基づいて取得されたニューラルネットワークによって、前記オブジェクト追跡方法が実行され、前記サンブル画像は、ポジティブサンプルおよびネガティブサンプルを含み、前記ポジティブサンプルは、予め設定された訓練データセット中のポジティブサンプル画像および予め設定されたテストデータセット中のポジティブサンプル画像を含む
    ことを特徴とする請求項1ないし17のいずれか1項に記載の前記オブジェクト追跡方法。
  19. 前記ポジティブサンプルは、さらに、前記予め設定されたテストデータセット中のポジティブサンプル画像のデータ強調処理によって取得されたポジティブサンプル画像を含む
    ことを特徴とする請求項18に記載の前記オブジェクト追跡方法。
  20. 前記ネガティブサンプルは、前記目標オブジェクトと同じ種類のオブジェクトを含むネガティブサンプル画像、及び/又は、前記目標オブジェクトと異なる種類のオブジェクトを含むネガティブサンプル画像を含む
    ことを特徴とする請求項18または19に記載の前記オブジェクト追跡方法。
  21. オブジェクト追跡装置であって、
    ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出するための検出ユニットと、
    前記ビデオ中の少なくとも1つの前のフレーム画像における干渉オブジェクトを取得するための取得ユニットと、
    取得された干渉オブジェクトに基づいて、前記少なくとも1つの候補オブジェクトの選別情報を調整するための調整ユニットと、
    前記現在フレーム画像の目標オブジェクトとして、選別情報が所定の条件を満たす候補オブジェクトを確定するための確定ユニットと、を備える
    ことを特徴とするオブジェクト追跡装置である。
  22. 前記ビデオ中の前記現在フレーム画像は、前記参考フレーム画像の後に位置しており、
    前記前のフレーム画像は、前記参考フレーム画像、及び/又は、前記参考フレーム画像と前記現在フレーム画像との間に位置する少なくとも1つの中間フレーム画像を含む
    ことを特徴とする請求項21に記載の前記オブジェクト追跡装置。
  23. 前記確定ユニットは、さらに、前記現在フレーム画像における干渉オブジェクトとして、前記少なくとも1つの候補オブジェクトのうちの目標オブジェクトに確定されなかった1つまたは複数の候補オブジェクトを確定する
    ことを特徴とする請求項21または22に記載の前記オブジェクト追跡装置。
  24. 前記調整ユニットは、前記少なくとも1つの候補オブジェクトと取得された干渉オブジェクトとの間の第1類似度を確定し、前記第1類似度に基づいて、前記少なくとも1つの候補オブジェクトの選別情報を調整する
    ことを特徴とする請求項21ないし23のいずれか1項に記載の前記オブジェクト追跡装置。
  25. 前記調整ユニットは、前記少なくとも1つの候補オブジェクトの特徴および取得された干渉オブジェクトの特徴に基づいて、前記第1類似度を確定する
    ことを特徴とする請求項24に記載の前記オブジェクト追跡装置。
  26. 前記取得ユニットは、さらに、前記ビデオの前記参考フレーム画像と前記現在フレーム画像との間の少なくとも1つの中間フレーム画像における目標オブジェクトを取得し、
    前記装置は、
    前記少なくとも1つの中間フレーム画像における目標オブジェクトに基づいて、前記少なくとも1つの候補オブジェクトの選別情報を最適化するための最適化ユニットをさらに備える
    ことを特徴とする請求項21ないし25のいずれか1項に記載の前記オブジェクト追跡装置。
  27. 前記最適化ユニットは、前記少なくとも1つの候補オブジェクトと前記少なくとも1つの中間フレーム画像における目標オブジェクトとの間の第2類似度を確定し、前記第2類似度に基づいて前記少なくとも1つの候補オブジェクトの選別情報を最適化する
    ことを特徴とする請求項26に記載の前記オブジェクト追跡装置。
  28. 前記最適化ユニットは、前記少なくとも1つの候補オブジェクトの特徴および前記少なくとも1つの中間フレーム画像における目標オブジェクトの特徴に基づいて、前記第2類似度を確定する
    ことを特徴とする請求項27に記載の前記オブジェクト追跡装置。
  29. 前記検出ユニットは、前記参考フレーム画像における目標オブジェクトの画像と前記現在フレーム画像との相関性を確定し、前記相関性に基づいて、前記現在フレーム画像における少なくとも1つの候補オブジェクトの検出枠および前記選別情報を取得する
    ことを特徴とする請求項21ないし28のいずれか1項に記載の前記オブジェクト追跡装置。
  30. 前記検出ユニットは、前記参考フレーム画像における目標オブジェクトの画像の第1特徴および前記現在フレーム画像の第2特徴に基づいて、前記相関性を確定する
    ことを特徴とする請求項29に記載の前記オブジェクト追跡装置。
  31. 前記確定ユニットは、前記現在フレーム画像の目標オブジェクトの検出枠として、選別情報が所定の条件を満たす候補オブジェクトの検出枠を確定する
    ことを特徴とする請求項29または30に記載の前記オブジェクト追跡装置。
  32. 前記現在フレーム画像において前記目標オブジェクトの検出枠を表示するための表示ユニットを、さらに含む
    ことを特徴とする請求項31に記載の前記オブジェクト追跡装置。
  33. 前記現在フレーム画像における検索領域を取得するための検索ユニットをさらに含み、
    前記検出ユニットは、前記現在フレーム画像における検索領域において、ビデオ中の参考フレーム画像における目標オブジェクトに基づいて、前記ビデオ中の現在フレーム画像における少なくとも1つの候補オブジェクトを検出する
    ことを特徴とする請求項21ないし32のいずれか1項に記載の前記オブジェクト追跡装置。
  34. 前記検索ユニットは、さらに、前記現在フレーム画像における目標オブジェクトの選別情報に基づいて、前記ビデオ中の前記現在フレーム画像の次の1フレーム画像における検索領域を確定する
    ことを特徴とする請求項21ないし33のいずれか1項に記載の前記オブジェクト追跡装置。
  35. 前記検索ユニットは、前記目標オブジェクトの選別情報が第1所定閾値未満であるか否かを検出し、前記目標オブジェクトの選別情報が第1所定閾値未満である場合、予め設定されたステップ幅に基づいて、前記検索領域を、前記検索領域が前記現在フレーム画像を覆うまで次第に拡張し、前記拡張された検索領域を前記現在フレーム画像の次の1フレーム画像における検索領域とし、及び/又は、前記目標オブジェクトの選別情報が第1所定閾値以上である場合、前記ビデオ中の前記現在フレーム画像の次の1フレーム画像を現在フレーム画像として、前記現在フレーム画像における検索領域を取得する
    ことを特徴とする請求項21ないし34のいずれか1項に記載の前記オブジェクト追跡装置。
  36. 前記検索ユニットは、さらに、前記拡張された検索領域において、前記現在フレーム画像の目標オブジェクトを確定した後、前記目標オブジェクトの選別情報がが、前記第1所定閾値よりも大きい第2所定閾値より大きいか否かを検出し、前記目標オブジェクトの選別情報が第2所定閾値より大きい場合、前記現在フレーム画像における検索領域を取得し、及び/又は、前記目標オブジェクトの選別情報が第2所定閾値以下である場合、前記ビデオ中の前記現在フレーム画像の次の1フレーム画像を現在フレーム画像として、前記現在フレーム画像における検索領域として前記拡張された検索領域を取得する
    ことを特徴とする請求項35に記載の前記オブジェクト追跡装置。
  37. 前記現在フレーム画像における目標オブジェクトの種類を認識するための認識ユニットをさらに備える
    ことを特徴とする請求項21ないし36のいずれか1項に記載の前記オブジェクト追跡装置。
  38. サンブル画像訓練に基づいて取得された、オブジェクト追跡方法を実行するためのニューラルネットワークを含み、前記サンブル画像にはポジティブサンプルおよびネガティブサンプルが含まれ、前記ポジティブサンプルには予め設定された訓練データセット中のポジティブサンプル画像および予め設定されたテストデータセット中のポジティブサンプル画像が含まれる
    ことを特徴とする請求項21ないし37のいずれか1項に記載の前記オブジェクト追跡装置。
  39. 前記ポジティブサンプルには、前記予め設定されたテストデータセット中のポジティブサンプル画像のデータ強調処理によって取得されたポジティブサンプル画像が含まれる
    ことを特徴とする請求項38に記載の前記オブジェクト追跡装置。
  40. 前記ネガティブサンプルには、前記目標オブジェクトと同じ種類のオブジェクトを有するネガティブサンプル画像、及び/又は、前記目標オブジェクトと異なる種類のオブジェクトを有するネガティブサンプル画像が含まれる
    ことを特徴とする請求項38または39に記載の前記オブジェクト追跡装置。
  41. 電子設備であって、
    請求項21ないし40のいずれかの前記装置を含む
    こと特徴とする前記電子設備。
  42. 電子設備であって、
    実行可能命令を記憶するメモリと、
    前記実行可能命令を実行して、請求項1ないし20のいずれかの前記方法を実現するためのプロセッサとを含む
    ことを特徴とする前記電子設備。
  43. コンピュータ可読命令を記憶するコンピュータ記憶媒体であって、
    前記命令が実行されて、請求項1ないし20のいずれかの前記方法が実現られる
    ことを特徴とする前記コンピュータ記憶媒体。
  44. コンピュータ可読コードを含むコンピュータプログラムであって、
    前記コンピュータ可読コードが設備によって実行されて、請求項1ないし20のいずれかの前記方法を実現するための命令が前記設備におけるプロセッサによって実行される
    ことを特徴とする前記コンピュータプログラム。
JP2020567591A 2018-08-07 2019-08-02 オブジェクト追跡方法および装置、電子設備並びに記憶媒体 Active JP7093427B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810893022.3 2018-08-07
CN201810893022.3A CN109284673B (zh) 2018-08-07 2018-08-07 对象跟踪方法及装置、电子设备及存储介质
PCT/CN2019/099001 WO2020029874A1 (zh) 2018-08-07 2019-08-02 对象跟踪方法及装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
JP2021526269A true JP2021526269A (ja) 2021-09-30
JP7093427B2 JP7093427B2 (ja) 2022-06-29

Family

ID=65182985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020567591A Active JP7093427B2 (ja) 2018-08-07 2019-08-02 オブジェクト追跡方法および装置、電子設備並びに記憶媒体

Country Status (6)

Country Link
US (1) US20210124928A1 (ja)
JP (1) JP7093427B2 (ja)
KR (1) KR20210012012A (ja)
CN (1) CN109284673B (ja)
SG (1) SG11202011644XA (ja)
WO (1) WO2020029874A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109284673B (zh) * 2018-08-07 2022-02-22 北京市商汤科技开发有限公司 对象跟踪方法及装置、电子设备及存储介质
CN109726683B (zh) 2018-12-29 2021-06-22 北京市商汤科技开发有限公司 目标对象检测方法和装置、电子设备和存储介质
CN110223325B (zh) * 2019-06-18 2021-04-27 北京字节跳动网络技术有限公司 对象跟踪方法、装置及设备
CN111797728A (zh) * 2020-06-19 2020-10-20 浙江大华技术股份有限公司 一种运动物体的检测方法、装置、计算设备及存储介质
CN112037255A (zh) * 2020-08-12 2020-12-04 深圳市道通智能航空技术有限公司 目标跟踪方法和装置
CN112085769A (zh) * 2020-09-09 2020-12-15 武汉融氢科技有限公司 对象追踪方法及装置、电子设备
CN115393616A (zh) * 2022-07-11 2022-11-25 影石创新科技股份有限公司 目标跟踪方法、装置、设备以及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342762A (ja) * 2001-05-22 2002-11-29 Matsushita Electric Ind Co Ltd 物体追跡方法
JP2006172023A (ja) * 2004-12-14 2006-06-29 Matsushita Electric Works Ltd 人体検知装置
JP2006331347A (ja) * 2005-05-30 2006-12-07 Olympus Corp 画像処理装置及び対象領域追跡プログラム
JP2013012940A (ja) * 2011-06-29 2013-01-17 Olympus Imaging Corp 追尾装置及び追尾方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222678A (ja) * 1997-02-05 1998-08-21 Toshiba Corp 物体検出装置および物体検出方法
JP5024116B2 (ja) * 2007-05-02 2012-09-12 株式会社ニコン 被写体追跡プログラム、および被写体追跡装置
GB2471036B (en) * 2008-03-03 2012-08-22 Videoiq Inc Object matching for tracking, indexing, and search
CN102136147B (zh) * 2011-03-22 2012-08-22 深圳英飞拓科技股份有限公司 一种目标检测与跟踪方法、系统及视频监控设备
US9495591B2 (en) * 2012-04-13 2016-11-15 Qualcomm Incorporated Object recognition using multi-modal matching scheme
CN103593641B (zh) * 2012-08-16 2017-08-11 株式会社理光 基于立体摄像机的物体检测方法和装置
CN106355188B (zh) * 2015-07-13 2020-01-21 阿里巴巴集团控股有限公司 图像检测方法及装置
CN105654510A (zh) * 2015-12-29 2016-06-08 江苏精湛光电仪器股份有限公司 适用于夜间场景下的基于特征融合的自适应目标跟踪方法
CN105760854B (zh) * 2016-03-11 2019-07-26 联想(北京)有限公司 信息处理方法及电子设备
US10395385B2 (en) * 2017-06-27 2019-08-27 Qualcomm Incorporated Using object re-identification in video surveillance
CN107633220A (zh) * 2017-09-13 2018-01-26 吉林大学 一种基于卷积神经网络的车辆前方目标识别方法
CN107748873B (zh) * 2017-10-31 2019-11-26 河北工业大学 一种融合背景信息的多峰目标跟踪方法
CN108009494A (zh) * 2017-11-30 2018-05-08 中山大学 一种基于无人机的道路交叉口车辆跟踪方法
CN109284673B (zh) * 2018-08-07 2022-02-22 北京市商汤科技开发有限公司 对象跟踪方法及装置、电子设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342762A (ja) * 2001-05-22 2002-11-29 Matsushita Electric Ind Co Ltd 物体追跡方法
JP2006172023A (ja) * 2004-12-14 2006-06-29 Matsushita Electric Works Ltd 人体検知装置
JP2006331347A (ja) * 2005-05-30 2006-12-07 Olympus Corp 画像処理装置及び対象領域追跡プログラム
JP2013012940A (ja) * 2011-06-29 2013-01-17 Olympus Imaging Corp 追尾装置及び追尾方法

Also Published As

Publication number Publication date
WO2020029874A1 (zh) 2020-02-13
US20210124928A1 (en) 2021-04-29
KR20210012012A (ko) 2021-02-02
CN109284673B (zh) 2022-02-22
CN109284673A (zh) 2019-01-29
JP7093427B2 (ja) 2022-06-29
SG11202011644XA (en) 2020-12-30

Similar Documents

Publication Publication Date Title
JP7093427B2 (ja) オブジェクト追跡方法および装置、電子設備並びに記憶媒体
US11170210B2 (en) Gesture identification, control, and neural network training methods and apparatuses, and electronic devices
JP7236545B2 (ja) ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム
JP7165731B2 (ja) 目標検出方法及び装置、トレーニング方法、電子機器並びに媒体
US10885365B2 (en) Method and apparatus for detecting object keypoint, and electronic device
US11321593B2 (en) Method and apparatus for detecting object, method and apparatus for training neural network, and electronic device
US10198823B1 (en) Segmentation of object image data from background image data
US11182592B2 (en) Target object recognition method and apparatus, storage medium, and electronic device
WO2019218824A1 (zh) 一种移动轨迹获取方法及其设备、存储介质、终端
CN108229324B (zh) 手势追踪方法和装置、电子设备、计算机存储介质
RU2479037C2 (ru) Устройство и способ обработки изображения, обучающееся устройство и способ обучения и программа
CN108427927B (zh) 目标再识别方法和装置、电子设备、程序和存储介质
US7148913B2 (en) Vision-based pointer tracking and object classification method and apparatus
CN106971401B (zh) 多目标跟踪装置和方法
EP2965262A1 (en) Method for detecting and tracking objects in sequence of images of scene acquired by stationary camera
CN110298297A (zh) 火焰识别方法和装置
US20230334235A1 (en) Detecting occlusion of digital ink
JP6932254B2 (ja) キーフレームスケジューリング方法及び装置、電子機器、プログラム並びに媒体
CN108229281B (zh) 神经网络的生成方法和人脸检测方法、装置及电子设备
CN110909685A (zh) 姿势估计方法、装置、设备及存储介质
CN108805004B (zh) 功能区域检测方法和装置、电子设备、存储介质
Padole et al. Wigner distribution based motion tracking of human beings using thermal imaging
KR20190125702A (ko) 딥러닝 기반의 추적 모듈에서 코사인 거리와 교차 영역을 활용한 추적 최적화 방법
CN111219940B (zh) 冰箱内灯光控制的方法及装置、冰箱
Elahi et al. Webcam-based accurate eye-central localization

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220617

R150 Certificate of patent or registration of utility model

Ref document number: 7093427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150