JP7393374B2 - 画像を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム - Google Patents

画像を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム Download PDF

Info

Publication number
JP7393374B2
JP7393374B2 JP2021037660A JP2021037660A JP7393374B2 JP 7393374 B2 JP7393374 B2 JP 7393374B2 JP 2021037660 A JP2021037660 A JP 2021037660A JP 2021037660 A JP2021037660 A JP 2021037660A JP 7393374 B2 JP7393374 B2 JP 7393374B2
Authority
JP
Japan
Prior art keywords
target object
feature
image frame
area
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021037660A
Other languages
English (en)
Other versions
JP2022013648A (ja
Inventor
ヂャン・チョンチュエン
ホー・ビン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022013648A publication Critical patent/JP2022013648A/ja
Application granted granted Critical
Publication of JP7393374B2 publication Critical patent/JP7393374B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/10Pre-processing; Data cleansing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Description

本出願は画像処理分野に関し、具体的には、人工知能、ディープラーニング、コンピュータビジョンの分野に関し、特に、画像を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラムに関する。
スマートフォン及びモバイルインターネットの普及及び発展に伴い、ビデオ作成と転送のコストが絶えずに低下しており、ビデオはその豊富な表現能力によってコンテンツ生成分野で益々多くのユーザに好まれており、簡単で使いやすい自動化ビデオ編集技術の需要が益々大きくなっている。近年、対象追跡と密接に関連するビデオ対象分割が益々多くの注目を集めている。しかし、既存の対象追跡方法では多くの場合、精細な対象分割結果を提供することができない。
本出願は、画像を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラムを提供している。
本出願の第1の態様によれば、画像を処理するための方法を提供し、対象画像フレームと対象オブジェクトがマーキングされた少なくとも1つの画像フレームとが含まれる対象ビデオを取得するステップと、少なくとも1つの画像フレームにおけるマーキングされた対象オブジェクトに基づいて、対象画像フレームにおいて対象オブジェクトに対する検索領域を確定するステップと、検索領域において、対象オブジェクトの中心位置情報を確定するステップと、少なくとも1つの画像フレームのマーキング領域と中心位置情報とに基づいて、対象オブジェクト領域を確定するステップと、対象オブジェクト領域に基づいて、対象画像フレームを分割するステップとを含む。
本出願の第2の態様によれば、対象画像フレームと対象オブジェクトがマーキングされた少なくとも1つの画像フレームとが含まれる対象ビデオを取得するように構成されるビデオ取得ユニットと、少なくとも1つの画像フレームにおけるマーキングされた対象オブジェクトに基づいて、対象画像フレームにおいて対象オブジェクトに対する検索領域を確定するように構成される検索領域確定ユニットと、検索領域に基づいて、対象オブジェクトの中心位置情報を確定するように構成される中心位置情報確定ユニットと、少なくとも1つの画像フレームのマーキング領域と中心位置情報とに基づいて、対象オブジェクト領域を確定するように構成される対象オブジェクト領域確定ユニットと、対象オブジェクト領域に基づいて、対象画像フレームを分割するように構成される分割ユニットとを備える画像を処理するための装置を提供する。
本出願の第3の態様では、少なくとも1つのプロセッサと、少なくとも1つのプロセッサに通信可能に接続されるメモリとを備え、メモリには、少なくとも1つのプロセッサにより実行可能な指令が格納されており、指令は少なくとも1つのプロセッサにより実行されると、少なくとも1つのプロセッサに上記の画像を処理するための方法を実行させる、画像を処理するための電子機器を提供する。
本出願の第4の態様では、コンピュータ指令が格納されている非一時的コンピュータ可読記憶媒体を提供し、前記コンピュータ指令は上記の画像を処理するための方法をコンピュータに実行させるために使用される。
第5の態様では、本出願の実施形態は、プロセッサにより実行されると、上記の画像を処理するための方法を実現する、コンピュータプログラムを提供する。
本出願の技術によって、従来の対象追跡方法では多くの場合精細な対象分割結果を提供できないという問題を解決して、対象オブジェクトをロバストに位置特定するとともに精細な対象分割結果を提供することができる。
本明細書で説明されている内容は、本出願の実施形態の重要な点や重要な特徴を示すためのものではなく、本出願の範囲を限定するためのものでもないことを理解すべきである。本出願のその他の特徴は以下の説明により容易に理解されるようになる。
図面は本技術的手段をよりよく理解するためのものであって、本出願を限定するものではない。
本出願の一実施形態が適用可能な例示的なシステムアーキテクチャである。 本出願による画像を処理するための方法の一実施形態のフローチャートである。 本出願による画像を処理するための方法の1つの応用シーンの概略図である。 本出願による画像を処理するための方法のもう1つの実施形態のフローチャートである。 本出願による画像を処理するための装置の一実施形態の構造概略図である。 本出願の実施形態の画像を処理するための方法を実現するための電子機器のブロック図である。
以下は図面を参照して本出願の例示的な実施形態を説明し、ここでは理解を助けるため、本出願の実施形態の様々な詳細が記載されるが、これらは単なる例示であるに過ぎない。従って、本出願の範囲および要旨を逸脱しない限り、当業者が本明細書の実施形態に対して様々な変更と修正を行うことができることを理解すべきである。なお、以下の説明では、明確化および簡略化のため、公知の機能および構成については説明を省略する。
なお、本出願の実施形態および実施形態における特徴は、矛盾を生じない限り、相互に組み合わせることができる。以下、図面および実施形態を参照しながら本出願を詳細に説明する。
図1は、本出願の画像を処理するための方法又は画像を処理するための装置の実施形態を適用することができる例示的なシステムアーキテクチャ100を示す。
図1に示されるように、システムアーキテクチャ100は、カメラ101、102、ネットワーク103、サーバ104、及び端末装置105を含むことができる。ネットワーク103は、カメラ101、102と、サーバ104、端末装置105との間に通信リンクを提供するための媒体として使用される。ネットワーク103は、有線、無線通信リンク又は光ファイバーケーブルなどの様々な接続タイプを含むことができる。
カメラ101、102は、ネットワーク103を介してサーバ104、端末装置105と情報のやり取りをして、メッセージなどを送受信することができる。カメラ101、102はビデオを採集し、採集したビデオをサーバ104又は端末装置105に送信するか、又はローカルに記憶することができる。カメラ101、102は、ビデオ又は画像を撮影するために、街灯柱、信号機柱、映画撮影用ポール又は運動場に設置された撮影ポールに固定されてもよい。
サーバ104又は端末装置105は、カメラ101、102から採集されたビデオ又は画像を取得するとともに、ビデオ又は画像を処理して、ビデオ又は画像における対象オブジェクトを追跡及び分割することができる。サーバ104又は端末装置105には、画像処理アプリケーションなどの様々な通信クライアントアプリケーションがインストールされていてもよい。
端末装置105はハードウェアであってもよく、ソフトウェアであってもよい。端末装置105がハードウェアである場合、スマートフォン、タブレットコンピュータ、電子書籍リーダー、車載コンピュータ、ラップトップコンピュータ及びデスクトップコンピュータなど様々な電子機器であってもよいが、これらに限定されない。端末装置105がソフトウェアである場合は、上記に挙げられた電子機器にインストールされてもよい。端末装置105がソフトウェアである場合、上記の電子機器にインストールされてもよい。複数のソフトウェア又はソフトウェアモジュール(例えば、分散サービスを提供するためのもの)として実施されてもよく、単一のソフトウェア又はソフトウェアモジュールとして実施されてもよい。ここでは、具体的な限定をしない。
なお、本出願の実施形態により提供される画像を処理するための方法はサーバ104又は端末装置105によって実行可能である。応じて、画像を処理するための装置はサーバ104又は端末装置105に設けられてもよい。
なお、図1におけるカメラ、ネットワーク、サーバ及び端末装置の数が単なる例示的なものである。実施の必要性に応じて、任意の数のカメラ、ネットワーク、サーバ及び端末装置を有することができる。
引き続き図2を参照し、本出願による画像を処理するための方法の一実施形態のフロー200を示す。本実施形態の画像を処理するための方法は、以下のステップを含む。
ステップ201、対象ビデオを取得する。
本実施形態では、画像を処理するための実行主体(例えば、図1に示す端末装置104)は、有線接続又は無線接続により対象ビデオを取得することができる。対象ビデオはカメラによってリアルタイムに撮影されてもよく、他の電子機器から取得されてもよい。対象ビデオは対象画像フレームと対象オブジェクトがマーキングされた少なくとも1つの画像フレームとを含むことができる。前記画像フレームには対象オブジェクトの輪郭、形態などの情報が含まれている。対象オブジェクトに対するマーキングは、対象オブジェクトの輪郭に対するマーキングであってもよい。マーキングされた対象オブジェクトは、人、車両などであってもよい。
ステップ202、少なくとも1つの画像フレームにおけるマーキングされた対象オブジェクトに基づいて、対象画像フレームにおいて対象オブジェクトに対する検索領域を確定する。
実行主体は、対象ビデオにおける対象画像フレームと対象オブジェクトがマーキングされた少なくとも1つの画像フレームとを取得した後、少なくとも1つの画像フレームにおけるマーキングされた対象オブジェクトに基づいて、対象画像フレームにおいて対象オブジェクトに対する検索領域を確定することができる。具体的には、実行主体は、対象画像フレームの1つ前のフレームにおける対象オブジェクトの位置を円心とし、対象画像フレームの直前の2つフレームにおける対象オブジェクトの移動距離を半径とした円形領域を対象画像フレームにおける対象オブジェクトの検索領域としてもよい。例えば、n番目の画像フレームにおいて対象オブジェクトに対する検索領域を確定するために、n-2番目の画像フレームからn-1番目の画像フレームまでの対象オブジェクトの移動距離Lを半径とし、n-1番目の画像フレームにおける対象オブジェクトの位置を円心とした円形領域を、対象画像フレームにおける対象オブジェクトに対する検索領域とする。
ステップ203、検索領域に基づいて、対象オブジェクトの中心位置情報を確定する。
実行主体は、対象画像フレームにおける対象オブジェクトに対する検索領域を取得した後、検索領域に基づいて対象オブジェクトの中心位置情報を確定することができる。具体的には、実行主体は、対象画像フレームの1つ前のフレームにおける対象オブジェクトの中心位置情報と、直前の2つのフレームにおける対象オブジェクトの移動軌跡に反映される移動方向とに基づいて、1つ前のフレームから対象画像フレームに至る対象オブジェクトの移動方向を予測することができる。具体的には、例えば、この確定された移動方向において、n-2番目の画像フレームからn-1番目の画像フレームに至る対象オブジェクトの移動距離Lと対象画像フレームの1つ前のフレーム(すなわち、n-1番目の画像フレーム)における対象オブジェクトの中心位置とに基づいて、検索領域における対象オブジェクトの中心位置情報は、確定された移動方向において、n-1番目の画像フレームにおける対象オブジェクトの中心位置を起点とし、距離Lを移動した後の位置を終点とすると、該終点が検索領域における対象オブジェクトの中心位置である。
ステップ204、対象オブジェクトが位置するマーキング領域と中心位置情報とに基づいて、対象オブジェクト領域を確定する。
実行主体は、対象オブジェクトの中心位置情報を取得した後、対象オブジェクトが位置するマーキング領域と中心位置情報とに基づいて、対象オブジェクト領域を確定することができる。該検索領域内で対象画像フレームの1つ前のフレームの対象オブジェクトの外形輪郭サイズを基準として、対象画像フレームにおいて対象オブジェクトの中心位置を中心とし、対象画像フレームの1つ前のフレームの対象オブジェクトの外形輪郭サイズと同じの対象オブジェクト外形輪郭を作成してそれを分割すべき対象オブジェクト領域とする。
ステップ205、対象オブジェクト領域に基づいて、対象画像フレームを分割する。
実行主体は対象オブジェクト領域を取得した後、対象オブジェクト領域に基づいて対象画像フレームを分割することができる。具体的には、実行主体は、ターゲット認識又は意味分割方法により対象画像フレームにおける対象オブジェクト領域が示す対象オブジェクトを抽出することで、対象画像フレームを分割することができる。分割とは、対象オブジェクトの外形輪郭を対象画像フレームから分離することである。
引き続き図3を参照し、本出願による画像を処理するための方法の1つの応用シーンの概略図である。図3の応用シーンでは、カメラ301は、ビデオ302を採集するための撮影ポールに固定される。カメラ301によって採集されたビデオ302には、対象画像フレーム305のn番目フレーム、対象オブジェクトAがマーキングされた少なくとも1つの画像フレーム303のn‐2番目フレーム、304のn‐1番目フレームが含まれている。ラップトップポータブルコンピュータ(図示せず)がカメラ301から対象ビデオ302を取得した後、303のn‐2番目フレーム又は304のn‐1番目フレームにおけるマーキングされた対象オブジェクトAに基づいて、305のn番目フレームにおける対象オブジェクトAに対する破線で囲まれた検索領域Dを確定する。ラップトップポータブルコンピュータ(図示せず)は、検索領域Dに基づいて、対象オブジェクトAの中心位置Bの情報を確定するとともに、303のn‐2番目フレーム又は304のn‐1番目フレームのマーキング領域と中心位置Bとに基づいて対象オブジェクト領域Cを確定し、対象オブジェクト領域Cに基づいて、305のn番目フレームにおける、対象オブジェクト領域Cと重なる対象オブジェクトを分割する。
本実施形態は、対象オブジェクトをロバストに位置特定するとともに精細な対象分割結果を提供することができる。
引き続き図4を参照し、本出願による画像を処理するための方法の別の1つの実施形態のプロセス400を示す。図4に示すように、本実施形態の画像を処理するための方法は、以下のステップを含むことができる。
ステップ401、対象ビデオを取得する。
ステップ401の原理はステップ201の原理と同様であり、ここでは説明を省略する。
ステップ402、マーキング領域に基づいて、検索領域を確定する。
本実施形態では、実行主体は対象ビデオを取得した後、マーキング領域に基づいて、検索領域を確定することができる。具体的には、実行主体は、対象画像フレームの前の3つのフレームにおける対象オブジェクトの移動距離の和の平均値を検索半径とし、対象画像フレームの1つ前のフレームにおける対象オブジェクトの中心位置を起点とし、該起点と検索半径とを連結し、進行方向に構成される扇形検索領域を対象画像フレームにおける検索領域とすることで、検索領域を高精度に確定することができ、対象オブジェクトの分割をより正確に実現することができる。うち、前記進行方向は前のいくつかの画像フレームに基づいて確定された対象オブジェクトの移動方向及び該移動方向間のなす角からなる方向であってもよい。
具体的には、ステップ402は以下のステップ4021~4022に基づいて確定することができる。
ステップ4021、対象オブジェクトの平均移動速度を確定する。
実行主体は、対象ビデオにおける対象画像フレームと対象オブジェクトがマーキングされた少なくとも1つの画像フレームとを取得した後、対象オブジェクトの平均移動速度を確定することができる。例示的に、実行主体は、n番目の画像フレームを対象画像フレームとし、前のmフレームの画像において隣接する2フレーム毎における対象オブジェクト位置の変化距離と、フレーム毎の所定時間とに基づいて、隣接する2フレーム毎の対象移動速度を算出し、得られた前のmフレームの画像における、隣接する2フレーム毎の対象移動速度を加算し平均値を取って、前のmフレームの画像における対象オブジェクトの移動速度を得、n番目フレーム画像(すなわち、対象画像フレーム)における対象オブジェクトの平均移動速度とする。
ステップ4022、マーキング領域の位置情報と平均移動速度とに基づいて、検索領域を確定する。
実行主体は、対象オブジェクトの平均移動速度を得た後、少なくとも1つの画像フレームにおける対象オブジェクトの位置情報及び平均移動速度に基づいて、検索領域を確定することができる。例示的に、実行主体はn番目の画像フレームを対象画像フレームとして確定する。n‐1番目の画像フレームにおける対象オブジェクトの中心位置に基づいて検索中心を確定し、前のn‐1フレームの画像フレームにおける対象オブジェクトの平均移動速度に基づいて検索半径を確定し、これにより構成される領域をn番目の画像フレームの検索領域として確定する。n‐1番目の画像フレームにおける対象オブジェクトの中心領域が1番目の画像フレームにおけるマーキングされた対象オブジェクトに基づいて確定されてもよいことが理解できる。例えば、3番目の画像フレームにおける対象オブジェクトの中心領域は、2番目の画像フレームにおける対象オブジェクトの中心領域に基づいて確定することができ、2番目の画像フレームにおける対象オブジェクトの中心領域は、1番目の画像フレームにおける確定された対象オブジェクトの中心領域に基づいて確定することができ、1番目の画像フレームにおける対象オブジェクトの特徴、位置および輪郭は手動でマーキングされ得る。うち、対象オブジェクトの特徴は、色、エッジなどの下位の特徴であってもよく、模様、比較的区別性のある特徴(例えば、牛の頭、犬の頭など)、識別性を有する肝心な特徴(例えば、ヒト、動物など)の上位の特徴であってもよい。
本実施形態では、少なくとも1つの画像フレームにおける対象オブジェクトの位置情報及び平均移動速度に基づいて検索領域を確定することにより、検索領域の確定がより正確になって、対象オブジェクト追跡の精度を向上させることができる。
ステップ403、検索領域に基づいて、対象オブジェクトの中心位置情報を確定する。
ステップ403の原理はステップ203の原理と同様であり、ここではその説明を省略する。
具体的には、ステップ403は以下のステップ4031~4033に基づいて確定することができる。
ステップ4031、前記検索領域の上位の特徴を抽出する。
実行主体は、検索領域を得た後、検索領域の上位の特徴を抽出することができる。具体的には、上位の特徴は、いくつかの格子状模様のような模様特徴であってもよく、例えば、犬の頭、ヒトの頭、牛の頭など比較的に区別性のある特徴であってもよく、例えば、ヒト、動物など識別性を有する肝心な特徴であってもよい。
ステップ4032、抽出された上位の特徴をフィルタリングする。
実行主体は、検索領域の上位の特徴を抽出した後、抽出された上位の特徴をフィルタリングすることができる。具体的には、抽出された上位の特徴をフィルタリングすることで抽出された特徴を変更又は強化することができ、フィルタリングによって、上位の特徴の模様、タイプなどのいくつかの特に重要な特徴を抽出することができ、或いは、下位の特徴における色、輪郭などの重要でない特徴を除去することができる。本実施形態におけるフィルタリングは、少なくとも1つの画像フレームのマーキング領域における中心位置の上位の特徴に基づいて、対象画像フレームの検索領域のうち該上位の特徴と同様又は特に近い上位の特徴を抽出することであってもよい。
ステップ4033、フィルタリングされた特徴に基づいて、対象オブジェクトの中心位置情報を確定する。
実行主体は、抽出された上位の特徴をフィルタリングした後、フィルタリングされた特徴に基づいて、対象オブジェクトの中心位置情報を確定することができる。具体的には、実行主体は、フィルタリングにより得られた少なくとも1つの画像フレームのマーキング領域における中心位置の上位の特徴と同様又は特に近い上位の特徴の検索領域における位置を、対象オブジェクトの中心位置としてもよい。
本実施形態では、抽出された上位の特徴をフィルタリングすることにより、抽出された上位の特徴を強化することができ、それにより、上位の特徴を用いて対象オブジェクトの中心位置情報を確定する精度を向上させることができる。
ステップ404、少なくとも1つの画像フレームのマーキング領域と中心位置情報とに基づいて、対象オブジェクト領域を確定する。
ステップ404の原理はステップ204の原理と同様であり、ここではその説明を省略する。
具体的には、ステップ404は以下のステップ4041~4043に基づいて確定することができる。
ステップ4041、中心位置情報とマーキング領域とに基づいて、初期領域を確定する。
実行主体は、対象オブジェクトの中心位置情報を取得した後、中心位置情報とマーキング領域とに基づいて、初期領域を確定することができる。具体的には、実行主体は、対象オブジェクトの中心位置と、少なくとも1つの画像フレームにおいて対象オブジェクトにマーキングされた輪郭特徴とを組み合わせて初期領域を構成してもよい。もちろん、実行主体は、任意の形状及びサイズの、対象オブジェクトの中心位置を囲む領域を初期領域としてもよいが、本出願では初期領域の形状及びサイズに対して具体的な限定をしない。
ステップ4042、初期領域の第1の特徴と少なくとも1つの画像フレームのマーキング領域の第2の特徴とを確定する。
実行主体は、初期領域を得た後、初期領域の第1の特徴と少なくとも1つの画像フレームのマーキング領域の第2の特徴とを確定することができる。具体的には、実行主体は初期領域を得た後、初期領域における上位の特徴を初期領域の第1の特徴として抽出し、少なくとも1つの画像フレームのマーキング領域の上位の特徴を少なくとも1つの画像フレームのマーキング領域の第2の特徴として抽出してもよい。もちろん、実行主体は初期領域を得た後、初期領域における下位の特徴を初期領域の第1の特徴として抽出し、少なくとも1つの画像フレームのマーキング領域の下位の特徴を少なくとも1つの画像フレームのマーキング領域の第2の特徴として抽出してもよい。具体的には、上位の特徴は比較的に区別性があり、比較的に識別性がある特徴であり、いくつかの格子状模様、猫の頭、犬の頭、ヒト、動物などのような模様特徴であってもよい。下位の特徴は、例えば、色、輪郭などの特徴であってもよい。
具体的には、ステップ4042はさらに以下のステップ40421~40423に基づいて確定することができる。
ステップ40421、初期領域及び少なくとも1つの画像フレームのマーキング領域における下位の特徴及び上位の特徴をそれぞれ抽出する。
実行主体は、事前訓練された残差ニューラルネットワークResNet50を介して、初期領域及び少なくとも1つの画像フレームのマーキング領域の下位の特徴及び上位の特徴を抽出することができる。事前訓練された残差ニューラルネットワークResNet50は、より深い階層の特徴を抽出することができるため、対象オブジェクトの中心位置の確定がより正確になる。具体的には、下位の特徴の意味情報は比較的少ないが、下位の特徴に対応する対象オブジェクトの位置は正確であり、上位の特徴の意味情報は比較的豊富であるが、上位の特徴に対応する対象オブジェクトの位置は比較的おおまかである。上位の特徴は細部を表すものであり、例えば、いくつかの格子状模様、猫の頭、犬の頭、ヒト、動物などのような模様特徴であってもよい。下位の特徴は意味特徴を表すものであり、例えば、色、輪郭などの特徴であってもよい。
ステップ40422、初期領域の下位の特徴と上位の特徴とを融合して、第1の特徴を取得する。
実行主体は、初期領域の下位の特徴と上位の特徴とをFPN(feature pyramid networks)によって融合することで、第1の特徴を得ることができる。FPN(feature pyramid networks)は、通常のCNNモデルを用いて画像中の各次元の特徴を効率よく抽出する方法である。FPN(feature pyramid networks)アルゴリズムは、下位の特徴の高解像度と上位の特徴の高意味情報を同時に利用し、これらの異なる層の特徴を融合することで分割の効果を達成する。また、分割は融合後の特徴層ごとに単独で行われる。具体的には、入力された初期領域における上位の特徴をx、次元サイズをh×w×cとする。入力された初期領域における下位の特徴をx、次元サイズをh×w×cとし、うち、h≦h、w≦wである。まず、ベクトル畳み込み演算Conv1により上位の特徴を共通空間にマッピングし、次に、双線形補間により上位の特徴の空間次元を下位の特徴と同様になるように補間し、再びベクトル畳み込み演算Conv2により下位の特徴を共通空間にマッピングし、最後に、2つの特徴を加算して第1の特徴を得る。すなわち、第1の特徴x=BilinearUpsample(Conv1(X1))+Conv2(X2)である。
ステップ40423、少なくとも1つの画像フレームのマーキング領域における下位の特徴と上位の特徴とを融合して、第2の特徴を取得する。
実行主体は、少なくとも1つの画像フレームのマーキング領域における下位の特徴と上位の特徴とをFPN(feature pyramid networks)によって融合することで、第2の特徴を得ることができる。FPN(feature pyramid networks)は、通常のCNNモデルを用いて画像中の各次元の特徴を効率よく抽出する方法である。FPN(feature pyramid networks)アルゴリズムは、下位の特徴の高解像度と上位の特徴の高意味情報を同時に利用し、これらの異なる層の特徴を融合することで分割の効果を達成する。また、分割は融合後の特徴層ごとに単独で行われる。具体的には、入力された少なくとも1つの画像フレームのマーキング領域における上位の特徴をx、次元サイズをh×w×cとする。入力された少なくとも1つの画像フレームのマーキング領域における下位の特徴をx、次元サイズをh×w×cとし、うち、h≦h、w≦wである。まず、ベクトル畳み込み演算Conv1により上位の特徴を共通空間にマッピングし、次に、双線形補間により上位の特徴の空間次元を下位の特徴と同様に補間し、再びベクトル畳み込み演算Conv2により下位の特徴を共通空間にマッピングし、最後に、2つの特徴を加算して第2の特徴を得る。すなわち、第2の特徴x=BilinearUpsample(Conv1(x))+Conv2(x)である。
本実施形態では、下位の特徴と上位の特徴とを融合することにより、実行主体が対象オブジェクトの位置及び輪郭を予測する回帰能力を強化することができる。また、実行主体が対象オブジェクトの位置及び輪郭を予測することは、融合後の上位の特徴と下位の特徴の特徴層ごとに互いに干渉せずに単独で行うことができ、実行主体の予測の精度を向上させることができる。
ステップ4043、第1の特徴と第2の特徴とに基づいて、対象オブジェクト領域を確定する。
実行主体は、第1の特徴及び第2の特徴を得た後、第1の特徴及び第2の特徴に基づいて、対象オブジェクト領域を確定することができる。具体的には、実行主体は、第1の特徴と第2の特徴との重なり状況に基づいて、移動勾配の方向を確定し、それにより融合された第1の特徴と第2の特徴とが完全に一致するまで、初期領域の移動方向及び移動ステップ長を確定し、そのときの初期領域を対象オブジェクト領域として確定する。勾配の方向とは、第1の特徴と第2の特徴とが多く重なる方向である。
本実施形態では、初期領域の第1の特徴と、少なくとも1つの画像フレームのマーキング領域の第2の特徴とを比較することにより、対象オブジェクトが位置する領域を確定する精度を向上させることができる。
具体的には、ステップ4043は以下のステップ40431~40432に基づいて確定することができる。
ステップ40431、第1の特徴と第2の特徴との差異を確定する。
第2の特徴には対象オブジェクトのすべての特徴が含まれている。実行主体は、融合された第1の特徴及び第2の特徴を得た後、初期領域の第1の特徴と、少なくとも1つの画像フレームのマーキング領域における第2の特徴とを比較して、第2の特徴に存在し第1の特徴に存在しない特徴を得る。例えば、第2の特徴には色、輪郭、模様が存在し、第1の特徴には輪郭及び色のみが存在し模様がない場合に、模様が第1の特徴と第2の特徴との差異である。
ステップ40432、差異と所定条件とに基づいて、初期領域を更新し、更新後の初期領域を対象オブジェクト領域とする。
実行主体は、第1の特徴と第2の特徴との差異を得た後、オーバーラップ率予測ネットワークを介して、初期領域と少なくとも1つの画像フレームのマーキング領域とのオーバーラップ率を予測することができ、該オーバーラップ率は第1の特徴と第2の特徴との差異を示し、実行主体は差異及び所定条件に基づいて、初期領域を更新し、更新後の初期領域を対象オブジェクト領域とする。第1の特徴と第2の特徴との差異がある箇所は、初期領域と少なくとも1つの画像フレームのマーキング領域とのオーバーラップ率の大きさを反映することができ、差異が大きいほどオーバーラップ率が小さく、差異が小さいほどオーバーラップ率が大きい。具体的には、オーバーラップ率予測ネットワークは、第1の特徴と第2の特徴の差異の所在位置に基づいて、例えば、模様の位置に基づいて、初期領域と少なくとも1つの画像フレームのマーキング領域の勾配を取得し、該勾配の方向がオーバーラップ率を大きくする方向である。実行主体は、勾配が示す方向に初期領域を移動させ、初期領域と少なくとも1つの画像フレームのマーキング領域における第1の特徴と第2の特徴との間のオーバーラップ率をリアルタイムで取得し、オーバーラップ率が所定条件を満たしていない場合(所定条件は、オーバーラップ率が98%又は99%に達することであってもよく、本出願は所定条件に対して具体的な限定をしない)、オーバーラップ率予測ネットワークによって、取得したオーバーラップ率の勾配をリアルタイムで計算し、実行主体は該勾配に基づいて再度初期領域を該勾配の方向に沿って移動させるとともに、得られたオーバーラップ率が最大になるまで、初期領域の位置及び輪郭などの情報をリアルタイムで更新し、このときの更新後の初期領域を対象オブジェクト領域とする。
本実施形態では、初期領域の特徴を少なくとも1つの画像フレームにおけるマーキング領域の特徴と比較することにより、初期領域の特徴と少なくとも1つの画像フレームのマーキング領域における特徴とが最大に重なるように、初期領域の位置及び輪郭を調整することで、対象オブジェクト領域を正確に確定することができる。
ステップ405、対象オブジェクト領域に基づいて、対象画像フレームを分割する。
実行主体は対象オブジェクト領域を取得した後、対象オブジェクト領域に基づいて、対象画像フレームを分割することができる。具体的には、対象オブジェクト領域を長方形領域とし、該長方形領域を取得した後、長方形領域の長さ及び幅に基づいて、該長方形領域を囲む正方形画像領域を確定する。例示的に、長方形領域の長さと幅をそれぞれx、yとする。その場合、正方形の辺の長さは
Figure 0007393374000001
である。ここで、αは事前に設定された検索範囲パラメータであり、本出願はこれに対して特に限定しない。
該長方形領域を囲む正方形画像領域を取得した後、該正方形画像領域における対象オブジェクトの輪郭を分割することで、対象画像フレームの分割を実現する。
ステップ405の原理はステップ205の原理と同様であり、ここではその説明を省略する。
具体的には、ステップ405は以下のステップ4051~4054に基づいて確定することができる。
ステップ4051、少なくとも1つの画像フレームにおける対象オブジェクトの第3の特徴を抽出する。
実行主体は、残差ニューラルネットワークResNet50によって、対象画像フレームの前の少なくとも1つの画像フレームにおける対象オブジェクトの上位の特徴、下位の特徴、及び/又は上位と下位とが融合した後の特徴を第3の特徴として抽出する。第3の特徴は、例えば、輪郭特徴、色特徴、模様特徴、長さ特徴、カテゴリ特徴であり得る。
ステップ4052、対象オブジェクト領域における対象オブジェクトの第4の特徴を抽出する。
ステップ405での正方形画像領域を取得した後、実行主体は、残差ニューラルネットワークResNet50によって、対象オブジェクト領域を囲む正方形画像領域における上位の特徴、下位の特徴、及び/又は上位と下位とが融合した後の特徴を第4の特徴として抽出する。第4の特徴は、例えば、輪郭特徴、色特徴、模様特徴、長さ特徴、面積特徴、体積特徴、カテゴリ特徴であり得る。
ステップ4053、第4の特徴から第3の特徴にマッチングする第5の特徴を確定する。
実行主体は、取得した第4の特徴を第3の特徴と比較し、第4の特徴から第3の特徴にマッチングする第5の特徴を確定する。ステップ4052及びステップ4053で列挙された第3の特徴及び第4の特徴に基づいて、第5の特徴が輪郭特徴、色特徴、模様特徴、長さ特徴、及びカテゴリ特徴であることを確定することができる。
ステップ4054、第5の特徴に基づいて、対象画像フレームを分割する。
第5の特徴は対象オブジェクトの輪郭、色、模様、長さ、及びカテゴリを表すために使用され、実行主体は示された輪郭、色、模様、長さ、及びカテゴリに基づいて、対象画像フレームにおける対象オブジェクトを正確に分割することができる。
具体的には、該実施形態では、実行主体は、シャムネットワーク(Siamese network)構造のセグメンテーションネットワークを用いて、対象オブジェクト領域を取り囲む正方形画像領域において第4の特徴に対応する第5の特徴に基づいて、対象オブジェクトの輪郭、色、模様、長さ及びカテゴリを確定することができ、それにより対象オブジェクトに対する分割を正確に実現することができる。具体的には、シャムネットワークは2つのブランチを持つネットワークであり、第1のブランチは少なくとも1つの画像フレームにおける対象オブジェクトの第3の特徴を抽出し、第3の特徴に基づいて該シャムネットワークに対応するモデルパラメータを取得し、第2のブランチは対象オブジェクト領域における対象オブジェクトの第4の特徴を抽出し、第3の特徴と対応するモデルパラメータとに基づいて、第4の特徴から第3の特徴にマッチングする第5の特徴を抽出し、第5の特徴に基づいて対象画像フレームにおける対象オブジェクトを正確に分割することで、対象オブジェクトに対する分割の精度が向上される。
さらに図5を参照し、上記各図に示された方法に対する実施として、本出願は画像を処理するための装置の一実施形態を提供し、該装置の実施形態は図2に示された方法の実施形態と互いに対応し、該装置は具体的に様々な電子機器に適用可能である。
図5に示されているように、本実施形態の画像を処理するための装置500はビデオ取得ユニット501、検索領域確定ユニット502、中心位置情報確定ユニット503、対象オブジェクト領域確定ユニット504及び分割ユニット505を含む。
ビデオ取得ユニット501は、対象画像フレームと対象オブジェクトがマーキングされた少なくとも1つの画像フレームとを含む対象ビデオを取得するように構成される。
検索領域確定ユニット502は、少なくとも1つの画像フレームにおけるマーキングされた対象オブジェクトに基づいて、対象画像フレームにおける対象オブジェクトに対する検索領域を確定するように構成される。
中心位置情報確定ユニット503は、検索領域に基づいて、対象オブジェクトの中心位置情報を確定するように構成される。
対象オブジェクト領域確定ユニット504は、対象オブジェクトが位置するマーキング領域と中心位置情報とに基づいて、対象オブジェクト領域を確定するように構成される。
分割ユニット505は、対象オブジェクト領域に基づいて、対象画像フレームを分割するように構成される。
本実施形態のいくつかのオプション的な実施形態では、検索領域確定ユニット502はさらに、マーキング領域に基づいて、検索領域を確定するように構成される。
本実施形態のいくつかのオプション的な実施形態では、検索領域確定ユニット502はさらに、対象オブジェクトの平均移動速度を確定し、マーキング領域の位置情報と平均移動速度とに基づいて、検索領域を確定するように構成される。
本実施形態のいくつかのオプション的な実施形態では、中心位置情報確定ユニット503はさらに、検索領域の上位の特徴を抽出し、抽出された上位の特徴をフィルタリングし、フィルタリングされた特徴に基づいて、対象オブジェクトの中心位置情報を確定するように構成される。
本実施形態のいくつかのオプション的な実施形態では、対象オブジェクト領域確定ユニット504はさらに、中心位置情報とマーキング領域とに基づいて初期領域を確定し、初期領域の第1の特徴及び少なくとも1つの画像フレームのマーキング領域における第2の特徴を確定し、第1の特徴及び第2の特徴に基づいて、対象オブジェクト領域を確定するように構成される。
本実施形態のいくつかのオプション的な実施形態では、対象オブジェクト領域確定ユニット504はさらに、初期領域及び少なくとも1つの画像フレームのマーキング領域における下位の特徴及び上位の特徴をそれぞれ抽出し、初期領域の下位の特徴及び上位の特徴を融合して、第1の特徴を取得し、少なくとも1つの画像フレームのマーキング領域における下位の特徴及び上位の特徴を融合して、第2の特徴を取得するように構成される。
本実施形態のいくつかのオプション的な実施形態では、対象オブジェクト領域確定ユニット504はさらに、第1の特徴と第2の特徴との差異を確定し、差異及び所定条件に基づいて、初期領域を更新し、更新後の初期領域を対象オブジェクト領域とするように構成される。
本実施形態のいくつかのオプション的な実施形態では、分割ユニット505はさらに、少なくとも1つの画像フレームにおける対象オブジェクトの第3の特徴を抽出し、対象オブジェクト領域における対象オブジェクトの第4の特徴を抽出し、第4の特徴から第3の特徴にマッチングする第5の特徴を確定し、第5の特徴に基づいて、対象画像フレームを分割するように構成される。
画像を処理するための装置500に記載されているユニット501~ユニット505はそれぞれ図2に説明した方法の各ステップに対応していることが理解される。従って、画像を処理するための方法に対して説明した操作及び特徴は、装置500及びその中に含まれるユニットにも同様に適用可能であり、ここではその説明を省略する。
本出願の実施形態に基づいて、本出願はさらに電子機器及び可読記憶媒体を提供する。
図6に示すように、本出願の実施形態による画像を処理するための方法の電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークベンチ、パーソナル・デジタル・アシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及びその他適切なコンピュータなどさまざまな形態のデジタルコンピュータを表すことを目的としている。また、電子機器は、個人デジタル処理、携帯電話、スマートフォン、ウェアラブル機器およびその他の類似するコンピューティングデバイス等の様々な形態のモバイルデバイスを表すことができる。なお、ここで示したコンポーネント、それらの接続関係、およびそれらの機能はあくまでも例示であり、ここで記述および/または要求した本出願の実施形態を限定することを意図するものではない。
図6に示すように、該電子機器は、1つ又は複数のプロセッサ601、メモリ602、及び高速インターフェース及び低速インターフェースを含む様々なコンポーネントを接続するためのインターフェースを含む。各コンポーネントは、互いに異なるバス605で接続されており、共通のマザーボードに実装されていてもよく、又は必要に応じて他の形態で実装されていてもよい。プロセッサは、電子機器内で実行される指令を処理することができ、メモリ内又はメモリに格納されて外部入出力装置(インターフェースなどに接続された表示装置)にGUIのグラフィック情報を表示させる指令を含む。他の実施形態では、必要に応じて、複数のプロセッサ及び/又は複数のバス605を複数のメモリ及び複数のメモリと共に使用してもよい。同様に、複数の電子機器を接続することができ、それぞれの機器はいくつかの必要な操作(例えば、サーバアレイ、一組のブレードサーバ、又はマルチプロセッサシステムとして)を提供する。図6では1つのプロセッサ601を例とする。
メモリ602は本出願による非一時的コンピュータ可読記憶媒体である。前記メモリは、少なくとも1つのプロセッサによって実行可能な指令を格納しており、前記少なくとも1つのプロセッサに本出願による画像を処理するための方法を実行させる。本出願の非一時的コンピュータ可読記憶媒体は、本出願による画像を処理するための方法をコンピュータに実行させるためのコンピュータ指令を格納する。
メモリ602は、非一時的コンピュータ可読記憶媒体として、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能プログラム並びに、例えば本出願の実施形態における画像を処理するための方法に対応するプログラム指令/ユニット(例えば、図5に示すビデオ取得ユニット501、検索領域確定ユニット502、中心位置情報確定ユニット503及び対象オブジェクト領域確定ユニット504及び分割ユニット505)などのユニットを格納することができる。プロセッサ601は、メモリ602に格納されている非一時的なソフトウェアプログラム、指令及びモジュールを動作させることにより、サーバの様々な機能アプリケーション及びデータ処理を実行し、すなわち上記方法の実施形態における画像を処理するための方法を実現する。
メモリ602は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションを記憶できるプログラム記憶領域、および画像を処理するための方法を実行する電子機器の使用に作成されるデータ等を記憶できるデータ記憶領域を備えてもよい。また、メモリ602は高速ランダムアクセスメモリを含むことができ、また非一時的メモリ(例えば、少なくとも1つの磁気ディスク記憶装置、フラッシュメモリデバイスまたはその他の非一時的ソリッドステート記憶装置)を含み得る。いくつかの実施形態において、メモリ602は任意選択でプロセッサ601に対して遠隔に設置されたメモリを含み、これらのリモートメモリはネットワークを介して画像を処理するための方法を実行する電子機器に接続することができる。上記ネットワークとしては、例えば、インターネット、企業イントラネット、ローカルエリアネットワーク、移動体通信網およびこれらの組み合わせなどが挙げられるが、それらに限定されない。
画像を処理するための方法を実行する電子機器はさらに入力装置603及び出力装置604を含むことができる。プロセッサ601、メモリ602、入力装置603及び出力装置604は、バス605又はその他の形態で接続されていてもよく、図6ではバス605を介して接続されている例を示している。
入力装置603は、入力されたデジタル又は文字情報を受け取り、画像を処理するための方法を実行する電子機器のユーザ設定や機能制御に関するキー信号入力を生成することができ、例えば、タッチパネル、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングデバイス、1つまたは複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置を含む。出力装置604は、表示装置、補助照明装置(例えば、LED)、触覚フィードバック装置(例えば、振動モータ)などを含み得る。該表示装置は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ及びプラズマディスプレイを含むがそれらに限定されない。いくつかの実施形態において、表示装置はタッチスクリーンであってもよい。
ここで記述するシステムおよび技術の各実施形態はデジタル電子回路システム、集積回路システム、特定用途向け集積回路(Application Specific Integrated Circuit,ASIC)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組み合わせにおいて実装され得る。これらの各実施形態は、1つまたは複数のコンピュータプログラムに実装され、該1つまたは複数のコンピュータプログラムは少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムにおいて実行および/または解釈することができ、該プログラマブルプロセッサは専用または汎用プログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置および少なくとも1つの出力装置からデータおよび指令を受信することができ、且つデータおよび指令を該記憶システム、該少なくとも1つの入力装置および該少なくとも1つの出力装置に伝送することを含み得る。
これらのコンピュータプログラムは、プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとも呼ばれ、プログラマブルプロセッサの機械命令を含み、且つ高度プロセスおよび/またはオブジェクト指向のプログラミング言語、および/またはアセンブリ言語/機械語により実装され得る。ここで、「機械可読媒体」および「コンピュータ可読媒体」という用語は、機械指令および/またはデータをプログラマブルプロセッサに供給するための任意のコンピュータプログラム、機器、および/または装置(たとえば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を意味し、機械可読信号である機械命令を受信する機械可読媒体を含む。「機械可読信号」という用語は、機械命令および/またはデータをプログラマブルプロセッサに供給するための任意の信号を意味する。
ユーザとのやりとりを行うために、ここで記述するシステムと技術は、ユーザに情報を表示するための表示装置(例えば、陰極線管(Cathode Ray Tube,CRT)またはLCD(液晶ディスプレイ)モニタ)と、キーボードおよびポインティングデバイス(例えば、マウスまたはトラックボール)とを備えるコンピュータ上で実装することができ、ユーザが該キーボードおよび該ポインティングデバイスを介してコンピュータに入力を提供できる。他の種類の装置もユーザとのやりとりを行うことに用いることができる。例えば、ユーザに提供されるフィードバックは、例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバックであるいかなる形態のセンシングフィードバックであってもよく、且つ音入力、音声入力若しくは触覚入力を含むいかなる形態でユーザからの入力を受信してもよい。
ここで記述したシステムおよび技術は、バックグラウンドコンポーネントを含む演算システム(例えば、データサーバ)に実施されてもよく、またはミドルウェアコンポーネントを含む演算システム(例えば、アプリケーションサーバ)に実施されてもよく、またはフロントエンドコンポーネントを含む演算システム(例えば、グラフィカルユーザインタフェースまたはウェブブラウザを有するユーザコンピュータ)に実施されてもよく、ユーザは該グラフィカルユーザインタフェースまたはウェブブラウザを介してここで記述したシステムおよび技術の実施形態とやりとりを行っていてもよく、またはこのようなバックグラウンドコンポーネント、ミドルウェアコンポーネントまたはフロントエンドコンポーネントのいずれかの組み合わせを含む演算システムに実施されてもよい。また、システムの各コンポーネントの間は、通信ネットワーク等の任意の形態または媒体を介してデジタルデータ通信により接続されていてもよい。通信ネットワークとしては、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)およびインターネットなどを含む。
コンピュータシステムは、クライアントとサーバとを含んでもよい。クライアントとサーバは、通常、互いに離れており、通信ネットワークを介してやりとりを行う。クライアントとサーバとの関係は、互いにクライアント-サーバの関係を有するコンピュータプログラムをそれぞれのコンピュータ上で動作することによって生成される。
本出願の実施形態の技術的手段によれば、対象オブジェクトをロバストに位置特定するとともに精細な対象分割結果を提供することができる。
上記に示した様々な形態のプロセスを用いて、ステップを順番変更したり、追加したり又は削除したりすることができることを理解すべきである。本出願が開示する技術的手段の望ましい結果を実現することができれば、例えば、本出願に記載された各ステップは並行して又は順番通りに又は異なる順番で実行されてもよく、本明細書はここでは限定しない。
上記具体的な実施形態は、本出願の保護範囲を限定するものではない。設計要件および他の要因に従って、様々な修正、組み合わせ、副次的な組み合わせ、および置換を行うことができることを当業者は理解すべきである。本出願の趣旨および原理を逸脱せずに行われたあらゆる修正、均等置換および改善などは、いずれも本出願の保護範囲内に含まれるべきである。

Claims (19)

  1. 対象画像フレームと対象オブジェクトがマーキングされた少なくとも1つの画像フレームとが含まれる対象ビデオを取得する対象ビデオ取得ステップと、
    前記少なくとも1つの画像フレームにおけるマーキングされた対象オブジェクトに基づいて、前記対象画像フレームにおいて前記対象オブジェクトに対する検索領域を確定する検索領域確定ステップと、
    前記検索領域に基づいて、前記対象オブジェクトの中心位置の情報を確定する中心位置情報確定ステップと、
    前記対象画像フレームにおいて、前記対象オブジェクトの前記中心位置を中心とし、前記対象オブジェクトの1つ前のフレームにおけるマーキング領域と同じの領域を分割の対象となる対象オブジェクト領域として作成する対象オブジェクト領域確定ステップと、
    前記分割の対象となる対象オブジェクト領域に基づいて、前記対象画像フレームを分割する分割ステップとを含み、
    前記検索領域確定ステップは、前記対象画像フレームの1つ前のフレームにおける前記対象オブジェクトの位置を円心とし、前記対象画像フレームの2つ前のフレームから前記1つ前のフレームまでの前記対象オブジェクトの移動距離を半径とした円形領域を取得し、前記円形領域に基づいて前記対象画像フレームにおける前記対象オブジェクトの検索領域を特定するステップを含み、
    前記中心位置情報確定ステップは、前記検索領域における上位の特徴を抽出してフィルタリングし、前記検索領域におけるフィルタリングにより得られた前記少なくとも1つの画像フレームのマーキング領域における中心位置の上位の特徴と同様である上位の特徴の位置を、前記対象オブジェクトの前記中心位置の情報とするステップを含む、画像を処理するための方法。
  2. 前記検索領域確定ステップは、
    前記対象画像フレームの1つ前のフレームにおける前記対象オブジェクトの中心位置を起点とし、前記対象画像フレームの前の3つのフレームにおける前記対象オブジェクトの移動距離の和の平均値を半径とし、進行方向に構成される扇形領域を前記対象画像フレームにおける検索領域とするステップをさらに含み、
    前記進行方向は前記対象画像フレームの前の3つのフレームに基づいて確定された前記対象オブジェクトの移動方向及び該移動方向間のなす角からなる方向である
    請求項1に記載の方法。
  3. 前記検索領域確定ステップは、
    前記対象オブジェクトの平均移動速度を確定するステップであって、前記対象画像フレームの前の所定数のフレームの画像において、隣接する2フレーム毎における前記対象オブジェクトの位置の変化距離と、フレーム毎の所定時間とに基づいて、隣接する2フレーム毎の対象移動速度を算出し、隣接する2フレーム毎の対象移動速度を加算し平均値を取って、前記対象画像フレームにおける前記対象オブジェクトの平均移動速度とするステップと、
    前記マーキング領域の位置情報と前記平均移動速度とに基づいて、前記検索領域を確定するステップとをさらに含む、請求項2に記載の方法。
  4. 前記上位の特徴は、特徴の細部を表すものであり、模様特徴を含む、請求項1に記載の方法。
  5. 前記対象オブジェクト領域確定ステップは、
    前記中心位置の情報と前記マーキング領域とに基づいて、初期領域を確定するステップと、
    前記初期領域の第1の特徴及び前記少なくとも1つの画像フレームのマーキング領域の第2の特徴を確定するステップと、
    前記第1の特徴と前記第2の特徴とに基づいて、対象オブジェクト領域を確定するステップとを含み、
    前記第2の特徴は前記第1の特徴のタイプに対応する特徴であり、前記タイプは上位の特徴および下位の特徴を含み、
    前記下位の特徴は特徴の意味部分を表すものであり、色、輪郭を含む、請求項1に記載の方法。
  6. 前記初期領域の第1の特徴及び前記少なくとも1つの画像フレームのマーキング領域の第2の特徴を確定するステップは、
    前記初期領域と、前記少なくとも1つの画像フレームのマーキング領域との下位の特徴及び上位の特徴をそれぞれ抽出するステップと、
    前記初期領域における下位の特徴と上位の特徴とを融合して、前記第1の特徴を取得するステップと、
    前記少なくとも1つの画像フレームのマーキング領域における下位の特徴と上位の特徴とを融合して、前記第2の特徴を取得するステップとを含む、請求項5に記載の方法。
  7. 前記第1の特徴と前記第2の特徴とに基づいて、対象オブジェクト領域を確定するステップは、
    前記第1の特徴と前記第2の特徴との差異を確定するステップと、
    前記第1の特徴と前記第2の特徴との差異が所定条件を満たさない場合、オーバーラップ率予測ネットワークによって前記初期領域の位置および輪郭を更新し、更新後の初期領域を前記対象オブジェクト領域とするステップとを含む、請求項5に記載の方法。
  8. 前記分割ステップは、
    前記少なくとも1つの画像フレームにおける前記対象オブジェクトの第3の特徴を抽出するステップと、
    前記対象オブジェクト領域における前記対象オブジェクトの第4の特徴を抽出するステップと、
    前記第4の特徴から前記第3の特徴にマッチングする第5の特徴を確定するステップと、
    前記第5の特徴に基づいて、前記対象画像フレームを分割するステップとを含む、請求項1に記載の方法。
  9. 対象画像フレームと対象オブジェクトがマーキングされた少なくとも1つの画像フレームとが含まれる対象ビデオを取得するように構成されるビデオ取得ユニットと、
    前記少なくとも1つの画像フレームにおけるマーキングされた対象オブジェクトに基づいて、前記対象画像フレームにおいて前記対象オブジェクトに対する検索領域を確定するように構成される検索領域確定ユニットと、
    前記検索領域に基づいて、前記対象オブジェクトの中心位置の情報を確定するように構成される中心位置情報確定ユニットと、
    前記対象画像フレームにおいて、前記対象オブジェクトの前記中心位置を中心とし、前記対象オブジェクトの1つ前のフレームにおけるマーキング領域と同じの領域を分割の対象となる対象オブジェクト領域として作成するように構成される対象オブジェクト領域確定ユニットと、
    前記分割の対象となる対象オブジェクト領域に基づいて、前記対象画像フレームを分割するように構成される分割ユニットとを備え、
    前記検索領域確定ユニットは、前記対象画像フレームの1つ前のフレームにおける前記対象オブジェクトの位置を円心とし、前記対象画像フレームの2つ前のフレームから前記1つ前のフレームまでの前記対象オブジェクトの移動距離を半径とした円形領域を取得し、前記円形領域に基づいて前記対象画像フレームにおける前記対象オブジェクトの検索領域を特定するように構成され、
    前記中心位置情報確定ユニットは、前記検索領域における上位の特徴を抽出してフィルタリングし、前記検索領域におけるフィルタリングにより得られた前記少なくとも1つの画像フレームのマーキング領域における中心位置の上位の特徴と同様である上位の特徴の位置を、前記対象オブジェクトの前記中心位置の情報とするように構成される、画像を処理するための装置。
  10. 前記検索領域確定ユニットはさらに、
    前記対象画像フレームの1つ前のフレームにおける前記対象オブジェクトの中心位置を起点とし、前記対象画像フレームの前の3つのフレームにおける前記対象オブジェクトの移動距離の和の平均値を半径とし、進行方向に構成される扇形領域を前記対象画像フレームにおける検索領域とするように構成され、
    前記進行方向は前記対象画像フレームの前の3つのフレームに基づいて確定された前記対象オブジェクトの移動方向及び該移動方向間のなす角からなる方向である、請求項9に記載の装置。
  11. 前記検索領域確定ユニットはさらに、
    前記対象オブジェクトの平均移動速度を確定するステップであって、前記対象画像フレームの前の所定数のフレームの画像において、隣接する2フレーム毎における前記対象オブジェクトの位置の変化距離と、フレーム毎の所定時間とに基づいて、隣接する2フレーム毎の対象移動速度を算出し、隣接する2フレーム毎の対象移動速度を加算し平均値を取って、前記対象画像フレームにおける前記対象オブジェクトの平均移動速度とするステップと、
    前記マーキング領域の位置情報と前記平均移動速度とに基づいて、前記検索領域を確定するステップと、を行うように構成される、請求項10に記載の装置。
  12. 前記上位の特徴は、特徴の細部を表すものであり、模様特徴を含む、請求項9に記載の装置。
  13. 前記対象オブジェクト領域確定ユニットはさらに、
    前記中心位置の情報と前記マーキング領域とに基づいて、初期領域を確定し、
    前記初期領域の第1の特徴及び前記少なくとも1つの画像フレームのマーキング領域の第2の特徴を確定し、
    前記第1の特徴と前記第2の特徴とに基づいて、対象オブジェクト領域を確定するように構成され、
    前記第2の特徴は前記第1の特徴のタイプに対応する特徴であり、前記タイプは上位の特徴および下位の特徴を含み、
    前記下位の特徴は特徴の意味部分を表すものであり、色、輪郭を含む、請求項9に記載の装置。
  14. 前記対象オブジェクト領域確定ユニットはさらに、
    前記初期領域と、前記少なくとも1つの画像フレームのマーキング領域との下位の特徴及び上位の特徴をそれぞれ抽出し、
    前記初期領域の下位の特徴と上位の特徴とを融合して、前記第1の特徴を取得し、
    前記少なくとも1つの画像フレームのマーキング領域における下位の特徴と上位の特徴とを融合して、前記第2の特徴を取得するように構成される、請求項13に記載の装置。
  15. 前記対象オブジェクト領域確定ユニットはさらに、
    前記第1の特徴と前記第2の特徴との差異を確定し、
    前記第1の特徴と前記第2の特徴との差異が所定条件を満たさない場合、オーバーラップ率予測ネットワークによって前記初期領域の位置および輪郭を更新し、更新後の初期領域を前記対象オブジェクト領域とするように構成される、請求項13に記載の装置。
  16. 前記分割ユニットはさらに、
    前記少なくとも1つの画像フレームにおける前記対象オブジェクトの第3の特徴を抽出し、
    前記対象オブジェクト領域における前記対象オブジェクトの第4の特徴を抽出し、
    前記第4の特徴から前記第3の特徴にマッチングする第5の特徴を確定し、
    前記第5の特徴に基づいて、前記対象画像フレームを分割する、請求項9に記載の装置。
  17. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されるメモリとを備え、
    前記メモリには、前記少なくとも1つのプロセッサにより実行可能な指令が格納されており、前記指令は前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項1~8のいずれか1項に記載の方法を実行させる、ことを特徴とする画像を処理するための電子機器。
  18. コンピュータ指令が格納されている非一時的コンピュータ可読記憶媒体であって、
    前記コンピュータ指令は請求項1~8のいずれか1項に記載の方法をコンピュータに実行させるために使用される、ことを特徴とする非一時的コンピュータ可読記憶媒体。
  19. プロセッサにより実行されると、請求項1~8のいずれか一項に記載の方法を実現する、コンピュータプログラム。
JP2021037660A 2020-06-30 2021-03-09 画像を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム Active JP7393374B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010613379.9 2020-06-30
CN202010613379.9A CN111723769B (zh) 2020-06-30 2020-06-30 用于处理图像的方法、装置、设备以及存储介质

Publications (2)

Publication Number Publication Date
JP2022013648A JP2022013648A (ja) 2022-01-18
JP7393374B2 true JP7393374B2 (ja) 2023-12-06

Family

ID=72570445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021037660A Active JP7393374B2 (ja) 2020-06-30 2021-03-09 画像を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム

Country Status (5)

Country Link
US (1) US20210406548A1 (ja)
EP (1) EP3933674A1 (ja)
JP (1) JP7393374B2 (ja)
KR (1) KR20220002063A (ja)
CN (1) CN111723769B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113129341B (zh) * 2021-04-20 2021-12-14 广东工业大学 基于轻量型孪生网络的降落跟踪控制方法和系统及无人机
CN113361519B (zh) * 2021-05-21 2023-07-28 北京百度网讯科技有限公司 目标处理方法、目标处理模型的训练方法及其装置
CN113378015B (zh) * 2021-06-28 2023-06-20 北京百度网讯科技有限公司 搜索方法、装置、电子设备、存储介质和程序产品
CN113723286B (zh) * 2021-08-30 2023-08-11 上海大学 基于视频的扇形搜索车速检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011059898A (ja) 2009-09-08 2011-03-24 Fujifilm Corp 画像解析装置、画像解析方法およびプログラム
US20200074185A1 (en) 2019-11-08 2020-03-05 Intel Corporation Fine-grain object segmentation in video with deep features and multi-level graphical models

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6400831B2 (en) * 1998-04-02 2002-06-04 Microsoft Corporation Semantic video object segmentation and tracking
JP4366023B2 (ja) * 2001-03-16 2009-11-18 インターナショナル・ビジネス・マシーンズ・コーポレーション ビデオ・イメージの部分イメージ領域抽出方法、部分イメージ領域抽出システム、部分イメージ領域抽出のためのプログラム、抽出されたビデオ・イメージの配信方法およびコンテンツ作成方法
US8111923B2 (en) * 2008-08-14 2012-02-07 Xerox Corporation System and method for object class localization and semantic class based image segmentation
TWI405145B (zh) * 2008-11-20 2013-08-11 Ind Tech Res Inst 以圖素之區域特徵為基礎的影像分割標記方法與系統,及其電腦可記錄媒體
CN102129691B (zh) * 2011-03-22 2014-06-18 北京航空航天大学 一种采用Snake轮廓模型的视频对象跟踪分割方法
WO2018183548A1 (en) * 2017-03-30 2018-10-04 Hologic, Inc. System and method for hierarchical multi-level feature image synthesis and representation
US10229347B2 (en) * 2017-05-14 2019-03-12 International Business Machines Corporation Systems and methods for identifying a target object in an image
CN108256479B (zh) * 2018-01-17 2023-08-01 百度在线网络技术(北京)有限公司 人脸跟踪方法和装置
US11507800B2 (en) * 2018-03-06 2022-11-22 Adobe Inc. Semantic class localization digital environment
CN108447091B (zh) * 2018-03-27 2022-09-06 北京颂泽科技有限公司 目标定位方法、装置、电子设备及存储介质
US11061132B2 (en) * 2018-05-21 2021-07-13 Johnson Controls Technology Company Building radar-camera surveillance system
CN110751674A (zh) * 2018-07-24 2020-02-04 北京深鉴智能科技有限公司 多目标跟踪方法及相应视频分析系统
US11244459B2 (en) * 2018-12-16 2022-02-08 Masahiko Sato Method for segmentation of grayscale images and segmented area tracking
CN110675429A (zh) * 2019-09-24 2020-01-10 湖南人文科技学院 基于孪生网络和相关滤波器的长短程互补型目标跟踪方法
CN110728270A (zh) * 2019-12-17 2020-01-24 北京影谱科技股份有限公司 视频人物的去除方法、装置及设备及计算机可读存储介质
US10861213B1 (en) * 2019-12-23 2020-12-08 Fyusion, Inc. System and method for automatic generation of artificial motion blur
CN111179314B (zh) * 2019-12-30 2023-05-02 北京工业大学 一种基于残差密集孪生网络的目标跟踪方法
CN111091582A (zh) * 2019-12-31 2020-05-01 北京理工大学重庆创新中心 一种基于深度神经网络的单视觉目标跟踪算法及系统
CN111340845B (zh) * 2020-02-25 2020-12-29 上海黑眸智能科技有限责任公司 基于深度视觉传感器的自动跟踪方法、系统、终端以及介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011059898A (ja) 2009-09-08 2011-03-24 Fujifilm Corp 画像解析装置、画像解析方法およびプログラム
US20200074185A1 (en) 2019-11-08 2020-03-05 Intel Corporation Fine-grain object segmentation in video with deep features and multi-level graphical models

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Luca Bertinetto, et al.,Fully-Convolutional Siamese Networks for Object Tracking,arXiv,米国,2016年06月30日,https://arxiv.org/pdf/1606.09549v1.pdf
Xin Li, et al.,Target-Aware Deep Tracking,2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR),米国,IEEE,2019年06月20日,1369-1378,https://ieeexplore.ieee.org/document/8953816

Also Published As

Publication number Publication date
EP3933674A1 (en) 2022-01-05
KR20220002063A (ko) 2022-01-06
CN111723769A (zh) 2020-09-29
CN111723769B (zh) 2023-10-27
US20210406548A1 (en) 2021-12-30
JP2022013648A (ja) 2022-01-18

Similar Documents

Publication Publication Date Title
JP7393374B2 (ja) 画像を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
EP3605394B1 (en) Method and apparatus for recognizing body movement
JP6902611B2 (ja) 物体検出方法、ニューラルネットワークの訓練方法、装置および電子機器
JP7335274B2 (ja) ジオロケーションの予測のためのシステムおよび方法
JP7429796B2 (ja) 車両追跡方法、装置及び電子機器
CN111753961B (zh) 模型训练方法和装置、预测方法和装置
CN112149636B (zh) 用于检测目标物体的方法、装置、电子设备及存储介质
CN111739005B (zh) 图像检测方法、装置、电子设备及存储介质
CN113095346A (zh) 数据标注的方法以及数据标注的装置
CN114758337B (zh) 一种语义实例重建方法、装置、设备及介质
EP3847619A1 (en) Unsupervised depth prediction neural networks
JP2022050311A (ja) 車両の車線変更を検出するための方法、装置、電子機器、記憶媒体、路側機、クラウド制御プラットフォーム、及びコンピュータプログラム
EP4062363A1 (en) Methods and systems for forecasting crowd dynamics
CN110807379A (zh) 一种语义识别方法、装置、以及计算机存储介质
CN114360239A (zh) 一种多层时空交通知识图谱重建的交通预测方法及系统
CN111597986B (zh) 用于生成信息的方法、装置、设备和存储介质
CN110827341A (zh) 一种图片深度估计方法、装置和存储介质
CN112329616B (zh) 目标检测方法、装置、设备以及存储介质
CN109410121B (zh) 人像胡须生成方法及装置
Liu et al. Depth estimation of traffic scenes from image sequence using deep learning
CN115690845A (zh) 一种运动轨迹预测方法及装置
CN113703704A (zh) 界面显示方法、头戴式显示设备和计算机可读介质
JP2021101370A (ja) モデリングルートの検証方法、装置、無人車両及び記憶媒体
CN117441195A (zh) 纹理补全
CN111062479A (zh) 基于神经网络的模型快速升级方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231124

R150 Certificate of patent or registration of utility model

Ref document number: 7393374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150