JP7459927B2 - 画像処理方法 - Google Patents

画像処理方法 Download PDF

Info

Publication number
JP7459927B2
JP7459927B2 JP2022507961A JP2022507961A JP7459927B2 JP 7459927 B2 JP7459927 B2 JP 7459927B2 JP 2022507961 A JP2022507961 A JP 2022507961A JP 2022507961 A JP2022507961 A JP 2022507961A JP 7459927 B2 JP7459927 B2 JP 7459927B2
Authority
JP
Japan
Prior art keywords
image
candidate
processing device
images
annotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022507961A
Other languages
English (en)
Other versions
JPWO2021186672A5 (ja
JPWO2021186672A1 (ja
Inventor
あずさ 澤田
剛志 柴田
一人 滝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021186672A1 publication Critical patent/JPWO2021186672A1/ja
Publication of JPWO2021186672A5 publication Critical patent/JPWO2021186672A5/ja
Application granted granted Critical
Publication of JP7459927B2 publication Critical patent/JP7459927B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9027Pattern recognition for feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理方法、画像処理システム、プログラムに関する。
衛星画像などの撮影画像を有効活用するために、種々の方法による撮影画像の自動解析が求められている。例えば、特許文献1に開示の技術では、上空から地表を撮影した合成開口レーダ(SAR:Synthetic Aperture Radar)画像と光学画像とを組み合わせた画像を生成し、かかる画像から地表の物体の種類を判別することを行っている。
一方で、画像内から物体を抽出したり判別するなどの解析方法の開発や性能評価のためには、まずは求める正解が用意されたデータが必要となる。つまり、既存の画像内に存在する物体に対する正解付けであるアノテーションを行い、かかるアノテーションが行われたデータを学習することで、解析方法の開発や性能評価を行う。
特許5246391号公報
しかしながら、合成開口レーダによる衛星画像などの画像内の対象物に対するアノテーションを行う際には、画像自体の内容の判別が困難であり、アノテーションを人物によって手作業で行う際に、誤りが多く含まれることがある。例えば、画像内の物体を矩形の実線で囲うといったアノテーションを行う場合に、図1Aに示すアノテーションが正しいとしても、図1Bに示すように、同種の対象物間の境界を誤ったり(領域a参照)、小さい物体を見逃す(領域b参照)、といった誤りが生じうる。このように、画像に対して手作業でアノテーションを行う場合には、アノテーションの精度が低下する、という問題が生じる。
このため、本発明の目的は、上述した課題である、画像に対して手作業でアノテーションを行う場合には、アノテーションの精度が低下する、ことを解決することができる画像処理方法、画像処理システム、プログラムを提供することにある。
本発明の一形態である画像処理方法は、
アノテーション処理の対象となる対象画像から予め設定された基準によって特定される候補領域の画像である候補画像を抽出すると共に、前記対象画像に対応する画像である参照画像から前記候補領域に対応する対応領域の画像である対応画像を抽出し、
前記候補画像と前記対応画像とを対比可能なよう表示し、
前記候補画像に対するアノテーション処理用の入力情報の入力を受け付ける、
という構成をとる。
また、本発明の一形態である画像処理装置は、
アノテーション処理の対象となる対象画像から予め設定された基準によって特定される候補領域の画像である候補画像を抽出すると共に、前記対象画像に対応する画像である参照画像から前記候補領域に対応する対応領域の画像である対応画像を抽出する抽出手段と、
前記候補画像と前記対応画像とを対比可能なよう表示する表示手段と、
前記候補画像に対するアノテーション処理用の入力情報の入力を受け付ける入力受付手段と、
を備えた、
という構成をとる。
また、本発明の一形態であるプログラムは、
情報処理装置に、
アノテーション処理の対象となる対象画像から予め設定された基準によって特定される候補領域の画像である候補画像を抽出すると共に、前記対象画像に対応する画像である参照画像から前記候補領域に対応する対応領域の画像である対応画像を抽出する抽出手段と、
前記候補画像と前記対応画像とを対比可能なよう表示する表示手段と、
前記候補画像に対するアノテーション処理用の入力情報の入力を受け付ける入力受付手段と、
を実現させる、
という構成をとる。
本発明は、以上のように構成されることにより、画像に対して手作業でアノテーションを行う場合に、アノテーションの精度の低下を抑制することができる。
画像中に物体に対するアノテーションを行った時の一例を示す図である。 画像中に物体に対するアノテーションを行った時の一例を示す図である。 本発明の実施形態1における画像処理装置の構成を示すブロック図である。 図2に開示した画像処理装置により処理される画像の一例を示す図である。 図2に開示した画像処理装置により処理される画像の一例を示す図である。 図2に開示した画像処理装置による画像の処理の様子を示す図である。 図2に開示した画像処理装置による画像の処理の様子を示す図である。 図2に開示した画像処理装置による画像の処理の様子を示す図である。 図2に開示した画像処理装置による画像の処理の様子を示す図である。 図2に開示した画像処理装置による画像の処理の様子を示す図である。 図2に開示した画像処理装置による画像の処理の様子を示す図である。 図2に開示した画像処理装置による画像の処理の様子を示す図である。 図2に開示した画像処理装置による画像の処理の様子を示す図である。 図2に開示した画像処理装置による画像の処理の様子を示す図である。 図2に開示した画像処理装置の動作を示すフローチャートである。 本発明の実施形態2における画像処理装置のハードウェア構成を示すブロック図である。 本発明の実施形態2における画像処理装置の構成を示すブロック図である。 本発明の実施形態2における画像処理装置の動作を示すフローチャートである。
<実施形態1>
本発明の第1の実施形態を、図2乃至図8を参照して説明する。図2は、画像処理装置の構成を説明するための図であり、図3乃至図8は、画像処理装置の処理動作を説明するための図である。
[構成]
本実施形態における画像処理装置10は、合成開口レーダ(SAR:Synthetic Aperture Radar)による衛星画像などの画像に対して、作業者が物体のアノテーションを行うことを支援するためのものである。例えば、画像処理装置10は、図1Aに示すような衛星画像である画像を作業者に対して表示し、かかる作業者が画像から見つけた船などの物体に対して矩形の実線で囲うといったアノテーション情報の入力を受け付けて、アノテーションが行われた画像を蓄積する機能を有する。そして、アノテーションが行われた画像は、例えば、機械学習の学習データとして用いられる。
なお、画像処理装置10が処理する画像は、合成開口レーダによる衛星画像に限定されず、いかなる画像であってもよい。例えば、画像処理装置10は、内視鏡カメラによる画像を処理対象とし、画像中の特定の病状箇所に対するアノテーションを行うために利用されてもよく、いかなる用途に利用されてもよい。
上記画像処理装置10は、演算装置と記憶装置とを備えた1台又は複数台の情報処理装置にて構成される。そして、画像処理装置10は、図2に示すように、領域設定部11、領域抽出部12、画像表示部13、アノテーション処理部14、を備える。領域設定部11、領域抽出部12、画像表示部13、アノテーション処理部14、のそれぞれの機能は、演算装置が記憶装置に格納された各機能を実現するためのプログラムを実行することにより、実現することができる。また、画像処理装置10は、ターゲット画像記憶部15、参照画像記憶部16、領域情報記憶部17、アノテーション画像記憶部18、を備える。ターゲット画像記憶部15、参照画像記憶部16、領域情報記憶部17、アノテーション画像記憶部18は、記憶装置により構成される。また、画像処理装置10には、キーボードやマウスといった入力装置1と、ディスプレイといった表示装置2と、が接続されている。以下、各構成について詳述する。
上記ターゲット画像記憶部15は、アノテーション処理を行う対象となるターゲット画像(対象画像)を記憶している。ターゲット画像は、例えば、図3Aに示すような合成開口レーダによる衛星画像であり、海上を含む地球表面を撮影した画像である。このように、ターゲット画像は海上を含むよう撮影した画像であるため、かかる画像に映る船舶がアノテーションを行う対象物である物体となりうる。
上記参照画像記憶部16は、上記ターゲット画像と同様に合成開口レーダによる衛星画像であり、図3Bに示すように、ターゲット画像と同じ領域を撮影した画像である参照画像を1つ又は複数記憶している。なお、本実施形態では、1つのターゲット画像に対して、2つの参照画像を記憶していることとする。また、参照画像は、例えば、ターゲット画像を撮影した時刻とは異なる時刻に撮影された画像であり、一例としては、ターゲット画像を撮影する前から1日おきに順次撮影された複数の画像である。なお、参照画像は、ターゲット画像とほぼ同一の領域を撮影した画像であるが、完全に同一の領域であることに限定されず、略同一であってもよく、あるいは、略同一ではなく、ターゲット画像の領域と対応する領域の画像であってもよい。
上記領域設定部11(抽出手段)は、ターゲット画像及び参照画像のうち、アノテーションを行う物体(例えば、船舶)が含まれうる領域である候補領域群を設定する。本実施形態では、アノテーションを行う物体が船舶であるため、図4の斜線で示すように、ターゲット画像から、画像の輝度値などから対象物体である可能性のある領域をすべて候補領域群として設定して、当該候補領域群のターゲット画像上の座標を領域情報記憶部17に記憶する。但し、領域設定部11は、別の方法で候補領域群を設定してもよく、例えば、地図情報を用いて、ターゲット画像を撮影した領域の位置情報から海上である領域を候補領域群として設定してもよい。
さらに、領域設定部11は、設定した候補領域群に基づいて、ターゲット画像上のアノテーションを行う際に拡大表示する領域とする候補領域を設定して、そのターゲット画像上の座標を領域情報記憶部17に記憶する。具体的に、領域設定部11は、図5Aの点線で示すように、ターゲット画像内で候補領域群として設定された領域の少なくとも一部を含むターゲット画像全体よりも小さい矩形の領域を、候補領域wとして設定する。このとき、領域設定部11は、ターゲット画像の候補領域群の全領域をカバーできるよう、複数の候補領域wを設定して、各候補領域wのターゲット画像上の座標を領域情報記憶部17に記憶する。例えば、領域設定部11は、図5Bに示すように、はじめにターゲット画像の右上の角の領域に設定した候補領域wを横方向に順次スライドさせて別の候補領域wを複数設定し、また、図5Cに示すように、縦方向にも候補領域wをスライドさせ、それをさらに横方向に順次スライドさせることで、別の候補領域wを複数設定する。このとき、各候補領域wは、相互に重なっていてもよく、重なっていなくてもよい。
上記領域抽出部12(抽出手段)は、ターゲット画像と参照画像とからそれぞれ、上述したように設定した候補領域wに対応する画像を抽出する。このとき、領域抽出部12は、複数設定した候補領域wから1つの候補領域wを特定して、その候補領域のターゲット画像上の座標を領域情報記憶部17から読み出す。そして、領域抽出部12は、読み出した座標から、特定した候補領域w内に位置するターゲット画像上の画像を候補画像G1として抽出し、特定した候補領域w内に位置する参照画像上の画像を対応画像G2,G3として抽出する。一例として、領域抽出部12は、図5Dに示す候補領域wを特定した場合には、かかる候補領域wと同一領域のターゲット画像上の画像を候補画像G1として抽出すると共に、候補領域wと同一領域の2枚の参照画像上それぞれの画像を対応画像G2,G3として抽出する。このようにして、領域抽出部12は、ターゲット画像と参照画像とから、それぞれほぼ同一領域の画像である候補画像G1と対応画像G2,G3とを抽出する。
なお、領域抽出部12は、ターゲット画像と参照画像とから、特定した1つの候補領域wに対応する候補画像G1と対応画像G2,G3とを抽出した後には、後述するように、かかる候補画像G1に対するアノテーションが完了した後に、候補領域wを変更してさらに別の1つの候補領域wを特定し、かかる候補領域wに対応する候補画像G1と対応画像G2,G3との抽出を行う。例えば、領域抽出部12は、ターゲット画像と参照画像上で候補領域wを順次スライドさせて特定し、それぞれ特定した候補領域wに対応する候補画像G1と対応画像G2,G3との抽出を順次行う。
上記画像表示部13(表示手段)は、上述したように抽出された、1つの候補領域wに対応する候補画像G1と対応画像G2,G3とを対比可能なように、表示装置2に表示するよう出力する。特に、本実施形態では、画像表示部13は、図6Aに示すように、候補画像G1と2つの対応画像G2,G3とを拡大して、一画面上に同時に並べて表示する。このように候補画像G1と対応画像G2,G3とを対比可能なよう表示することで、図6Bの点線に示すように、対象物体ごとに同じ位置に存在する場合と実際に存在しない場合があるため、作業者は、3枚の画像を比較することで、3つの物体が存在することを認識することができる。
なお、図6Aの例では、画像表示部13は、ターゲット画像1枚に対応して参照画像が2枚あるため、3枚の画像を同時に表示しているが、まず候補画像G1と1枚の対応画像G2とを同時に表示し、その後、候補画像G1と他の1枚の対応画像G3とを同時に表示してもよい。但し、画像表示部13は、必ずしも候補画像と対応画像とを同時に表示することに限定されず、候補画像と対応画像とを交互に表示することで、候補画像と対応画像とを対比可能なよう表示してもよい。このとき、候補画像に対応する対応画像が複数存在する場合には、候補画像を表示した後にスライドショー形式で複数の対応画像を順次表示してもよく、候補画像と対応画像とを繰り返し交互に表示する際に対応画像を別のものに順次変更して表示してもよい。また、画像表示部13は、候補画像と対応画像とを表示する際に、必ずしも拡大しなくてもよい。
上記アノテーション処理部14(入力受付部)は、表示装置2に表示された候補画像G1に対して、作業者から入力装置1を用いて入力されたアノテーション処理用の入力情報であるアノテーション情報を受け付ける。例えば、作業者によって入力されるアノテーション情報は、候補画像G1上に存在する物体を特定する情報であり、一例として、物体を囲う矩形の線図である。なお、アノテーション処理部14は、上述した図6Aに示すように、対応画像G2,G3と対比表示された状態の候補画像G1に対して入力されたアノテーション情報を受け付けてもよく、候補画像G1のみを別途表示して、かかる表示上で入力されたアノテーション情報を受け付けてもよい。
そして、アノテーション処理部14は、候補画像G1上に、作業者から入力されたアノテーション情報を表示する。本実施形態では、作業者によるアノテーション情報は、候補画像G1上に存在する物体を特定する情報であり、一例として、物体を囲う矩形の線図である。このため、アノテーション処理部14は、図7Aに示すように、候補画像G1上の3つの物体を囲うように入力された矩形の線図を表示する。このとき、アノテーション処理部14は、候補画像G1上に表示した矩形の線図に対応する情報(対応入力情報)を、対応画像G2,G3上にも表示する。例えば、アノテーション処理部14は、図7Bに示すように、対応画像G2,G3上の、候補画像G1上に表示した3つの矩形の線図と同じ位置に、同一形状の3つの矩形の線図を表示する。
アノテーション処理部14は、上述したように候補画像G1上に入力された物体を特定するアノテーション情報を当該候補画像G1に関連付けて、アノテーション画像として生成して、アノテーション画像記憶部18に記憶する。このように生成され記憶されたアノテーション画像は、例えば、機械学習の学習データとして用いられる。
そして、画像処理装置10は、上述したようにターゲット画像上の1つの候補領域の候補画像G1に対してアノテーション画像の生成を行った後に、候補領域を変更して、変更後の候補領域に対応する候補画像G1に対して、上述同様にアノテーション画像の生成を行う。具体的に、まず領域設定部11は、図5B,図5Cに示すように候補領域wをスライドさせて次の候補領域wを設定しする。そして、領域抽出部12が、ターゲット画像と参照画像とからそれぞれ、次の候補領域wに対応する候補画像G1と対応画像G2,G3とを抽出する。その後は、上述同様に、画像表示部13が、候補画像G1と対応画像G2,G3とを対比可能なよう表示装置2に表示し、アノテーション処理部14が、作業者により行われた候補画像G1に対するアノテーション情報を受け付けて、かかるアノテーション情報を候補画像G1上に表示すると共に、アノテーション画像を生成して記憶する。以上のようにして、画像処理装置10は、アノテーション画像を生成して記憶する。なお、アノテーション画像は、各候補画像G1上で受け付けたアノテーション情報をターゲット画像に対して関連付けたものであってもよい。
[動作]
次に、上述した画像処理装置10の動作を、主に図8のフローチャートを参照して説明する。まず、画像処理装置10は、ターゲット画像及び参照画像のうち、アノテーションを行う物体が含まれうる領域である候補領域群を設定する。本実施形態では、アノテーションを行う物体が船舶であるため、画像処理装置10は、図4の斜線で示すように、ターゲット画像から海上である領域を候補領域群として設定する。そして、画像処理装置10は、設定した候補領域群に基づいて、ターゲット画像上のアノテーションを行う際に拡大表示する領域とする候補領域を設定する。例えば、画像処理装置10は、図5Aの点線で示すように、ターゲット画像内で候補領域群として設定された領域の少なくとも一部を含むターゲット画像全体よりも小さい矩形の領域を、候補領域wとして設定する。このとき、画像処理装置10は、図5B、図5Cに示すように、候補領域wを横方向及び縦方向に順次スライドさせて複数の候補領域wを設定する(ステップS1)。
続いて、画像処理装置10は、複数設定した候補領域wから1つの候補領域wを選択する(ステップS2)。そして、画像処理装置10は、ターゲット画像と参照画像とからそれぞれ、選択した1つの候補領域wに対応する候補画像G1と対応画像G2,G3とを抽出する(ステップS3)。
続いて、画像処理装置10は、上述したように抽出された、1つの候補領域wに対応する候補画像G1と対応画像G2,G3とを対比可能なように、表示装置2に表示するよう出力する。例えば、画像処理装置10は、図6Aに示すように、候補画像G1と2つの対応画像G2,G3とを拡大して、一画面上に同時に並べて表示する(ステップS4)。これにより、アノテーションを行う作業者は、候補画像G1と対応画像G2,G3とを比較することができる。このため、作業者は、例えば、図6Bの点線に示すように、対象物体ごとに同じ位置に存在する場合と実際に存在しない場合があることを考慮することができ、候補画像G1内の物体を容易かつ精度よく認識することができる。
続いて、画像処理装置10は、表示装置2に表示された候補画像G1に対して、作業者から入力装置1を用いて入力されたアノテーション処理用のアノテーション情報を受け付ける(ステップS5)。そして、画像処理装置10は、図7Aに示すように、受け付けたアノテーション情報を候補画像G1に表示したり、場合によっては、図7Bに示すように、対応画像G2,G3にも表示する。その後、画像処理装置10は、入力されたアノテーション情報を候補画像G1に関連付けて、アノテーション画像として記憶する。
その後、画像処理装置10は、ターゲット画像に対して設定した全ての候補領域wに対する上述したアノテーション処理が完了するまで、候補領域wを変更して、上述同様のアノテーション処理を行う(ステップS6)。そして、記憶されたアノテーション画像は、例えば、機械学習の学習データとして用いられる。
以上のように、本実施形態では、アノテーション処理を行うターゲット画像上の一部である候補画像G1と、ターゲット画像と同一領域で異なる時刻に取得した参照画像上の一部であり、上記候補画像に対応する対応画像G2,G3と、を対比可能なよう表示している。これにより、作業者は、候補画像G1上の物体を容易かつ精度よく認識することができる。その結果、作業者は、候補画像G1上の物体に対するアノテーションを容易かつ精度よく行うことができる。特に、本実施形態では、候補画像G1と対応画像G2,G3とを、拡大表示したり、同一画面上に並べて同時に表示することで、作業者は、さらに容易かつ精度よくアノテーションを行うことができる。
<実施形態2>
次に、本発明の第2の実施形態を、図9乃至図11を参照して説明する。図9乃至図10は、実施形態2における画像処理装置の構成を示すブロック図であり、図11は、画像処理装置の動作を示すフローチャートである。なお、本実施形態では、上述した実施形態で説明した画像処理装置及び画像処理方法の構成の概略を示している。
まず、図9を参照して、本実施形態における画像処理装置100のハードウェア構成を説明する。画像処理装置100は、一般的な情報処理装置にて構成されており、一例として、以下のようなハードウェア構成を装備している。
・CPU(Central Processing Unit)101(演算装置)
・ROM(Read Only Memory)102(記憶装置)
・RAM(Random Access Memory)103(記憶装置)
・RAM103にロードされるプログラム群104
・プログラム群104を格納する記憶装置105
・情報処理装置外部の記憶媒体110の読み書きを行うドライブ装置106
・情報処理装置外部の通信ネットワーク111と接続する通信インタフェース107
・データの入出力を行う入出力インタフェース108
・各構成要素を接続するバス109
そして、画像処理装置100は、プログラム群104をCPU101が取得して当該CPU101が実行することで、図10に示す抽出手段121と表示手段122と入力受付手段123とを構築して装備することができる。なお、プログラム群104は、例えば、予め記憶装置105やROM102に格納されており、必要に応じてCPU101がRAM103にロードして実行する。また、プログラム群104は、通信ネットワーク111を介してCPU101に供給されてもよいし、予め記憶媒体110に格納されており、ドライブ装置106が該プログラムを読み出してCPU101に供給してもよい。但し、上述した抽出手段121と表示手段122と入力受付手段123とは、かかる手段を実現させるための専用の電子回路で構築されるものであってもよい。
なお、図9は、画像処理装置100である情報処理装置のハードウェア構成の一例を示しており、情報処理装置のハードウェア構成は上述した場合に限定されない。例えば、情報処理装置は、ドライブ装置106を有さないなど、上述した構成の一部から構成されてもよい。
そして、画像処理装置100は、上述したようにプログラムによって構築された抽出手段121と表示手段122と入力受付手段123との機能により、図11のフローチャートに示す画像処理方法を実行する。
図11に示すように、画像処理装置100は、
アノテーション処理の対象となる対象画像から予め設定された基準によって特定される候補領域の画像である候補画像を抽出すると共に、前記対象画像に対応する画像である参照画像から前記候補領域に対応する対応領域の画像である対応画像を抽出し(ステップS101)、
前記候補画像と前記対応画像とを対比可能なよう表示し(ステップS102)、
前記候補画像に対するアノテーション処理用の入力情報の入力を受け付ける(ステップS103)、
という処理を実行する。
本発明は、以上のように構成されることにより、アノテーション処理を行う対象画像上の一部である候補画像と、対象画像に対応する参照画像上の一部であり、上記候補画像に対応する対応画像と、を対比可能なよう表示している。これにより、アノテーション処理を行う作業者は、候補画像上の物体を容易かつ精度よく認識することができる。その結果、作業者は、候補画像上の物体に対するアノテーション処理を容易かつ精度よく行うことができる。
なお、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
以上、上記実施形態等を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。また、上述した抽出手段と表示手段と入力受付手段との機能のうちの少なくとも一以上の機能は、ネットワーク上のいかなる場所に設置され接続された情報処理装置で実行されてもよく、つまり、いわゆるクラウドコンピューティングで実行されてもよい。
<付記>
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における画像処理方法、画像処理装置、プログラムの構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
アノテーション処理の対象となる対象画像から予め設定された基準によって特定される候補領域の画像である候補画像を抽出すると共に、前記対象画像に対応する画像である参照画像から前記候補領域に対応する対応領域の画像である対応画像を抽出し、
前記候補画像と前記対応画像とを対比可能なよう表示し、
前記候補画像に対するアノテーション処理用の入力情報の入力を受け付ける、
画像処理方法。
(付記2)
付記1に記載の画像処理方法であって、
前記候補画像と前記対応画像とをそれぞれ拡大して対比可能なよう表示する、
画像処理方法。
(付記3)
付記1又は2に記載の画像処理方法であって、
前記対象画像と略同一領域の画像である前記参照画像から前記対応画像を抽出する、
画像処理方法。
(付記4)
付記1乃至3のいずれかに記載の画像処理方法であって、
前記対象画像を撮影した時刻とは異なる時刻に撮影された前記参照画像から前記対応画像を抽出する、
画像処理方法。
(付記5)
付記1乃至4のいずれかに記載の画像処理方法であって、
前記候補画像と前記対応画像とを同時に表示する、
画像処理方法。
(付記6)
付記1乃至5のいずれかに記載の画像処理方法であって、
1つの前記候補画像に対応する複数の前記参照画像からそれぞれ前記対応画像を抽出し、
1つの前記候補画像と対比可能なよう、複数の前記対応画像を表示する、
画像処理方法。
(付記7)
付記1乃至6のいずれかに記載の画像処理方法であって、
前記対象画像から複数の前記候補画像を抽出すると共に、前記参照画像から複数の前記候補画像にそれぞれ対応する複数の前記対応画像を抽出し、
相互に対応する前記候補画像と前記対応画像とを対比可能なよう順次表示する、
画像処理方法。
(付記8)
付記7に記載の画像処理方法であって、
前記対象画像から予め設定された基準に基づいてアノテーション処理を行う物体が含まれうる領域を設定し、当該設定した領域に基づいて複数の前記候補画像を抽出する、
画像処理方法。
(付記9)
付記1乃至8のいずれかに記載の画像処理方法であって、
前記候補画像に対して入力された前記入力情報を当該候補画像上に表示すると共に、前記候補画像上に表示させた前記入力情報に対応する対応入力情報を前記対応画像上に表示する、
画像処理方法。
(付記10)
付記1乃至9のいずれかに記載の画像処理方法であって、
前記入力情報として、前記候補画像上に存在する物体を特定する情報の入力を受け付ける、
画像処理方法。
(付記11)
アノテーション処理の対象となる対象画像から予め設定された基準によって特定される候補領域の画像である候補画像を抽出すると共に、前記対象画像に対応する画像である参照画像から前記候補領域に対応する対応領域の画像である対応画像を抽出する抽出手段と、
前記候補画像と前記対応画像とを対比可能なよう表示する表示手段と、
前記候補画像に対するアノテーション処理用の入力情報の入力を受け付ける入力受付手段と、
を備えた画像処理装置。
(付記12)
付記11に記載の画像処理装置であって、
前記表示手段は、前記候補画像と前記対応画像とをそれぞれ拡大して対比可能なよう表示する、
画像処理装置。
(付記13)
付記11又は12に記載の画像処理装置であって、
前記抽出手段は、前記対象画像と略同一領域の画像である前記参照画像から前記対応画像を抽出する、
画像処理装置。
(付記14)
付記11乃至13のいずれかに記載の画像処理装置であって、
前記抽出手段は、前記対象画像を撮影した時刻とは異なる時刻に撮影された前記参照画像から前記対応画像を抽出する、
画像処理装置。
(付記15)
付記11乃至14のいずれかに記載の画像処理装置であって、
前記表示手段は、前記候補画像と前記対応画像とを同時に表示する、
画像処理装置。
(付記16)
付記11乃至15のいずれかに記載の画像処理装置であって、
前記抽出手段は、1つの前記候補画像に対応する複数の前記参照画像からそれぞれ前記対応画像を抽出し、
前記表示手段は、1つの前記候補画像と対比可能なよう、複数の前記対応画像を表示する、
画像処理装置。
(付記17)
付記11乃至16のいずれかに記載の画像処理装置であって、
前記抽出手段は、前記対象画像から複数の前記候補画像を抽出すると共に、前記参照画像から複数の前記候補画像にそれぞれ対応する複数の前記対応画像を抽出し、
前記表示手段は、相互に対応する前記候補画像と前記対応画像とを対比可能なよう順次表示する、
画像処理装置。
(付記18)
付記17に記載の画像処理装置であって、
前記抽出手段は、前記対象画像から予め設定された基準に基づいてアノテーション処理を行う物体が含まれうる領域を設定し、当該設定した領域に基づいて複数の前記候補画像を抽出する、
画像処理装置。
(付記19)
付記11乃至18のいずれかに記載の画像処理装置であって、
前記入力受付手段は、前記候補画像に対して入力された前記入力情報を当該候補画像上に表示すると共に、前記候補画像上に表示させた前記入力情報に対応する対応入力情報を前記対応画像上に表示する、
画像処理装置。
(付記20)
付記11乃至19のいずれかに記載の画像処理装置であって、
前記入力受付手段は、前記入力情報として、前記候補画像上に存在する物体を特定する情報の入力を受け付ける、
画像処理装置。
(付記21)
情報処理装置に、
アノテーション処理の対象となる対象画像から予め設定された基準によって特定される候補領域の画像である候補画像を抽出すると共に、前記対象画像に対応する画像である参照画像から前記候補領域に対応する対応領域の画像である対応画像を抽出する抽出手段と、
前記候補画像と前記対応画像とを対比可能なよう表示する表示手段と、
前記候補画像に対するアノテーション処理用の入力情報の入力を受け付ける入力受付手段と、
を実現させるためのプログラムを記憶したコンピュータにて読み取り可能な記憶媒体。
1 入力装置
2 表示装置
10 画像処理装置
11 領域設定部
12 領域抽出部
13 画像表示部
14 アノテーション処理部
15 ターゲット画像記憶部
16 参照画像記憶部
17 領域情報記憶部
18 アノテーション画像記憶部
100 画像処理装置
101 CPU
102 ROM
103 RAM
104 プログラム群
105 記憶装置
106 ドライブ装置
107 通信インタフェース
108 入出力インタフェース
109 バス
110 記憶媒体
111 通信ネットワーク
121 抽出手段
122 表示手段
123 入力受付手段

Claims (9)

  1. アノテーション処理の対象となる1つの対象画像から予め設定された基準によって特定される前記対象画像全体よりも小さい候補領域の画像である1つの候補画像を抽出すると共に、1つの前記対象画像に対応して当該対象画像と同じ領域を撮影した画像であり、当該対象画像とは異なる画像である複数の参照画像からそれぞれ、前記候補領域に対応する対応領域の画像である対応画像を抽出する抽出手段と、
    1つの前記候補画像と対比可能なよう、複数の前記対応画像を表示する表示手段と、
    前記候補画像に対するアノテーション処理用の入力情報の入力を受け付ける入力受付手段と、
    を備えた画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記表示手段は、前記候補画像と前記対応画像とをそれぞれ拡大して対比可能なよう表示する、
    画像処理装置。
  3. 請求項1又は2に記載の画像処理装置であって、
    前記抽出手段は、前記対象画像と略同一領域の画像である前記参照画像から前記対応画像を抽出する、
    画像処理装置。
  4. 請求項1乃至のいずれかに記載の画像処理装置であって、
    前記抽出手段は、前記対象画像を撮影した時刻とは異なる時刻に撮影された前記参照画像から前記対応画像を抽出する、
    画像処理装置。
  5. 請求項1乃至のいずれかに記載の画像処理装置であって、
    前記表示手段は、前記候補画像と前記対応画像とを同時に表示する、
    画像処理装置。
  6. 請求項1乃至のいずれかに記載の画像処理装置であって、
    前記抽出手段は、前記対象画像から複数の前記候補画像を抽出すると共に、前記参照画像から複数の前記候補画像にそれぞれ対応する複数の前記対応画像を抽出し、
    前記表示手段は、相互に対応する前記候補画像と前記対応画像とを対比可能なよう順次表示する、
    画像処理装置。
  7. 請求項に記載の画像処理装置であって、
    前記抽出手段は、前記対象画像から予め設定された基準に基づいてアノテーション処理を行う物体が含まれうる領域を設定し、当該設定した領域に基づいて複数の前記候補画像を抽出する、
    画像処理装置。
  8. 情報処理装置に、
    アノテーション処理の対象となる1つの対象画像から予め設定された基準によって特定される前記対象画像全体よりも小さい候補領域の画像である1つの候補画像を抽出すると共に、1つの前記対象画像に対応して当該対象画像と同じ領域を撮影した画像であり、当該対象画像とは異なる画像である複数の参照画像からそれぞれ、前記候補領域に対応する対応領域の画像である対応画像を抽出する抽出手段と、
    1つの前記候補画像と対比可能なよう、複数の前記対応画像を表示する表示手段と、
    前記候補画像に対するアノテーション処理用の入力情報の入力を受け付ける入力受付手段と、
    を実現させるためのプログラム。
  9. アノテーション処理の対象となる1つの対象画像から予め設定された基準によって特定される前記対象画像全体よりも小さい候補領域の画像である1つの候補画像を抽出すると共に、1つの前記対象画像に対応して当該対象画像と同じ領域を撮影した画像であり、当該対象画像とは異なる画像である複数の参照画像からそれぞれ、前記候補領域に対応する対応領域の画像である対応画像を抽出し、
    1つの前記候補画像と対比可能なよう、複数の前記対応画像を表示し、
    前記候補画像に対するアノテーション処理用の入力情報の入力を受け付ける、
    画像処理方法。
JP2022507961A 2020-03-19 2020-03-19 画像処理方法 Active JP7459927B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/012305 WO2021186672A1 (ja) 2020-03-19 2020-03-19 画像処理方法

Publications (3)

Publication Number Publication Date
JPWO2021186672A1 JPWO2021186672A1 (ja) 2021-09-23
JPWO2021186672A5 JPWO2021186672A5 (ja) 2022-10-14
JP7459927B2 true JP7459927B2 (ja) 2024-04-02

Family

ID=77771963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022507961A Active JP7459927B2 (ja) 2020-03-19 2020-03-19 画像処理方法

Country Status (3)

Country Link
US (1) US12056216B2 (ja)
JP (1) JP7459927B2 (ja)
WO (1) WO2021186672A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220012518A1 (en) * 2020-07-08 2022-01-13 Here Global B.V. Method and apparatus for presenting object annotation tasks
WO2023053830A1 (ja) * 2021-09-29 2023-04-06 日本電気株式会社 画像処理装置、画像処理方法および記録媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012038244A (ja) 2010-08-11 2012-02-23 Fuji Xerox Co Ltd 学習モデル作成プログラム、画像識別情報付与プログラム、学習モデル作成装置及び画像識別情報付与装置
JP2013117860A (ja) 2011-12-02 2013-06-13 Canon Inc 画像処理方法、画像処理装置、撮像装置およびプログラム
JP2018026104A (ja) 2016-08-04 2018-02-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America アノテーション付与方法、アノテーション付与システム及びプログラム
JP2018101910A (ja) 2016-12-20 2018-06-28 日本電信電話株式会社 画像処理方法、画像処理装置及びプログラム
JP2019220073A (ja) 2018-06-22 2019-12-26 株式会社 日立産業制御ソリューションズ 物体追跡装置、物体追跡システム、および物体追跡方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8160400B2 (en) * 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
JP5246391B2 (ja) 2007-08-17 2013-07-24 株式会社パスコ 地物情報判読用画像生成方法およびプログラム
US9087401B1 (en) * 2012-07-16 2015-07-21 Google Inc. Method of annotation across different locations
CN107689027A (zh) * 2016-08-04 2018-02-13 松下电器(美国)知识产权公司 注释赋予方法、注释赋予系统以及存储有程序的记录介质
US10997466B2 (en) * 2019-06-21 2021-05-04 Straxciro Pty. Ltd. Method and system for image segmentation and identification

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012038244A (ja) 2010-08-11 2012-02-23 Fuji Xerox Co Ltd 学習モデル作成プログラム、画像識別情報付与プログラム、学習モデル作成装置及び画像識別情報付与装置
JP2013117860A (ja) 2011-12-02 2013-06-13 Canon Inc 画像処理方法、画像処理装置、撮像装置およびプログラム
JP2018026104A (ja) 2016-08-04 2018-02-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America アノテーション付与方法、アノテーション付与システム及びプログラム
JP2018101910A (ja) 2016-12-20 2018-06-28 日本電信電話株式会社 画像処理方法、画像処理装置及びプログラム
JP2019220073A (ja) 2018-06-22 2019-12-26 株式会社 日立産業制御ソリューションズ 物体追跡装置、物体追跡システム、および物体追跡方法

Also Published As

Publication number Publication date
US12056216B2 (en) 2024-08-06
WO2021186672A1 (ja) 2021-09-23
JPWO2021186672A1 (ja) 2021-09-23
US20230081660A1 (en) 2023-03-16

Similar Documents

Publication Publication Date Title
EP3457683B1 (en) Dynamic generation of image of a scene based on removal of undesired object present in the scene
JP5704363B2 (ja) デジタル病理画像のための自動同期ナビゲーションシステム
KR101349699B1 (ko) 영상 추출 및 합성 장치, 이의 방법
JP7459927B2 (ja) 画像処理方法
US11790583B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US11416978B2 (en) Image processing apparatus, control method and non-transitory computer-readable recording medium therefor
JP6579727B1 (ja) 動体検出装置、動体検出方法、動体検出プログラム
US20180068477A1 (en) Display method, display device, and non-transitory computer-readable recording medium
US20240331418A1 (en) Image processing device, image processing method, and recording medium
US11830177B2 (en) Image processing apparatus, control method and non-transitory computer-readable recording medium therefor
JP2016090906A (ja) 画像処理装置、画像処理方法及びプログラム
US11074670B2 (en) Image processing apparatus, control method thereof, recording medium, and information processing system
JP7340434B2 (ja) 配筋検査システム、配筋検査方法、及び配筋検査プログラム
US20230103768A1 (en) Placement method
CN113167568B (zh) 坐标计算装置、坐标计算方法和计算机可读记录介质
KR101954711B1 (ko) 라이다 자료와 정사영상을 이용한 건축물의 촬영영상 수정방법
JP2005182098A (ja) 合成画像を生成・表示する装置及び方法
US10783390B2 (en) Recording medium recording character area extraction program, information processing apparatus and character area extraction method
US20190065914A1 (en) Image processing device, setting support method, and non-transitory computer-readable media
JP7537518B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
EP3879492A1 (en) Image processing apparatus and control method of the same, orientation adjustment system and program
JP2018085093A (ja) 情報処理装置、制御方法、プログラム
US10567632B2 (en) Non-transitory computer-readable storage medium, image processing method, and image processing apparatus
US20220327760A1 (en) Inspection data management system for structural objects
JP2011124955A (ja) 画像処理方法及び画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220721

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230515

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231124

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240304

R150 Certificate of patent or registration of utility model

Ref document number: 7459927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150