JP2020195117A - 撮像装置、通知装置、通知方法、及びプログラム - Google Patents

撮像装置、通知装置、通知方法、及びプログラム Download PDF

Info

Publication number
JP2020195117A
JP2020195117A JP2019101485A JP2019101485A JP2020195117A JP 2020195117 A JP2020195117 A JP 2020195117A JP 2019101485 A JP2019101485 A JP 2019101485A JP 2019101485 A JP2019101485 A JP 2019101485A JP 2020195117 A JP2020195117 A JP 2020195117A
Authority
JP
Japan
Prior art keywords
subject
layer
image
notification
classes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019101485A
Other languages
English (en)
Other versions
JP7394542B2 (ja
Inventor
心 高木
Shin Takagi
心 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019101485A priority Critical patent/JP7394542B2/ja
Priority to US16/882,721 priority patent/US11902650B2/en
Publication of JP2020195117A publication Critical patent/JP2020195117A/ja
Application granted granted Critical
Publication of JP7394542B2 publication Critical patent/JP7394542B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/7625Hierarchical techniques, i.e. dividing or merging patterns to obtain a tree-like representation; Dendograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】階層化された複数の被写体クラスが画像から検出された場合に、所定の選択基準に基づいて選択された階層に属する被写体クラスを優先して、複数の被写体クラスの一部をユーザに通知する技術を提供する。【解決手段】連続撮影を行う撮影制御手段と、前記連続撮影により得られた画像から、上位階層の被写体クラスが下位階層の被写体クラスを包含する階層構造に従って階層化された複数の被写体クラスを検出する検出手段と、所定の選択基準に基づいて特定の階層を選択する選択手段と、前記特定の階層に属する被写体クラスを優先して、前記複数の被写体クラスの一部をユーザに通知する通知手段と、を備えることを特徴とする撮像装置を提供する。【選択図】図2

Description

本発明は、撮像装置、通知装置、通知方法、及びプログラムに関する。
従来、記憶部に記憶された特徴情報に基づいて画像の被写体情報を表示する技術や、被写体の種類を階層に分類して記憶し、階層的な絞り込みにより画像から被写体の種類を検出する技術が知られていた。
例えば、特許文献1には、記憶部に記憶された特徴情報に基づいて被写体の名称が特定可能であれば、対応する名称情報を表示部に表示する技術が開示されている。また、特許文献2には、被写体種類を特定する被写体条件を階層に分類して記憶し、階層的な絞り込みにより画像から被写体種類を検出する技術が開示されている。
特開2013−135446号公報 特開2007−304771号公報
しかしながら、上述の特許文献1に開示された技術では、多数の被写体の名称が特定された場合には表示される名称情報が多くなり、ユーザにとって有用な情報を効率的に伝えることが困難になる。また、上述の特許文献2に開示された技術では、認識される被写体種類は下位階層に属する被写体条件に対応するので、状況によってはユーザにとって細かすぎる情報が得られる可能性がある。
本発明はこのような状況に鑑みてなされたものである。本発明は、階層化された複数の被写体クラスが画像から検出された場合に、所定の選択基準に基づいて選択された階層に属する被写体クラスを優先して、複数の被写体クラスの一部をユーザに通知する技術を提供することを目的とする。
上記課題を解決するために、本発明は、連続撮影を行う撮影制御手段と、前記連続撮影により得られた画像から、上位階層の被写体クラスが下位階層の被写体クラスを包含する階層構造に従って階層化された複数の被写体クラスを検出する検出手段と、所定の選択基準に基づいて特定の階層を選択する選択手段と、前記特定の階層に属する被写体クラスを優先して、前記複数の被写体クラスの一部をユーザに通知する通知手段と、を備えることを特徴とする撮像装置を提供する。
本発明によれば、階層化された複数の被写体クラスが画像から検出された場合に、所定の選択基準に基づいて選択された階層に属する被写体クラスを優先して、複数の被写体クラスの一部をユーザに通知することが可能となる。
なお、本発明のその他の特徴及び利点は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。
撮像装置100の構成を示すブロック図。 画像の撮影時における被写体クラスの通知処理のフローチャート。 画像の再生時における被写体クラスの通知処理のフローチャート。 入力された2次元画像データから被写体クラスを検出するCNN(Convolutional Neural Networks)の基本的な構成を示す図。 特徴検出細胞面での特徴検出処理、及び特徴統合細胞面での特徴統合処理の詳細について説明する図。 被写体クラスの検出例を示す図。 被写体クラス階層情報の収集方法を説明する図。 被写体クラスの階層構造の識別を説明する図。 ズームレバーの操作に応じた被写体クラスの通知を説明する図。 画像の表示領域に応じた被写体クラスの通知を説明する図。 サムネイル表示における被写体クラスの通知を説明する図。 図1の変形例を示す図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[第1の実施形態]
図1は、通知装置を備える撮像装置100の構成を示すブロック図である。撮像装置100は、階層化された複数の被写体クラスを画像から検出し、所定の選択基準に基づいて特定の階層を選択し、選択した階層に属する被写体クラスを優先して、複数の被写体クラスの一部をユーザに通知する。特定の階層の選択基準は特に限定されないが、第1の実施形態では、画像の撮影時における選択基準の例について説明する。
図1において、撮像レンズ102は、被写体像を光学的に撮像素子104上に結像させる。撮像素子104は、光学的な被写体像をアナログ電気信号に変換する。また、撮像素子104は複数の色フィルタを有する。A/D変換器106は、撮像素子104から出力されるアナログ電気信号をデジタル信号に変換する。
制御部108は、画像信号処理部110、一時記憶部112、外部記憶部114、被写体クラス識別部120、被写体クラス階層情報保持部122、操作部124、表示部126、及び音声出力部128のための処理フロー制御を行う。制御部108は、制御プログラムを格納したROMと、ワークメモリとして使用されるRAMとを含み、制御プログラムを実行することにより処理フロー制御を行う。
画像信号処理部110は、フレーム画像に対して、同時化処理、ホワイトバランス処理、γ処理、NR処理(ノイズリダクション処理)等の画像信号処理や、被写体検出処理などを行う。
一時記憶部112は、撮影されたフレーム画像を記憶したり、画像信号処理部110で処理された画像信号の中間処理結果などを記憶したりする。外部記憶部114は、画像信号処理部110で画像処理がなされた画像信号などを記憶したりする。
被写体クラス識別部120は、予め学習済みの情報を用いて、画像から被写体を認識する。例えば、本実施形態では、CNN(Convolutional Neural Networks)による被写体認識が行われるものとする。被写体クラス階層情報保持部122は、被写体クラス間の階層的な関係を表す情報(被写体クラス階層情報)を保持している。
操作部124は、ユーザが撮像装置100に対して行う操作を受け付ける。操作部124は、例えば、撮像装置100の本体に付属するボタン及びズームレバーや、レンズユニットに付属するリングなどを含む。
表示部126は、撮影した画像を表示したり、認識した被写体クラス情報を表示したりする。音声出力部128は、記録した音声を再生出力したり、認識した被写体クラス情報を音でユーザに通知したりする。
図2は、画像の撮影時における被写体クラスの通知処理のフローチャートである。この通知処理は、例えば撮像装置100がライブビュー表示のための撮影制御により連続撮影を行う際に、繰り返し実行される。
S200で、制御部108は、画像を取り込む制御を行う。画像の取り込みは、A/D変換器106から出力されるデジタル画像信号を一時記憶部112に記憶することで行われる。一時記憶部112に記憶した画像に対して画像信号処理部110で同時化処理、ホワイトバランス処理、γ処理、NR処理等の処理を施し、一時記憶部112に再度記憶する一連の処理を行うことで、通知処理の対象となる画像が得られる。
S202で、被写体クラス識別部120は、取得した画像から被写体クラスを検出する。図6は、被写体クラスの検出例を示す図である。この例では、画像600の領域610、領域612、領域614、領域616において、それぞれ被写体クラス「サラダ」、被写体クラス「トマト」、被写体クラス「レタス」、被写体クラス「フルーツ」が検出されている。なお、図6では説明のために画像600に領域610、領域612、領域614、領域616を示しているが、図2のS202の時点では、ユーザにはまだ被写体クラスは通知されない。
本実施形態では、被写体クラス識別部120の機能をCNNで構成する。CNNの基本的な構成について、図4及び図5を用いて説明する。図4は、入力された2次元画像データから被写体クラスを検出するCNNの基本的な構成を示す図である。処理の流れは、左端を入力とし、右方向に処理が進んでいく。CNNは、特徴検出層(S層)と特徴統合層(C層)と呼ばれる2つの層を1つのセットとし、それが階層的に構成されている。
CNNでは、まずS層において、前段階層で検出された特徴をもとに次の特徴を検出する。また、S層において検出した特徴をC層で統合し、その階層における検出結果として次の階層に送る構成になっている。
S層は、特徴検出細胞面からなり、特徴検出細胞面ごとに異なる特徴を検出する。また、C層は、特徴統合細胞面からなり、前段の特徴検出細胞面での検出結果をプーリングする。以下では、特に区別する必要がない場合、特徴検出細胞面及び特徴統合細胞面を総称して特徴面と呼ぶ。本実施形態では、最終段階層である出力層では、C層は用いずS層のみで構成している。
図5を参照して、特徴検出細胞面での特徴検出処理、及び特徴統合細胞面での特徴統合処理の詳細について説明する。特徴検出細胞面は、複数の特徴検出ニューロンにより構成され、特徴検出ニューロンは、前段階層のC層に所定の構造で結合している。また、特徴統合細胞面は、複数の特徴統合ニューロンにより構成され、特徴統合ニューロンは、同階層のS層に所定の構造で結合している。図5中に示した、L階層目S層のM番目細胞面内において、位置(ξ,ζ)の特徴検出ニューロンの出力値を
Figure 2020195117
と表記し、L階層目C層のM番目細胞面内において、位置(ξ,ζ)の特徴統合ニューロンの出力値を
Figure 2020195117
と表記する。その時、それぞれのニューロンの結合係数を
Figure 2020195117
とすると、各出力値は以下のように表すことができる。
Figure 2020195117
Figure 2020195117
数式4のfは活性化関数であり、ロジスティック関数や双曲正接関数などのシグモイド関数であれば何でもよく、例えばtanh関数で実現してもよい。
Figure 2020195117
は、L階層目S層のM番目細胞面における、位置(ξ,ζ)の特徴検出ニューロンの内部状態である。数式5は、活性化関数を用いず単純な線形和をとっている。数式5のように活性化関数を用いない場合は、ニューロンの内部状態
Figure 2020195117
と出力値
Figure 2020195117
は等しい。また、数式4の
Figure 2020195117
及び数式5の
Figure 2020195117
を、それぞれ特徴検出ニューロン、特徴統合ニューロンの結合先出力値と呼ぶ。
数式4及び数式5の中のξ,ζ,u,v,nについて説明する。位置(ξ,ζ)は、入力画像における位置座標に対応しており、例えば
Figure 2020195117
が高い出力値である場合は、入力画像の画素位置(ξ,ζ)に、L階層目S層M番目細胞面において検出する特徴が存在する可能性が高いことを意味する。また、nは、数式5において、L−1階層目C層n番目細胞面を意味しており、統合先特徴番号と呼ぶ。基本的にL−1階層目C層に存在する全ての細胞面についての積和演算を行う。(u,v)は、結合係数の相対位置座標であり、検出する特徴のサイズに応じて有限の範囲(u,v)において積和演算を行う。このような有限の範囲(u,v)を受容野と呼ぶ。また、受容野の大きさを、以下では受容野サイズと呼び、結合している範囲の横画素数×縦画素数で表す。
また数式4において、L=1、つまり一番初めのS層では、
Figure 2020195117
は、入力画像
Figure 2020195117
又は、入力位置マップ
Figure 2020195117
となる。ちなみに、ニューロンや画素の分布は離散的であり、結合先特徴番号も離散的なので、ξ,ζ,u,v,nは連続な変数ではなく、離散的な値をとる。ここでは、ξ,ζは非負整数、nは自然数、u,vは整数とし、何れも有限な範囲となる。
数式4の中の
Figure 2020195117
は、所定の特徴を検出するための結合係数分布であり、これを適切な値に調整することによって、所定の特徴を検出することが可能になる。この結合係数分布の調整が学習であり、CNNの構築においては、さまざまなテストパターンを提示して、
Figure 2020195117
が適切な出力値になるように、結合係数を繰り返し徐々に修正していくことで結合係数の調整を行う。
次に、数式5の中の
Figure 2020195117
は、2次元のガウシアン関数を用いており、以下の数式18のように表すことができる。
Figure 2020195117
ここでも、(u,v)は有限の範囲としてあるので、特徴検出ニューロンの説明と同様に、有限の範囲を受容野といい、範囲の大きさを受容野サイズと呼ぶ。この受容野サイズは、ここではL階層目S層のM番目特徴のサイズに応じて適当な値に設定すればよい。数式18の中の、σは特徴サイズ因子であり、受容野サイズに応じて適当な定数に設定しておけばよい。具体的には、受容野の一番外側の値がほぼ0とみなせるような値になるようにσを設定するのがよい。
上述のような演算を各階層で行うことで、最終階層のS層において、被写体クラスの識別(検出)を行うのが、本実施形態におけるCNNの構成である。また、CNNの学習は、図2のS200における撮影に先立って予め実施されており、学習結果が被写体クラス識別部120に保持されているものとする。
具体的な学習方法について説明する。本実施形態では、教師ありの学習により、結合係数の調整を行う。教師ありの学習では、テストパターンを与えて実際にニューロンの出力値を求め、その出力値と教師信号(そのニューロンが出力すべき望ましい出力値)との関係から結合係数
Figure 2020195117
の修正を行えばよい。本実施形態の学習においては、最終層の特徴検出層は最小二乗法を用い、中間層の特徴検出層は誤差逆伝搬法を用いて結合係数の修正を行う。最小二乗法や誤差逆伝搬法等の、結合係数の修正手法の詳細については、例えば「S.Haykin,“Neural Networks A Comprehensive Foundation 2nd Edition”,Prentice Hall,pp.156−255,July 1998」に開示されるような公知の手法を利用することができる。
本実施形態では、予め学習する場合には、学習用のテストパターンとして、検出すべき特定パターンと、検出すべきでないパターンとを多数用意し、追加学習する場合には、前述の方法でテストパターンをバッファから選定する。各テストパターンは、画像及び教師信号を1セットとする。
活性化関数にtanh関数を用いる場合は、検出すべき特定パターンを提示した時は、最終層の特徴検出細胞面の、特定パターンが存在する領域のニューロンに対し、出力が1となるように教師信号を与える。逆に、検出すべきでないパターンを提示した時は、そのパターンの領域のニューロンに対し、出力が−1となるように教師信号を与えることになる。
以上により、2次元画像から被写体クラスを識別(検出)するためのCNNが構築される。実際の検出においては、学習により構築した結合係数
Figure 2020195117
を用いて演算を行い、最終層の特徴検出細胞面上のニューロン出力が、所定値以上であれば、そこに該当する被写体クラスが存在すると判定する。
次に、学習完了後に、被写体クラス間の階層的な関係を表す情報(被写体クラス階層情報)を収集する。その収集方法について以下に説明する。
図7(a)は、学習画像700に対して、所定の被写体クラスに対応するCNNの最終層の特徴検出細胞面上のニューロン出力が所定値以上であり、その被写体クラスが検出されたことを表している。具体的には、被写体クラス「サラダ」、被写体クラス「トマト」、被写体クラス「きゅうり」、被写体クラス「フルーツ」、被写体クラス「オレンジ」が検出されている。各被写体クラスの検出領域は、サラダ領域701、トマト領域703、きゅうり領域705、フルーツ領域707、オレンジ領域709として表されている。
また、座標702、座標704、座標706、座標708、座標710は、それぞれサラダ領域701、トマト領域703、きゅうり領域705、フルーツ領域707、オレンジ領域709の中心座標を表している。
図7(a)で検出された被写体クラスから、図7(b)に示す被写体クラス階層情報を、以下の手順で生成する。
まず、トマト領域703の中心を表す座標704、きゅうり領域705の中心を表す座標706は、サラダ領域701の内側に存在する。そのため、被写体クラス「サラダ」は、被写体クラス「トマト」、被写体クラス「きゅうり」を含む場合があり、関連度合いが高いと判断される。そして、図7(b)の被写体クラス「サラダ」を表すサラダノード715と被写体クラス「トマト」を表すトマトノード711とをエッジ720で結合し、エッジ720の重みを1とする。同様に、サラダノード715と被写体クラス「きゅうり」を表すきゅうりノード712とをエッジ721で接続し、エッジ721の重みを1とする。
同様に、座標710はフルーツ領域707の内側に存在するので、被写体クラス「フルーツ」と被写体クラス「オレンジ」は関連度合いが高いと判断される。そして、図7(b)に示すように、被写体クラス「フルーツ」を表すフルーツノード713と被写体クラス「オレンジ」を表すオレンジノード714とをエッジ722で接続し、エッジ722の重みを1とする。
また、図7(a)に示すように、トマト領域703の中心を表す座標704ときゅうり領域705の中心を表す座標706は、サラダ領域701の内側に存在する。従って、被写体クラス「トマト」や被写体クラス「きゅうり」は、被写体クラス「サラダ」の一部である場合があると判断される。その結果、被写体クラス「サラダ」は、被写体クラス「トマト」や被写体クラス「きゅうり」よりも抽象度の高い(上位階層の)被写体クラスであると判断される。
このような判断結果を反映し、図7(b)のエッジ720は、トマトノード711からサラダノード715へ向かうように表現され、エッジ721はきゅうりノード712からサラダノード715へ向かうように表現される。
同様に、図7(a)に示すように、オレンジ領域709の中心を表す座標710は、フルーツ領域707の内側に存在する。従って、被写体クラス「オレンジ」は、被写体クラス「フルーツ」の一部である場合があると判断される。その結果、被写体クラス「フルーツ」は、被写体クラス「オレンジ」よりも抽象度の高い(上位階層の)被写体クラスであると判断される。
このような判断結果を反映し、図7(b)のエッジ722は、オレンジノード714からフルーツノード713へ向かうように表現される。
同様に、図7(a)の学習画像700とは異なる、図7(c)の学習画像730で検出された被写体クラスから、図7(d)に示す被写体クラス階層情報を同じ手順で生成する。その際、図7(b)の被写体クラス階層情報に情報を追加する形で図7(d)の被写体クラス階層情報を生成する。具体的には、レタスノード740と、レタスノード740からサラダノード715に向かうエッジ747とを追加し、エッジ747の重みを1とする。更に、トマトノード711からサラダノード715に向かうエッジ720の重みを1から2へ増やす。その結果、被写体クラス「サラダ」は、被写体クラス「レタス」や被写体クラス「きゅうり」よりも、被写体クラス「トマト」との関係がより強いことを表すことになる。
或いは、ノードに向かうエッジが多いノードほど他のクラスの一部を含むクラスを表すノードであると考え、そのクラスを抽象度の高い(上位階層の)被写体クラスであると判断してもよい。
こうして得られた被写体クラス階層情報は、被写体クラス階層情報保持部122に保持される。
図2に戻り、S204で、制御部108は、被写体クラス階層情報保持部122に保持された被写体クラス階層情報に基づき、S202において検出された被写体クラスの階層構造を識別する。
上述した通り、本実施形態では、図6の画像600から、被写体クラス「サラダ」、被写体クラス「トマト」、被写体クラス「レタス」、被写体クラス「フルーツ」が検出されている。制御部108は、これらの被写体クラスを、図7(d)の被写体クラス階層情報に照らし合わせる。その結果、図8に示すように、被写体クラス「サラダ」、被写体クラス「トマト」、被写体クラス「レタス」はグループ810に属し、被写体クラス「フルーツ」はグループ812に属することが分かる。換言すると、S202において検出された4つの被写体クラスが、上位階層の被写体クラスが下位階層の被写体クラスを包含する階層構造(図7(d)参照)に従って、図8(b)に示すように階層化されていることが識別される。
S206で、制御部108は、優先的に通知する被写体クラスの階層を選択する。S208で、制御部108は、選択された階層に属する被写体クラスを優先して、検出された複数の被写体クラスのうちの一部をユーザに通知する。本実施形態では、グループ810に属する被写体クラス「サラダ」、被写体クラス「トマト」、被写体クラス「レタス」と、グループ812に属する被写体クラス「フルーツ」の中から、選択された階層に応じて一部の被写体クラスが選択される。
S206及びS208の処理の具体例について説明する。ユーザが操作部124に含まれるズームレバーを広角側に操作した場合には、制御部108は、より広い画角で被写体を捉えたいというユーザの意図があると判断する。そこで、図9(a)に示すように、制御部108は、グループ810からより抽象度の高い(上位階層の)被写体クラス「サラダ」を選択して表示部126に表示する。また、ユーザが操作部124に含まれるズームレバーを望遠側に操作した場合には、制御部108は、より狭い画角で被写体を捉えたいというユーザの意図があると判断する。そこで、図9(b)に示すように、制御部108は、グループ810からより抽象度の低い(下位階層の)被写体クラス「トマト」、被写体クラス「レタス」を選択して表示部126に表示する。図9(a)と図9(b)との対比から理解できるように、制御部108は、広角側へのズーム操作が行われた場合、前回選択した階層よりも上位の階層を選択し、望遠側へのズーム操作が行われた場合、前回選択した階層よりも下位の階層を選択する。
なお、図8(b)で示した通り、被写体クラス「サラダ」は被写体クラス「レタス」よりも被写体クラス「トマト」とつながるエッジの重みの方が大きく関係性が強い。この点を考慮して、制御部108は、被写体クラス「トマト」及び被写体クラス「レタス」が属す階層を選択した場合、被写体クラス「トマト」だけを表示してもよい。
また、グループ812については、被写体クラス「フルーツ」しか属さないので、制御部108は、図9(a)及び図9(b)に示すように、ズームレバーの操作によらず被写体クラス「フルーツ」を選択して表示部126に表示する。或いは、ユーザがズームレバーによる拡大率を所定値以上又は所定値以下にすると、画像上で被写体クラス「フルーツ」をユーザが認識するのが難しくなるので、制御部108は、グループ812からは被写体クラスを選択しないようにしてもよい。
このように、制御部108は、ユーザ操作(ここでは広角側又は望遠側へのズーム操作)に基づいて特定の階層を選択し、選択された階層に属する被写体クラスを優先して、検出された複数の被写体クラスのうちの一部をユーザに通知する。なお、例えば検出された被写体クラスの数が少ない(閾値以下である)場合など、所定の条件を満たす場合には、制御部108は、検出された複数の被写体クラスの全てを通知してもよい。
なお、前述の通り、特定の階層の選択基準は特に限定されず、ユーザ操作以外の選択基準を用いてもよい。例えば、制御部108は、検出された複数の被写体クラスのうち合焦度合いが最も高い被写体クラスが属する階層を選択してもよい。
また、ユーザに被写体クラスを通知する方法としては、表示部126に通知対象の被写体クラスを示す情報を表示する方法(図9(a)及び図9(b))に限定されない。例えば、制御部108は、通知対象の被写体クラスを示す音声(例えば、名称の発音)を音声出力部128から出力することにより、被写体クラスの通知を行ってもよい。
また、被写体クラス階層情報保持部122を撮像装置100に含むのではなく、図12に示すように、被写体クラス階層情報保持部1202を有する外部サーバ1200へ、通信網1210を介して撮像装置100を接続する構成を採用してもよい。この構成の場合、図2のS204で、制御部108は、被写体クラス識別部120で検出した被写体クラスを通信網1210経由で外部サーバ1200に送信する。そして、被写体クラス階層情報保持部1202は、受信した被写体クラスの階層構造を識別し、識別した階層構造の情報を撮像装置100に送信する。
以上説明したように、第1の実施形態によれば、撮像装置100は、階層化された複数の被写体クラスを画像から検出し、所定の選択基準に基づいて特定の階層を選択する。そして、撮像装置100は、選択した階層に属する被写体クラスを優先して、複数の被写体クラスの一部をユーザに通知する。これにより、通知される被写体クラスの抽象度(階層の高低)がある程度揃えられ、ユーザが通知された被写体クラスを容易に認識することが可能になる。
[第2の実施形態]
第2の実施形態では、画像の再生時における、優先的に通知する被写体クラスの階層の選択基準の例について説明する。本実施形態において、撮像装置100の基本的な構成は第1の実施形態と同様である(図1参照)。以下、主に第1の実施形態と異なる点について説明する。
図3は、画像の再生時における被写体クラスの通知処理のフローチャートである。この通知処理は、例えばユーザ操作により再生対象の画像が選択されたことに応じて、実行される。
S300で、制御部108は、外部記憶部114から再生対象の画像を読み出す。続くS202及びS204の処理は、図2のS202及びS204の処理と同様である。
なお、撮像装置100は、撮影時に検出された被写体クラスを示す情報、及び検出された被写体クラスの階層構造を示す情報を、記録画像のメタデータとして記録してもよい。この場合、制御部108は、メタデータから被写体クラス及びその階層構造を取得可能であり、S202及びS204の処理は省略可能である。
S306で、制御部108は、優先的に通知する被写体クラスの階層を選択する。S308で、制御部108は、選択された階層に属する被写体クラスを優先して、検出された複数の被写体クラスのうちの一部をユーザに通知する。
S306及びS308の処理の具体例について説明する。図10(a)の画像1000は表示画像(表示対象の画像)であり、被写体クラス「サラダ」、被写体クラス「レタス」、被写体クラス「トマト」、被写体クラス「きゅうり」が検出されている。また、図10(b)は、検出された被写体クラス間の関係(階層構造)を表している。
ユーザが画像1000全体を表示部126に表示した場合は、制御部108は、ユーザが画像1000全体に着目していると判断し、図10(c)に示すように、抽象度の高い(上位階層の)被写体クラス「サラダ」のみをユーザに通知する。
また、図10(d)に示した画像1000の領域1030が拡大表示される場合を考える。この場合、制御部108は、ユーザが抽象度の高い被写体クラス「サラダ」ではなく、より抽象度の低い被写体クラス「レタス」、被写体クラス「トマト」に注目していると判断する。そこで、図10(e)に示すように、制御部108は、被写体クラス「レタス」、被写体クラス「トマト」のみをユーザに通知する。
このように、制御部108は、画像の表示倍率に基づいて階層を選択する。表示倍率が高い場合に選択される階層(図10(e)参照)は、表示倍率が低い場合に選択される階層(図10(c)参照)よりも下位の階層である。
また、複数の画像を外部記憶部114から読みだして、サムネイル画像として並べて表示部126に表示する表示制御を行う際の被写体クラスの通知方法について以下に説明する。
図11(a)の枠1100は、表示部126の表示範囲を表しており、その中に6つのサムネイル画像(サムネイル画像1110,1120,1130,1140,1150,1160)が表示されている。
サムネイル画像は、撮影画像を縮小した画像であるので、表示できる被写体クラスの情報は撮影画像よりも同等か少ない。そのため、制御部108は、検出された被写体クラスの中で抽象度の高い方から所定数を選択して表示する。即ち、サムネイル表示が行われる場合、制御部108は、優先して通知する被写体クラスの階層として、最上位の階層を選択する。或いは、制御部108は、最も抽象度の高い(最上位の階層に属する)被写体クラスのみを表示してもよい。
或いは、制御部108は、検出された被写体クラスが占める領域の大きさを基に、サムネイル画像に占める割合が大きいクラスから順に所定数を選択して表示したり、サムネイル画像に占める割合が最も大きい被写体クラスのみを表示したりしてもよい。
例えば、サムネイル画像1110は、図10(a)の画像1000のサムネイル画像であるが、画像1000より小さいので、制御部108は、最も抽象度が高い(最上位の階層に属する)被写体クラス「サラダ」のみを表示する。また、サムネイル画像1130では、被写体クラス「机」1131と被写体クラス「ソファ」1132が検出されているが、抽象度が同程度であるため、制御部108は、これら2つの被写体クラスを両方とも表示する。
また、図11(b)に示すように、被写体クラスの名称(通知対象の被写体クラスを示す情報)を文字列としてサムネイル画像の近傍に表示してもよい。その際、文字列として表示する被写体クラスの名称は、抽象度の高い方から選択して、サムネイル画像の大きさに基づいて所定数を表示する。或いは、抽象度の最も高い被写体クラスの名称のみを表示してもよい。ここで言う「サムネイル画像の近傍」とは、表示される文字列が対応するサムネイル画像に関係することをユーザが認識可能な範囲を指す。
例えば、サムネイル画像1110については、制御部108は、被写体クラスタグ1112として「サラダ」の文字をサムネイル画像1110の下に表示する。また、サムネイル画像1130については、制御部108は、被写体クラスタグ1133として「机」と「ソファ」の文字をサムネイル画像1130の下に表示する。
また、制御部108は、ユーザ操作に基づいて、優先的に通知する被写体クラスの階層を選択してもよい。例えば、第1の実施形態における図9を参照した説明と同様、制御部108は、ズームレバーの操作に応じて階層を選択してもよい。
以上説明したように、第2の実施形態によれば、撮像装置100は、画像の再生時に、階層化された複数の被写体クラスを画像から検出し、所定の選択基準(例えば、画像の表示領域や、サムネイル表示であるか否かなど)に基づいて特定の階層を選択する。そして、撮像装置100は、選択した階層に属する被写体クラスを優先して、複数の被写体クラスの一部をユーザに通知する。これにより、通知される被写体クラスの抽象度(階層の高低)がある程度揃えられ、ユーザが通知された被写体クラスを容易に認識することが可能になる。なお、第1の実施形態と同様、例えば検出された被写体クラスの数が少ない(閾値以下である)場合など、所定の条件を満たす場合には、制御部108は、検出された複数の被写体クラスの全てを通知してもよい。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100…撮像装置、104…撮像素子、108…制御部、110…画像信号処理部、112…一時記憶部、114…外部記憶部、120…被写体クラス識別部、122…被写体クラス階層情報保持部、124…操作部、126…表示部、128…音声出力部

Claims (18)

  1. 連続撮影を行う撮影制御手段と、
    前記連続撮影により得られた画像から、上位階層の被写体クラスが下位階層の被写体クラスを包含する階層構造に従って階層化された複数の被写体クラスを検出する検出手段と、
    所定の選択基準に基づいて特定の階層を選択する選択手段と、
    前記特定の階層に属する被写体クラスを優先して、前記複数の被写体クラスの一部をユーザに通知する通知手段と、
    を備えることを特徴とする撮像装置。
  2. 前記選択手段は、ユーザ操作に基づいて前記特定の階層を選択する
    ことを特徴とする請求項1に記載の撮像装置。
  3. 前記連続撮影の間に広角側へのズーム操作が行われた場合、前記選択手段は、前回選択した階層よりも上位の階層を前記特定の階層として選択し、
    前記連続撮影の間に望遠側へのズーム操作が行われた場合、前記選択手段は、前回選択した階層よりも下位の階層を前記特定の階層として選択する
    ことを特徴とする請求項2に記載の撮像装置。
  4. 前記選択手段は、前記複数の被写体クラスのうち合焦度合いが最も高い被写体クラスが属する階層を、前記特定の階層として選択する
    ことを特徴とする請求項2に記載の撮像装置。
  5. 前記通知手段が前記複数の被写体クラスの一部をユーザに通知することは、通知対象の被写体クラスを示す情報を表示手段に表示することを含む
    ことを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
  6. 前記通知手段が前記複数の被写体クラスの一部をユーザに通知することは、通知対象の被写体クラスを示す音声を音声出力手段から出力することを含む
    ことを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
  7. 前記複数の被写体クラスの数が閾値以下の場合、前記通知手段は、前記複数の被写体クラスの全てを前記ユーザに通知する
    ことを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。
  8. 画像から検出された、上位階層の被写体クラスが下位階層の被写体クラスを包含する階層構造に従って階層化された複数の被写体クラスを取得する取得手段と、
    所定の選択基準に基づいて特定の階層を選択する選択手段と、
    前記特定の階層に属する被写体クラスを優先して、前記複数の被写体クラスの一部をユーザに通知する通知手段と、
    を備えることを特徴とする通知装置。
  9. 前記選択手段は、ユーザ操作に基づいて前記特定の階層を選択する
    ことを特徴とする請求項8に記載の通知装置。
  10. 前記画像を表示手段に表示する表示制御手段を更に備え、
    前記選択手段は、前記画像の表示倍率が第1の倍率の場合、第1の階層を前記特定の階層として選択し、前記画像の表示倍率が前記第1の倍率より高い第2の倍率の場合、前記第1の階層より下位の第2の階層を前記特定の階層として選択する
    ことを特徴とする請求項8に記載の通知装置。
  11. 前記画像のサムネイル画像を表示手段に表示する表示制御手段を更に備え、
    前記選択手段は、前記表示手段に前記サムネイル画像が表示される場合、最上位の階層を前記特定の階層として選択する
    ことを特徴とする請求項8に記載の通知装置。
  12. 前記表示手段に前記サムネイル画像が表示される場合、前記通知手段が前記複数の被写体クラスの一部をユーザに通知することは、通知対象の被写体クラスを示す情報を前記表示手段において前記サムネイル画像の近傍に表示することを含む
    ことを特徴とする請求項11に記載の通知装置。
  13. 前記複数の被写体クラスを前記画像から検出する検出手段を更に備える
    ことを特徴とする請求項8乃至12のいずれか1項に記載の通知装置。
  14. 前記複数の被写体クラスの数が閾値以下の場合、前記通知手段は、前記複数の被写体クラスの全てを前記ユーザに通知する
    ことを特徴とする請求項8乃至13のいずれか1項に記載の通知装置。
  15. 撮像装置が実行する通知方法であって、
    連続撮影を行う撮影制御工程と、
    前記連続撮影により得られた画像から、上位階層の被写体クラスが下位階層の被写体クラスを包含する階層構造に従って階層化された複数の被写体クラスを検出する検出工程と、
    所定の選択基準に基づいて特定の階層を選択する選択工程と、
    前記特定の階層に属する被写体クラスを優先して、前記複数の被写体クラスの一部をユーザに通知する通知工程と、
    を備えることを特徴とする通知方法。
  16. 通知装置が実行する通知方法であって、
    画像から検出された、上位階層の被写体クラスが下位階層の被写体クラスを包含する階層構造に従って階層化された複数の被写体クラスを取得する取得工程と、
    所定の選択基準に基づいて特定の階層を選択する選択工程と、
    前記特定の階層に属する被写体クラスを優先して、前記複数の被写体クラスの一部をユーザに通知する通知工程と、
    を備えることを特徴とする通知方法。
  17. コンピュータを、請求項1乃至7のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。
  18. コンピュータを、請求項8乃至14のいずれか1項に記載の通知装置の各手段として機能させるためのプログラム。
JP2019101485A 2019-05-30 2019-05-30 撮像装置、通知装置、通知方法、及びプログラム Active JP7394542B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019101485A JP7394542B2 (ja) 2019-05-30 2019-05-30 撮像装置、通知装置、通知方法、及びプログラム
US16/882,721 US11902650B2 (en) 2019-05-30 2020-05-25 Image capturing apparatus, notification apparatus, notification method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019101485A JP7394542B2 (ja) 2019-05-30 2019-05-30 撮像装置、通知装置、通知方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020195117A true JP2020195117A (ja) 2020-12-03
JP7394542B2 JP7394542B2 (ja) 2023-12-08

Family

ID=73548104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019101485A Active JP7394542B2 (ja) 2019-05-30 2019-05-30 撮像装置、通知装置、通知方法、及びプログラム

Country Status (2)

Country Link
US (1) US11902650B2 (ja)
JP (1) JP7394542B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090110300A1 (en) * 2007-10-31 2009-04-30 Yuka Kihara Apparatus and method for processing image
JP2015222285A (ja) * 2014-05-22 2015-12-10 ウイングアーク1st株式会社 地理情報システムおよび数値データの可視化用プログラム
JP2019049961A (ja) * 2017-09-08 2019-03-28 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070076116A1 (en) * 2005-10-05 2007-04-05 Pandit Amol S Method and apparatus for dynamically adjusting the clock frequency of an imaging sensor in a digital imaging device
JP4725408B2 (ja) 2006-05-10 2011-07-13 株式会社ニコン 被写体認識装置および被写体認識プログラム
KR101719982B1 (ko) * 2010-07-19 2017-03-27 엘지전자 주식회사 이동 단말기 및 그 제어방법
US8576184B2 (en) * 2010-08-19 2013-11-05 Nokia Corporation Method and apparatus for browsing content files
JP2013070303A (ja) * 2011-09-26 2013-04-18 Kddi Corp 画面への押圧で撮影が可能な撮影装置、撮影方法及びプログラム
JP2013084074A (ja) * 2011-10-07 2013-05-09 Sony Corp 情報処理装置、情報処理サーバ、情報処理方法、情報抽出方法及びプログラム
JP5911300B2 (ja) 2011-12-27 2016-04-27 キヤノン株式会社 撮像装置及びその制御方法
US10194112B2 (en) * 2015-06-29 2019-01-29 Lg Electronics Inc. Display device and control method therefor
US10499090B2 (en) * 2016-12-30 2019-12-03 Facebook, Inc. Systems and methods to transition between media content items
US10579897B2 (en) * 2017-10-02 2020-03-03 Xnor.ai Inc. Image based object detection
KR102592463B1 (ko) * 2018-08-01 2023-10-23 삼성전자 주식회사 카메라 모듈을 통해 획득한 영상에 기반하여 정보를 저장하는 방법 및 이를 사용하는 전자 장치
KR102661596B1 (ko) * 2018-08-08 2024-04-29 삼성전자주식회사 이미지에 대한 인식 정보, 인식 정보와 관련된 유사 인식 정보, 및 계층 정보를 이용하여 외부 객체에 대한 인식 결과를 제공하는 전자 장치 및 그의 동작 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090110300A1 (en) * 2007-10-31 2009-04-30 Yuka Kihara Apparatus and method for processing image
JP2015222285A (ja) * 2014-05-22 2015-12-10 ウイングアーク1st株式会社 地理情報システムおよび数値データの可視化用プログラム
JP2019049961A (ja) * 2017-09-08 2019-03-28 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
US11902650B2 (en) 2024-02-13
US20200382720A1 (en) 2020-12-03
JP7394542B2 (ja) 2023-12-08

Similar Documents

Publication Publication Date Title
US10002313B2 (en) Deeply learned convolutional neural networks (CNNS) for object localization and classification
JP2018055259A (ja) 情報処理装置、情報処理方法及びプログラム
CN109033994B (zh) 一种基于卷积神经网络的人脸表情识别方法
JP7228961B2 (ja) ニューラルネットワークの学習装置およびその制御方法
US8331713B2 (en) Image processing apparatus, image processing method, program and learning apparatus
JP4546157B2 (ja) 情報処理方法、情報処理装置、撮像装置
JP2005352900A (ja) 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
CN112489092B (zh) 细粒度工业运动模态分类方法、存储介质、设备和装置
JP2013506198A (ja) デジタル画像の美的品質の推定方法
US20200279166A1 (en) Information processing device
CN110879982A (zh) 一种人群计数系统及方法
CN114998210B (zh) 一种基于深度学习目标检测的早产儿视网膜病变检测系统
CN112036447A (zh) 零样本目标检测系统及可学习语义和固定语义融合方法
JP2018181273A (ja) 画像処理装置及びその方法、プログラム
KR20180129640A (ko) 화상 분류 프로그램, 분류 데이터 작성 프로그램 및 분류 데이터 작성 방법
CN111814754A (zh) 面向夜间场景的单帧图像行人检测方法和装置
CN111126278A (zh) 针对少类别场景的目标检测模型优化与加速的方法
KR102540208B1 (ko) 딥러닝을 이용한 화재감지방법
CN114782759B (zh) 一种基于YOLOv5网络对密集遮挡鱼类的检测方法
Singh et al. Activity detection and counting people using Mask-RCNN with bidirectional ConvLSTM
CN114494786A (zh) 一种基于多层协调卷积神经网络的细粒度图像分类方法
US20200286254A1 (en) Information processing device
JP7394542B2 (ja) 撮像装置、通知装置、通知方法、及びプログラム
JP4314017B2 (ja) 階層処理装置
JP2018205858A (ja) 学習装置、認識装置、学習方法及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231128

R151 Written notification of patent or utility model registration

Ref document number: 7394542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151