JP7302329B2 - Image processing device, person discrimination method, and program - Google Patents
Image processing device, person discrimination method, and program Download PDFInfo
- Publication number
- JP7302329B2 JP7302329B2 JP2019118212A JP2019118212A JP7302329B2 JP 7302329 B2 JP7302329 B2 JP 7302329B2 JP 2019118212 A JP2019118212 A JP 2019118212A JP 2019118212 A JP2019118212 A JP 2019118212A JP 7302329 B2 JP7302329 B2 JP 7302329B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- face
- trigger
- hairstyle
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Description
画像処理装置、人物判別方法、およびプログラムに関し、特に、人物の特徴に基づいて、人物を照合する画像処理装置、人物判別方法、およびプログラムに関する。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing device, a person identification method, and a program, and more particularly to an image processing device, a person identification method, and a program for verifying a person based on the characteristics of the person.
監視カメラを用いて人物を撮影し、撮影された画像から、人物の顔や虹彩などの特徴を抽出し、抽出した人物の特徴を用いて、人物を判別(照合)する関連技術がある。例えば、特許文献1には、人物を撮影した画像において、人物の目の位置などから、マスクによって隠された鼻や口などの部位の位置を推定することにより、人物を判別する精度を向上させることが記載されている。 2. Description of the Related Art There is a related technology for photographing a person using a surveillance camera, extracting features such as the face and iris of the person from the photographed image, and identifying (collating) the person using the extracted features of the person. For example, Japanese Patent Laid-Open No. 2002-200000 discloses a technique for improving the accuracy of identifying a person by estimating the positions of parts such as the nose and mouth hidden by a mask from the positions of the eyes of the person in an image of the person. is stated.
特許文献1に記載の関連技術では、サングラスおよびマスクなどによって、人物の顔がほとんど完全に隠れているとき、人物の顔を判別できない。また、人物が監視カメラに対して反対側に顔を向けている間、人物の顔を、監視カメラにより明瞭に撮影することができない。その結果、特許文献1に記載の関連技術は、画像から人物の顔を判別できない。 In the related technology described in Patent Document 1, when the person's face is almost completely hidden by sunglasses, a mask, or the like, the person's face cannot be determined. Also, the person's face cannot be clearly captured by the surveillance camera while the person is facing away from the surveillance camera. As a result, the related technology described in Patent Literature 1 cannot determine a person's face from an image.
本発明は、上記の課題に鑑みてなされたものであり、その目的は、人物の判別の精度を向上させることにある。 The present invention has been made in view of the above problems, and an object of the present invention is to improve the accuracy of human discrimination.
本発明の一態様に係わる画像処理装置は、画像から人物を検出する人物検出手段と、前記人物の特徴を抽出する特徴抽出手段と、前記人物の特徴に基づいて、前記人物を判別する人物判別手段と、トリガーを検出するトリガー検出手段とを備え、前記人物判別手段は、髪型判別手段を含み、前記トリガーが検出されたとき、前記髪型判別手段は、前記人物の髪型を判別する。 An image processing apparatus according to an aspect of the present invention includes person detection means for detecting a person from an image, feature extraction means for extracting a feature of the person, and person discrimination for discriminating the person based on the feature of the person. and trigger detection means for detecting a trigger, wherein the person determination means includes hairstyle determination means, and when the trigger is detected, the hairstyle determination means determines the hairstyle of the person.
本発明の一態様に係わる人物判別方法は、画像から人物を検出し、前記人物の特徴を抽出し、前記人物の特徴に基づいて、前記人物を判別する人物判別方法であって、トリガーが検出されたとき、前記人物の髪型を判別する。 A person determination method according to an aspect of the present invention is a person determination method for detecting a person from an image, extracting characteristics of the person, and determining the person based on the characteristics of the person, wherein a trigger is detected. When asked, determine the hairstyle of the person.
本発明の一態様に係わるプログラムは、画像から人物を検出することと、前記人物の特徴を抽出することと、前記人物の特徴に基づいて、前記人物を判別することを、コンピュータに実行させるためのプログラムであって、トリガーが検出されたとき、前記人物の髪型を判別することをコンピュータに実行させる。 A program according to an aspect of the present invention causes a computer to detect a person from an image, extract characteristics of the person, and determine the person based on the characteristics of the person. causing a computer to determine the hairstyle of the person when a trigger is detected.
本発明によれば、人物の判別の精度を向上させることができる。 According to the present invention, it is possible to improve the accuracy of person discrimination.
〔実施形態1〕
(画像処理装置1)
図1を参照して、本実施形態1に係わる画像処理装置1の構成を説明する。図1は、画像処理装置1の構成を示すブロック図である。図1に示すように、画像処理装置1は、人物検出部10、特徴抽出部20、トリガー検出部30、および人物判別部40を備えている。
[Embodiment 1]
(Image processing device 1)
The configuration of an image processing apparatus 1 according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing the configuration of the image processing apparatus 1. As shown in FIG. As shown in FIG. 1, the image processing apparatus 1 includes a
人物検出部10は、画像から人物を検出する。人物検出部10は、人物検出手段の一例である。
A
例えば、人物検出部10は、図示しない監視カメラが撮影した1または複数の画像のデータ(以下、画像データと略称する場合がある)を、監視カメラまたは記録媒体から取得する。人物検出部10は、1または複数の画像データから、背景および固定物を除く物体を検出し、検出した物体のうち、人物らしい特徴を有する物体を、人物として検出する。人物検出部10は、人物らしさを学習したモデル(識別器とも呼ぶ)を用いて、人物を検出してもよい。人物検出部10は、検出した人物を含む画像の領域(以下では、人物画像と呼ぶ場合がある)のデータを、特徴抽出部20へ送信する。
For example, the
特徴抽出部20は、人物の特徴を抽出する。特徴抽出部20は、特徴抽出手段の一例である。具体的には、特徴抽出部20は、人物検出部10から、人物画像のデータを受信する。特徴抽出部20は、人物画像から、人物の特徴を抽出する。以下では、人物の特徴は、人物特徴と呼ぶ場合がある。
The
例えば、特徴抽出部20は、人物画像から、人物の顔または他の身体の一部の特徴を、前述した人物特徴として抽出する。特徴抽出部20は、抽出した人物特徴を示す情報を含むデータ(以下では、特徴データと呼ぶ場合がある)を、人物判別部40へ送信する。
For example, the
トリガー検出部30は、トリガーを検出する。トリガー検出部30は、トリガー検出手段の一例である。本実施形態1において、トリガー検出部30は、人物の髪型を判別することが、人物を精度よく判別するための有効な手段となり得るときに検出されるイベントを、トリガーとして検出する。
The
例えば、人物が監視カメラと反対側に顔を向けたとき、特徴抽出部20は、人物の顔の特徴を抽出することが困難になる。したがって、一例に係わるトリガーは、特徴抽出部20が人物の顔の特徴を抽出することに失敗したことであってもよい。なお、人物が監視カメラと反対側に顔を向けた場合であっても、特徴抽出部20は、人物の頭髪に関する特徴、すなわち人物の髪型を抽出することはできる。
For example, when a person turns his/her face away from the surveillance camera, it becomes difficult for the
トリガー検出部30は、トリガーを検出したとき、トリガー検出信号を人物判別部40の髪型判別部41へ送信する。
When the
人物判別部40は、人物の特徴(人物特徴)に基づいて、人物を判別する。人物判別部40は、髪型判別部41を含む。人物判別部40は、人物判別手段の一例である。
The
具体的には、人物判別部40は、特徴抽出部20から、判別対象である人物の特徴を示す情報(特徴データ)を受信する。特徴データは、例えば、人物の特徴を示す特徴ベクトルである。トリガー検出部30からトリガー検出信号を受信するまで、人物判別部40は、人物の髪型の特徴を人物の判別の処理に使わず、受信した特徴データのみを用いて、人物を判別する。
Specifically, the
一例では、人物判別部40は、図示しない人物データベースを参照して、特徴抽出部20によって特徴が抽出された人物の特徴に一致または類似する特徴を備えた候補の人物を、人物データベースに登録された候補の人物(すでに判別された人物)の中から検索する。ここで、人物データベースには、候補の人物に関する情報が格納されている。例えば、人物データベースには、候補の人物のID(Identification)または名前、候補の人物の画像、候補の人物の特徴に関する特徴データ(例えば候補の人物の特徴を示す特徴ベクトル)、および、候補の人物の様々な属性を示す情報が格納されている。人物データベースは、候補の人物に関する情報として、候補の人物の髪型の特徴を示す情報も記憶している。
In one example, the
人物判別部40は、人物データベースを使用して、判別対象である人物(すなわち人物画像の人物)と特徴が類似する候補の人物を検索する。具体的には、人物判別部40は、特徴抽出部20から受信した特徴データと、人物データベース内の候補の人物の特徴に関する特徴データとを照合する。そして、人物判別部40は、受信した特徴データと一致または類似する、候補の人物に関する特徴データを抽出する。人物判別部40は、抽出した特徴データに対応する候補の人物を、前述の人物画像の人物であると判別する。
The
人物判別部40は、人物の判別に成功した場合、すなわち、受信した特徴データと一致または類似する、候補の人物に関する特徴データを人物データベースから検索したのち、検索した特徴データに対応する候補の人物に関する情報を、人物データベースから取得する。取得した候補の人物に関する情報は、例えば、候補の人物に関する特徴データのほか、候補の人物の名前またはID、年齢、性別、および顔画像などを含む。
When the
人物判別部40は、このようにして得られた候補の人物に関する情報を、人物の判別結果として出力する。例えば、人物判別部40は、判別結果として、前述したような、判別した人物に関する情報(判別した人物の特徴データ、IDまたは名前、判別した人物の顔画像など)を出力する。
The
髪型判別部41は、トリガー検出部30から、トリガーを検出したことを示すトリガー検出信号を受信する。トリガー検出信号を受信すると、人物判別部40の髪型判別部41は、人物の髪型を判別する。髪型判別部41は、髪型判別手段の一例である。
人物の髪型を判別する処理において、例えば、髪型判別部41は、人物検出部10から、人物画像のデータを取得して、人物画像から人物の頭髪の領域を抽出する。そして、髪型判別部41は、図示しない髪型データベースに格納されている多様な髪型のモデルの画像データを用いて、人物の頭髪と、髪型のモデルとをマッチングすることによって、人物の髪型を判別する。
In the process of determining a person's hairstyle, for example, the
あるいは、髪型判別部41は、人物の頭髪の長さ、色、形状、質感、光沢、および毛髪の量など、人物の頭髪に係わる特徴を、人物画像から抽出し、人物の頭髪の特徴を予め学習したモデル(識別器)を用いて、人物の頭髪に係わる特徴に基づいて、人物の髪型を判別してもよい。
Alternatively, the
髪型判別部41は、こうして判別した人物の髪型を示す情報を、判別した人物の名前を示す情報またはIDと紐付けて、前述した人物データベースに格納してもよい。髪型を示す情報は、髪型の名称であってもよいし、頭髪に係わる特徴を示す特徴ベクトルであってもよい。
The
さらに、髪型判別部41は、図示しない追跡部から、人物の動線の情報を取得してもよい。そして、髪型判別部41は、人物の髪型を示す情報を、人物の動線の情報と紐付けて、人物データベースに格納してもよい。これにより、髪型判別部41が後に人物の髪型を判別する際に、人物データベースに格納された人物の髪型を示す情報を参照することによって、現在の人物の髪型と、過去の人物の髪型とを照合することができる。
Furthermore, the
(画像処理装置1の動作フロー)
図2を参照して、本実施形態1に係わる画像処理装置1の動作を説明する。図2は、画像処理装置1の動作の流れを示すフローチャートである。
(Operation flow of image processing apparatus 1)
The operation of the image processing apparatus 1 according to the first embodiment will be described with reference to FIG. FIG. 2 is a flowchart showing the operation flow of the image processing apparatus 1. As shown in FIG.
図2に示すように、人物検出部10は、画像データを受信する。例えば、人物検出部10は、任意の監視場所に設置された監視カメラから、画像データを受信する。人物検出部10は、受信した画像データから人物を検出する(S1)。人物検出部10は、検出した人物の領域を含む人物画像のデータを、特徴抽出部20へ送信する。
As shown in FIG. 2, the
特徴抽出部20は、人物検出部10から、人物画像のデータを受信する。特徴抽出部20は、人物画像のデータから、人物の特徴を抽出する(S2)。特徴抽出部20は、抽出した人物の特徴(人物特徴)を示す情報(以下、特徴データと呼ぶ場合がある)を、人物判別部40へ送信する。人物特徴は、人物の顔の特徴であってもよいが、これに限定されない。
The
人物判別部40は、特徴抽出部20から、人物特徴を示す特徴データを受信する。人物判別部40は、受信した特徴データに基づいて、人物を判別する(S3)。そして、人物判別部40は、人物の判別結果を出力する。
The
トリガー検出部30は、トリガーを検出する。本実施形態1では、トリガー検出部30は、人物の髪型を判別することが、人物を精度よく判別するための有効な手段となり得るときに検出されるイベントを、トリガーとして検出する。
The
例えば、トリガーは、特徴抽出部20が人物の特徴を抽出することに失敗したことであってもよい。この場合、トリガー検出部30は、特徴抽出部20から、人物の特徴を抽出することに失敗したことを示すエラー検出情報を受信したことを、トリガーとして検出する。
For example, the trigger may be the failure of the
トリガー検出部30は、所定の期間内にトリガーを検出した場合(S4でYES)、トリガー検出信号を、人物判別部40の髪型判別部41へ送信する。一方、トリガー検出部30が所定の期間内にトリガーを検出しなかった場合(S4でNO)、フローはステップS1へ戻る。
When the
人物判別部40の髪型判別部41は、トリガー検出部30から、トリガー検出信号を受信する。トリガー検出信号を受信したとき、すなわち、トリガーが検出されたとき(S4でYES)、髪型判別部41は、人物の髪型を判別する(S5)。
The
髪型判別部41は、人物の髪型の判別結果を出力する。例えば、髪型判別部41は、判別した人物の髪型を示す情報を出力する。
The
以上で、画像処理装置1の動作は終了する。 With this, the operation of the image processing apparatus 1 ends.
(本実施形態の効果)
本実施形態の構成によれば、人物検出部10は、画像から人物を検出する。特徴抽出部20は、人物の特徴を抽出する。トリガー検出部30は、トリガーを検出する。人物判別部40は、人物の特徴を抽出する。人物判別部40は、人物の特徴に基づいて、人物を判別する。トリガーが検出されたとき、人物判別部40の髪型判別部41は、人物の髪型を判別する。
(Effect of this embodiment)
According to the configuration of this embodiment, the
このように、人物判別部40は、トリガーが検出されたときに、人物の髪型を判別する髪型判別部41を備えている。例えば、特徴抽出部20が人物の顔の特徴を抽出できないため、人物判別部40が人物の顔を判別できないことが、トリガーとして検出される。このように、トリガーの検出の有無に応じて、人物を判別する方法を変更することができるので、画像処理装置1は、人物の判別の精度を向上させることができる。
As described above, the
〔実施形態2〕
図3~図5を参照して、実施形態2について説明する。
[Embodiment 2]
(画像処理装置2)
図3は、本実施形態2に係わる画像処理装置2の構成を示すブロック図である。図3に示すように、画像処理装置2は、人物検出部10、特徴抽出部20、トリガー検出部30、および人物判別部240を備えている。人物判別部240は、髪型判別部41および顔判別部42を含む。
(Image processing device 2)
FIG. 3 is a block diagram showing the configuration of the
すなわち、本実施形態2に係わる画像処理装置2は、前記実施形態1で説明した画像処理装置1の人物判別部40の代わりに、人物判別部240を備えている。この点で、本実施形態2に係わる画像処理装置2は、前記実施形態1に係わる画像処理装置1と異なる。
That is, the
(監視カメラ100)
図4を参照して、人物を撮影する監視カメラ100について説明する。図4では、固定された監視カメラ100が監視エリア(すなわち監視カメラ100の視野)内にいる人物を撮影している。監視カメラ100は、動画を撮影する機能を有する。あるいは、監視カメラ100は、所定時間ごとに、または、センサによって移動物体を感知するごとに、静止画を撮影してもよい。なお、図示しないが、監視カメラ100は複数あってもよい。
(Monitoring camera 100)
A
例えば、監視カメラ100は、都市、街頭、大規模商業施設、空港、ターミナル駅、プラットフォーム、レジャー施設、スポーツ施設、スタジアム、または監視の必要があるその他の場所に設置される。
For example, the
監視カメラ100は、撮影した人物の画像データを生成する。監視カメラ100は、生成した画像データを、画像処理装置2の人物検出部10(図3参照)へ送信する。このとき、監視カメラ100は、有線または無線のネットワークを介して、画像データを画像処理装置2へ直接的に送信してもよい。あるいは、監視カメラ100は、画像データを画像データベースに蓄積しておき、画像データベースに蓄積された画像データベースを参照するように、画像処理装置2に指示してもよい。
The
(人物判別部240)
前述したように、人物判別部240は、髪型判別部41および顔判別部42を備えている。
(Person discrimination unit 240)
As described above, the
本実施形態2の髪型判別部41は、前記実施形態1の髪型判別部41と同様に、トリガーが検出されたとき、人物の髪型を判別する。髪型判別部41は、髪型判別手段の一例である。
The
より詳細には、髪型判別部41は、トリガー検出部30から、トリガー検出信号を受信する。前記実施形態1で説明したように、トリガー検出信号は、トリガー検出部30がトリガーを検出したことを示す。トリガー検出部30は、トリガーを検出したとき、トリガー検出信号を髪型判別部41へ送信する。
More specifically, the
髪型判別部41は、トリガー検出部30から、トリガー検出信号を受信したとき、人物の髪型を判別する。例えば、髪型判別部41は、図示しない髪型データベースに格納されている多様な髪型のモデルを参照して、人物の髪型と、髪型のモデルとをマッチングする。あるいは、髪型判別部41は、人物の髪型の特徴を学習したモデル(識別器)を用いて、人物の髪型を判別してもよい。
The
こうして、髪型判別部41は、人物の髪型を判別した後、人物の髪型の判別結果を出力する。または、髪型判別部41は、人物の髪型を示す情報(例えば、髪型の名称)を、図示しない髪型データベースに格納してもよい。
In this way, after determining the hairstyle of the person, the
顔判別部42は、人物の顔と、候補の人物の顔とを照合することによって、人物の顔を判別する。顔判別部42は、顔判別手段の一例である。具体的には、特徴抽出部20から、人物の顔に関する特徴(以下では、顔特徴とも呼ばれる)を示す特徴データ(以下、顔特徴データとも呼ばれる)を受信する。
The
顔判別部42は、図示しない人物データベースを参照して、判別対象である人物と顔特徴が一致または類似する候補の人物を、人物データベースに登録された候補の人物の中から検索する。
The
人物データベースには、候補の人物(すでに判別された人物)に関する様々な情報が格納されている。例えば、人物データベースには、候補の人物のID(Identification)、名前、候補の人物の顔の領域を含む顔画像、および候補の人物の顔の特徴(以下、顔特徴と呼ぶ場合がある)を示す特徴ベクトルのほか、候補の人物の属性を示す情報が格納されている。候補の人物の顔特徴を示す特徴ベクトルは、前述した顔特徴データの一例である。 The person database stores various information about candidate persons (persons who have already been identified). For example, in the person database, candidate person IDs (Identification), names, face images including candidate person face regions, and candidate person facial features (hereinafter sometimes referred to as facial features) are stored. In addition to the feature vectors shown, information indicating the attributes of the candidate person is stored. A feature vector indicating facial features of a candidate person is an example of the aforementioned facial feature data.
顔判別部42は、判別対象である人物の顔特徴データと、人物データベースに格納された候補の人物の顔特徴データとの間の類似度を示すスコアを計算する。人物データベースに、複数の候補の人物の顔画像が格納されている場合、顔判別部42は、候補の人物の各々と、判別対象である人物との間で、それぞれスコアを計算する。
The
例えば、顔判別部42は、候補の人物の顔特徴を示す特徴ベクトルに基づいて、特徴ベクトル間の距離が短いほど大きく、特徴ベクトル間の距離が長いほど小さいスコアを計算する。例えば、スコアは、特徴ベクトル間の距離の逆数である。
For example, the
顔判別部42は、スコアが閾値を超える候補の人物のうち、スコアが最も高い候補の人物を、判別対象である人物と同一人物として判別する。
The
より詳細には、スコアが閾値を超える候補の人物を少なくとも1人以上、人物データベースから発見した場合、顔判別部42は、スコアが最も高い候補の人物を、判別対象である物であると判別する。顔判別部42は、判別した人物に関する情報を、人物データベースから取得して、人物の判別結果として出力する。
More specifically, when at least one candidate person whose score exceeds the threshold is found from the person database, the
一方、顔判別部42は、スコアが閾値を超える候補の人物が存在しない場合、人物の顔の判別に失敗したと判断する。この場合、顔判別部42は、人物の顔の判別に失敗したことを示すエラー検出信号を、トリガー検出部30へ送信する。
On the other hand, if there is no candidate person whose score exceeds the threshold, the
また、スコアが閾値を超える候補の人物が2人以上存在する場合であって、かつ、スコアが最も高い候補の人物と、スコアが2番目に高い候補の人物との間で、スコアの差が所定の値以下である場合、顔判別部42は、人物の顔の判別に失敗したと判断する。この場合も、顔判別部42は、人物の顔の判別に失敗したことを示すエラー検出信号を、トリガー検出部30へ送信する。
In addition, when there are two or more candidate persons whose score exceeds the threshold, and the score difference between the candidate person with the highest score and the candidate person with the second highest score is If it is equal to or less than the predetermined value, the
(画像処理装置2の動作)
図5を参照して、本実施形態2に係わる画像処理装置2の動作を説明する。図5は、画像処理装置2の動作の流れを示すフローチャートである。
(Operation of image processing device 2)
The operation of the
図5に示すように、人物検出部10は、監視カメラ100(図4参照)から画像データを受信する。人物検出部10は、受信した画像データから人物を検出する(S201)。人物検出部10は、検出した人物の領域を含む人物画像のデータを、特徴抽出部20へ送信する。
As shown in FIG. 5, the
特徴抽出部20は、人物検出部10から、人物画像のデータを受信する。特徴抽出部20は、人物画像のデータから、人物の顔特徴を抽出する(S202)。
The
特徴抽出部20は、人物画像のデータから、人物の顔特徴を抽出することに成功した場合(S203でYES)、抽出した顔特徴(すなわち人物の顔特徴)を示す情報(以下、顔特徴データと呼ぶ場合がある)を、人物判別部240の顔判別部42へ送信する。
If the
一方、特徴抽出部20が、人物画像のデータから、人物の顔特徴を抽出することに失敗した場合(S203でNO)、特徴抽出部20は、人物の顔特徴の抽出に失敗したことを示すエラー検出信号を、トリガー検出部30へ送信する。この場合、動作フローは、後述するステップS206へ進む。
On the other hand, if the
顏判別部42は、特徴抽出部20から、顔特徴を示す情報(顔特徴データ)を受信する。顔判別部42は、受信した顔特徴データに基づいて、人物の顔を判別する(S204)。
The
具体的には、顔判別部42は、図示しない人物データベースを参照して、判別対象である人物と顔特徴が一致または類似する候補の人物を、人物データベースに登録された人物の中から検索する。人物データベースには、候補の人物(すでに判別された人物)に関する情報が格納されている。例えば、人物データベースには、候補の人物のID(Identification)、名前、顔画像、および顔画像から抽出された顔特徴を示す情報のほか、候補の人物の様々な属性を示す情報が格納されている。
Specifically, the
顔判別部42は、判別対象である人物の顔特徴データと、人物データベースに格納された候補の人物の顔特徴データとの間の類似度を示すスコアを計算する。人物データベースに、複数の候補の人物の顔画像が格納されている場合、顔判別部42は、候補の人物の各々と、判別対象である人物との間で、それぞれスコアを計算する。
The
顏判別部42は、計算したスコアに基づいて、人物の顔の判別に成功したかそれとも失敗したかを判断する(S205)。
The
具体的には、顔判別部42は、スコアが閾値を超える候補の人物が存在しない場合、人物の顔の判別に失敗したと判断する(S205でNO)。また、スコアが閾値を超える候補の人物が2人以上存在する場合であって、スコアが最も高い候補の人物と、スコアが2番目に高い候補の人物との間で、スコアの差が所定の値以下である場合も、顔判別部42は、人物の顔の判別に失敗したと判断する(S205でNO)。
Specifically, when there is no candidate person whose score exceeds the threshold, the
一方、上記の2つの失敗の場合のいずれかに該当しない場合、顔判別部42は、人物の顔の判別に成功したと判断する(S205でYES)。この場合、画像処理装置2の動作フローは終了する。顔判別部42は、人物の判別結果の一つとして、判別した人物に関する情報を出力してもよい。
On the other hand, if neither of the above two cases of failure occurs, the
人物の顔の判別に失敗した場合(S205でNO)、顔判別部42は、人物の顔の判別に失敗したことを示すエラー検出信号を、トリガー検出部30へ送信する。
If the person's face has not been determined (NO in S205), the
特徴抽出部20が、人物画像のデータから、人物の顔特徴を抽出することに失敗した場合(S203でNO)、トリガー検出部30は、特徴抽出部20から、人物の顔特徴の抽出に失敗したことを示すエラー検出信号を受信する。この場合、トリガー検出部30は、特徴抽出部20が人物の顔特徴の抽出に失敗したことを、トリガーとして検出する(S206)。
If the
また、顔判別部42が、人物の顔の判別に失敗した場合(S205でNO)、トリガー検出部30は、顔判別部42から、人物の顔の判別に失敗したことを示すエラー検出信号を受信する。この場合、トリガー検出部30は、顔判別部42が人物の顔の判別に失敗したことを、トリガーとして検出する(S206)。ステップS206において、トリガー検出部30は、以下の(1)または(2)の場合に、トリガーを検出する。
Further, when the
(1)スコアが最も高い候補の人物と、スコアが2番目に高い候補の人物との間で、スコアの差が所定の値を超えない。 (1) The score difference between the candidate person with the highest score and the candidate person with the second highest score does not exceed a predetermined value.
(2)スコアが閾値を超える候補の人物が存在しない。 (2) There is no candidate person whose score exceeds the threshold.
ステップS206の後、トリガー検出部30は、トリガー検出信号を、人物判別部240の髪型判別部41へ送信する。
After step S<b>206 , the
人物判別部40の髪型判別部41は、トリガー検出部30から、トリガー検出信号を受信する。トリガー検出信号を受信したとき、すなわち、トリガーが検出されたとき(S4でYES)、髪型判別部41は、人物の髪型を判別する(S207)。
The
髪型判別部41は、人物の判別結果の一つとして、人物の髪型の判別結果を出力する。例えば、髪型判別部41は、判別した人物の髪型に関する情報(髪型の名称など)を出力する。髪型判別部41は、判別した人物の髪型に関する情報と対比するために、顔判別部42によって計算されたスコアが最も高い候補の人物の髪型を示す情報を、さらに出力してもよい。
The
以上で、画像処理装置2の動作は終了する。
With this, the operation of the
(変形例)
一変形例では、上記の(1)および(2)のいずれにも該当しない場合であっても、スコアが最も高い候補の人物のスコアが閾値プラスα(αは、適宜に決められる)を超えない場合、髪型判別部41が人物の髪型を判別するとともに、顔判別部42が人物の顔を判別してもよい。これにより、画像処理装置2は、人物の髪型の判別結果と、人物の顔の判別結果とを併用して、人物の判別の精度をより向上させることができる。
(Modification)
In one variation, even if none of the above (1) and (2) apply, the score of the candidate with the highest score exceeds the threshold plus α (α is determined as appropriate) If not, the
(本実施形態の効果)
本実施形態の構成によれば、人物検出部10は、画像から人物を検出する。特徴抽出部20は、人物の特徴を抽出する。トリガー検出部30は、トリガーを検出する。人物判別部40は、人物の特徴を抽出する。
(Effect of this embodiment)
According to the configuration of this embodiment, the
人物判別部40の顔判別部42は、人物の顔と、候補の人物の顔とを照合することによって、人物の顔を判別する。また顔判別部42は、人物の顔と、候補の人物の顔とが同一であることの確からしさを表すスコアを計算する。
A
トリガー検出部30は、特徴抽出部20が人物の顔特徴を抽出することに失敗したことを、トリガーとして検出する。またトリガー検出部30は、顔判別部42が人物の顔の判別に失敗したことを、トリガーとして検出する。
The
人物判別部40は、人物の特徴に基づいて、人物を判別する。トリガーが検出されたとき、人物判別部40の髪型判別部41は、人物の髪型を判別する。このように、トリガーの検出の有無に応じて、人物を判別する方法を変更する。例えば、人物の髪型の判別結果と、人物の顔の判別結果とを併用してもよい。これにより、画像処理装置2は、人物の判別の精度をより向上させることができる。
The
〔実施形態3〕
図6を参照して、実施形態3について説明する。前記実施形態1、2では、人物の髪型の判別を開始するトリガーについて説明した。本実施形態3では、人物の髪型の判別を終了するトリガー(以下では、終了トリガーと呼ぶ場合がある)について説明する。終了トリガーは、第2のトリガーの一例である。
[Embodiment 3]
Embodiment 3 will be described with reference to FIG. In the first and second embodiments, the trigger for starting to determine the hairstyle of a person has been described. In the third embodiment, a trigger for terminating discrimination of a person's hairstyle (hereinafter sometimes referred to as an end trigger) will be described. A termination trigger is an example of a second trigger.
(画像処理装置の構成)
本実施形態3に係わる画像処理装置の構成は、前記実施形態2において説明した画像処理装置1(図2参照)と同じである。
(Configuration of image processing device)
The configuration of the image processing apparatus according to the third embodiment is the same as that of the image processing apparatus 1 (see FIG. 2) described in the second embodiment.
(顔の判別処理の終了)
図6を参照して、本実施形態3に係わる画像処理装置の動作を説明する。図6は、本実施形態3に係わる画像処理装置が実行する顔の判別の終了処理の流れを示すフローチャートである。なお、以下で説明する処理が開始される前に、髪型判別部41が、人物の髪型の判別を開始している。
(End of face discrimination processing)
The operation of the image processing apparatus according to the third embodiment will be described with reference to FIG. FIG. 6 is a flow chart showing the flow of face discrimination termination processing executed by the image processing apparatus according to the third embodiment. It should be noted that the
図6に示すように、トリガー検出部30は、終了トリガーを検出する(S301)。終了トリガーは、前記実施形態1および2で説明したトリガーと対で使用される。
As shown in FIG. 6, the
前記実施形態1および2で説明したトリガーは、人物の髪型を判別することが、人物を精度よく判別するための有効な手段となり得るときに検出されるイベントである。一方、本実施形態3に係わる終了トリガーは、人物の髪型よりも人物の顔を判別することが、人物を精度よく判別するための有効な手段となり得るときに検出されるイベントである。 The trigger described in the first and second embodiments is an event detected when determining a person's hairstyle can be an effective means for accurately determining a person. On the other hand, the termination trigger according to the third embodiment is an event detected when identifying a person's face rather than his/her hairstyle can be an effective means for accurately identifying a person.
例えば、終了トリガーは、前記実施形態2において説明した動作フローのステップS202において、特徴抽出部20が人物の特徴を抽出することに成功したことであってもよい。または、終了トリガーは、前記実施形態2において説明した動作フローのステップS204において、人物判別部40の顔判別部42が人物の顔を判別することに成功したことであってもよい。
For example, the end trigger may be that the
具体的には、トリガー検出部30は、以下の(1)および(2)の条件の両方が満たされる場合に、顔判別部42が人物の顔の判別に成功したことに基づく終了トリガーを検出する。
Specifically, the
(1)スコアが閾値を超える候補の人物が少なくとも1人存在する。 (1) There is at least one candidate person whose score exceeds the threshold.
(2)スコアが最も高い候補の人物と、スコアが2番目に高い候補の人物との間で、スコアの差が所定の値以上である。 (2) The score difference between the candidate person with the highest score and the candidate person with the second highest score is equal to or greater than a predetermined value.
終了トリガーを検出したとき、トリガー検出部30は、終了トリガー検出信号を、髪型判別部41へ送信する。
When the end trigger is detected, the
加えて、トリガー検出部30は、終了トリガー検出信号を、顔判別部42にも送信してもよい。顔判別部42は、トリガー検出部30から終了トリガー信号を検出したとき、人物の顔の判別を開始あるいは再開してもよい。
In addition, the
髪型判別部41は、トリガー検出部30から、終了トリガー検出信号を受信したとき、人物の髪型を判別する処理を停止する(S302)。
When receiving the end trigger detection signal from the
以上で、本実施形態3に係わる画像処理装置の動作は終了する。 With this, the operation of the image processing apparatus according to the third embodiment is completed.
(変形例)
なお、上記の(1)の場合において、スコアが最も高い候補の人物のスコアが閾値プラスα(αは、適宜に決められる)を超えない場合、前記実施形態2の変形例のように、髪型判別部41が人物の髪型を判別するとともに、顔判別部42が人物の顔を判別してもよい。これにより、本実施形態3に係わる画像処理装置は、人物の髪型の判別結果と、人物の顔の判別結果とを併用できるので、人物の判別の精度をより向上させることができる。
(Modification)
In case (1) above, if the score of the candidate with the highest score does not exceed the threshold value plus α (where α is determined as appropriate), the hairstyle The
本実施形態3において説明した構成は、前記実施形態1で説明した構成に適用することもできる。その場合、終了トリガーが検出されたとき、顔判別部42によって人物の顔の判別が開始あるいは再開される代わりに、人物判別部40によって人物の他の部位が判別されてもよい。
The configuration described in the third embodiment can also be applied to the configuration described in the first embodiment. In that case, when the end trigger is detected, instead of the
(本実施形態の効果)
本実施形態の構成によれば、トリガー検出部30は、終了トリガーを検出する。終了トリガーは、人物の髪型よりも人物の顔を判別することが、人物を精度よく判別するための有効な手段となり得るときに検出されるイベントである。トリガー検出部30が終了トリガーを検出したとき、髪型判別部41は、人物の髪型を判別することを停止する。これにより、画像処理装置の省エネルギー化及び処理負担の軽減を図ることができる。また、人物の髪型を判別することを停止する一方で、人物の顔を判別することを開始または再開することによって、画像処理装置は、人物の判別の精度を向上させることができる。
(Effect of this embodiment)
According to the configuration of this embodiment, the
〔実施形態4〕
図7を参照して、実施形態4について以下で説明する。
[Embodiment 4]
Embodiment 4 is described below with reference to FIG.
(ハードウェア構成について)
前記実施形態1~3で説明した画像処理装置の各構成要素は、機能単位のブロックを示している。これらの構成要素の一部又は全部は、例えば図7に示すような情報処理装置900により実現される。図7は、情報処理装置900のハードウェア構成の一例を示すブロック図である。
(About hardware configuration)
Each component of the image processing apparatus described in Embodiments 1 to 3 represents a functional unit block. Some or all of these components are realized by an
図7に示すように、情報処理装置900は、一例として、以下のような構成を含む。
As shown in FIG. 7, the
・CPU(Central Processing Unit)901
・ROM(Read Only Memory)902
・RAM(Random Access Memory)903
・RAM903にロードされるプログラム904
・プログラム904を格納する記憶装置905
・記録媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インタフェース908
・データの入出力を行う入出力インタフェース910
・各構成要素を接続するバス911
前記実施形態1~3で説明した画像処理装置の各構成要素は、これらの機能を実現するプログラム904をCPU901が読み込んで実行することで実現される。各構成要素の機能を実現するプログラム904は、例えば、予め記憶装置905やROM902に格納されており、必要に応じてCPU901がRAM903にロードして実行される。なお、プログラム904は、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記録媒体906に格納されており、ドライブ装置907が当該プログラムを読み出してCPU901に供給してもよい。
- CPU (Central Processing Unit) 901
・ROM (Read Only Memory) 902
・RAM (Random Access Memory) 903
・
-
A
- A
- An input/
A
Each component of the image processing apparatus described in Embodiments 1 to 3 is implemented by the
(本実施形態の効果)
本実施形態の構成によれば、前記実施形態において説明した画像処理装置が、ハードウェアとして実現される。したがって、前記実施形態において説明した効果と同様の効果を奏することができる。
(Effect of this embodiment)
According to the configuration of this embodiment, the image processing apparatus described in the above embodiments is implemented as hardware. Therefore, the same effects as those described in the above embodiment can be obtained.
〔変形例〕
前記実施形態1から3で説明した画像処理装置1~2が実行する処理の全部または一部を、インテリジェントカメラが代わりに実行してもよい。インテリジェントカメラは、内部に解析機能を備え、IP(Internet Protocol)アドレスを割り当てられる。インテリジェントカメラは、IPカメラ、ネットワークカメラ、あるいはスマートカメラとも呼ばれる。
[Modification]
All or part of the processing executed by the
以上、実施形態(及び実施例)を参照して本発明を説明したが、本発明は上記実施形態(及び実施例)に限定されるものではない。上記実施形態(及び実施例)の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the present invention has been described with reference to the embodiments (and examples), the present invention is not limited to the above-described embodiments (and examples). Various changes can be made to the configurations and details of the above-described embodiments (and examples) within the scope of the present invention that can be understood by those skilled in the art.
1 画像処理装置
2 画像処理装置
10 人物検出部
20 特徴抽出部
30 トリガー検出部
40 人物判別部
41 髪型判別部
42 顏判別部
240 人物判別部
1
Claims (7)
前記人物の特徴を抽出する特徴抽出手段と、
前記人物の特徴に基づいて、前記人物を判別する人物判別手段と、
トリガーを検出するトリガー検出手段とを備え、
前記人物判別手段は、髪型判別手段を含み、
前記トリガーが検出されたとき、前記髪型判別手段は、前記人物の髪型を判別し、
前記人物判別手段は、前記人物の顔と、候補の人物の顔とを照合することによって、前記人物の顔を判別する顔判別手段を含み、
前記顔判別手段は、前記人物の顔と、前記候補の人物の顔とが同一であることの確からしさを表すスコアを計算し、
前記トリガー検出手段は、第2のトリガーをさらに検出し、
前記第2のトリガーが検出されたとき、前記髪型判別手段は、前記人物の髪型を判別する処理を停止し、
前記第2のトリガーは、前記スコアが閾値を超える候補の人物が少なくとも1人存在し、かつ、前記スコアが最も高い候補の人物と、前記スコアが2番目に高い候補の人物との間で、前記スコアの差が所定の値以上である、という条件が満たされることである
画像処理装置。 person detection means for detecting a person from an image;
a feature extracting means for extracting features of the person;
a person discrimination means for discriminating the person based on the characteristics of the person;
and trigger detection means for detecting the trigger,
The person identification means includes hairstyle identification means,
When the trigger is detected, the hairstyle determination means determines the hairstyle of the person,
The person determination means includes face determination means for determining the face of the person by matching the face of the person with the face of the candidate person,
The face discrimination means calculates a score representing the probability that the face of the person and the face of the candidate person are the same,
the trigger detection means further detects a second trigger;
when the second trigger is detected, the hairstyle determination means stops the process of determining the hairstyle of the person;
The second trigger is that there is at least one candidate person whose score exceeds the threshold, and between the candidate person with the highest score and the candidate person with the second highest score, The condition that the score difference is greater than or equal to a predetermined value is satisfied.
Image processing device.
ことを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein said trigger detection means detects, as said trigger, that said feature extraction means has failed to extract the features of said person.
ことを特徴とする請求項1または2に記載の画像処理装置。 3. The image processing apparatus according to claim 1 , wherein the face discrimination means determines that discrimination of the face of the person has failed when the candidate person whose score exceeds a threshold value does not exist.
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 If the difference in score between the candidate person with the highest score and the candidate person with the second highest score does not exceed a predetermined value, the face determination means determines whether the face of the person 4. The image processing apparatus according to any one of claims 1 to 3, wherein it is determined that the determination of is unsuccessful.
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 5. The image processing according to any one of claims 1 to 4, wherein the trigger detection means detects, as the trigger, failure of the face determination means to determine the face of the person. Device.
前記人物の特徴を抽出し、
前記人物の特徴に基づいて、前記人物を判別する人物判別方法であって、
トリガーが検出されたとき、前記人物の髪型を判別し、
前記人物を判別する際、前記人物の顔と、候補の人物の顔とを照合することによって、前記人物の顔を判別し、
前記人物の顔を判別する際、前記人物の顔と、前記候補の人物の顔とが同一であることの確からしさを表すスコアを計算し、
第2のトリガーをさらに検出し、
前記第2のトリガーが検出されたとき、前記人物の髪型を判別する処理を停止し、
前記第2のトリガーは、前記スコアが閾値を超える候補の人物が少なくとも1人存在し、かつ、前記スコアが最も高い候補の人物と、前記スコアが2番目に高い候補の人物との間で、前記スコアの差が所定の値以上である、という条件が満たされることである
人物判別方法。 Detect people from images,
extracting features of the person;
A person determination method for determining the person based on the characteristics of the person,
determining the hairstyle of the person when a trigger is detected ;
When determining the person, determining the face of the person by matching the face of the person with the face of a candidate person,
When determining the face of the person, calculating a score representing the likelihood that the face of the person and the face of the candidate person are the same,
further detecting a second trigger;
when the second trigger is detected, stopping the process of determining the hairstyle of the person;
The second trigger is that there is at least one candidate person whose score exceeds the threshold, and between the candidate person with the highest score and the candidate person with the second highest score, The condition that the score difference is greater than or equal to a predetermined value is satisfied.
person identification method.
前記人物の特徴を抽出することと、
前記人物の特徴に基づいて、前記人物を判別することを、コンピュータに実行させるためのプログラムであって、
トリガーが検出されたとき、前記人物の髪型を判別すること
をコンピュータに実行させ、
前記コンピュータは、
前記人物を判別する際、前記人物の顔と、候補の人物の顔とを照合することによって、前記人物の顔を判別し、
前記人物の顔を判別する際、前記人物の顔と、前記候補の人物の顔とが同一であることの確からしさを表すスコアを計算し、
第2のトリガーをさらに検出し、
前記第2のトリガーが検出されたとき、前記人物の髪型を判別する処理を停止し、
前記第2のトリガーは、前記スコアが閾値を超える候補の人物が少なくとも1人存在し、かつ、前記スコアが最も高い候補の人物と、前記スコアが2番目に高い候補の人物との間で、前記スコアの差が所定の値以上である、という条件が満たされることである
プログラム。 detecting a person from an image;
extracting features of the person;
A program for causing a computer to determine the person based on the characteristics of the person,
causing a computer to determine the hairstyle of the person when a trigger is detected ;
The computer is
When determining the person, determining the face of the person by matching the face of the person with the face of a candidate person,
When determining the face of the person, calculating a score representing the likelihood that the face of the person and the face of the candidate person are the same,
further detecting a second trigger;
when the second trigger is detected, stopping the process of determining the hairstyle of the person;
The second trigger is that there is at least one candidate person whose score exceeds the threshold, and between the candidate person with the highest score and the candidate person with the second highest score, The condition that the score difference is greater than or equal to a predetermined value is satisfied.
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019118212A JP7302329B2 (en) | 2019-06-26 | 2019-06-26 | Image processing device, person discrimination method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019118212A JP7302329B2 (en) | 2019-06-26 | 2019-06-26 | Image processing device, person discrimination method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021005197A JP2021005197A (en) | 2021-01-14 |
JP7302329B2 true JP7302329B2 (en) | 2023-07-04 |
Family
ID=74097209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019118212A Active JP7302329B2 (en) | 2019-06-26 | 2019-06-26 | Image processing device, person discrimination method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7302329B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007257221A (en) | 2006-03-23 | 2007-10-04 | Oki Electric Ind Co Ltd | Face recognition system |
JP2009087209A (en) | 2007-10-02 | 2009-04-23 | Sony Corp | Image processing apparatus, imaging apparatus, and processing methods for them and programs for them |
JP2010014783A (en) | 2008-07-01 | 2010-01-21 | Panasonic Corp | Photographing device |
JP2010061465A (en) | 2008-09-04 | 2010-03-18 | Sony Corp | Image processing apparatus, image pickup apparatus, image processing method and program |
JP2011086202A (en) | 2009-10-16 | 2011-04-28 | Glory Ltd | Collation device, collation method and collation program |
JP2014059687A (en) | 2012-09-18 | 2014-04-03 | Nec Biglobe Ltd | Dictionary update method, dictionary update system, and dictionary update program |
-
2019
- 2019-06-26 JP JP2019118212A patent/JP7302329B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007257221A (en) | 2006-03-23 | 2007-10-04 | Oki Electric Ind Co Ltd | Face recognition system |
JP2009087209A (en) | 2007-10-02 | 2009-04-23 | Sony Corp | Image processing apparatus, imaging apparatus, and processing methods for them and programs for them |
JP2010014783A (en) | 2008-07-01 | 2010-01-21 | Panasonic Corp | Photographing device |
JP2010061465A (en) | 2008-09-04 | 2010-03-18 | Sony Corp | Image processing apparatus, image pickup apparatus, image processing method and program |
JP2011086202A (en) | 2009-10-16 | 2011-04-28 | Glory Ltd | Collation device, collation method and collation program |
JP2014059687A (en) | 2012-09-18 | 2014-04-03 | Nec Biglobe Ltd | Dictionary update method, dictionary update system, and dictionary update program |
Also Published As
Publication number | Publication date |
---|---|
JP2021005197A (en) | 2021-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6268960B2 (en) | Image recognition apparatus and data registration method for image recognition apparatus | |
JP6013241B2 (en) | Person recognition apparatus and method | |
JP4594945B2 (en) | Person search device and person search method | |
JP4241763B2 (en) | Person recognition apparatus and method | |
KR101252843B1 (en) | Method of Managing Image in a Mobile Communication Terminal | |
WO2020034645A1 (en) | Facial recognition method, facial recognition system, and electronic device | |
JP2001292981A (en) | Iris recognition apparatus | |
CN110211251A (en) | Face recognition method, face recognition device, storage medium and face recognition terminal | |
JP4862518B2 (en) | Face registration device, face authentication device, and face registration method | |
JP5791148B2 (en) | Authentication system and reliability determination method | |
JP7302329B2 (en) | Image processing device, person discrimination method, and program | |
WO2024074075A1 (en) | Re-identification method, storage medium, database editing method and storage medium | |
KR20100041562A (en) | Method and system for performing user authentication by face recognizing and fingerprint recognizing of user needing an authentication | |
JP6607092B2 (en) | Guide robot control system, program, and guide robot | |
JP6610349B2 (en) | Guide robot control system, program, and guide robot | |
JP4384366B2 (en) | Image collation processing system and image collation method | |
JP2009064173A (en) | Person identification system | |
JPWO2021199114A5 (en) | Recommendation device, system, method and program | |
JP2002251614A (en) | Device, system, method, and program for collating organism | |
JP6762754B2 (en) | Information processing equipment, information processing methods and programs | |
JP6713153B1 (en) | Information processing apparatus, information processing method, program, and camera system | |
JP6905653B2 (en) | Face recognition system, face recognition server and face recognition method | |
JP7468626B2 (en) | Authentication device, authentication method, and program | |
KR102435581B1 (en) | Attendance check system using face recognition and attendance check method using same | |
JP7371806B2 (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20211015 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220516 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230605 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7302329 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |