JP6992881B2 - 情報処理装置、制御方法、及びプログラム - Google Patents
情報処理装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP6992881B2 JP6992881B2 JP2020515397A JP2020515397A JP6992881B2 JP 6992881 B2 JP6992881 B2 JP 6992881B2 JP 2020515397 A JP2020515397 A JP 2020515397A JP 2020515397 A JP2020515397 A JP 2020515397A JP 6992881 B2 JP6992881 B2 JP 6992881B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- estimated position
- candidate
- target object
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Description
<概要>
図1は、本実施形態の情報処理装置2000が行う処理を概念的に示す図である。情報処理装置2000は、カメラ10によって生成された撮像画像20から、対象オブジェクトを表す画像領域であるオブジェクト領域30を検出する。対象オブジェクトは、人の持ち物である。なお、ここでいう「人の持ち物」とは、人が手に持っている物(手提げカバンや杖など)には限定されず、何らかの形で人が所持している物を全般的に含む。例えば、人の持ち物には、人が肩に掛けている物(肩掛けカバンなど)、人が首から提げている物(身分証明書など)、人が背中に背負っている物(リュックサックなど)、人が頭に装着している物(帽子やヘルメットなど)、人が顔に装着している物(眼鏡やサングラスなど)、及び人が手に装着している物(時計など)などが含まれる。
本実施形態の情報処理装置2000によれば、対象オブジェクトの画像特徴に基づいて検出される候補領域22と、人物領域26に基づいて検出される推定位置24とを用いて、対象オブジェクトを表すオブジェクト領域30が特定される。こうすることで、対象オブジェクトの画像特徴に基づいて検出される候補領域22の全てがオブジェクト領域30(対象オブジェクトを表す画像領域)として特定されるわけではなく、人物領域26に基づいて検出される推定位置24によって、オブジェクト領域30として特定される候補領域22が限定される。例えば、対象オブジェクトが存在する蓋然性が低い位置の候補領域22は、オブジェクト領域30として特定されなくなる。このように、対象オブジェクトを表す画像領域を、対象オブジェクトの画像特徴という基準と人物を表す画像領域という基準の2つを利用して特定することにより、対象オブジェクトの画像特徴という1つの基準で特定する場合と比較し、対象オブジェクトを表す画像領域を高い精度で特定することができる。
図2は、実施形態1の情報処理装置2000の機能構成を例示する図である。情報処理装置2000は、候補領域検出部2020、推定位置検出部2040、及び特定部2060を有する。候補領域検出部2020は、検出対象である対象オブジェクトの画像特徴に基づいて、撮像画像20から候補領域22を1つ以上検出する。推定位置検出部2040は、撮像画像20から人物領域26を検出する。さらに推定位置検出部2040は、検出した人物領域26に基づいて、推定位置24を検出する。特定部2060は、候補領域22と推定位置24とに基づいて、オブジェクト領域30を特定する。
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
カメラ10は、撮像を行い、その結果として画像データを生成する任意の撮像装置である。例えばカメラ10は、監視場所に設置された監視カメラである。
情報処理装置2000は、「カメラによって生成された画像データから所定のオブジェクトを検出する」という処理が有用な任意の場面で利用することができる。例えば情報処理装置2000は、監視カメラによって生成された監視映像の解析に利用される。この場合、カメラ10は監視映像を生成する監視カメラである。また、撮像画像20は監視映像を構成するビデオフレームである。
図4は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。情報処理装置2000は、撮像画像20を取得する(S102)。候補領域検出部2020は、対象オブジェクトの画像特徴に基づいて、撮像画像20から候補領域22を1つ以上検出する(S104)。推定位置検出部2040は、撮像画像20から人物領域26を検出する(S106)。推定位置検出部2040は、検出した人物領域26に基づいて、推定位置24を検出する(S108)。特定部2060は、候補領域22と推定位置24とに基づいて、オブジェクト領域30を特定する(S110)。
情報処理装置2000は撮像画像20を取得する(S102)。撮像画像20は、カメラ10によって生成された画像データそのものであってもよいし、カメラ10によって生成された画像データに対して何らかの処理(例えば色調補正やトリミングなど)が加えられたものであってもよい。
候補領域検出部2020は、対象オブジェクトの画像特徴に基づいて、撮像画像20から候補領域22を検出する(S104)。ここで、検出対象のオブジェクトの画像特徴に基づいて、画像データからそのオブジェクトを表すと推測される画像領域(すなわち、候補領域22)を検出する技術には、既存の技術を利用することができる。例えば、候補領域22の検出には、対象オブジェクトを表すと推定される画像領域を画像データから検出するように予め学習させた検出器を利用することができる。検出器のモデルには、ニューラルネットワーク(例えば、畳み込みニューラルネットワーク)や SVM(サポートベクトルマシン)などの任意のモデルを採用できる。
推定位置検出部2040は、撮像画像20から人物領域26を検出する(S106)。ここで、画像データから人物を表す画像領域を検出する技術には、既存の技術を利用することができる。例えば、画像データから人物を表す画像領域を検出するように予め学習させた検出器を利用することができる。この検出器のモデルにも、例えば、ニューラルネットワークなどの任意のモデルを利用できる。
推定位置検出部2040は、人物領域26に基づいて推定位置24を検出する。前述した様に、推定位置24は、撮像画像20において対象オブジェクトが存在すると推定される位置である。推定位置24は、撮像画像20上の一点で表されてもよいし、画像領域で表されてもよい。
推定位置検出部2040は、推定位置24の検出を行う画像領域を、候補領域22を利用いて限定してもよい。すなわち、撮像画像20全体からではなく、候補領域22に基づいて限定される一部の画像領域から推定位置24の検出を行う。こうすることで、推定位置24の検出に要する時間や計算機資源を削減することができる。
特定部2060は、候補領域22と推定位置24とに基づいて、オブジェクト領域30を特定する。概念的には、特定部2060は、推定位置24を用いて、対象オブジェクトを含むと推測される画像領域である候補領域22の中から、対象オブジェクトを含む蓋然性が特に高いものを特定し、特定した候補領域22をオブジェクト領域30として特定する。ただし後述するように、オブジェクト領域30は、いずれか1つの候補領域22と完全に一致する必要はなく、候補領域22の一部の画像領域であってもよい。
特定部2060は、推定位置24を含む候補領域22を、オブジェクト領域30として特定する。図5は、推定位置24を含む候補領域22を例示する図である。図5では、撮像画像20から、候補領域22が複数検出されている。また、推定位置24が1つ検出されている。ここで、推定位置24は候補領域22-1に含まれている。そこで特定部2060は、候補領域22-1をオブジェクト領域30として特定する。
ここでは、推定位置24が複数算出されることを前提とする。そして特定部2060は、各候補領域22について、推定位置24を含む度合いを表すスコア(以下、第1スコア)を算出する。特定部2060は、第1スコアに基づいてオブジェクト領域30を特定する。
ここでは、候補領域検出部2020が、各候補領域22について、その候補領域22が対象オブジェクトを表す確率を算出するとする。また、特定部2060は、各候補領域22について、前述した第1スコアを算出するとする。特定部2060は、候補領域22が対象オブジェクトを表す確率と、第1スコアとの積として、第2スコアを算出する。そして特定部2060は、第2スコアに基づいてオブジェクト領域30を特定する。
特定部2060は、候補領域22の代表点と推定位置24との間の距離に基づく第3スコアを算出し、算出した第3スコアに基づいてオブジェクト領域30を特定する。第3スコアに基づいてオブジェクト領域30を特定する方法は様々である。例えば特定部2060は、最も小さい第3スコアが算出された候補領域22を、オブジェクト領域30として特定する。その他にも例えば、特定部2060は、所定値以下の第3スコアが算出された候補領域22を、オブジェクト領域30として特定する。
情報処理装置2000は、オブジェクト領域30を特定する情報(以下、出力情報)を出力する。出力情報を出力する方法は様々である。例えば情報処理装置2000は、出力情報を任意の記憶装置に記憶させる。その他にも例えば、情報処理装置2000は、出力情報をディスプレイ装置に記憶させる。
図8は、実施形態2の情報処理装置2000の機能構成を例示するブロック図である。以下で説明する点を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様の機能を有する。
実施形態の情報処理装置2000によれば、種類情報によって示されている種類のオブジェクトについて、オブジェクト領域30が特定される。こうすることで、複数の種類のオブジェクトのうち、指定されたオブジェクトを撮像画像20から検出するように、情報処理装置2000を設定できる。そのため、複数の種類のオブジェクトそれぞれを撮像画像20から検出したり、その時々で検出するオブジェクトの種類を変更したりすることができる。そのため、情報処理装置2000の利便性が向上する。
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
図9は、実施形態2の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。種類情報取得部2080は、種類情報を取得する(S202)。情報処理装置2000は撮像画像20を取得する(S204)。候補領域検出部2020は、種類情報に示される種類のオブジェクトについて、候補領域22を検出する(S206)。推定位置検出部2040は人物領域26を検出する(S208)。推定位置検出部2040は、人物領域26に基づき、種類情報に示される種類のオブジェクトについて、推定位置24を検出する(S210)。特定部2060は、検出された候補領域22及び推定位置24に基づいて、オブジェクト領域30を特定する。
Claims (10)
- 検出対象である対象オブジェクトの画像特徴に基づいて、撮像画像から、前記対象オブジェクトを表すと推定される画像領域である候補領域を1つ以上検出する候補領域検出部と、
前記撮像画像から人物を表す人物領域を検出し、前記人物領域に基づいて、前記撮像画像における前記対象オブジェクトの推定位置を検出する推定位置検出部と、
前記1つ以上の候補領域と前記推定位置に基づいて、前記1つ以上の候補領域の中から、前記対象オブジェクトを表す画像領域であるオブジェクト領域を特定する特定部と、を有する情報処理装置。 - 前記推定位置検出部は、人物領域が入力されたことに応じて前記対象オブジェクトの推定位置を出力するように学習された検出器を用いて、前記撮像画像から前記対象オブジェクトの推定位置を検出する、請求項1に記載の情報処理装置。
- 前記特定部は、前記1つ以上の候補領域のうち、前記推定位置を含む前記候補領域を、前記オブジェクト領域として特定する、請求項1又は2に記載の情報処理装置。
- 前記推定位置検出部は、前記対象オブジェクトの推定位置を複数検出し、
前記特定部は、各前記候補領域について、その候補領域が前記推定位置を含む度合いを表す第1スコアを算出し、前記第1スコアが最も大きい前記候補領域、又は前記第1スコアが所定値以上である候補領域を、前記オブジェクト領域として特定する、請求項1又は2に記載の情報処理装置。 - 前記候補領域検出部は、各候補領域について、その候補領域が前記対象オブジェクトを表す確率を算出し、
前記特定部は、各候補領域について、その候補領域が前記推定位置を含む度合いと、その候補領域が前記対象オブジェクトを表す確率との積に基づく第2スコアを算出し、前記第2スコアが最も大きい前記候補領域、又は前記第2スコアが所定値以上である候補領域を、前記オブジェクト領域として特定する、請求項1又は2に記載の情報処理装置。 - 前記特定部は、前記候補領域の代表点と前記推定位置との間の距離を算出し、前記算出した距離が所定値以下である前記候補領域を前記オブジェクト領域として特定する、請求項1又は2に記載の情報処理装置。
- 前記推定位置検出部は、前記対象オブジェクトが所定値以上の確率で存在する前記撮像画像上の位置を前記推定位置として算出する、請求項1乃至6いずれか一項に記載の情報処理装置。
- 前記推定位置検出部は、前記撮像画像のうち、前記候補領域を含む一部の画像領域から前記推定位置を検出する、請求項1乃至7いずれか一項に記載の情報処理装置。
- コンピュータによって実行される制御方法であって、
検出対象である対象オブジェクトの画像特徴に基づいて、撮像画像から、前記対象オブジェクトを表すと推定される画像領域である候補領域を1つ以上検出する候補領域検出ステップと、
前記撮像画像から人物を表す人物領域を検出し、前記人物領域に基づいて、前記撮像画像における前記対象オブジェクトの推定位置を検出する推定位置検出ステップと、
前記1つ以上の候補領域と前記推定位置に基づいて、前記1つ以上の候補領域の中から、前記対象オブジェクトを表す画像領域であるオブジェクト領域を特定する特定ステップと、を有する制御方法。 - 請求項9に記載の制御方法の各ステップをコンピュータに実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021197557A JP7331910B2 (ja) | 2018-04-26 | 2021-12-06 | 情報処理装置、情報処理方法、及びプログラム |
JP2023122331A JP7501747B2 (ja) | 2018-04-26 | 2023-07-27 | 情報処理装置、制御方法、及びプログラム |
JP2024084545A JP2024098114A (ja) | 2018-04-26 | 2024-05-24 | 情報処理装置、情報処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/017031 WO2019207721A1 (ja) | 2018-04-26 | 2018-04-26 | 情報処理装置、制御方法、及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021197557A Division JP7331910B2 (ja) | 2018-04-26 | 2021-12-06 | 情報処理装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019207721A1 JPWO2019207721A1 (ja) | 2021-04-01 |
JP6992881B2 true JP6992881B2 (ja) | 2022-01-13 |
Family
ID=68293889
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020515397A Active JP6992881B2 (ja) | 2018-04-26 | 2018-04-26 | 情報処理装置、制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (3) | US11610385B2 (ja) |
JP (1) | JP6992881B2 (ja) |
WO (1) | WO2019207721A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111814513B (zh) * | 2019-04-11 | 2024-02-13 | 富士通株式会社 | 行人物品检测装置及方法、电子设备 |
CN118075438B (zh) * | 2024-04-19 | 2024-06-21 | 北京电科智芯科技有限公司 | 视频显示方法及装置、控制器、视频显示系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016162414A (ja) | 2015-03-05 | 2016-09-05 | 株式会社日立製作所 | 画像処理装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4912206B2 (ja) | 2007-04-18 | 2012-04-11 | 富士通株式会社 | 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム |
JP5247337B2 (ja) | 2008-10-02 | 2013-07-24 | キヤノン株式会社 | 画像認識装置および画像認識方法 |
US8848970B2 (en) * | 2011-04-26 | 2014-09-30 | Digimarc Corporation | Salient point-based arrangements |
JP5774425B2 (ja) * | 2011-09-16 | 2015-09-09 | Kddi株式会社 | 画像解析装置および画像評価装置 |
US9111147B2 (en) * | 2011-11-14 | 2015-08-18 | Massachusetts Institute Of Technology | Assisted video surveillance of persons-of-interest |
US9177360B2 (en) * | 2012-09-11 | 2015-11-03 | Apple Inc. | Automatic image orientation and straightening through image analysis |
JP6185517B2 (ja) | 2015-06-30 | 2017-08-23 | セコム株式会社 | 画像監視装置 |
JP6649306B2 (ja) * | 2017-03-03 | 2020-02-19 | 株式会社東芝 | 情報処理装置、情報処理方法及びプログラム |
JP7229174B2 (ja) * | 2017-04-14 | 2023-02-27 | コーニンクレッカ フィリップス エヌ ヴェ | 人識別システム及び方法 |
WO2020102021A2 (en) * | 2018-11-13 | 2020-05-22 | Nvidia Corporation | Determining associations between objects and persons using machine learning models |
US20210375045A1 (en) * | 2020-05-29 | 2021-12-02 | Viettel Group | System and method for reconstructing a 3d human body under clothing |
-
2018
- 2018-04-26 WO PCT/JP2018/017031 patent/WO2019207721A1/ja active Application Filing
- 2018-04-26 US US17/048,235 patent/US11610385B2/en active Active
- 2018-04-26 JP JP2020515397A patent/JP6992881B2/ja active Active
-
2022
- 2022-09-21 US US17/949,376 patent/US11887331B2/en active Active
-
2023
- 2023-12-05 US US18/528,904 patent/US20240104769A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016162414A (ja) | 2015-03-05 | 2016-09-05 | 株式会社日立製作所 | 画像処理装置 |
Also Published As
Publication number | Publication date |
---|---|
US11610385B2 (en) | 2023-03-21 |
WO2019207721A1 (ja) | 2019-10-31 |
US11887331B2 (en) | 2024-01-30 |
US20210073564A1 (en) | 2021-03-11 |
US20230018589A1 (en) | 2023-01-19 |
JPWO2019207721A1 (ja) | 2021-04-01 |
US20240104769A1 (en) | 2024-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ibrahim et al. | Embedded system for eye blink detection using machine learning technique | |
JP6013241B2 (ja) | 人物認識装置、及び方法 | |
KR101612605B1 (ko) | 얼굴 특징점 추출 방법 및 이를 수행하는 장치 | |
US11887331B2 (en) | Information processing apparatus, control method, and non-transitory storage medium | |
US20210319585A1 (en) | Method and system for gaze estimation | |
JP2014093023A (ja) | 物体検出装置、物体検出方法及びプログラム | |
JP2024098114A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2018078857A1 (ja) | 視線推定装置、視線推定方法及びプログラム記録媒体 | |
WO2019033567A1 (zh) | 眼球动作捕捉方法、装置及存储介质 | |
WO2021250808A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
KR20150089370A (ko) | 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템 | |
WO2022009301A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6992900B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
CN106406507B (zh) | 图像处理方法以及电子设备 | |
JP7364077B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP7259921B2 (ja) | 情報処理装置、及び制御方法 | |
JP7435781B2 (ja) | 画像選択装置、画像選択方法、及びプログラム | |
Mohana et al. | Human action recognition using STIP evaluation techniques | |
WO2020241208A1 (ja) | 検索装置、制御方法、及びプログラム | |
US20230245342A1 (en) | Image selection apparatus, image selection method, and non-transitory computer-readable medium | |
CN112149598A (zh) | 一种侧脸评估方法、装置、电子设备及存储介质 | |
JP7302741B2 (ja) | 画像選択装置、画像選択方法、およびプログラム | |
WO2022249278A1 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP7103443B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2021250809A1 (ja) | 画像処理装置、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201008 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201008 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6992881 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |