JP7334536B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7334536B2 JP7334536B2 JP2019152122A JP2019152122A JP7334536B2 JP 7334536 B2 JP7334536 B2 JP 7334536B2 JP 2019152122 A JP2019152122 A JP 2019152122A JP 2019152122 A JP2019152122 A JP 2019152122A JP 7334536 B2 JP7334536 B2 JP 7334536B2
- Authority
- JP
- Japan
- Prior art keywords
- processing
- subject
- information
- unit
- subjects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
2.第1の実施の形態に係る撮影システムの構成
2-1.制御装置の第1の構成例と動作
2-2.制御装置の第2の構成例と動作
2-3.制御装置の第3の構成例と動作
3.第2の実施の形態に係る撮影システムの構成
3-1.制御装置の第1の構成例と動作
3-2.制御装置の第2の構成例と動作
3-3.変形例
4.コンピュータの構成例
近年、大学などの学校における講義の様子を収録し、遠隔地での講義の聴講を実現するレクチャーキャプチャーシステムが提供されている。レクチャーキャプチャーシステムにおいては、講師と聴講者を撮影し、講師の追尾や聴講者の動作の検出を行うことで、講師と聴講者の動画像をスイッチングしたり、両者の動画像を一つの動画像に合成して出力することが行われる。
図3は、本開示の第1の実施の形態に係る撮影システムの構成例を示す図である。
(制御装置の構成例)
図4は、制御装置2の機能構成例を示すブロック図である。
次に、図5のフローチャートを参照して、図4の制御装置2による聴講者の顔領域のマスキング処理の例について説明する。
(制御装置の構成例)
図9は、制御装置2の他の機能構成例を示すブロック図である。
次に、図11のフローチャートを参照して、図9の制御装置2による聴講者の顔領域のマスキング処理の例について説明する。
(制御装置の構成例)
図12は、制御装置2のさらに他の機能構成例を示すブロック図である。
次に、図13のフローチャートを参照して、図12の制御装置2による聴講者の顔領域のマスキング処理の例について説明する。
次に、図14のフローチャートを参照して、図12の制御装置2による聴講者のマスキング処理の他の例について説明する。
図15は、本開示の第2の実施の形態に係る撮影システムの構成例を示す図である。
(制御装置の構成例)
図16は、図15の制御装置2の機能構成例を示すブロック図である。
次に、図17のフローチャートを参照して、図16の制御装置2による聴講者の音声のマスキング処理の例について説明する。
(制御装置の構成例)
図19は、図15の制御装置2の他の機能構成例を示すブロック図である。
次に、図21のフローチャートを参照して、図19の制御装置2による聴講者の音声のマスキング処理の例について説明する。
以上においては、複数のマイク101から入力される音声に対して選択的にリアルタイムにマスキング処理が施されるものとした。しかしながら、上述した処理では、複数のマイク101から入力される音声が入った状態で記録された動画像に対して、所望の音声にマスキング処理を施すことはできない
本開示の第2の実施の形態に係る撮影システムは、図23に示されるような構成を採ることもできる。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
(1)
動画像を構成するフレーム内の複数の被写体それぞれに対応する複数の被写体領域と、前記フレーム内の特定領域との位置関係に基づいて、前記複数の被写体から、所定の画像処理を施さない非処理対象として非処理対象被写体を特定する制御部と、
前記複数の被写体のうち、前記非処理対象被写体以外の処理対象被写体に対応する処理対象領域に対して、前記所定の画像処理を施す画像処理部と
を備える情報処理装置。
(2)
前記複数の被写体のうち、所定の被写体を追尾対象被写体とした追尾を制御する追尾部をさらに備え、
前記制御部は、前記非処理対象被写体を前記追尾対象被写体として特定する
(1)に記載の情報処理装置。
(3)
前記制御部は、前記フレーム内において前記追尾対象被写体に対応する追尾領域を設定し、前記追尾領域と前記複数の被写体領域との関係に基づいて、前記処理対象被写体を特定する
(2)に記載の情報処理装置。
(4)
前記複数の被写体領域は、前記複数の被写体それぞれに対応する顔領域である
(3)に記載の情報処理装置。
(5)
前記位置関係は、前記被写体領域が前記特定領域内に位置するか否かを表し、
前記制御部は、前記位置関係に基づいて、前記特定領域内に位置する前記被写体領域に対応する前記被写体を、前記非処理対象被写体として特定する
(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記制御部は、所定時間以上、前記特定領域内に位置する前記被写体領域に対応する前記被写体を、前記非処理対象被写体として特定する
(5)に記載の情報処理装置。
(7)
前記制御部は、前記被写体の姿勢情報の履歴に基づいて、前記非処理対象被写体を特定する
(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記制御部は、前記動画像を構成するフレーム単位の前記姿勢情報に基づいて、前記非処理対象被写体を特定する
(7)に記載の情報処理装置。
(9)
前記制御部は、複数の所定数のフレーム単位毎における前記姿勢情報に基づいて、前記非処理対象被写体を特定する
(8)に記載の情報処理装置。
(10)
前記姿勢情報は、前記被写体が立っている状態であることを示す立位情報と、前記被写体が座っている状態であることを示す座位情報を少なくとも含む
(7)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記画像処理部は、前記処理対象被写体の顔領域に対して、前記所定の画像処理を施す
(1)乃至(10)のいずれかに記載の情報処理装置。
(12)
前記画像処理部は、前記所定の画像処理としてマスキング処理を施す
(11)に記載の情報処理装置。
(13)
前記制御部は、所定のタイミングにおいて、前記非処理対象被写体の特定を制御する
(1)乃至(12)のいずれかに記載の情報処理装置。
(14)
前記所定のタイミングは、講義の開始を示す講義開始情報に対応するタイミングである
(13)に記載の情報処理装置。
(15)
前記講義開始情報は、前記動画像、または、前記動画像に対応する音声情報に基づいて特定される
(14)に記載の情報処理装置。
(16)
前記処理対象被写体の発話音声に対応する音声に対して、所定の音声処理を施す音声処理部をさらに備える
(1)乃至(15)のいずれかに記載の情報処理装置。
(17)
前記制御部は、複数の音声入力部のうち、前記非処理対象被写体と所定の位置関係にある前記音声入力部を、前記所定の音声処理を施さない非処理対象音声入力部として特定し、
前記音声処理部は、前記所定の音声処理として、前記非処理対象音声入力部以外の前記音声入力部から入力された音声の出力を抑制する
(16)に記載の情報処理装置。
(18)
情報処理装置が、
動画像を構成するフレーム内の複数の被写体それぞれに対応する複数の被写体領域と、前記フレーム内の特定領域との位置関係に基づいて、前記複数の被写体から、所定の画像処理を施さない非処理対象として非処理対象被写体を特定し、
前記複数の被写体のうち、前記非処理対象被写体以外の処理対象被写体に対応する処理対象領域に対して、前記所定の画像処理を施す
情報処理方法。
(19)
コンピュータに、
動画像を構成するフレーム内の複数の被写体それぞれに対応する複数の被写体領域と、前記フレーム内の特定領域との位置関係に基づいて、前記複数の被写体から、所定の画像処理を施さない非処理対象として非処理対象被写体に特定し、
前記複数の被写体のうち、前記非処理対象被写体以外の処理対象被写体に対応する処理対象領域に対して、前記所定の画像処理を施す
処理を実行させるためのプログラム。
(20)
動画像を構成するフレーム内の複数の被写体それぞれに対応する姿勢情報の履歴に基づいて、前記複数の被写体から、所定の画像処理を施さない非処理対象として非処理対象被写体を特定する制御部と、
前記複数の被写体のうち、前記非処理対象被写体以外の処理対象被写体に対応する処理対象領域に対して、前記所定の画像処理を施す画像処理部と
を備える情報処理装置。
Claims (17)
- 動画像を構成するフレーム内の複数の被写体それぞれに対応する複数の被写体領域と、前記フレーム内の特定領域との位置関係、および、前記被写体の姿勢情報の履歴に基づいて、前記複数の被写体から、所定の画像処理を施さない非処理対象として非処理対象被写体を特定する制御部と、
前記複数の被写体のうち、前記非処理対象被写体以外の処理対象被写体に対応する処理対象領域に対して、前記所定の画像処理を施す画像処理部と
を備える情報処理装置。 - 前記複数の被写体のうち、所定の被写体を追尾対象被写体とした追尾を制御する追尾部をさらに備え、
前記制御部は、前記追尾対象被写体を前記非処理対象被写体として特定する
請求項1に記載の情報処理装置。 - 前記制御部は、前記フレーム内において前記追尾対象被写体に対応する追尾領域を設定し、前記追尾領域と前記複数の被写体領域との関係に基づいて、前記処理対象被写体を特定する
請求項2に記載の情報処理装置。 - 前記複数の被写体領域は、前記複数の被写体それぞれに対応する顔領域である
請求項3に記載の情報処理装置。 - 前記位置関係は、前記被写体領域が前記特定領域内に位置するか否かを表し、
前記制御部は、前記位置関係に基づいて、前記特定領域内に位置する前記被写体領域に対応する前記被写体を、前記非処理対象被写体として特定する
請求項1に記載の情報処理装置。 - 前記制御部は、所定時間以上、前記特定領域内に位置する前記被写体領域に対応する前記被写体を、前記非処理対象被写体として特定する
請求項5に記載の情報処理装置。 - 前記制御部は、前記動画像を構成するフレーム単位の前記姿勢情報に基づいて、前記非処理対象被写体を特定する
請求項1に記載の情報処理装置。 - 前記制御部は、複数の所定数のフレーム単位毎における前記姿勢情報に基づいて、前記非処理対象被写体を特定する
請求項7に記載の情報処理装置。 - 前記姿勢情報は、前記被写体が立っている状態であることを示す立位情報と、前記被写体が座っている状態であることを示す座位情報を少なくとも含む
請求項1に記載の情報処理装置。 - 前記画像処理部は、前記処理対象被写体の顔領域に対して、前記所定の画像処理を施す
請求項1に記載の情報処理装置。 - 前記画像処理部は、前記所定の画像処理としてマスキング処理を施す
請求項10に記載の情報処理装置。 - 動画像を構成するフレーム内の複数の被写体それぞれに対応する複数の被写体領域と、前記フレーム内の特定領域との位置関係に基づいて、前記複数の被写体から、所定の画像処理を施さない非処理対象として非処理対象被写体を特定する制御部と、
前記複数の被写体のうち、前記非処理対象被写体以外の処理対象被写体に対応する処理対象領域に対して、前記所定の画像処理を施す画像処理部と
を備え、
前記制御部は、講義の開始を示す講義開始情報に対応するタイミングにおいて、前記非処理対象被写体の特定を制御する
情報処理装置。 - 前記講義開始情報は、前記動画像、または、前記動画像に対応する音声情報に基づいて特定される
請求項12に記載の情報処理装置。 - 前記処理対象被写体の発話音声に対応する音声に対して、所定の音声処理を施す音声処理部をさらに備える
請求項1または12に記載の情報処理装置。 - 前記制御部は、複数の音声入力部のうち、前記非処理対象被写体と所定の位置関係にある前記音声入力部を、前記所定の音声処理を施さない非処理対象音声入力部として特定し、
前記音声処理部は、前記所定の音声処理として、前記非処理対象音声入力部以外の前記音声入力部から入力された音声の出力を抑制する
請求項14に記載の情報処理装置。 - 情報処理装置が、
動画像を構成するフレーム内の複数の被写体それぞれに対応する複数の被写体領域と、前記フレーム内の特定領域との位置関係、および、前記被写体の姿勢情報の履歴に基づいて、前記複数の被写体から、所定の画像処理を施さない非処理対象として非処理対象被写体を特定し、
前記複数の被写体のうち、前記非処理対象被写体以外の処理対象被写体に対応する処理対象領域に対して、前記所定の画像処理を施す
情報処理方法。 - コンピュータに、
動画像を構成するフレーム内の複数の被写体それぞれに対応する複数の被写体領域と、
前記フレーム内の特定領域との位置関係、および、前記被写体の姿勢情報の履歴に基づいて、前記複数の被写体から、所定の画像処理を施さない非処理対象として非処理対象被写体に特定し、
前記複数の被写体のうち、前記非処理対象被写体以外の処理対象被写体に対応する処理対象領域に対して、前記所定の画像処理を施す
処理を実行させるためのプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019152122A JP7334536B2 (ja) | 2019-08-22 | 2019-08-22 | 情報処理装置、情報処理方法、およびプログラム |
CN202080057581.6A CN114270802A (zh) | 2019-08-22 | 2020-08-11 | 信息处理装置、信息处理方法和程序 |
EP20764796.7A EP3994613A1 (en) | 2019-08-22 | 2020-08-11 | Information processing apparatus, information processing method, and program |
US17/635,286 US20220327732A1 (en) | 2019-08-22 | 2020-08-11 | Information processing apparatus, information processing method, and program |
PCT/JP2020/030559 WO2021033592A1 (en) | 2019-08-22 | 2020-08-11 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019152122A JP7334536B2 (ja) | 2019-08-22 | 2019-08-22 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021033573A JP2021033573A (ja) | 2021-03-01 |
JP7334536B2 true JP7334536B2 (ja) | 2023-08-29 |
Family
ID=72292595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019152122A Active JP7334536B2 (ja) | 2019-08-22 | 2019-08-22 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220327732A1 (ja) |
EP (1) | EP3994613A1 (ja) |
JP (1) | JP7334536B2 (ja) |
CN (1) | CN114270802A (ja) |
WO (1) | WO2021033592A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2022185643A1 (ja) * | 2021-03-03 | 2022-09-09 | ||
WO2023243811A1 (ko) * | 2022-06-15 | 2023-12-21 | 삼성전자 주식회사 | 동영상 촬영 시, 이미지 내에 포스트 마스킹을 제공하는 전자 장치, 그 동작 방법 및 컴퓨터 판독가능 저장 매체 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050152579A1 (en) | 2003-11-18 | 2005-07-14 | Samsung Electronics Co., Ltd. | Person detecting apparatus and method and privacy protection system employing the same |
WO2012004907A1 (ja) | 2010-07-06 | 2012-01-12 | パナソニック株式会社 | 画像配信装置 |
JP2016150849A (ja) | 2015-02-19 | 2016-08-22 | パナソニックIpマネジメント株式会社 | 物品配送システム |
WO2017150103A1 (ja) | 2016-02-29 | 2017-09-08 | パナソニックIpマネジメント株式会社 | 音声処理装置、画像処理装置、マイクアレイシステム、及び音声処理方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4036051B2 (ja) | 2002-07-30 | 2008-01-23 | オムロン株式会社 | 顔照合装置および顔照合方法 |
JP2009284235A (ja) | 2008-05-22 | 2009-12-03 | Fujifilm Corp | 撮像装置 |
EP3454254B1 (en) * | 2017-09-07 | 2023-11-08 | Canon Kabushiki Kaisha | Image processing apparatus, image providing apparatus, control methods thereof, and program |
JP7084795B2 (ja) * | 2017-09-07 | 2022-06-15 | キヤノン株式会社 | 画像処理装置、画像提供装置、それらの制御方法及びプログラム |
JP2019152122A (ja) | 2018-03-01 | 2019-09-12 | トヨタ自動車株式会社 | 内燃機関システム |
-
2019
- 2019-08-22 JP JP2019152122A patent/JP7334536B2/ja active Active
-
2020
- 2020-08-11 US US17/635,286 patent/US20220327732A1/en active Pending
- 2020-08-11 CN CN202080057581.6A patent/CN114270802A/zh not_active Withdrawn
- 2020-08-11 WO PCT/JP2020/030559 patent/WO2021033592A1/en unknown
- 2020-08-11 EP EP20764796.7A patent/EP3994613A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050152579A1 (en) | 2003-11-18 | 2005-07-14 | Samsung Electronics Co., Ltd. | Person detecting apparatus and method and privacy protection system employing the same |
WO2012004907A1 (ja) | 2010-07-06 | 2012-01-12 | パナソニック株式会社 | 画像配信装置 |
JP2016150849A (ja) | 2015-02-19 | 2016-08-22 | パナソニックIpマネジメント株式会社 | 物品配送システム |
WO2017150103A1 (ja) | 2016-02-29 | 2017-09-08 | パナソニックIpマネジメント株式会社 | 音声処理装置、画像処理装置、マイクアレイシステム、及び音声処理方法 |
Non-Patent Citations (1)
Title |
---|
丸山大輔, 外2名,"講義ビデオにおける肖像権保護のための顔情報保護手法の提案",電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2010年06月12日,第110巻, 第85号,p.7-12 |
Also Published As
Publication number | Publication date |
---|---|
CN114270802A (zh) | 2022-04-01 |
US20220327732A1 (en) | 2022-10-13 |
JP2021033573A (ja) | 2021-03-01 |
EP3994613A1 (en) | 2022-05-11 |
WO2021033592A1 (en) | 2021-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3855731B1 (en) | Context based target framing in a teleconferencing environment | |
US9633270B1 (en) | Using speaker clustering to switch between different camera views in a video conference system | |
US11128793B2 (en) | Speaker tracking in auditoriums | |
US7907165B2 (en) | Speaker predicting apparatus, speaker predicting method, and program product for predicting speaker | |
WO2017215295A1 (zh) | 一种摄像机参数调整方法、导播摄像机及系统 | |
CN106961568B (zh) | 一种画面切换方法、装置和系统 | |
US20150146078A1 (en) | Shift camera focus based on speaker position | |
KR101508092B1 (ko) | 화상 회의를 지원하는 방법 및 시스템 | |
JP7334536B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN113052085A (zh) | 视频剪辑方法、装置、电子设备以及存储介质 | |
CN111551921A (zh) | 一种声像联动的声源定向系统及方法 | |
CN114513622A (zh) | 说话人检测方法、设备、存储介质及程序产品 | |
CN104780341B (zh) | 一种信息处理方法以及信息处理装置 | |
CN111222117A (zh) | 身份信息的识别方法及装置 | |
Arnaud et al. | The CAVA corpus: synchronised stereoscopic and binaural datasets with head movements | |
EP4075794A1 (en) | Region of interest based adjustment of camera parameters in a teleconferencing environment | |
JP2004248125A (ja) | 映像切り替え装置、映像切り替え方法、この方法のプログラムおよびこのプログラムを記録した記録媒体 | |
CN110730378A (zh) | 一种信息处理方法及系统 | |
CN115803772A (zh) | 用于检测和显示白板文本和/或活跃说话者的系统和方法 | |
WO2024062971A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
Al-Hames et al. | Automatic multi-modal meeting camera selection for video-conferences and meeting browsers | |
CN104539873A (zh) | 远程会议系统和进行远程会议的方法 | |
CN113099158B (zh) | 拍摄现场的拾音装置控制方法、装置、设备及存储介质 | |
US12014562B2 (en) | Method and system for automatic speaker framing in video applications | |
TW202301320A (zh) | 依觀看方向進行動作偵測以控制對應裝置之系統及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230704 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230731 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7334536 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |