JP2023524411A - ビジュアルオーディオ処理用動的ビジョンセンサ - Google Patents
ビジュアルオーディオ処理用動的ビジョンセンサ Download PDFInfo
- Publication number
- JP2023524411A JP2023524411A JP2022564808A JP2022564808A JP2023524411A JP 2023524411 A JP2023524411 A JP 2023524411A JP 2022564808 A JP2022564808 A JP 2022564808A JP 2022564808 A JP2022564808 A JP 2022564808A JP 2023524411 A JP2023524411 A JP 2023524411A
- Authority
- JP
- Japan
- Prior art keywords
- person
- eds
- camera unit
- microphone
- signals
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 claims description 23
- 238000000034 method Methods 0.000 claims description 20
- 230000008451 emotion Effects 0.000 claims description 16
- 210000001747 pupil Anatomy 0.000 claims description 7
- 230000000306 recurrent effect Effects 0.000 claims description 4
- 238000005286 illumination Methods 0.000 claims description 2
- 230000001815 facial effect Effects 0.000 abstract description 7
- 238000004891 communication Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 7
- 210000004027 cell Anatomy 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008909 emotion recognition Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 238000005094 computer simulation Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000001931 thermography Methods 0.000 description 2
- 241001607510 Daphne virus S Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- User Interface Of Digital Computer (AREA)
- Ophthalmology & Optometry (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
Claims (20)
- 顔の赤緑青(RGB)画像を生成するように構成された少なくとも1つのカメラユニットと、
前記顔の照度の変化を表す信号を出力するように構成された少なくとも1つのイベント駆動型センサ(EDS)と、
発話を表す信号を出力するように構成された少なくとも1つのマイクロフォンと、
少なくとも1つのプロセッサであって、
前記カメラユニット、前記EDS、及び前記マイクロフォンから信号を受信することと、
少なくとも1つのニューラルネットワークを実行して、前記カメラユニット、前記EDS、及び前記マイクロフォンからの前記信号に基づいて、感情予測、前記顔の少なくとも一部分の追跡のうちの少なくとも1つを生成することと、
を行うための実行可能命令で構成される、前記少なくとも1つのプロセッサと、
を備えるアセンブリ。 - 前記カメラユニットは、赤外線(IR)画像を生成するように構成される、請求項1に記載のアセンブリ。
- 前記カメラユニット、前記プロセッサ、及び前記EDSは、単一チップ上に配置される、請求項1に記載のアセンブリ。
- 前記命令は、
前記少なくとも1つのニューラルネットワークを実行して、前記カメラユニット、前記EDS、及び前記マイクロフォンからの前記信号に基づいて、感情予測を生成するように実行可能である、請求項1に記載のアセンブリ。 - 前記命令は、
前記少なくとも1つのニューラルネットワークを実行して、前記カメラユニット、前記EDS、及び前記マイクロフォンからの前記信号に基づいて、前記顔の少なくとも一部分の追跡を生成するように実行可能である、請求項1に記載のアセンブリ。 - 前記一部分は、少なくとも一つの目の瞳孔を含む、請求項5に記載のアセンブリ。
- 前記一部分は、口角を含む、請求項5に記載のアセンブリ。
- 前記一部分は、歯を含む口の内部を含む、請求項5に記載のアセンブリ。
- 人の赤緑青(RGB)画像及び/または赤外線(IR)画像を生成するように構成された少なくとも1つのカメラユニットと、
少なくとも1つのマイクロフォンと、
前記人を表す信号を出力するように構成された少なくとも1つのイベント駆動型センサ(EDS)と、
少なくとも1つのプロセッサであって、
短時間フーリエ変換(STFT)を使用して前記マイクロフォンの出力を処理することと、
少なくとも1つのオーディオ処理畳み込みニューラルネットワーク(CNN)を使用して前記STFTの出力を処理することと、
少なくとも1つのビジュアル処理CNNを使用して、前記カメラユニットからの画像の少なくとも特徴を処理することと、
少なくとも1つのイベント処理CNNを使用して、前記EDSからの出力信号の表現を処理することと、
全結合型ニューラルネットワーク層における前記CNNの出力を融合して、
前記人の感情の予測と、
前記人の顔の少なくとも一部分の追跡と、
前記人の少なくとも1つの仮想現実(VR)画像と、
前記人の識別と、
のうちの1つ以上を生成することと、
を行うための命令でプログラムされる、前記少なくとも1つのプロセッサと、
を備えるシステム。 - 前記プロセッサは、
再帰型ニューラルネットワーク(RNN)を使用して前記CNNの出力を処理することと、
前記人の口の追跡を生成するために、前記全結合型ニューラルネットワーク層を使用して前記RNNの出力を処理することと、
を行うための命令で構成される、請求項9に記載のシステム。 - 前記プロセッサは、
前記人の感情の予測を生成するための命令で構成される、請求項9に記載のシステム。 - 前記プロセッサは、
前記人の前記顔の少なくとも一部分の追跡を生成するための命令で構成される、請求項9に記載のシステム。 - 前記プロセッサは、
前記人の少なくとも1つの仮想現実(VR)画像を生成するための命令で構成される、請求項9に記載のシステム。 - 前記プロセッサは、
前記人の識別を生成するための命令で構成される、請求項9に記載のシステム。 - 少なくとも1つのカメラユニットから信号を受信することと、
少なくとも1つのイベント駆動型センサ(EDS)から信号を受信することと、
少なくとも1つのマイクロフォンから信号を受信することと、
少なくとも1つのニューラルネットワークを実行して、前記カメラユニット、前記EDS、及び前記マイクロフォンからの前記信号に基づいて、感情予測、顔の少なくとも一部分の追跡、人の識別、前記人の仮想現実(VR)画像の生成、のうちの少なくとも1つを生成することと、
を含む方法。 - 少なくとも1つのニューラルネットワークを実行して、前記カメラユニット、前記EDS、及び前記マイクロフォンからの前記信号に基づいて、感情予測を生成することを含む、請求項15に記載の方法。
- 少なくとも1つのニューラルネットワークを実行して、前記カメラユニット、前記EDS、及び前記マイクロフォンからの前記信号に基づいて、前記顔の少なくとも一部分の追跡を生成することを含む、請求項15に記載の方法。
- 少なくとも1つのニューラルネットワークを実行して、前記カメラユニット、前記EDS、及び前記マイクロフォンからの前記信号に基づいて、人の識別を生成することを含む、請求項15に記載の方法。
- 少なくとも1つのニューラルネットワークを実行して、前記カメラユニット、前記EDS、及び前記マイクロフォンからの前記信号に基づいて、前記人の仮想現実(VR)画像の生成を生成することを含む、請求項15に記載の方法。
- 前記顔の前記一部分は、口角及び口の内部である、請求項17に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/871,901 US11475618B2 (en) | 2020-05-11 | 2020-05-11 | Dynamic vision sensor for visual audio processing |
US16/871,901 | 2020-05-11 | ||
PCT/US2021/028446 WO2021231053A1 (en) | 2020-05-11 | 2021-04-21 | Dynamic vision sensor for visual audio processing |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023524411A true JP2023524411A (ja) | 2023-06-12 |
Family
ID=78412960
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022564808A Pending JP2023524411A (ja) | 2020-05-11 | 2021-04-21 | ビジュアルオーディオ処理用動的ビジョンセンサ |
Country Status (5)
Country | Link |
---|---|
US (2) | US11475618B2 (ja) |
EP (1) | EP4150521A4 (ja) |
JP (1) | JP2023524411A (ja) |
CN (1) | CN115485748A (ja) |
WO (1) | WO2021231053A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2957419A1 (es) * | 2022-06-03 | 2024-01-18 | Neurologyca Science & Marketing Sl | Sistema y método de detección en tiempo real de estados emocionales mediante visión artificial y escucha del lenguaje natural |
US11995226B2 (en) * | 2022-06-10 | 2024-05-28 | Sony Interactive Entertainment Inc. | Dynamic vision sensor tracking based on light source occlusion |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11017250B2 (en) | 2010-06-07 | 2021-05-25 | Affectiva, Inc. | Vehicle manipulation using convolutional image processing |
US9600443B2 (en) * | 2012-01-30 | 2017-03-21 | International Business Machines Corporation | Tracking entities by means of hash values |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9558062B2 (en) | 2014-07-28 | 2017-01-31 | Qualcomm Incorporated | Cyclic redundancy check (CRC) false detection reduction in communication systems |
DE102016110902A1 (de) | 2015-06-14 | 2016-12-15 | Facense Ltd. | Head-Mounted-Devices zur Erfassung thermischer Messwerte |
KR20170052976A (ko) * | 2015-11-05 | 2017-05-15 | 삼성전자주식회사 | 모션을 수행하는 전자 장치 및 그 제어 방법 |
US10046229B2 (en) | 2016-05-02 | 2018-08-14 | Bao Tran | Smart device |
CN112534816B (zh) * | 2018-08-14 | 2024-04-26 | 华为技术有限公司 | 用于视频图像编码的编码参数的基于事件自适应 |
KR20200093090A (ko) * | 2019-01-07 | 2020-08-05 | 현대자동차주식회사 | 차량 및 그 제어방법 |
US11501532B2 (en) * | 2019-04-25 | 2022-11-15 | International Business Machines Corporation | Audiovisual source separation and localization using generative adversarial networks |
US11200881B2 (en) * | 2019-07-26 | 2021-12-14 | International Business Machines Corporation | Automatic translation using deep learning |
-
2020
- 2020-05-11 US US16/871,901 patent/US11475618B2/en active Active
-
2021
- 2021-04-21 CN CN202180031295.7A patent/CN115485748A/zh active Pending
- 2021-04-21 WO PCT/US2021/028446 patent/WO2021231053A1/en unknown
- 2021-04-21 JP JP2022564808A patent/JP2023524411A/ja active Pending
- 2021-04-21 EP EP21805044.1A patent/EP4150521A4/en active Pending
-
2022
- 2022-10-14 US US18/046,902 patent/US11967087B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11967087B2 (en) | 2024-04-23 |
WO2021231053A1 (en) | 2021-11-18 |
EP4150521A1 (en) | 2023-03-22 |
US20210350602A1 (en) | 2021-11-11 |
EP4150521A4 (en) | 2024-05-01 |
US20230068416A1 (en) | 2023-03-02 |
CN115485748A (zh) | 2022-12-16 |
US11475618B2 (en) | 2022-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11281709B2 (en) | System and method for converting image data into a natural language description | |
US11967087B2 (en) | Dynamic vision sensor for visual audio processing | |
US11640519B2 (en) | Systems and methods for domain adaptation in neural networks using cross-domain batch normalization | |
US20200134424A1 (en) | Systems and methods for domain adaptation in neural networks using domain classifier | |
JPWO2018155026A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN113574525A (zh) | 媒体内容推荐方法及设备 | |
CN111699529A (zh) | 用于社交虚拟现实(vr)的面部动画 | |
JP7356596B2 (ja) | 仮想及び拡張現実hmdシステムにおける高速予測追跡及びレイテンシ補償のための光強度ベースのcmos及びイベント検出センサの組み合わせ | |
US20240168548A1 (en) | Dynamic content presentation for extended reality systems | |
US11756251B2 (en) | Facial animation control by automatic generation of facial action units using text and speech | |
JP6969577B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20200402253A1 (en) | Head pose estimation | |
US11798204B2 (en) | Systems and methods of image processing based on gaze detection | |
CN113849142B (zh) | 图像展示方法、装置、电子设备及计算机可读存储介质 | |
EP4329320A1 (en) | Method and apparatus for video playback | |
US20230410378A1 (en) | Systems and methods for user persona management in applications with virtual content | |
TW202414341A (zh) | 自動成像域轉移的系統和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221025 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240326 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240510 |