JP6999734B2 - オーディオビジュアルデータに基づく話者ダイアライゼーション方法および装置 - Google Patents
オーディオビジュアルデータに基づく話者ダイアライゼーション方法および装置 Download PDFInfo
- Publication number
- JP6999734B2 JP6999734B2 JP2020071403A JP2020071403A JP6999734B2 JP 6999734 B2 JP6999734 B2 JP 6999734B2 JP 2020071403 A JP2020071403 A JP 2020071403A JP 2020071403 A JP2020071403 A JP 2020071403A JP 6999734 B2 JP6999734 B2 JP 6999734B2
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- voice
- correlation
- model
- speakers
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 73
- 230000015654 memory Effects 0.000 claims description 20
- 238000001914 filtration Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 15
- 238000012360 testing method Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 9
- 230000001815 facial effect Effects 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 230000002085 persistent effect Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000004927 fusion Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 229930091051 Arenine Natural products 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000000502 dialysis Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Analysis (AREA)
Description
510:プロセッサ
520:メモリ
530:永続的記録装置
540:バス
550:入力/出力インタフェース
560:ネットワークインタフェース
Claims (18)
- コンピュータシステムが実行する、複数の話者の映像データおよびオーディオデータを利用して話者を分離する方法であって、
前記映像データに含まれる前記話者それぞれの口の形状と、前記オーディオデータに含まれる前記話者からのスピーチセグメントそれぞれとの相関関係を計算する段階、
前記計算された相関関係に基づき、前記話者それぞれに対する話者モデルを構築する段階、および
前記構築された話者モデルに基づき、前記話者のうちで前記オーディオデータに含まれる音声を発話する話者を特定する段階
を含み、
前記話者モデルを構築する段階では、
前記話者の各話者に対し、前記スピーチセグメントのうち、前記各話者の口の形状との相関関係が高い上位N個のスピーチセグメントを前記各話者に対する話者モデルを構築するために使用し、
Nは自然数である、話者ダイアライゼーション方法。 - 前記各話者に対する話者モデルの構築には、前記N個のスピーチセグメントのうち、前記各話者の口の形状との相関関係が所定の閾値以上であるスピーチセグメントだけが使用される、
請求項1に記載の話者ダイアライゼーション方法。 - 前記オーディオデータに含まれる前記話者のうちの2人以上の発言が重なった音声は、前記重なった音声の発話時の前記話者の口の形状に基づいて前記重なった音声を発話した話者の発音を抽出し、前記抽出された発音に該当する前記オーディオデータの部分に対するマスクを生成して前記重なった音声をフィルタリングすることにより、前記重なった音声を発話した話者それぞれの音声に分離される、
請求項1に記載の話者ダイアライゼーション方法。 - 前記話者それぞれの口の形状は、前記映像データから前記話者それぞれの顔を認識し、前記認識された顔を追跡することによって識別される、
請求項1に記載の話者ダイアライゼーション方法。 - 前記話者を特定する段階は、
前記映像データから前記話者の各話者の顔を検出し、前記検出された顔を追跡し、前記各話者の口の形状と前記オーディオデータに含まれる発話された音声との相関関係を計算する段階、および
前記計算された相関関係と前記構築された話者モデルを使用し、前記発話された音声を発話した話者を特定する段階を含む、
請求項1に記載の話者ダイアライゼーション方法。 - 前記音声を発話した話者を特定する段階は、
前記映像データにおいて、前記話者のうち、特定の話者の顔または前記特定の話者の口が隠れることによって前記特定の話者と前記オーディオデータの前記発話された音声との相関関係が計算されない場合には、
前記特定の話者と前記発話された音声との相関関係は0と見なす、
請求項5に記載の話者ダイアライゼーション方法。 - 前記話者を特定する段階は、
前記オーディオデータに含まれる発話された音声を発話した話者の位置に関する情報を決定する段階、および
前記決定された話者の位置に関する情報と前記構築された話者モデルを利用して前記発話された音声を発話した話者を特定する段階を含む、
請求項1に記載の話者ダイアライゼーション方法。 - 前記音声を発話した話者の位置に関する情報は、前記発話された音声の方向に関する情報を含み、
前記方向に関する情報は、前記発話された音声と関連する方位角情報を含む、
請求項7に記載の話者ダイアライゼーション方法。 - 前記複数の話者のうち、前記映像データから顔は認識されるがまったく発話しないと認識される話者は無視される、
請求項1に記載の話者ダイアライゼーション方法。 - 前記話者モデルを構築する段階は、
前記複数の話者のうち、前記映像データから顔または口の形状が認識されないか前記話者モデルを構築するための口の形状とスピーチセグメントとの相関関係がまったく用意されないことによって前記話者モデルが構築されない特定の話者に対しては、
前記相関関係を計算する段階で計算された相関関係が所定の値未満であるスピーチセグメントに対応する埋め込みをクラスタリングすることにより、前記特定の話者に対する話者モデルを構築する、
請求項1に記載の話者ダイアライゼーション方法。 - 前記映像データおよびオーディオデータは、前記話者をリアルタイムで撮影した映像に含まれるデータである、
請求項1に記載の話者ダイアライゼーション方法。 - 前記オーディオデータから前記特定された話者が発話した音声を抽出する段階、
前記抽出された音声をテキストに変換する段階、および
前記変換されたテキストを前記抽出された音声が発話された時間情報と関連付けて記録する段階
をさらに含む、請求項1に記載の話者ダイアライゼーション方法。 - 請求項1~12のうちのいずれか一項に記載の話者ダイアライゼーション方法をコンピュータで実行させる、コンピュータプログラム。
- 請求項1~12のうちのいずれか一項に記載の話者ダイアライゼーション方法をコンピュータで実行させるためのプログラムが記録されている、コンピュータ読み取り可能記録媒体。
- 複数の話者の映像データおよびオーディオデータを利用して話者を分離するコンピュータシステムであって、
メモリ、および
前記メモリと連結され、前記メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成される少なくとも1つのプロセッサ
を含み、
前記少なくとも1つのプロセッサは、
前記映像データに含まれる前記話者それぞれの口の形状と、前記オーディオデータに含まれる前記話者からのスピーチセグメントそれぞれとの相関関係を計算し、前記計算された相関関係に基づき、前記話者それぞれに対する話者モデルを構築し、前記構築された話者モデルに基づき、前記オーディオデータから前記話者のうちで発話する話者を特定し、
前記話者モデルを構築するのは、前記話者の各話者に対し、前記スピーチセグメントのうち、前記各話者の口の形状との相関関係が高い上位N個のスピーチセグメントを前記各話者に対する話者モデルを構築するために使用し、
Nは自然数である、
コンピュータシステム。 - 前記少なくとも1つのプロセッサは、
前記映像データから前記話者の各話者の顔を検出し、前記検出された顔を追跡し、前記各話者の口の形状と前記オーディオデータに含まれる発話された音声との相関関係を計算し、前記計算された相関関係と前記構築された話者モデルを利用して前記発話された音声を発話した話者を特定する、
請求項15に記載のコンピュータシステム。 - 前記少なくとも1つのプロセッサは、
前記オーディオデータに含まれる発話された音声を発話した話者の位置に関する情報を決定し、前記決定された話者の位置に関する情報と前記構築された話者モデルを利用して前記発話された音声を発話した話者を特定する、
請求項15に記載のコンピュータシステム。 - 前記少なくとも1つのプロセッサは、
前記複数の話者のうち、前記映像データから顔または口の形状が認識されないか前記話者モデルを構築するための口の形状とスピーチセグメントとの相関関係がまったく用意されていないことによって前記話者モデルが構築されない特定の話者に対しては、前記相関関係を計算する段階で計算された相関関係が所定の値未満であるスピーチセグメントに対応する埋め込みをクラスタリングすることにより、前記特定の話者に対する話者モデルを構築する、
請求項15に記載のコンピュータシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2019-0055094 | 2019-05-10 | ||
KR1020190055094A KR102230667B1 (ko) | 2019-05-10 | 2019-05-10 | 오디오-비주얼 데이터에 기반한 화자 분리 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020187346A JP2020187346A (ja) | 2020-11-19 |
JP6999734B2 true JP6999734B2 (ja) | 2022-01-19 |
Family
ID=73221707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020071403A Active JP6999734B2 (ja) | 2019-05-10 | 2020-04-13 | オーディオビジュアルデータに基づく話者ダイアライゼーション方法および装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6999734B2 (ja) |
KR (1) | KR102230667B1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7000547B1 (ja) * | 2020-12-22 | 2022-01-19 | 株式会社オプティム | プログラム、方法、情報処理装置、システム |
JPWO2022168297A1 (ja) * | 2021-02-08 | 2022-08-11 | ||
KR102462219B1 (ko) * | 2021-06-15 | 2022-11-04 | (주)미소정보기술 | 화자 분리 기술을 이용한 회의록 자동 생성 방법 |
KR20230031491A (ko) * | 2021-08-27 | 2023-03-07 | 삼성전자주식회사 | 발화 대상을 구분하여 음성 처리하는 방법 및 장치 |
US20230169988A1 (en) * | 2021-11-30 | 2023-06-01 | Samsung Electronics Co., Ltd. | Method and apparatus for performing speaker diarization based on language identification |
US11900961B2 (en) | 2022-05-31 | 2024-02-13 | Microsoft Technology Licensing, Llc | Multichannel audio speech classification |
WO2024085605A1 (ko) * | 2022-10-17 | 2024-04-25 | 삼성전자 주식회사 | 동영상을 처리하기 위한 장치 및 이의 동작 방법 |
CN116312552B (zh) * | 2023-05-19 | 2023-08-15 | 湖北微模式科技发展有限公司 | 一种视频说话人日志方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040267521A1 (en) | 2003-06-25 | 2004-12-30 | Ross Cutler | System and method for audio/video speaker detection |
JP2005518031A (ja) | 2002-02-14 | 2005-06-16 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 映像音声マッチングを用いて人物を識別する方法及びシステム |
JP2007528031A (ja) | 2004-03-30 | 2007-10-04 | インテル・コーポレーション | 音声および映像ソースデータを分離および評価する技術 |
JP2012234150A (ja) | 2011-04-18 | 2012-11-29 | Sony Corp | 音信号処理装置、および音信号処理方法、並びにプログラム |
JP2015177490A (ja) | 2014-03-18 | 2015-10-05 | 株式会社リコー | 映像音声処理システム、情報処理装置、映像音声処理方法、及び映像音声処理プログラム |
JP2016029468A (ja) | 2014-07-16 | 2016-03-03 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 音声情報制御方法及び端末装置 |
US20180039990A1 (en) | 2016-08-05 | 2018-02-08 | Nok Nok Labs, Inc. | Authentication techniques including speech and/or lip movement analysis |
JP2018513991A (ja) | 2015-03-23 | 2018-05-31 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 音声を要約するための方法、コンピュータ・プログラムおよびコンピュータ・システム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4204541B2 (ja) * | 2004-12-24 | 2009-01-07 | 株式会社東芝 | 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム |
KR101041039B1 (ko) * | 2009-02-27 | 2011-06-14 | 고려대학교 산학협력단 | 오디오 및 비디오 정보를 이용한 시공간 음성 구간 검출 방법 및 장치 |
KR101884446B1 (ko) * | 2016-12-22 | 2018-08-30 | 상명대학교산학협력단 | 다자간 회의에서의 화자 인식 및 화자 추적 방법 |
-
2019
- 2019-05-10 KR KR1020190055094A patent/KR102230667B1/ko active IP Right Grant
-
2020
- 2020-04-13 JP JP2020071403A patent/JP6999734B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005518031A (ja) | 2002-02-14 | 2005-06-16 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 映像音声マッチングを用いて人物を識別する方法及びシステム |
US20040267521A1 (en) | 2003-06-25 | 2004-12-30 | Ross Cutler | System and method for audio/video speaker detection |
JP2007528031A (ja) | 2004-03-30 | 2007-10-04 | インテル・コーポレーション | 音声および映像ソースデータを分離および評価する技術 |
JP2012234150A (ja) | 2011-04-18 | 2012-11-29 | Sony Corp | 音信号処理装置、および音信号処理方法、並びにプログラム |
JP2015177490A (ja) | 2014-03-18 | 2015-10-05 | 株式会社リコー | 映像音声処理システム、情報処理装置、映像音声処理方法、及び映像音声処理プログラム |
JP2016029468A (ja) | 2014-07-16 | 2016-03-03 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 音声情報制御方法及び端末装置 |
JP2018513991A (ja) | 2015-03-23 | 2018-05-31 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 音声を要約するための方法、コンピュータ・プログラムおよびコンピュータ・システム |
US20180039990A1 (en) | 2016-08-05 | 2018-02-08 | Nok Nok Labs, Inc. | Authentication techniques including speech and/or lip movement analysis |
Non-Patent Citations (1)
Title |
---|
熊谷章吾,"口唇動作と音声の共起に着目した被写体と話者の不一致検出",情報処理学会研究報告,2011年06月15日 |
Also Published As
Publication number | Publication date |
---|---|
KR20200129934A (ko) | 2020-11-18 |
KR102230667B1 (ko) | 2021-03-22 |
JP2020187346A (ja) | 2020-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6999734B2 (ja) | オーディオビジュアルデータに基づく話者ダイアライゼーション方法および装置 | |
US10743107B1 (en) | Synchronization of audio signals from distributed devices | |
US11023690B2 (en) | Customized output to optimize for user preference in a distributed system | |
Yoshioka et al. | Advances in online audio-visual meeting transcription | |
EP3963576B1 (en) | Speaker attributed transcript generation | |
US11138980B2 (en) | Processing overlapping speech from distributed devices | |
US11875796B2 (en) | Audio-visual diarization to identify meeting attendees | |
US10812921B1 (en) | Audio stream processing for distributed device meeting | |
CN112088402A (zh) | 用于说话者识别的联合神经网络 | |
Chung et al. | Who said that?: Audio-visual speaker diarisation of real-world meetings | |
KR101508092B1 (ko) | 화상 회의를 지원하는 방법 및 시스템 | |
WO2021017096A1 (zh) | 一种将人脸信息录入数据库的方法和装置 | |
Wang et al. | The multimodal information based speech processing (misp) 2022 challenge: Audio-visual diarization and recognition | |
WO2020222931A1 (en) | Distributed device meeting initiation | |
Cabañas-Molero et al. | Multimodal speaker diarization for meetings using volume-evaluated SRP-PHAT and video analysis | |
Motlicek et al. | Real-time audio-visual analysis for multiperson videoconferencing | |
Korchagin et al. | Just-in-time multimodal association and fusion from home entertainment | |
Shivappa | Audio Visual Information Fusion for Human Activity Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200414 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20210414 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20210412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210623 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6999734 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |