JP2020102127A - 埋設物可視化システム - Google Patents

埋設物可視化システム Download PDF

Info

Publication number
JP2020102127A
JP2020102127A JP2018241310A JP2018241310A JP2020102127A JP 2020102127 A JP2020102127 A JP 2020102127A JP 2018241310 A JP2018241310 A JP 2018241310A JP 2018241310 A JP2018241310 A JP 2018241310A JP 2020102127 A JP2020102127 A JP 2020102127A
Authority
JP
Japan
Prior art keywords
image
buried object
environment map
embedded object
embedded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018241310A
Other languages
English (en)
Inventor
西村 晋一
Shinichi Nishimura
晋一 西村
浩 三木
Hiroshi Miki
浩 三木
新二 石田
Shinji Ishida
新二 石田
邦治 西原
Kuniharu Nishihara
邦治 西原
碧 清水
Midori Shimizu
碧 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimizu Construction Co Ltd
Shimizu Corp
Ryoyu Systems Co Ltd
Original Assignee
Shimizu Construction Co Ltd
Shimizu Corp
Ryoyu Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimizu Construction Co Ltd, Shimizu Corp, Ryoyu Systems Co Ltd filed Critical Shimizu Construction Co Ltd
Priority to JP2018241310A priority Critical patent/JP2020102127A/ja
Publication of JP2020102127A publication Critical patent/JP2020102127A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】都市部など高層建物が林立する条件下において、測位精度を良好に維持することのできる埋設物可視化システムを提供する。【解決手段】撮像手段16が撮像した複数の画像に基づいて、周囲の環境地図を作成する一方で、撮像手段16の移動前後に作成された環境地図の差異に基づいて、実空間における撮像手段16の移動後の位置および向きを推定する位置追跡手段22と、埋設物の3次元位置情報を記憶する記憶手段20と、位置追跡手段22が推定した位置および向きに基づいて、埋設物の3次元位置情報を記憶手段20から抽出するとともに、可視化表示用の画像を生成する画像生成手段24と、画像生成手段24が生成した画像と、撮像手段16が撮像した実空間の画像とを合成することにより、埋設物を可視化表示する表示手段14とを備えるようにする。【選択図】図1

Description

本発明は、例えば上下水道管やガス管などの地下埋設物を、タブレット端末などで可視化表示するようにした埋設物可視化システムに関するものである。
従来、上下水道管やガス管などの不可視の地下埋設物を、タブレット端末などで可視化表示(AR表示)するようにした埋設物可視化システムが知られている(例えば、特許文献1を参照)。AR表示(Augmented Reality 表示)とは、実在する風景に仮想的な視覚情報を重ねて表示することで、視界を仮想的に拡張するものである。上記の特許文献1の埋設物可視化システムは、GNSS(Global Navigation Satellite System)測位により自己位置および埋設物の位置をcmオーダーで取得し、タブレット端末のタッチパネルに、自己位置に対応する地図情報と埋設物情報とを重ね合わせ表示する。この埋設物可視化システムでは、GNSS測位に干渉測位方式であるRTK測位方式(Real Time Kinematic)を用いており、移動局であるタブレット端末のGNSS観測情報と、基地局のGNSS補正観測情報とに基づいて自己位置を算出することにより、高い測位精度を確保するようになっている。
一方、自己位置の推定と環境地図の作成を同時に実施するポジショントラッキングの方法として、例えばSLAM(Simultaneous Localisation and Mapping)の手法が知られている。単眼カメラを用いたSLAMの基本的な原理は、非特許文献1に記載されており、カメラの撮影する動画像の複数フレームから、同一の特徴点を追跡することで、自己位置を推定するとともに3次元地図を作成する。このような手法は、例えば特許文献2に示すような位置推定技術の他、自動運転走行する車や屋内の床掃除のために自律移動する床掃除ロボットなどに使われている。
特開2017−83423号公報 特表2016−528476号公報
Andrew J.Davison, "Real-Time Simultaneous Localization and Mapping with a Single Camera", Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410
ところで、GNSS測位で自己位置を取得する際に、高い測位精度を確保するためには、一定数(例えば8基程度)以上のGNSS衛星からの電波信号を直接受信する必要があるが、都市部など高層建物が林立する条件下では、以下の理由により測位誤差が大きくなり、測位精度が低下するおそれがあった。
(1)高層建物により電波が遮られて移動局であるタブレット端末に届かず、信号数が足りない。
(2)高層建物に電波が反射して届くマルチパス(反射波)による誤差が生じる(例えば、図6を参照)。
(3)建物に遮られず、マルチパスを生じにくい直上のGNSS衛星の数が不十分である。なお、準天頂衛星「みちびき」の衛星数が増え、7基体制になるのは2023年以降の見込みである。
こうしたことから、都市部など高層建物が林立する条件下において、測位精度を良好に維持することのできる技術が求められていた。
本発明は、上記に鑑みてなされたものであって、都市部など高層建物が林立する条件下において、測位精度を良好に維持することのできる埋設物可視化システムを提供することを目的とする。
上記した課題を解決し、目的を達成するために、本発明に係る埋設物可視化システムは、撮像された実空間の画像と、この実空間において埋設されている不可視の埋設物の3次元位置情報に基づいて生成される画像とを合成して埋設物を可視化表示する埋設物可視化システムであって、実空間を撮像してその画像を取得する撮像手段と、撮像手段が撮像した複数の画像に基づいて、周囲の環境地図を作成する一方で、撮像手段が移動する前に作成された環境地図と、撮像手段が移動した後に作成された環境地図との差異に基づいて、実空間における撮像手段の移動後の位置および向きを推定する位置追跡手段と、位置追跡手段が推定した位置および向きと、作成した環境地図を記憶するとともに、埋設物の3次元位置情報を記憶する記憶手段と、位置追跡手段が推定した位置および向きに基づいて、埋設物の3次元位置情報を記憶手段から抽出するとともに、可視化表示用の画像を生成する画像生成手段と、画像生成手段が生成した画像と、撮像手段が撮像した実空間の画像とを合成することにより、埋設物を可視化表示する表示手段とを備えることを特徴とする。
また、本発明に係る他の埋設物可視化システムは、上述した発明において、撮像手段および表示手段は、携帯型のタブレット端末に内蔵されていることを特徴とする。
本発明に係る埋設物可視化システムによれば、撮像された実空間の画像と、この実空間において埋設されている不可視の埋設物の3次元位置情報に基づいて生成される画像とを合成して埋設物を可視化表示する埋設物可視化システムであって、実空間を撮像してその画像を取得する撮像手段と、撮像手段が撮像した複数の画像に基づいて、周囲の環境地図を作成する一方で、撮像手段が移動する前に作成された環境地図と、撮像手段が移動した後に作成された環境地図との差異に基づいて、実空間における撮像手段の移動後の位置および向きを推定する位置追跡手段と、位置追跡手段が推定した位置および向きと、作成した環境地図を記憶するとともに、埋設物の3次元位置情報を記憶する記憶手段と、位置追跡手段が推定した位置および向きに基づいて、埋設物の3次元位置情報を記憶手段から抽出するとともに、可視化表示用の画像を生成する画像生成手段と、画像生成手段が生成した画像と、撮像手段が撮像した実空間の画像とを合成することにより、埋設物を可視化表示する表示手段とを備えるので、GNSS測位によらずに自己位置を高精度に測位することができる。このため、都市部など高層建物が林立する条件下において、測位精度を良好に維持できる埋設物可視化システムを提供することができるという効果を奏する。
また、本発明に係る他の埋設物可視化システムによれば、撮像手段および表示手段は、携帯型のタブレット端末に内蔵されているので、利用者はタブレット端末を持って現地に行き、撮像手段で現地を撮像することで、そこに埋設されている不可視の埋設物を表示手段に可視化表示することができるという効果を奏する。
図1は、本発明に係る埋設物可視化システムの実施の形態を示す概略構成図である。 図2は、本実施の形態の位置追跡手段の処理内容(ポジショントラッキング)の説明図である。 図3は、タブレット端末で初期位置を指定する操作イメージを示す図である。 図4は、ポジショントラッキング状況を示す図である。 図5は、撮像した実空間の画像に埋設物画像を重ね合わせ表示した画面の一例を示す図である。 図6は、高層建物に電波が反射して届くマルチパスの説明図である。
以下に、本発明に係る埋設物可視化システムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
本実施の形態に係る埋設物可視化システムは、撮像された実空間の画像と、この実空間において埋設されている不可視の埋設物の3次元位置情報に基づいて生成される画像とを合成して埋設物を可視化表示するシステムである。
図1に示すように、本実施の形態に係る埋設物可視化システム10は、携帯型のタブレット端末12によって構成されている。このタブレット端末12は、表面側に設けられたタッチパネル14(表示手段)と、背面側に設けられたカメラ16(撮像手段)と、内部に設けられたCPU18と、メモリ20(記憶手段)とを備えている。
CPU18は、メモリ20に格納されているプログラムを展開することにより、オペレーティングシステムとして機能するとともに、本発明の位置追跡手段22、画像生成手段24として機能する。また、CPU18は、タッチパネル14に入力された情報やカメラ16で撮像した画像をメモリ20に格納したり、タッチパネル14に表示させる内容を制御する制御手段26としても機能する。
カメラ16は、実空間を撮像してその画像を取得するための単眼のカメラであり、タブレット端末12の背面側に対して位置と向きが固定されている。
位置追跡手段22は、カメラ16が撮像した実空間の複数の画像に基づいて、周囲の環境地図を作成すると同時にカメラ16の位置と向きを推定する。この位置追跡手段22は、作成した環境地図と、推定した位置と向きに基づいてタブレット端末12の位置を追跡する。具体的には、位置追跡手段22は、タブレット端末12(カメラ16)が移動する前に作成した環境地図と、タブレット端末12(カメラ16)が移動した後に作成した環境地図との差異に基づいて、実空間におけるタブレット端末12の移動後の位置と向きを推定する。これにより、タブレット端末12の位置を追跡する。推定したタブレット端末12の位置および向きの情報、作成した環境地図の情報は、メモリ20に逐次記憶される。
この位置追跡手段22による位置追跡(ポジショントラッキング)の手法としては、例えば上記の非特許文献1に記載のSLAMの手法を適用することができる。SLAMの手法を適用したポジショントラッキングの概略手順については後述する。
メモリ20は、位置追跡手段22が推定した位置および向きの情報と、作成した環境地図の情報を記憶するとともに、あらかじめ準備された埋設物の3次元位置情報を記憶するものである。埋設物の3次元位置情報は、屋外での埋設物の3次元構造を例えばワールド座標などで表したものである。
画像生成手段24は、位置追跡手段22が推定した位置および向きに基づいて、埋設物の3次元位置情報をメモリ20から抽出するとともに、可視化表示用の埋設物の画像を生成するものである。より具体的には、タッチパネル14に可視化表示を実行する旨の操作ボタン等が入力されると、制御手段26が、現在のタブレット端末12の位置および向きの情報をメモリ20から抽出し、この位置および向きに対応する埋設物の3次元位置情報をメモリ20から抽出する。画像生成手段24は、制御手段26が抽出した情報に基づいて可視化表示用の埋設物の画像を生成する。
タッチパネル14は、画像生成手段24が生成した埋設物の画像と、抽出した位置および向きでカメラ16が撮像した実空間の画像とを重ね合わせ合成することにより、埋設物を可視化表示するものである。
次に、SLAMの手法を適用したポジショントラッキングの概略手順について説明する。
まず、カメラ16のキャリブレーションを行い、カメラの内部パラメータ(焦点距離、レンズの歪等)を取得しておくものとする。また、カメラ16の初期位置および向きは、実空間に設定したワールド座標系X,Y,Zで既知であるものとする。
図2(1)に示すように、3次元の環境地図Mの初期化を行っておく。そして、カメラ16で撮像される画像のキーフレームF1を設定し、特徴点P(例えば1000個)を検出する。続いて、2枚目のキーフレームF2を設定し、特徴点Pを検出するとともに、キーフレームF1、F2の画像間の対応点(特徴点)を見つけることで対応関係を探索する。
次に、図2(2)に示すように、環境地図M上に特徴点Qを登録・更新する(マッピング処理)。図2(3)に示すように、常に新しい特徴点Qを見つけ、環境地図M上に登録・更新していく。
次に、図2(4)に示すように、移動後のカメラ16で撮像される画像のキーフレームF3を設定する。登録済みの環境地図Mとの比較により、カメラ16の位置および向きを推定する(ローカライゼーションまたはトラッキング処理)。この場合、それぞれの特徴点Pについて三角関数を用いて移動計算し、その結果に基づいて、カメラ16の位置および向きを推定する。
次に、図2(5)に示すように、上記のマッピング処理とトラッキング処理を繰り返すことにより、常にカメラ16の位置および向きを推定する。このようにしてカメラ16(タブレット端末12)の位置を追跡することができる。
上記構成の動作および作用について説明する。
図3に示すように、まず、利用者はタブレット端末12のタッチパネル14に表示した平面図上で、自分の初期位置を指定する。なお、受信環境がよければタブレット端末12に内蔵の衛星測位機能(例えばGNSS測位機能)を用いて測位した初期位置を指定してもよい。この初期位置は、必要に応じて補正することが望ましい。
次に、図4に示すように、利用者はタブレット端末12に備わるカメラ16を起動して位置追跡手段22によるポジショントラッキングを開始する。
次に、所望の位置で埋設物を可視化表示する。この場合、利用者がタッチパネル14に可視化表示を実行する旨の操作ボタン等を入力する。すると、タブレット端末12の位置および向きに基づいて、埋設物の3次元位置情報が抽出され、この情報に基づいて可視化表示用の埋設物の画像が生成される。タッチパネル14には、埋設物の画像と、カメラ16が撮像した現場の画像とが重ね合わせ表示される。
図5は、タブレット端末12のタッチパネル14に表示された重ね合わせ表示と現場との関係を示している。この図に示したタブレット端末12では、道路の地下に埋設された不可視の埋設物の画像が、地下の対応する位置に表示されている。この場合における重ね合わせ表示は、埋設物の画像と現場の画像とを領域分離している。
このように、本実施の形態では、GNSS衛星による測位を使わずに、ポジショントラッキングの手法を用いて自己位置の把握、追跡を行う。GNSS測位を用いないので、ビルなどによる電波遮蔽の影響を受けない。このため、埋設物可視化のための周辺環境を選ばない。また、ポジショントラッキングの精度は高く(cmオーダー)、上記の従来のRTK測位方式によるGNSS測位を採用した埋設物可視化システムと比べても遜色がない。また、RTK測位方式では必要なアンテナ、受信器が不要となり、タブレット端末12だけの所持で済むので、従来のシステムと比べてより汎用性がある。
したがって、本実施の形態によれば、GNSS測位によらずに自己位置を高精度に測位することができる。このため、都市部など高層建物が林立する条件下において、測位精度を良好に維持できる埋設物可視化システムを提供することができる。
また、カメラ16(撮像手段)およびタッチパネル14(表示手段)は、タブレット端末12に内蔵されているので、利用者はタブレット端末12を持って現地に行き、ポジショントラッキングの後、カメラ16で現地を撮像することで、そこに埋設されている不可視の埋設物をタッチパネル14に可視化表示することができる。
以上説明したように、本発明に係る埋設物可視化システムによれば、撮像された実空間の画像と、この実空間において埋設されている不可視の埋設物の3次元位置情報に基づいて生成される画像とを合成して埋設物を可視化表示する埋設物可視化システムであって、実空間を撮像してその画像を取得する撮像手段と、撮像手段が撮像した複数の画像に基づいて、周囲の環境地図を作成する一方で、撮像手段が移動する前に作成された環境地図と、撮像手段が移動した後に作成された環境地図との差異に基づいて、実空間における撮像手段の移動後の位置および向きを推定する位置追跡手段と、位置追跡手段が推定した位置および向きと、作成した環境地図を記憶するとともに、埋設物の3次元位置情報を記憶する記憶手段と、位置追跡手段が推定した位置および向きに基づいて、埋設物の3次元位置情報を記憶手段から抽出するとともに、可視化表示用の画像を生成する画像生成手段と、画像生成手段が生成した画像と、撮像手段が撮像した実空間の画像とを合成することにより、埋設物を可視化表示する表示手段とを備えるので、GNSS測位によらずに自己位置を高精度に測位することができる。このため、都市部など高層建物が林立する条件下において、測位精度を良好に維持できる埋設物可視化システムを提供することができる。
また、本発明に係る他の埋設物可視化システムによれば、撮像手段および表示手段は、携帯型のタブレット端末に内蔵されているので、利用者はタブレット端末を持って現地に行き、撮像手段で現地を撮像することで、そこに埋設されている不可視の埋設物を表示手段に可視化表示することができる。
以上のように、本発明に係る埋設物可視化システムは、上下水道管やガス管などの地下埋設物を、タブレット端末などで可視化表示するのに有用であり、特に、都市部など高層建物が林立する条件下において、自己位置の測位精度を良好に維持するのに適している。
10 埋設物可視化システム
12 タブレット端末
14 タッチパネル(表示手段)
16 カメラ(撮像手段)
18 CPU
20 メモリ(記憶手段)
22 位置追跡手段
24 画像生成手段
26 制御手段

Claims (2)

  1. 撮像された実空間の画像と、この実空間において埋設されている不可視の埋設物の3次元位置情報に基づいて生成される画像とを合成して埋設物を可視化表示する埋設物可視化システムであって、
    実空間を撮像してその画像を取得する撮像手段と、
    撮像手段が撮像した複数の画像に基づいて、周囲の環境地図を作成する一方で、撮像手段が移動する前に作成された環境地図と、撮像手段が移動した後に作成された環境地図との差異に基づいて、実空間における撮像手段の移動後の位置および向きを推定する位置追跡手段と、
    位置追跡手段が推定した位置および向きと、作成した環境地図を記憶するとともに、埋設物の3次元位置情報を記憶する記憶手段と、
    位置追跡手段が推定した位置および向きに基づいて、埋設物の3次元位置情報を記憶手段から抽出するとともに、可視化表示用の画像を生成する画像生成手段と、
    画像生成手段が生成した画像と、撮像手段が撮像した実空間の画像とを合成することにより、埋設物を可視化表示する表示手段とを備えることを特徴とする埋設物可視化システム。
  2. 撮像手段および表示手段は、携帯型のタブレット端末に内蔵されていることを特徴とする請求項1に記載の埋設物可視化システム。
JP2018241310A 2018-12-25 2018-12-25 埋設物可視化システム Pending JP2020102127A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018241310A JP2020102127A (ja) 2018-12-25 2018-12-25 埋設物可視化システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018241310A JP2020102127A (ja) 2018-12-25 2018-12-25 埋設物可視化システム

Publications (1)

Publication Number Publication Date
JP2020102127A true JP2020102127A (ja) 2020-07-02

Family

ID=71141290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018241310A Pending JP2020102127A (ja) 2018-12-25 2018-12-25 埋設物可視化システム

Country Status (1)

Country Link
JP (1) JP2020102127A (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008304268A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2012133471A (ja) * 2010-12-20 2012-07-12 Kokusai Kogyo Co Ltd 画像合成装置、画像合成プログラム、及び画像合成システム
WO2016059930A1 (ja) * 2014-10-17 2016-04-21 ソニー株式会社 装置、方法及びプログラム
WO2017057053A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法
JP2017096725A (ja) * 2015-11-20 2017-06-01 キヤノン株式会社 情報処理装置、情報処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008304268A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2012133471A (ja) * 2010-12-20 2012-07-12 Kokusai Kogyo Co Ltd 画像合成装置、画像合成プログラム、及び画像合成システム
WO2016059930A1 (ja) * 2014-10-17 2016-04-21 ソニー株式会社 装置、方法及びプログラム
WO2017057053A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法
JP2017096725A (ja) * 2015-11-20 2017-06-01 キヤノン株式会社 情報処理装置、情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GEORG KLEIN,外1名: "Parallel Tracking and Mapping for Small AR Workspaces", 2007 6TH IEEE AND ACM INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY, JPN6023015966, 2007, pages 225 - 234, ISSN: 0005174036 *

Similar Documents

Publication Publication Date Title
US10878637B2 (en) Directional and x-ray view techniques for navigation using a mobile device
US10803663B2 (en) Depth sensor aided estimation of virtual reality environment boundaries
US20180225877A1 (en) Mobile augmented reality system
EP2915140B1 (en) Fast initialization for monocular visual slam
US8036775B2 (en) Obstacle avoidance system for a user guided mobile robot
CA2787646C (en) Systems and methods for processing mapping and modeling data
US10013795B2 (en) Operation support method, operation support program, and operation support system
TWI494898B (zh) 從地理參考影像擷取和映對三維特徵之技術
US8803992B2 (en) Augmented reality navigation for repeat photography and difference extraction
JP4783620B2 (ja) 3次元データ作成方法及び3次元データ作成装置
Côté et al. Live mobile panoramic high accuracy augmented reality for engineering and construction
KR102097416B1 (ko) 표고차를 고려한 지하관로의 관리를 위한 증강 현실 표현 방법 및 이를 기록한 기록매체
US11640679B2 (en) Augmented or virtual reality calibration and alignment system and method
CN115601496A (zh) Ar辅助三维地图尺度恢复的方法和系统
US11481920B2 (en) Information processing apparatus, server, movable object device, and information processing method
WO2023088127A1 (zh) 室内导航方法、服务器、装置和终端
US20120281102A1 (en) Portable terminal, activity history depiction method, and activity history depiction system
KR20120091749A (ko) 혼합 현실 가시화 시스템 및 혼합 현실 가시화 방법
JP2020102127A (ja) 埋設物可視化システム
US11869159B2 (en) High density 3D environment capture with guided mixed reality
WO2020113273A1 (en) Mixed reality visualisation system
KR101289885B1 (ko) 건물의 모델링을 위한 장치 및 방법
JP2008203991A (ja) 画像処理装置
US9870514B2 (en) Hypotheses line mapping and verification for 3D maps
JP2011022662A (ja) 携帯電話端末及び情報処理システム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231017