JP7449437B1 - プログラム、情報処理方法及び情報処理装置 - Google Patents

プログラム、情報処理方法及び情報処理装置 Download PDF

Info

Publication number
JP7449437B1
JP7449437B1 JP2023142372A JP2023142372A JP7449437B1 JP 7449437 B1 JP7449437 B1 JP 7449437B1 JP 2023142372 A JP2023142372 A JP 2023142372A JP 2023142372 A JP2023142372 A JP 2023142372A JP 7449437 B1 JP7449437 B1 JP 7449437B1
Authority
JP
Japan
Prior art keywords
virtual space
globe
dinosaur
image
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023142372A
Other languages
English (en)
Inventor
太 後藤
昌 清木
裕太郎 千野
青 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HOBONICHI CO., LTD.
Original Assignee
HOBONICHI CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HOBONICHI CO., LTD. filed Critical HOBONICHI CO., LTD.
Priority to JP2023142372A priority Critical patent/JP7449437B1/ja
Application granted granted Critical
Publication of JP7449437B1 publication Critical patent/JP7449437B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】撮影した画像中の地球儀の上に表示されているオブジェクトを、地球儀領域外の現実空間に拡張現実として表示することが可能なプログラム、情報処理方法及び情報処理装置を提供すること。【解決手段】拡張現実システムは、現実空間の地球儀1をかざした場合に、前記地球儀1の動きに対応して第1仮想空間の地球儀を表示すると共に該第1仮想空間上の所定位置に複数のオブジェクトを表示し、いずれかの前記オブジェクトの選択を受け付けた場合に、前記第1仮想空間の地球儀領域内に、前記第1仮想空間とは異なる第2仮想空間内に選択されたオブジェクトを表示し、前記第2仮想空間内のオブジェクトを現実空間に拡張させるコマンドを受け付けた場合に、前記第2仮想空間内の前記オブジェクトを地球儀領域外の現実空間に拡張現実として表示する処理をコンピュータ2に実行させる。【選択図】図1

Description

本発明は、プログラム、情報処理方法及び情報処理装置に関する。
近年、拡張現実(AR:Augmented Reality)システムを用いた商品の開発が行われている。ARシステムでは、Apple(登録商標) Vision Pro等のARグラス(ARゴーグル)、スマートフォン、タブレット端末、携帯ゲーム機等のようにカメラ及び表示部を有する情報機器に、ARマーカを認識するためのアプリケーションプログラムをインストールしておく。このような情報機器を用いて、ARマーカが付された被写体を撮影すると、情報機器がARマーカを認識し、認識したARマーカに応じたコンテンツを、撮影画像の上に重ねて表示する。これにより、ユーザは、撮影対象の被写体にコンテンツが重畳された画像を表示部にて見ることができる。特許文献1には、立体対象物を撮影し、撮影した画像中の立体対象物の上に画像又は文字等の付加情報を重ねて表示するシステムが開示されている。
特開2013-92407号公報
しかしながら、特許文献1に係る発明は、撮影した画像中の地球儀(立体対象物)の上に表示されているオブジェクトを、地球儀領域外の現実空間に拡張現実として表示することができないという問題がある。
一つの側面では、撮影した画像中の地球儀の上に表示されているオブジェクトを、地球儀領域外の現実空間に拡張現実として表示することが可能なプログラム等を提供することにある。
一つの側面に係るプログラムは、現実空間の地球儀をかざした場合に、前記地球儀の動きに対応して第1仮想空間の地球儀を表示すると共に該第1仮想空間上の所定位置に複数のオブジェクトを表示し、いずれかの前記オブジェクトの選択を受け付けた場合に、前記第1仮想空間の地球儀領域の地球画像を、前記第1仮想空間とは異なる第2仮想空間における前記地球画像とは異なる第2画像へ変更すると共に前記第2画像内に選択されたオブジェクトを表示し、前記第2仮想空間内の前記地球画像とは異なる第2画像へ変更された該第2画像内のオブジェクトを現実空間に拡張させるコマンドを受け付けた場合に、前記第2仮想空間内の前記オブジェクトを地球儀領域外の領域であり、かつ、撮像部から取り込んだ現実空間オブジェクトが写りこんだ現実空間の画像領域に拡張現実として表示する処理をコンピュータに実行させる。
一つの側面では、撮影した画像中の地球儀の上に表示されているオブジェクトを、地球儀領域外の現実空間に拡張現実として表示することが可能となる。
ARシステムの構成例を示す模式図である。 ユーザ端末の構成例を示すブロック図である。 恐竜DB及び位置画像DBのレコードレイアウトの一例を示す説明図である。 第1仮想空間内の複数の恐竜の選択画面の一例を示す説明図である。 第2仮想空間を表示する画面の一例を示す説明図である。 恐竜の拡張画面の一例を示す説明図である。 スライダーにより恐竜を等身大まで拡大する画面の一例を示す説明図である。 第2仮想空間内の恐竜及び画像を表示する画面の一例を示す説明図である。 地球儀領域内の恐竜を地球儀領域外の現実空間に拡張現実として表示する際の処理手順を示すフローチャートである。 複数の恐竜を第1仮想空間に表示する処理のサブルーチンの処理手順を示すフローチャートである。 恐竜を地球儀領域外の現実空間に拡張現実として表示する処理のサブルーチンの処理手順を示すフローチャートである。 拡張現実として表示された恐竜を拡大または縮小する際の処理手順を示すフローチャートである。 恐竜を拡大または縮小する処理のサブルーチンの処理手順を示すフローチャートである。 第2仮想空間から第1仮想空間へ切り替える際の処理手順を示すフローチャートである。 第2仮想空間内の恐竜及び画像を表示する際の処理手順を示すフローチャートである。 実施形態2における恐竜の拡張画面の一例を示す説明図である。 第1恐竜と共に第2恐竜を地球儀領域外の現実空間に拡張現実として表示する際の処理手順を示すフローチャートである。 ボードの表示画面の一例を示す説明図である。 複数のボードを表示する際の処理手順を示すフローチャートである。
以下、本発明をその実施形態を示す図面に基づいて詳述する。
(実施形態1)
実施形態1は、現実空間の地球儀(アースボール)をかざした場合、地球儀領域内のオブジェクトを地球儀領域外の現実空間に拡張現実として表示する形態に関する。オブジェクトは、例えば、恐竜、象、パンダもしくはキリン等の動物、飛行機もしくは船等の乗り物、国旗、植物または建物等を含む。なお、本実施形態では、オブジェクトが恐竜である例を説明するが、他の種類のオブジェクトにも同様に適用することができる。
図1は、ARシステムの構成例を示す模式図である。本実施形態のARシステムは、ARマーカ(マーカ)を表面に有する球体である地球儀1及び情報処理端末2を含み、地球儀1を被写体とし、地球儀1を情報処理端末2で撮影して使用する。
地球儀1は例えばプラスチック製の中空の球体であるが、これに限らない。地球儀1の表面には、地球上の地図が印刷されており、地図中の適宜位置にARマーカが付されている。例えば図1に示す例では、地図中の海及び大陸のそれぞれに名称が付されており、各国及び都市のそれぞれに国名及び都市名が付されている。これらの文字はARマーカを構成する。
なお、図1では省略しているが、地図中に各国の国境線が含まれる場合、国境線もARマーカを構成させても良い。なお、地図中の河川、平野、山脈等は地形毎に所定の色で色分けされた場合、各色もARマーカを構成させても良い。
なお、地図中の海にはそれぞれの海、海域等を識別するために所定のマークが付されてても良い。または、船、亀又はカモメ等の動物を識別するために所定のマークが付されてても良い。更にまた、地図中の大陸にはそれぞれの大陸、地域等を識別するために所定のマークが付されても良い。
情報処理端末2は、各ユーザの端末装置である。情報処理端末2は、例えば、Apple Vision Pro等のARグラス、スマートフォン、携帯電話、アップルウォッチ(Apple Watch:登録商標)等のウェアラブルデバイス、タブレット、ゲーム機、またはパーソナルコンピュータ端末等の情報処理機器である。以下では簡潔のため、情報処理端末2をユーザ端末2と読み替える。
本実施形態に係るユーザ端末2は、現実空間の地球儀1をかざした場合、当該地球儀1の動きに対応して第1仮想空間の地球儀を表示すると共に該第1仮想空間上の所定位置に複数の恐竜を表示する。
ユーザ端末2は、複数の恐竜のうち、いずれかの恐竜の選択を受け付けた場合、当該第1仮想空間の地球儀領域内に、当該第1仮想空間とは異なる第2仮想空間内に選択された恐竜を表示する。ユーザ端末2は、第2仮想空間内の恐竜を現実空間に拡張させるコマンドを受け付けた場合、当該第2仮想空間内の恐竜を地球儀領域外の現実空間に拡張現実として表示する。
拡張現実において、仮想空間におけるオブジェクトを臨場感あふれるように表示することができるが、従来技術では、例えば恐竜のようなオブジェクトを仮想空間の地球儀上に重畳表示しても、臨場感を高める表現が難しい。
これに対し、地球儀上にオブジェクトを重畳表示する仮想空間の他に、現実空間で地球儀の占める領域を一つの球体仮想空間(第1仮想空間)とみなして、臨場感の高い拡張現実を実現することができる。第1仮想空間は、オブジェクトを大きく表示し、地球儀を回転させることで、当該オブジェクトを自由に回転させながら観察することが可能な第2仮想空間と、当該オブジェクトをさらに大きく表示させる地球儀領域外の現実空間とを有する。このような第1仮想空間を利用することにより、臨場感を高める拡張現実を実現することができる。
図2は、ユーザ端末2の構成例を示すブロック図である。ユーザ端末2は、制御部21、記憶部22、通信部23、入力部24、表示部25、撮影部26及び大容量記憶部27を含む。各構成はバスBで接続されている。
制御部21は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)、または量子プロセッサ等の演算処理装置を含む。制御部21は、記憶部22に記憶された制御プログラム2P(プログラム製品)を読み出して実行することにより、ユーザ端末2に係る種々の情報処理または制御処理等を行う。なお、図2では制御部21を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。
記憶部22はRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリ素子を含み、制御部21が処理を実行するために必要な制御プログラム2P又はデータ等を記憶している。また、記憶部22は、制御部21が演算処理を実行するために必要なデータ等を一時的に記憶する。通信部23は通信に関する処理を行うための通信モジュールであり、ネットワークNを介して、外部の情報処理装置等と情報の送受信を行う。
入力部24は、コントローラー、ジェスチャを感知するためのジェスチャ入力装置、キーボード、マウスまたは表示部25と一体化したタッチパネルでも良い。ジェスチャ入力装置を利用する場合、制御部21は、例えば、撮影部26により撮影した手の画像から手の位置及び形状等を認識する。制御部21は、認識した手の位置及び形状等に基づき、手のジェスチャ(動き)を判定する。制御部21は、判定した手のジェスチャに応じて、該当する操作を行う。例えば、制御部21は、親指及び人差指でつまむようなジェスチャを判定した場合、手の位置にあるオブジェクトを選択するような操作を行っても良い。
表示部25は、液晶ディスプレイ又は有機EL(electroluminescence)ディスプレイ等であり、制御部21の指示に従い各種情報を表示する。撮影部26は、例えばCCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ等の撮影装置である。なお、撮影部26はユーザ端末2の中に内蔵せず、外部で直接にユーザ端末2と接続し、撮影可能な構成としても良い。
大容量記憶部27は、例えばHDD(Hard disk drive)、またはSSD(Solid State Drive)等の記録媒体を備える。大容量記憶部27は、恐竜DB(database)271及び位置画像DB272を含む。恐竜DB271は、恐竜に関する情報を記憶している。位置画像DB272は、各位置における画像(例えば、背景画像)を記憶している。
なお、本実施形態において記憶部22及び大容量記憶部27は一体の記憶装置として構成されていても良い。また、大容量記憶部27は複数の記憶装置により構成されていても良い。更にまた、大容量記憶部27はユーザ端末2に接続された外部記憶装置であっても良い。
図3は、恐竜DB271及び位置画像DB272のレコードレイアウトの一例を示す説明図である。
恐竜DB271は、恐竜ID列、学名列、サイズ列、生息地列、画像列及び説明列を含む。恐竜ID列は、各恐竜を識別するために、一意に特定される恐竜のIDを記憶している。学名列は、恐竜の学名を記憶している。サイズ列は、恐竜のサイズ(全長)を記憶している。
生息地列は、恐竜の生息地、または生息地の経緯度等を記憶している。画像列は、恐竜の画像データを記憶している。説明列は、食べ物、生息時期または特徴等を含む恐竜の説明情報を記憶している。
位置画像DB272は、画像ID列、経緯度列及び画像列を含む。画像ID列は、各位置における画像を識別するために、一意に特定される画像のIDを記憶している。経緯度列は、位置の経緯度を記憶している。画像列は、各位置における画像の画像データを記憶している。
なお、上述した各DBの記憶形態は一例であり、データ間の関係が維持されていれば、他の記憶形態であっても良い。
続けて、ARシステムの処理動作を説明する説明図である。ユーザ端末2は、外部の情報処理装置(例えば、サーバ装置)から、恐竜に関する情報を取得する。恐竜に関する情報は、恐竜の学名、サイズ、生息地、画像及び説明情報等を含む。
ユーザ端末2は、取得した恐竜に関する情報に対し、恐竜IDを割り振る。ユーザ端末2は、割り振った恐竜IDに対応付けて、恐竜の学名、サイズ、生息地、画像及び説明情報を一つのレコードとして恐竜DB271に記憶する。なお、恐竜に関する情報は、予め恐竜DB271に記憶されても良い。
図4は、第1仮想空間内の複数の恐竜の選択画面の一例を示す説明図である。当該画面は、第1仮想空間表示欄11a及び恐竜表示欄11bを含む。
第1仮想空間表示欄11aは、第1仮想空間を表示する表示欄である。第1仮想空間は、地球儀領域及び地球儀領域外の現実空間領域を含む仮想空間である。恐竜表示欄11bは、恐竜の学名及び画像を表示する表示欄である。なお、恐竜表示欄11bは、恐竜の数に応じて設けられる。
ユーザ端末2は、現実空間の地球儀1をかざした場合、撮影部26を介して、マーカを表面に有する当該地球儀1の撮影画像を取り込むことにより、地球儀領域を含む地球儀1の撮影画像を第1仮想空間表示欄11aに表示する。
ユーザ端末2は、地球儀1の撮影画像中のマーカ情報に基づき、撮影画像に表示されている地球儀領域の位置を特定する。例えば、ユーザ端末2は、撮影画像に表示されている地球儀領域に応じてARマーカ情報を認識する。ユーザ端末2は、認識したARマーカ情報に基づいて位置情報を抽出する。
ユーザ端末2は、抽出した位置情報を参照して、各恐竜の生息地に基づき、該当する複数の恐竜に関する情報(恐竜の学名、サイズ、生息地、画像または説明情報等)を恐竜DB271から取得する。ユーザ端末2は、取得した各恐竜の生息地に対応する経緯度を取得する。例えば、ユーザ端末2は、グーグル・マップ(Google Map)サービス等により生息地に対応する経緯度を取得しても良い。
ユーザ端末2は、第1仮想空間の地球儀を表示すると共に、該第1仮想空間上の所定位置に複数の恐竜を表示する。図示のように、ユーザ端末2は、かざされた地球儀1を第1仮想空間表示欄11aに表示すると共に、第1仮想空間上の各恐竜の生息地に対応する経緯度に、各恐竜の学名及び画像を該当する恐竜表示欄11bに表示する。
なお、ユーザ端末2は、地球儀1の回転、またはユーザ端末2と地球儀1との相対位置の変化等の動きを検知した場合、検知した動きに対応して、地球儀1の撮影画像を再度取り込む。ユーザ端末2は、再度取り込んだ地球儀1の撮影画像を第1仮想空間表示欄11aに表示する。
ユーザ端末2は、上述した処理と同様に、地球儀1の撮影画像中のマーカ情報に基づき、撮影画像に表示されている地球儀領域の位置を再度特定する。ユーザ端末2は、再度特定した位置を参照して、該当する複数の恐竜に関する情報を恐竜DB271から取得する。ユーザ端末2は、取得した各恐竜の生息地に対応する経緯度に、各恐竜の学名及び画像を該当する恐竜表示欄11bに表示する。
ユーザ端末2は、第1仮想空間上の所定位置に表示しているいずれかの恐竜の選択を受け付けた場合、第1仮想空間の地球儀領域内に、当該第1仮想空間とは異なる第2仮想空間内に選択された恐竜を表示する。
具体的には、ユーザ端末2は、恐竜表示欄11bのタッチ(クリック)操作を受け付けた場合、選択された恐竜ID及び画像データを第2仮想空間の表示画面(図5)に渡し、当該第2仮想空間の表示画面に遷移する。
なお、上述したタッチ操作に限るものではない。例えば、入力部24がジェスチャ入力装置である場合、ユーザ端末2は、手の画像から認識された手の位置及び形状等に基づき、例えば、親指及び人差指でつまむようなジェスチャを判定すると、恐竜表示欄11bに表示されている恐竜の選択操作を受け付けても良い。なお、以下では簡潔のため、タッチ操作の例を説明するが、ジェスチャ入力装置等が利用される際の選択操作にも同様に適用することができる。
図5は、第2仮想空間を表示する画面の一例を示す説明図である。なお、図4と重複する内容については同一の符号を付して説明を省略する。当該画面は、第2仮想空間表示欄11c及び切り替えボタン11dを含む。
第2仮想空間表示欄11cは、第2仮想空間を表示する表示欄である。第2仮想空間は、第1仮想空間の地球儀領域内の仮想空間である。切り替えボタン11dは、第2仮想空間から第1仮想空間への切り替えるためのボタンである。
ユーザ端末2は、恐竜の選択画面(図4)から受け渡された恐竜ID及び画像データを受け取る。ユーザ端末2は、受け取った恐竜の画像データを第2仮想空間表示欄11cに表示する。ユーザ端末2は、切り替えボタン11dのタッチ操作を受け付けた場合、第2仮想空間から第1仮想空間へ切り替え、恐竜の選択画面(図4)に戻る。
ユーザ端末2は、第2仮想空間表示欄11cに表示されている恐竜を現実空間に拡張させるコマンドを受け付けた場合、当該恐竜ID及び画像データを恐竜の拡張画面(図6)に渡し、当該恐竜の拡張画面に遷移する。
コマンドは、例えば、ユーザによる第2仮想空間内の恐竜に対するタッチ操作であっても良く、または、現実空間に拡張させるボタン(図示なし)に対するタッチ操作であっても良い。更にまた、コマンドは、第2仮想空間内の恐竜に対するドラッグアンドドロップ操作またはスワイプ操作であっても良い。例えば、ユーザ端末2は、第2仮想空間内の恐竜を現実空間にドラッグアンドドロップして、当該恐竜を現実空間にドロップした位置に拡張させる。
図6は、恐竜の拡張画面の一例を示す説明図である。拡張画面は、第2仮想空間内の恐竜を地球儀領域外の現実空間に拡張現実として表示するための画面である。なお、図4~図5と重複する内容については同一の符号を付して説明を省略する。
当該画面は、現実空間恐竜表示欄11f及びスライダー11eを含む。現実空間恐竜表示欄11fは、恐竜を地球儀領域外の現実空間に拡張現実として表示する表示欄である。スライダー11eは、拡張現実として恐竜を等身大まで拡大するためのスライダーである。
ユーザ端末2は、第2仮想空間の表示画面(図5)から受け渡された恐竜ID及び画像データを受け取る。ユーザ端末2は、第2仮想空間内の恐竜の初期表示サイズを算出する。例えば、ユーザ端末2は、恐竜IDに基づき、当該恐竜のサイズを恐竜DB271から取得する。ユーザ端末2は、取得した恐竜のサイズに基づき、所定の割合(例えば、10%)により初期表示サイズを算出する。
ユーザ端末2は、算出した第2仮想空間内の恐竜の初期表示サイズに応じて、第2仮想空間内の恐竜を第1仮想空間の地球儀領域外の現実空間に拡張現実として表示する。図示のように、恐竜の初期表示サイズに応じて、第2仮想空間内の恐竜が現実空間恐竜表示欄11fに表示される。
ユーザ端末2は、スライダー11eのタッチ操作を受け付けた場合、拡張現実として恐竜を等身大表示サイズまで拡大するか、または恐竜の初期表示サイズに縮小する。図示のように、スライダー11eは、水平方向に長い棒状の領域内に、左側が恐竜のサイズが小さくなるように、右側が恐竜のサイズが大きくなるように設けられる。スライダー11eを左右へスライドさせる操作を行うことによって、恐竜のサイズを変化することができる。
なお、本実施形態では、スライダー11eにより恐竜を拡大または縮小させた例を説明したが、これに限るものではない。例えば、恐竜を拡大または縮小させるボタン等を設けても良い。
例えば、ユーザ端末2は、スライダー11eの左側へスライドさせた操作を受け付けた場合、恐竜のサイズに基づき、拡張現実として表示された恐竜のサイズを徐々に恐竜の初期表示サイズに縮小する。または、ユーザ端末2は、スライダー11eの右側へスライドさせた操作を受け付けた場合、恐竜のサイズに基づき、拡張現実として表示された恐竜のサイズを徐々に等身大表示サイズまで拡大する。
図7は、スライダー11eにより恐竜を等身大まで拡大する画面の一例を示す説明図である。図示のように、ユーザ端末2は、スライダー11eの一番右側へスライドさせた操作を受け付けた場合、恐竜のサイズに基づき、拡張現実として表示された恐竜を等身大表示サイズに拡大する。ユーザ端末2は、等身大表示サイズに拡大した恐竜を現実空間恐竜表示欄11fに表示する。
なお、上述した拡大処理に限るものではない。例えば、ユーザ端末2は、第1仮想空間の地球儀領域外の現実空間にあるオブジェクトを参照物として、当該オブジェクトのサイズを参照して拡大処理を行っても良い。例えば、ユーザ端末2は、第1仮想空間の地球儀領域外の現実空間にある地球儀1の直径を参照し、拡大対象となる恐竜の等身大表示サイズに基づき、拡大処理に用いられる拡大率を算出する。ユーザ端末2は、算出した拡大率に応じて、当該恐竜の拡大処理を行う。
または、ユーザ端末2は、オブジェクトを配置した現実空間上の位置と、ユーザ端末2の位置との距離を元に拡大率を算出する。ユーザ端末2は、算出した拡大率に応じて、当該恐竜の拡大処理を行っても良い。当該拡大処理を利用することにより、恐竜から離れるほどに恐竜が大きくなっていくという演出効果が得られる。
続いて、第2仮想空間の恐竜を、当該恐竜に対応する位置における画像と共に当該第2仮想空間に表示する処理を説明する。
図8は、第2仮想空間内の恐竜及び画像を表示する画面の一例を示す説明図である。ユーザ端末2は、恐竜IDに基づき、恐竜の生息地及び恐竜の画像データを恐竜DB271から取得する。ユーザ端末2は、当該恐竜に対応する位置における画像を取得する。
具体的には、ユーザ端末2は、取得した恐竜の生息地に対応する経緯度を取得する。ユーザ端末2は、取得した経緯度に基づき、該当する画像データを位置画像DB272から取得する。図示のように、空及び草原を含む画像データが位置画像DB272から取得される。ユーザ端末2は、第2仮想空間表示欄11cに、取得した恐竜の画像データと、当該恐竜に対応する位置における画像データとを表示する。
また、第1仮想空間の地球儀の動きに対応して、恐竜及び当該恐竜に対応する位置における画像を変化させる。具体的には、ユーザ端末2は、第1仮想空間の地球儀の回転、またはユーザ端末2と地球儀1との相対位置の変化等の動きを検知した場合、当該地球儀の回転方向を取得する。ユーザ端末2は、取得した回転方向に合わせて、恐竜の画像データ、及び当該恐竜に対応する位置における画像データを回転させて第2仮想空間表示欄11cに表示する。
図9は、地球儀領域内の恐竜を地球儀領域外の現実空間に拡張現実として表示する際の処理手順を示すフローチャートである。ユーザ端末2の制御部21は、複数の恐竜を第1仮想空間に表示する処理のサブルーチンを実行する(ステップS201)。なお、第1仮想空間における表示処理のサブルーチンに関しては後述する。制御部21は、複数の恐竜から、いずれかの恐竜の選択を入力部24により受け付ける(ステップS202)。
制御部21は、選択された恐竜を第2仮想空間に表示部25により表示する(ステップS203)。制御部21は、第2仮想空間内の恐竜を第1仮想空間の地球儀領域外の現実空間に拡張現実として表示する処理のサブルーチンを実行する(ステップS204)。なお、地球儀領域外の現実空間への表示処理のサブルーチンに関しては後述する。制御部21は、処理を終了する。
図10は、複数の恐竜を第1仮想空間に表示する処理のサブルーチンの処理手順を示すフローチャートである。ユーザ端末2の制御部21は、現実空間の地球儀1をかざした場合、撮影部26を介して、マーカを表面に有する地球儀1の撮影画像を取り込む(ステップS01)。撮影画像には、地球儀領域、及び当該地球儀領域外の現実空間領域が含まれる。制御部21は、取り込んだ撮影画像を表示部25により第1仮想空間に表示する(ステップS02)。
制御部21は、撮影画像に表示されている地球儀領域に応じてARマーカ情報を認識する(ステップS03)。制御部21は、認識したマーカ情報に基づき、撮影画像に表示されている地球儀領域の位置を特定する(ステップS04)。制御部21は、特定した位置情報を参照して、各恐竜の生息地に基づき、該当する複数の恐竜に関する情報(恐竜の学名、サイズ、生息地、画像または説明情報等)を大容量記憶部27の恐竜DB271から取得する(ステップS05)。
制御部21は、取得した複数の恐竜に関する情報から、各恐竜の生息地を取得する(ステップS06)。制御部21は、例えば、グーグル・マップサービス等を利用し、取得した各恐竜の生息地に対応する経緯度を取得する(ステップS07)。制御部21は、第1仮想空間の地球儀を表示部25により表示する(ステップS08)。
制御部21は、取得した複数の恐竜を当該第1仮想空間に表示する(ステップS09)。具体的には、制御部21は、当該第1仮想空間上の各恐竜の生息地に対応する経緯度に各恐竜の学名及び画像を表示部25により表示する。制御部21は、第1仮想空間における表示処理のサブルーチンを終了してリターンする。
図11は、恐竜を地球儀領域外の現実空間に拡張現実として表示する処理のサブルーチンの処理手順を示すフローチャートである。ユーザ端末2の制御部21は、第2仮想空間内の恐竜を現実空間に拡張させるコマンド(ユーザによる第2仮想空間内の恐竜に対するタッチ操作、ドラッグアンドドロップ操作またはスワイプ操作等)を入力部24により受け付ける(ステップS11)。
制御部21は、第2仮想空間内の恐竜の初期表示サイズを算出する(ステップS12)。具体的には、制御部21は、恐竜IDに基づき、当該恐竜のサイズを大容量記憶部27の恐竜DB271から取得する。制御部21は、取得した恐竜のサイズに基づき、所定の割合(例えば、10%)により初期表示サイズを算出する。
制御部21は、表示部25を介して、算出した第2仮想空間内の恐竜の初期表示サイズに応じて、第2仮想空間内の恐竜を第1仮想空間の地球儀領域外の現実空間に拡張現実として表示する(ステップS13)。制御部21は、地球儀領域外の現実空間への表示処理のサブルーチンを終了してリターンする。
図12は、拡張現実として表示された恐竜を拡大または縮小する際の処理手順を示すフローチャートである。なお、図9と重複する内容については同一の符号を付して説明を省略する。ユーザ端末2の制御部21は、ステップS204の処理を実行した後に、拡張現実として恐竜を拡大または縮小する処理のサブルーチンを実行する(ステップS205)。なお、恐竜の拡大縮小処理のサブルーチンに関しては後述する。
制御部21は、表示部25を介して、拡大縮小処理を行った恐竜を、第1仮想空間の地球儀領域外の現実空間に拡張現実として再度表示する(ステップS206)。制御部21は、処理を終了する。
図13は、恐竜を拡大または縮小する処理のサブルーチンの処理手順を示すフローチャートである。ユーザ端末2の制御部21は、拡張現実として恐竜を等身大まで拡大するためスライダー(図6のスライダー11e)を表示部25により表示する(ステップS21)。制御部21は、表示したスライダーの操作を入力部24により受け付ける(ステップS22)。
制御部21は、受け付けた操作に基づき、恐竜に対する操作が拡大操作であるか否かを判定する(ステップS23)。具体的には、制御部21は、スライダーの左側へスライドさせた操作を受け付けた場合、恐竜に対する操作が縮小操作であると判定する。または、制御部21は、スライダーの右側へスライドさせた操作を受け付けた場合、恐竜に対する操作が拡大操作であると判定する。
制御部21は、恐竜に対する操作が拡大操作である場合(ステップS23でYES)、スライダー上にスライドされた位置、恐竜の初期表示サイズ(スライダーの一番左側に対応する恐竜の表示サイズ)、及び、恐竜の等身大表示サイズ(スライダーの一番右側に対応する恐竜の表示サイズ)に基づき、拡大表示サイズを算出する(ステップS24)。制御部21は、算出した拡大表示サイズに応じて、拡張現実として表示された恐竜を拡大する処理を行う(ステップS25)。制御部21は、恐竜の拡大縮小処理のサブルーチンを終了してリターンする。
制御部21は、恐竜に対する操作が拡大操作でない場合(ステップS23でNO)、スライダー上にスライドされた位置、恐竜の初期表示サイズ、及び、恐竜の等身大表示サイズに基づき、縮小表示サイズを算出する(ステップS26)。制御部21は、算出した縮小表示サイズに応じて、拡張現実として表示された恐竜を縮小する処理を行う(ステップS27)。制御部21は、恐竜の拡大縮小処理のサブルーチンを終了してリターンする。
図14は、第2仮想空間から第1仮想空間へ切り替える際の処理手順を示すフローチャートである。なお、図9と重複する内容については同一の符号を付して説明を省略する。ユーザ端末2の制御部21は、ステップS203の処理を実行した後に、第2仮想空間から第1仮想空間への切り替えるための切り替えボタンを表示部25により表示する(ステップS211)。
制御部21は、切り替えボタンのタッチ操作を入力部24により受け付ける(ステップS212)。制御部21は、第2仮想空間から第1仮想空間へ切り替える(ステップS213)。制御部21は、処理を終了する。
図15は、第2仮想空間内の恐竜及び画像を表示する際の処理手順を示すフローチャートである。なお、図9と重複する内容については同一の符号を付して説明を省略する。ユーザ端末2の制御部21は、ステップS202の処理を実行した後に、選択された恐竜の生息地に対応する経緯度に基づき、当該恐竜に対応する位置における画像を大容量記憶部27の位置画像DB272から取得する(ステップS221)。
制御部21は、第2仮想空間に、選択された恐竜の画像データと、当該恐竜に対応する位置における画像データとを表示部25により表示する(ステップS222)。制御部21は、第1仮想空間の地球儀の回転、またはユーザ端末2と地球儀1との相対位置の変化等の動きを検知した場合(ステップS223)、当該地球儀の回転方向を取得する(ステップS224)。
制御部21は、表示部25を介して、取得した回転方向に合わせて、恐竜の画像データ、及び当該恐竜に対応する位置における画像データを回転させて第2仮想空間に表示する(ステップS225)。制御部21は、ステップS223の処理に戻る。
本実施形態によると、現実空間の地球儀1をかざした場合、地球儀1の動きに対応して第1仮想空間の地球儀を表示すると共に該第1仮想空間上の所定位置に複数の恐竜を表示することが可能となる。
本実施形態によると、第1仮想空間上に選択された恐竜を第2仮想空間内に表示することが可能となる。
本実施形態によると、第2仮想空間内の恐竜を地球儀領域外の現実空間に拡張現実として表示することが可能となる。
本実施形態によると、恐竜のサイズ情報に基づき、拡張現実として表示された当該恐竜を等身大まで拡大することが可能となる。
本実施形態によると、第2仮想空間内の恐竜を、当該恐竜に対応する位置における画像と共に当該第2仮想空間に表示することが可能となる。
(実施形態2)
実施形態2は、恐竜(第1恐竜)と共に、当該第1恐竜とは異なる第2恐竜を地球儀領域外の現実空間に拡張現実として表示する形態に関する。なお、実施形態1と重複する内容については説明を省略する。
図16は、実施形態2における恐竜の拡張画面の一例を示す説明図である。なお、図6と重複する内容については説明を省略する。当該画面は、現実空間第1恐竜表示欄11f(図6の現実空間恐竜表示欄11f)、及び現実空間第2恐竜表示欄11gを含む。現実空間第2恐竜表示欄11gは、第2恐竜を地球儀領域外の現実空間に拡張現実として表示する表示欄である。
ユーザ端末2は、第1恐竜を第1仮想空間の地球儀領域外の現実空間に拡張現実として表示している場合、第1仮想空間内の複数の恐竜の選択画面(図4)を通じて、第1仮想空間上の所定位置(例えば、恐竜の生息地)に表示されている複数の恐竜のうち、当該第1恐竜とは異なる第2恐竜の選択を受け付ける。ユーザ端末2は、選択された第2恐竜を第2仮想空間表示欄11cに表示する。
ユーザ端末2は、第2仮想空間表示欄11cに表示されている第2仮想空間内の第2恐竜を現実空間に拡張させるコマンド(例えば、ユーザによる第2恐竜に対するタッチ操作)を受け付けた場合、第1恐竜と共に、当該第2仮想空間内の第2恐竜を地球儀領域外の現実空間に拡張現実として表示する。
図示のように、現実空間第1恐竜表示欄11fに表示されている第1恐竜、及び、現実空間第2恐竜表示欄11gに表示されている第2恐竜が、地球儀領域外の現実空間に拡張現実として表示される。
また、スライダー11eを左右へスライドさせる操作を行うことによって、第1恐竜と同様に、第2恐竜のサイズを変化することができる。なお、第2恐竜のサイズの変化処理は、実施形態1と同様であるため、説明を省略する。
図17は、第1恐竜と共に第2恐竜を地球儀領域外の現実空間に拡張現実として表示する際の処理手順を示すフローチャートである。なお、図9と重複する内容については同一の符号を付して説明を省略する。
ユーザ端末2の制御部21は、ステップS204の処理を実行した後に、複数の恐竜から、第1恐竜とは異なる第2恐竜の選択を入力部24により受け付ける(ステップS231)。制御部21は、選択された第2恐竜を第2仮想空間に表示部25により表示する(ステップS232)。制御部21は、第2仮想空間内の第2恐竜を第1仮想空間の地球儀領域外の現実空間に拡張現実として表示する処理のサブルーチンを実行する(ステップS233)。制御部21は、処理を終了する。
なお、本実施形態では、第1恐竜と第2恐竜とを地球儀領域外の現実空間に拡張現実として表示した例を説明したが、これに限らず、恐竜の数は特に限定されない。
本実施形態によると、第1恐竜と共に、第2仮想空間内の第2恐竜を地球儀領域外の現実空間に拡張現実として表示することが可能となる。
(実施形態3)
実施形態3は、恐竜の選択を受け付けた場合、地球儀領域の周囲に恐竜に関連する情報を記載した複数のボードを表示する形態に関する。なお、実施形態1~2と重複する内容については説明を省略する。
図18は、ボードの表示画面の一例を示す説明図である。当該画面は、ボード表示欄12aを含む。ボード表示欄12aは、地球儀領域の周囲に恐竜に関連する情報を記載した欄である。なお、ボード表示欄12aは、恐竜に関する情報に応じて複数設けられても良い。
ユーザ端末2は、第1仮想空間上の各恐竜の生息地に対応する経緯度に、各恐竜の学名及び画像を該当する恐竜表示欄11bに表示する。ユーザ端末2は、恐竜表示欄11bのタッチ操作を受け付けた場合、該当する恐竜の選択を受け付ける。ユーザ端末2は、選択された恐竜IDに基づき、生息地または説明情報等を含む恐竜に関する情報を恐竜DB271から取得する。説明情報は、食べ物、生息時期もしくは特徴等を含む。
ユーザ端末2は、取得した恐竜に関する情報を記載した複数のボード表示欄12aを生成する。ユーザ端末2は、生成した複数のボード表示欄12aを第1仮想空間の地球儀領域の周囲に表示する。図示のように、食べ物を記載したボード表示欄12a、生息時期を記載したボード表示欄12a、及び特徴を記載したボード表示欄12aが地球儀領域の周囲に表示される。
なお、第1仮想空間の地球儀を回転しても、食べ物を記載したボード表示欄12a、生息時期を記載したボード表示欄12a、及び特徴を記載したボード表示欄12aの表示位置を保持することができる。
図19は、複数のボードを表示する際の処理手順を示すフローチャートである。なお、図9と重複する内容については同一の符号を付して説明を省略する。ユーザ端末2の制御部21は、ステップS202の処理を実行した後に、選択された恐竜IDに基づき、恐竜に関する情報(生息地または説明情報等)を大容量記憶部27の恐竜DB271から取得する(ステップS241)。
制御部21は、取得した恐竜に関する情報を記載した複数のボードを生成する(ステップS242)。制御部21は、表示部25を介して、生成した複数のボードを第1仮想空間の地球儀領域の周囲に表示する(ステップS243)。制御部21は、第1仮想空間の地球儀の回転、またはユーザ端末2と地球儀1との相対位置の変化等の動きを検知した場合(ステップS245)、第1仮想空間の地球儀領域の周囲に表示されている複数のボードの表示位置を保持するための処理を行う(ステップS246)。制御部21は、ステップS245の処理に戻る。
本実施形態によると、恐竜の選択を受け付けた場合、地球儀領域の周囲に恐竜に関連する情報を記載した複数のボードを表示することが可能となる。
本実施形態によると、複数のボードを表示することにより、恐竜に関する情報を一目瞭然で確認することが可能となる。
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
各実施形態に記載した事項は相互に組み合わせることが可能である。また、特許請求の範囲に記載した独立請求項及び従属請求項は、引用形式に関わらず全てのあらゆる組み合わせにおいて、相互に組み合わせることが可能である。さらに、特許請求の範囲には他の2以上のクレームを引用するクレームを記載する形式(マルチクレーム形式)を用いているが、これに限るものではない。
1 地球儀
2 情報処理端末(ユーザ端末;コンピュータ)
21 制御部
22 記憶部
23 通信部
24 入力部
25 表示部
26 撮影部
27 大容量記憶部
271 恐竜DB
272 位置画像DB
2P 制御プログラム

Claims (11)

  1. 現実空間の地球儀をかざした場合に、前記地球儀の動きに対応して第1仮想空間の地球儀を表示すると共に該第1仮想空間上の所定位置に複数のオブジェクトを表示し、
    いずれかの前記オブジェクトの選択を受け付けた場合に、前記第1仮想空間の地球儀領域の地球画像を、前記第1仮想空間とは異なる第2仮想空間における前記地球画像とは異なる第2画像へ変更すると共に前記第2画像内に選択されたオブジェクトを表示し、
    前記第2仮想空間内の前記地球画像とは異なる第2画像へ変更された該第2画像内のオブジェクトを現実空間に拡張させるコマンドを受け付けた場合に、前記第2仮想空間内の前記オブジェクトを地球儀領域外の領域であり、かつ、撮像部から取り込んだ現実空間オブジェクトが写りこんだ現実空間の画像領域に拡張現実として表示する
    処理をコンピュータに実行させるプログラム。
  2. 前記オブジェクトのサイズ情報を取得し、
    取得した前記オブジェクトのサイズ情報に基づき、拡張現実として表示された前記オブジェクトを等身大まで拡大する
    請求項1に記載のプログラム。
  3. 拡張現実として表示された前記オブジェクトを等身大まで拡大するためのスライダーを表示し、
    表示したスライダーにより、前記オブジェクトを等身大まで拡大する
    請求項2に記載のプログラム。
  4. 前記オブジェクトとは異なる第2オブジェクトの選択を受け付けた場合に、前記第2仮想空間内に選択された第2オブジェクトを表示し、
    前記第2仮想空間内の第2オブジェクトを現実空間に拡張させるコマンドを受け付けた場合に、前記オブジェクトと共に、前記第2仮想空間内の前記第2オブジェクトを前記地球儀領域外の現実空間に拡張現実として表示する
    請求項1又は2に記載のプログラム。
  5. 前記第2仮想空間内の前記オブジェクトを、前記オブジェクトに対応する位置における画像と共に前記第2仮想空間に表示する
    請求項1又は2に記載のプログラム。
  6. 前記地球儀の動きに対応して、前記オブジェクトに対応する位置における画像及び前記オブジェクトを変化させる
    請求項5に記載のプログラム。
  7. 前記第2仮想空間を表示している場合に、前記第2仮想空間から前記第1仮想空間への切り替えるためのボタンを表示し、
    表示したボタンの操作を受け付けた場合に、前記第2仮想空間から前記第1仮想空間へ切り替える
    請求項1又は2に記載のプログラム。
  8. 前記オブジェクトの選択を受け付けた場合に、前記地球儀領域の周囲に前記オブジェクトに関連する情報を記載した複数のボードを表示する
    請求項1又は2に記載のプログラム。
  9. 前記地球儀の動きの検知にかかわらず、前記複数のボードの表示位置を保持する
    請求項8に記載のプログラム。
  10. 現実空間の地球儀をかざした場合に、前記地球儀の動きに対応して第1仮想空間の地球儀を表示すると共に該第1仮想空間上の所定位置に複数のオブジェクトを表示し、
    いずれかの前記オブジェクトの選択を受け付けた場合に、前記第1仮想空間の地球儀領域の地球画像を、前記第1仮想空間とは異なる第2仮想空間における前記地球画像とは異なる第2画像へ変更すると共に前記第2画像内に選択されたオブジェクトを表示し、
    前記第2仮想空間内の前記地球画像とは異なる第2画像へ変更された該第2画像内のオブジェクトを現実空間に拡張させるコマンドを受け付けた場合に、前記第2仮想空間内の前記オブジェクトを地球儀領域外の領域であり、かつ、撮像部から取り込んだ現実空間オブジェクトが写りこんだ現実空間の画像領域に拡張現実として表示する
    処理をコンピュータが実行する情報処理方法。
  11. 制御部を備える情報処理装置であって、
    前記制御部は、
    現実空間の地球儀をかざした場合に、前記地球儀の動きに対応して第1仮想空間の地球儀を表示すると共に該第1仮想空間上の所定位置に複数のオブジェクトを表示し、
    いずれかの前記オブジェクトの選択を受け付けた場合に、前記第1仮想空間の地球儀領域の地球画像を、前記第1仮想空間とは異なる第2仮想空間における前記地球画像とは異なる第2画像へ変更すると共に前記第2画像内に選択されたオブジェクトを表示し、
    前記第2仮想空間内の前記地球画像とは異なる第2画像へ変更された該第2画像内のオブジェクトを現実空間に拡張させるコマンドを受け付けた場合に、前記第2仮想空間内の前記オブジェクトを地球儀領域外の領域であり、かつ、撮像部から取り込んだ現実空間オブジェクトが写りこんだ現実空間の画像領域に拡張現実として表示する
    情報処理装置。
JP2023142372A 2023-09-01 2023-09-01 プログラム、情報処理方法及び情報処理装置 Active JP7449437B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023142372A JP7449437B1 (ja) 2023-09-01 2023-09-01 プログラム、情報処理方法及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023142372A JP7449437B1 (ja) 2023-09-01 2023-09-01 プログラム、情報処理方法及び情報処理装置

Publications (1)

Publication Number Publication Date
JP7449437B1 true JP7449437B1 (ja) 2024-03-13

Family

ID=90183572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023142372A Active JP7449437B1 (ja) 2023-09-01 2023-09-01 プログラム、情報処理方法及び情報処理装置

Country Status (1)

Country Link
JP (1) JP7449437B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017522682A (ja) 2014-07-24 2017-08-10 央数文化(上海)股▲ふん▼有限公司YoungZone Culture(Shanghai) Co.,Ltd. 拡張現実技術に基づく手持ち式閲覧デバイス及びその方法
US20190156580A1 (en) 2017-11-17 2019-05-23 Mobilizar Technologies Private Limited Globe, and a method and a system for enabling augmented reality interactions with a globe
JP2019091203A (ja) 2017-11-14 2019-06-13 株式会社ほぼ日 プログラム、情報処理装置及び情報処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017522682A (ja) 2014-07-24 2017-08-10 央数文化(上海)股▲ふん▼有限公司YoungZone Culture(Shanghai) Co.,Ltd. 拡張現実技術に基づく手持ち式閲覧デバイス及びその方法
JP2019091203A (ja) 2017-11-14 2019-06-13 株式会社ほぼ日 プログラム、情報処理装置及び情報処理方法
US20190156580A1 (en) 2017-11-17 2019-05-23 Mobilizar Technologies Private Limited Globe, and a method and a system for enabling augmented reality interactions with a globe

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
佐藤信彦,入学祝いにぴったりな学習用のAR地球儀「Orboot」--地球上に画像がポップアップ,CNET Japan [online],2017年03月03日,[検索日 2018.05.02], インターネット<URL:https://japan.cnet.com/article/35097547/>
大山繁樹,売れる「ほぼ日のアースボール」、ARX地球儀で新しい体験,NIKKEI DESIGN,2018年06月24日,第373号 ,pp.20-21

Similar Documents

Publication Publication Date Title
US9552129B2 (en) Interactive visual representation of points of interest data
JP5724544B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6170972B2 (ja) コンテンツ表示のためのギャラリアプリケーションに関する方法及びコンピュータ読み取り可能記録媒体
JP5724543B2 (ja) 端末装置、オブジェクト制御方法及びプログラム
US11941762B2 (en) System and method for augmented reality scenes
JP4828132B2 (ja) キーベースの先進のナビゲーション技術
Cockburn et al. Comparing speed-dependent automatic zooming with traditional scroll, pan and zoom methods
JP5592011B2 (ja) マルチスケール3次元配向
US20180301111A1 (en) Electronic device and method for displaying electronic map in electronic device
JP2019197519A (ja) クリエイティブカメラ
JP6337907B2 (ja) 表示制御装置、表示制御方法およびプログラム
CN109741397B (zh) 图片标记方法、装置、计算机设备及可读存储介质
CN102405484A (zh) 显示具有鱼眼变形效果的柱状图
US20130132873A1 (en) Information processing apparatus and information processing method to realize input means having high operability
CN107430595B (zh) 用于根据快速阅读模式显示经识别的文本的方法和系统
US20180108183A1 (en) Projecting a two-dimensional image onto a three-dimensional graphical object
CN107451235B (zh) 空间维度标记的展示方法和装置
EP2905692B1 (en) Information processing apparatus, information processing method, and program
JP7449437B1 (ja) プログラム、情報処理方法及び情報処理装置
JP6065353B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN115129278A (zh) 图像显示控制方法、系统、可读存储介质及电子设备
JP5803302B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6763155B2 (ja) 情報処理装置及びプログラム
CN117897682A (zh) 在物理表面上显示数字媒体内容
JP4550460B2 (ja) コンテンツ表現制御装置およびコンテンツ表現制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230901

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240301

R150 Certificate of patent or registration of utility model

Ref document number: 7449437

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150