JP7438827B2 - Display control system, display control method, and display control program - Google Patents

Display control system, display control method, and display control program Download PDF

Info

Publication number
JP7438827B2
JP7438827B2 JP2020068984A JP2020068984A JP7438827B2 JP 7438827 B2 JP7438827 B2 JP 7438827B2 JP 2020068984 A JP2020068984 A JP 2020068984A JP 2020068984 A JP2020068984 A JP 2020068984A JP 7438827 B2 JP7438827 B2 JP 7438827B2
Authority
JP
Japan
Prior art keywords
attitude
operating device
display
marker
object image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020068984A
Other languages
Japanese (ja)
Other versions
JP2021165934A (en
Inventor
尚樹 谷
祐介 小西
浩章 奥本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2020068984A priority Critical patent/JP7438827B2/en
Priority to US17/220,289 priority patent/US11650673B2/en
Publication of JP2021165934A publication Critical patent/JP2021165934A/en
Priority to US18/130,819 priority patent/US20230244327A1/en
Application granted granted Critical
Publication of JP7438827B2 publication Critical patent/JP7438827B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表示制御システム、表示制御方法、及び表示制御プログラムに関する。 The present invention relates to a display control system, a display control method, and a display control program.

従来、コンピュータグラフィックス(CG)データとして作成された鑑賞対象物の形状を模したレプリカ(模型、人形)の動きに合わせて、前記鑑賞対象物のCG画像を表示装置に提示するシステムが提案されている(例えば特許文献1参照)。このシステムによれば、鑑賞者が見たい任意の方向から見た画像を表示装置に提示することが可能となる。 Conventionally, a system has been proposed in which a CG image of an object to be appreciated is displayed on a display device in accordance with the movement of a replica (model, doll) that is created as computer graphics (CG) data and imitates the shape of the object. (For example, see Patent Document 1). According to this system, it is possible to present an image viewed from any direction desired by the viewer on the display device.

特開2006-127004号公報Japanese Patent Application Publication No. 2006-127004

しかし、従来のシステムは、レプリカの動きに連動させて表示装置のCG画像の姿勢を変化させることは可能であるが、例えば鑑賞対象物に関する様々な情報(説明、解説など)をレプリカの動きに連動させて鑑賞者に提示することは困難である。特に鑑賞対象物が美術品などである場合には、美術品に関する情報を鑑賞者に提示可能であることが望まれる。 However, with conventional systems, although it is possible to change the posture of the CG image on the display device in conjunction with the movement of the replica, for example, it is possible to change the posture of the CG image on the display device in conjunction with the movement of the replica. It is difficult to present them to the viewer in a linked manner. Particularly when the object to be appreciated is a work of art, it is desirable to be able to present information regarding the work of art to the viewer.

本発明の目的は、表示装置に表示される操作対象物のオブジェクト画像の姿勢を操作装置の姿勢変化に連動させて変化させる表示制御システムであって、当該操作対象物の特定情報をユーザに提示することが可能な表示制御システム、表示制御方法、及び表示制御プログラムを提供することにある。 An object of the present invention is to provide a display control system that changes the attitude of an object image of an operation target displayed on a display device in conjunction with a change in the attitude of an operation device, the system presenting specific information of the operation target to a user. An object of the present invention is to provide a display control system, a display control method, and a display control program that can perform the following operations.

本発明の一の態様に係る表示制御システムは、表示装置に表示される操作対象物のオブジェクト画像の姿勢を操作装置の姿勢変化に連動させて変化させる表示制御システムであって、前記オブジェクト画像の特定位置に設定されたマーカーを検出するマーカー検出部と、前記マーカー検出部により前記マーカーが検出された場合に、検出された前記マーカーに対応付けられた特定情報を提示する情報提示部と、を備える。 A display control system according to one aspect of the present invention is a display control system that changes the posture of an object image of an operation target displayed on a display device in conjunction with a change in the posture of an operating device, the system comprising: a marker detection unit that detects a marker set at a specific position; and an information presentation unit that presents specific information associated with the detected marker when the marker is detected by the marker detection unit. Be prepared.

本発明の他の形態に係る表示制御方法は、表示装置に表示される操作対象物のオブジェクト画像の姿勢を操作装置の姿勢変化に連動させて変化させる表示制御方法であって、前記オブジェクト画像の特定位置に設定されたマーカーを検出するマーカー検出ステップと、前記マーカー検出ステップにより前記マーカーが検出された場合に、検出された前記マーカーに対応付けられた特定情報を提示する情報提示ステップと、を一又は複数のプロセッサにより実行する方法である。 A display control method according to another aspect of the present invention is a display control method for changing the attitude of an object image of an operation target displayed on a display device in conjunction with a change in the attitude of an operating device, the method comprising: a marker detection step of detecting a marker set at a specific position; and an information presentation step of presenting specific information associated with the detected marker when the marker is detected by the marker detection step. This method is executed by one or more processors.

本発明の他の形態に係る表示制御プログラムは、表示装置に表示される操作対象物のオブジェクト画像の姿勢を操作装置の姿勢変化に連動させて変化させる表示制御方法であって、前記オブジェクト画像の特定位置に設定されたマーカーを検出するマーカー検出ステップと、前記マーカー検出ステップにより前記マーカーが検出された場合に、検出された前記マーカーに対応付けられた特定情報を提示する情報提示ステップと、を一又は複数のプロセッサに実行させるためのプログラムである。 A display control program according to another aspect of the present invention is a display control method for changing the attitude of an object image of an operation target displayed on a display device in conjunction with a change in the attitude of an operating device, the program comprising: a marker detection step of detecting a marker set at a specific position; and an information presentation step of presenting specific information associated with the detected marker when the marker is detected by the marker detection step. This is a program to be executed by one or more processors.

本発明によれば、表示装置に表示される操作対象物のオブジェクト画像の姿勢を操作装置の姿勢変化に連動させて変化させる表示制御システムであって、当該操作対象物の特定情報をユーザに提示することが可能な表示制御システム、表示制御方法、及び表示制御プログラムが提供される。 According to the present invention, there is provided a display control system that changes the orientation of an object image of an operation target displayed on a display device in conjunction with a change in the orientation of an operation device, the system presenting specific information of the operation target to a user. A display control system, a display control method, and a display control program are provided.

図1は、本発明の実施形態に係る表示制御システムの構成を示す模式図である。FIG. 1 is a schematic diagram showing the configuration of a display control system according to an embodiment of the present invention. 図2は、本発明の実施形態に係る表示制御システムの構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of a display control system according to an embodiment of the present invention. 図3は、本発明の実施形態に係る操作装置の外観を示す図である。FIG. 3 is a diagram showing the appearance of the operating device according to the embodiment of the present invention. 図4Aは、本発明の実施形態に係る操作装置の正対姿勢の設定方法の一例を示す図である。FIG. 4A is a diagram illustrating an example of a method for setting the facing attitude of the operating device according to the embodiment of the present invention. 図4Bは、本発明の実施形態に係る操作装置の正対姿勢の設定方法の一例を示す図である。FIG. 4B is a diagram illustrating an example of a method for setting the facing attitude of the operating device according to the embodiment of the present invention. 図4Cは、本発明の実施形態に係る操作装置の正対姿勢の設定方法の一例を示す図である。FIG. 4C is a diagram illustrating an example of a method for setting the facing attitude of the operating device according to the embodiment of the present invention. 図5は、本発明の実施形態に係る表示装置に表示されるオブジェクト画像の一例を示す図である。FIG. 5 is a diagram showing an example of an object image displayed on the display device according to the embodiment of the present invention. 図6は、本発明の実施形態に係る表示装置に表示されるオブジェクト画像の一例を示す図である。FIG. 6 is a diagram showing an example of an object image displayed on the display device according to the embodiment of the present invention. 図7は、本発明の実施形態に係る表示装置に表示されるオブジェクト画像のマーカーの一例を示す図である。FIG. 7 is a diagram illustrating an example of a marker of an object image displayed on a display device according to an embodiment of the present invention. 図8は、本発明の実施形態に係る表示装置に表示されるオブジェクト画像の一例を示す図である。FIG. 8 is a diagram showing an example of an object image displayed on the display device according to the embodiment of the present invention. 図9は、本発明の実施形態に係る表示装置に表示されるオブジェクト画像の一例を示す図である。FIG. 9 is a diagram showing an example of an object image displayed on the display device according to the embodiment of the present invention. 図10は、本発明の実施形態に係る表示制御システムにおける断面表示モードを説明するための図である。FIG. 10 is a diagram for explaining the cross-sectional display mode in the display control system according to the embodiment of the present invention. 図11は、本発明の実施形態に係る表示装置に表示されるオブジェクト画像の一例を示す図である。FIG. 11 is a diagram showing an example of an object image displayed on a display device according to an embodiment of the present invention. 図12は、本発明の実施形態に係る操作装置で実行される表示制御処理の手順の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of the procedure of display control processing executed by the operating device according to the embodiment of the present invention. 図13は、本発明の実施形態に係る表示制御システムにおける操作装置とユーザとの相対位置を示す図である。FIG. 13 is a diagram showing the relative positions of the operating device and the user in the display control system according to the embodiment of the present invention. 図14は、本発明の実施形態に係る操作装置の外観を示す図である。FIG. 14 is a diagram showing the appearance of the operating device according to the embodiment of the present invention.

以下添付図面を参照しながら、本発明の実施形態について説明し、本発明の理解に供する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。 Embodiments of the present invention will be described below with reference to the accompanying drawings to provide an understanding of the present invention. Note that the following embodiments are examples of embodying the present invention, and do not limit the technical scope of the present invention.

[表示制御システム100]
図1及び図2に示されるように、本発明の実施形態に係る表示制御システム100は、操作装置1と表示装置2とを含む。操作装置1と表示装置2とは、無線LAN、有線LANなどの通信網N1を介して通信可能である。操作装置1は本発明の操作装置の一例であり、表示装置2は本発明の表示装置の一例である。
[Display control system 100]
As shown in FIGS. 1 and 2, a display control system 100 according to an embodiment of the present invention includes an operating device 1 and a display device 2. The operating device 1 and the display device 2 can communicate via a communication network N1 such as a wireless LAN or a wired LAN. The operating device 1 is an example of the operating device of the present invention, and the display device 2 is an example of the display device of the present invention.

表示制御システム100は、表示装置2に表示される操作対象物のオブジェクト画像3の姿勢を、操作対象物を模した形状を有する操作装置1の姿勢変化に連動させて変化させることが可能である。例えば、前記操作対象物は美術品であり、オブジェクト画像3は美術品の三次元画像であり、操作装置1は美術品のレプリカ(模型)である。本実施形態では、美術品の一例として陶器の茶碗を例に挙げて説明する。操作装置1は、例えば前記茶碗と素材、形状、大きさ、重さ、質感などが同等のレプリカである。 The display control system 100 is capable of changing the posture of the object image 3 of the operation target displayed on the display device 2 in conjunction with the change in the posture of the operation device 1, which has a shape imitating the operation target. . For example, the object to be operated is a work of art, the object image 3 is a three-dimensional image of the work of art, and the operating device 1 is a replica (model) of the work of art. In this embodiment, a ceramic tea bowl will be described as an example of a work of art. The operating device 1 is, for example, a replica having the same material, shape, size, weight, texture, etc. as the teacup.

例えば図1に示すように、ユーザ(鑑賞者)が操作装置1(茶碗のレプリカ)を把持してD1方向に回転させると、表示制御システム100は、表示装置2に表示されたオブジェクト画像3をユーザの操作に応じてD1方向に回転させる。また、例えばユーザが操作装置1を把持してD2方向に回転させると、表示制御システム100は、オブジェクト画像3をユーザの操作に応じてD2方向に回転させる。また、例えばユーザが操作装置1を把持したまま腕を伸ばして顔から遠ざける方向(奥側)に動かすと、すなわち操作装置1を表示装置2側に近づけると、表示制御システム100は、表示装置2に表示されたオブジェクト画像3を縮小表示させる。また、例えばユーザが操作装置1を把持したまま腕を縮めて顔に近づける方向(手前側)に動かすと、すなわち操作装置1を表示装置2から遠ざけると、表示制御システム100は、表示装置2に表示されたオブジェクト画像3を拡大表示させる。 For example, as shown in FIG. 1, when a user (viewer) grasps the operating device 1 (a replica of a teacup) and rotates it in the D1 direction, the display control system 100 controls the object image 3 displayed on the display device 2. It is rotated in the D1 direction according to the user's operation. Further, for example, when the user grips the operating device 1 and rotates it in the D2 direction, the display control system 100 rotates the object image 3 in the D2 direction in accordance with the user's operation. Further, for example, when the user extends his arm while holding the operating device 1 and moves it away from his face (towards the back), that is, when he brings the operating device 1 closer to the display device 2, the display control system 100 controls the display device 2. The object image 3 displayed in is displayed in a reduced size. Further, for example, when the user contracts the arm while holding the operating device 1 and moves it in a direction closer to the face (towards the front), that is, when the user moves the operating device 1 away from the display device 2, the display control system 100 controls the display device 2. The displayed object image 3 is enlarged and displayed.

このように、操作装置1は、ユーザの操作に応じて、表示装置2に表示されるオブジェクト画像3の姿勢を変化させることが可能なコントローラーである。美術品(例えば茶碗)は、本発明の操作対象物の一例である。またオブジェクト画像3は、本発明のオブジェクト画像の一例である。 In this way, the operating device 1 is a controller that can change the attitude of the object image 3 displayed on the display device 2 in accordance with the user's operation. A work of art (for example, a teacup) is an example of an object to be manipulated according to the present invention. Further, object image 3 is an example of an object image of the present invention.

本実施形態では、表示制御システム100が本発明に係る表示制御システムに相当するが、本発明に係る表示制御システムは、操作装置1単体又は表示装置2単体により実現されてもよい。 In this embodiment, the display control system 100 corresponds to the display control system according to the present invention, but the display control system according to the present invention may be realized by a single operation device 1 or a single display device 2.

[操作装置1]
図2に示されるように、操作装置1は、制御部11、記憶部12、姿勢検出センサ13、及び通信部14などを備える。操作装置1で実行される各種の処理は、一又は複数のプロセッサによって分散して実行されてもよい。図3には、操作装置1の外観を示している。本実施形態では、操作装置1は、茶碗のレプリカである。
[Operating device 1]
As shown in FIG. 2, the operating device 1 includes a control section 11, a storage section 12, an attitude detection sensor 13, a communication section 14, and the like. Various processes executed by the operating device 1 may be executed in a distributed manner by one or more processors. FIG. 3 shows the external appearance of the operating device 1. In this embodiment, the operating device 1 is a replica of a teacup.

通信部14は、操作装置1を有線又は無線で通信網N1に接続し、通信網N1を介して表示装置2などの外部機器との間で所定の通信プロトコルに従ったデータ通信を実行するための通信インターフェースである。 The communication unit 14 connects the operating device 1 to the communication network N1 by wire or wirelessly, and executes data communication according to a predetermined communication protocol with an external device such as the display device 2 via the communication network N1. communication interface.

姿勢検出センサ13は、操作装置1の姿勢を検出するセンサであり、ジャイロセンサ、加速度センサ、地磁気センサなどである。例えば、姿勢検出センサ13は、操作装置1の回転、傾きなどの姿勢変化を検出して、検出信号を制御部11に出力する。姿勢検出センサ13は、操作装置1に搭載されている。本実施形態では、例えば図3に示すように、姿勢検出センサ13は、茶碗の内側の底部に固定されている。なお、姿勢検出センサ13は、外部から見えないように蓋で覆われてもよいし、操作装置1に内蔵されてもよい。 The attitude detection sensor 13 is a sensor that detects the attitude of the operating device 1, and is a gyro sensor, an acceleration sensor, a geomagnetic sensor, or the like. For example, the posture detection sensor 13 detects posture changes such as rotation and tilt of the operating device 1 and outputs a detection signal to the control unit 11 . The attitude detection sensor 13 is mounted on the operating device 1. In this embodiment, for example, as shown in FIG. 3, the posture detection sensor 13 is fixed to the inner bottom of the teacup. Note that the attitude detection sensor 13 may be covered with a lid so that it cannot be seen from the outside, or may be built into the operating device 1.

記憶部12は、各種の情報を記憶するHDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリーなどの不揮発性の記憶部である。記憶部12には、制御部11に後述の表示制御処理(図12参照)を実行させるための表示制御プログラムなどの制御プログラムが記憶されている。例えば、前記表示制御プログラムは、USB、CD又はDVDなどのコンピュータ読取可能な記録媒体に非一時的に記録されており、操作装置1に電気的に接続されるUSBドライブ、CDドライブ又はDVDドライブなどの読取装置(不図示)で読み取られて記憶部12に記憶される。また、前記表示制御プログラムは、操作装置1からアクセス可能なサーバからダウンロードされて、記憶部12に記憶されてもよい。 The storage unit 12 is a nonvolatile storage unit such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a flash memory that stores various information. The storage unit 12 stores control programs such as a display control program for causing the control unit 11 to execute display control processing (see FIG. 12), which will be described later. For example, the display control program is non-temporarily recorded on a computer-readable recording medium such as a USB, a CD, or a DVD, and is connected to a USB drive, a CD drive, a DVD drive, etc. that is electrically connected to the operating device 1. is read by a reading device (not shown) and stored in the storage unit 12. Further, the display control program may be downloaded from a server accessible from the operating device 1 and stored in the storage unit 12.

制御部11は、CPU、ROM、及びRAMなどの制御機器を有する。前記CPUは、各種の演算処理を実行するプロセッサである。前記ROMは、前記CPUに各種の演算処理を実行させるためのBIOS及びOSなどの制御プログラムが予め記憶される不揮発性の記憶部である。前記RAMは、各種の情報を記憶する揮発性又は不揮発性の記憶部であり、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。そして、制御部11は、前記ROM又は記憶部12に予め記憶された各種の制御プログラムを前記CPUで実行することにより操作装置1を制御する。 The control unit 11 includes control devices such as a CPU, ROM, and RAM. The CPU is a processor that executes various calculation processes. The ROM is a non-volatile storage unit that stores in advance control programs such as a BIOS and an OS for causing the CPU to execute various arithmetic processes. The RAM is a volatile or nonvolatile storage unit that stores various information, and is used as a temporary storage memory (work area) for various processes executed by the CPU. The control unit 11 controls the operating device 1 by causing the CPU to execute various control programs stored in advance in the ROM or the storage unit 12.

具体的に、制御部11は、図2に示されるように、姿勢設定部111、姿勢検出部112などの各種の処理部を含む。なお、制御部11は、前記CPUで前記表示制御プログラムに従った各種の処理を実行することによって、姿勢設定部111及び姿勢検出部112として機能する。また、制御部11に含まれる一部又は全部の処理部が電子回路で構成されていてもよい。なお、前記表示制御プログラムは、複数のプロセッサを前記各種の処理部として機能させるためのプログラムであってもよい。 Specifically, the control unit 11 includes various processing units such as an attitude setting unit 111 and an attitude detection unit 112, as shown in FIG. Note that the control unit 11 functions as an attitude setting unit 111 and an attitude detection unit 112 by causing the CPU to execute various processes according to the display control program. Furthermore, some or all of the processing units included in the control unit 11 may be configured with electronic circuits. Note that the display control program may be a program for causing a plurality of processors to function as the various processing units.

姿勢設定部111は、操作装置1の姿勢を、操作装置1がユーザに対して正対する正対姿勢に設定する。具体的には、姿勢設定部111は、ユーザが操作装置1に正対する位置、すなわちユーザが操作装置1の正面となる位置の操作装置1の姿勢(正対姿勢)を登録する。例えば、姿勢設定部111は、正対姿勢における操作装置1のXYZ方向の座標、傾きを姿勢検出センサ13から取得して登録する。 The attitude setting unit 111 sets the attitude of the operating device 1 to a facing attitude in which the operating device 1 faces the user. Specifically, the attitude setting unit 111 registers the attitude of the operating device 1 at a position where the user directly faces the operating device 1, that is, a position where the user faces the operating device 1 (front-facing attitude). For example, the attitude setting unit 111 acquires and registers the coordinates and inclination of the operating device 1 in the XYZ directions in the facing attitude from the attitude detection sensor 13.

例えば、姿勢設定部111は、操作装置1に設けられる地磁気センサ(方位磁石)を利用して、正対姿勢を設定してもよい。例えば、図4Aに示すように、表示装置2を予め所定の方位Aに向くように位置合わせし、表示装置2の正面に操作装置1を所定時間(例えば5秒)載置する。そして、姿勢設定部111は、表示装置2の前記方位Aと、地磁気センサの方位B(N極)との相対関係により、表示装置2に対する操作装置1の正面方向を算出する。これにより、姿勢設定部111は、操作装置1の姿勢を正対姿勢に設定する。 For example, the attitude setting unit 111 may use a geomagnetic sensor (compass) provided in the operating device 1 to set the facing attitude. For example, as shown in FIG. 4A, the display device 2 is aligned in advance to face a predetermined direction A, and the operating device 1 is placed in front of the display device 2 for a predetermined period of time (for example, 5 seconds). Then, the attitude setting unit 111 calculates the front direction of the operating device 1 with respect to the display device 2 based on the relative relationship between the azimuth A of the display device 2 and the azimuth B (north pole) of the geomagnetic sensor. Thereby, the attitude setting unit 111 sets the attitude of the operating device 1 to the facing attitude.

また例えば、姿勢設定部111は、操作装置1に設けられる地磁気センサ(方位磁石)と、表示装置2の正面に配置された磁石Mgとを利用して、正対姿勢を設定してもよい。例えば、図4Bに示すように、表示装置2の正面に磁石Mgを配置し、磁石Mgの前方に操作装置1を所定時間(例えば5秒)載置する。そして、地磁気センサが磁石Mgの方向を検出し、姿勢設定部111は、地磁気センサが検出した方向に基づいて、表示装置2に対する操作装置1の正面方向を算出する。これにより、姿勢設定部111は、操作装置1の姿勢を正対姿勢に設定する。 For example, the attitude setting unit 111 may set the facing attitude using a geomagnetic sensor (compass) provided in the operating device 1 and a magnet Mg arranged in front of the display device 2. For example, as shown in FIG. 4B, a magnet Mg is placed in front of the display device 2, and the operating device 1 is placed in front of the magnet Mg for a predetermined period of time (for example, 5 seconds). Then, the geomagnetic sensor detects the direction of the magnet Mg, and the attitude setting unit 111 calculates the front direction of the operating device 1 with respect to the display device 2 based on the direction detected by the geomagnetic sensor. Thereby, the attitude setting unit 111 sets the attitude of the operating device 1 to the facing attitude.

また例えば、姿勢設定部111は、操作装置1に設けられる加速度センサを利用して、正対姿勢を設定してもよい。例えば、図4Cに示すように、表示装置2の正面に、表示装置2に向かって角度d(例えば5度)だけ傾斜する傾斜台Tを設置し、傾斜台Tに操作装置1を所定時間(例えば5秒)載置する。なお、図4Cの点線は水平の台の位置を表している。そして、加速度センサがX軸、Y軸、Z軸の加速度を検出し、姿勢設定部111は、加速度センサが検出した加速度に基づいて、表示装置2に対する操作装置1の正面方向を算出する。これにより、姿勢設定部111は、操作装置1の姿勢を正対姿勢に設定する。 For example, the attitude setting unit 111 may set the facing attitude using an acceleration sensor provided in the operating device 1. For example, as shown in FIG. 4C, a tilting table T that is inclined by an angle d (for example, 5 degrees) toward the display device 2 is installed in front of the display device 2, and the operating device 1 is mounted on the tilting table T for a predetermined period of time ( For example, 5 seconds). Note that the dotted line in FIG. 4C represents the position of the horizontal platform. Then, the acceleration sensor detects acceleration on the X, Y, and Z axes, and the posture setting unit 111 calculates the front direction of the operating device 1 with respect to the display device 2 based on the acceleration detected by the acceleration sensor. Thereby, the attitude setting unit 111 sets the attitude of the operating device 1 to the facing attitude.

また例えば、姿勢設定部111は、ユーザが操作装置1に設けられるキャリブレーションボタン(不図示)を押したときの操作装置1の姿勢を正対姿勢に設定してもよい。例えば、ユーザは操作装置1を把持して操作装置1が自身の正面方向に向くように位置合わせする。その後、ユーザが前記キャリブレーションボタンを押すと、姿勢設定部111は、そのときの操作装置1の姿勢を正対姿勢に設定する。なお、前記キャリブレーションボタンの機能は、操作装置1に対する所定の操作に代替することもできる。例えば、前記位置合わせ後に、ユーザが操作装置1を所定方向に振った場合に、姿勢設定部111は、そのときの操作装置1の姿勢を正対姿勢に設定する。 For example, the attitude setting unit 111 may set the attitude of the operating device 1 to the facing attitude when the user presses a calibration button (not shown) provided on the operating device 1. For example, the user grasps the operating device 1 and positions the operating device 1 so that it faces in front of the user. After that, when the user presses the calibration button, the attitude setting unit 111 sets the attitude of the operating device 1 at that time to the facing attitude. Note that the function of the calibration button may be replaced by a predetermined operation on the operating device 1. For example, when the user swings the operating device 1 in a predetermined direction after the alignment, the attitude setting unit 111 sets the attitude of the operating device 1 at that time to the facing attitude.

また例えば、姿勢設定部111は、操作装置1に設けられるカメラ(不図示)を利用して、正対姿勢を設定してもよい。例えば、カメラがユーザと、ユーザの周囲の天井、床、壁などの周辺環境を撮像し、姿勢設定部111が、カメラから取得する撮像画像に基づいて、表示装置2に対する操作装置1の正面方向を算出する。これにより、姿勢設定部111は、操作装置1の姿勢を正対姿勢に設定する。 For example, the attitude setting unit 111 may set the facing attitude using a camera (not shown) provided in the operating device 1. For example, a camera images the user and the surrounding environment such as the ceiling, floor, and walls around the user, and the posture setting unit 111 determines the front direction of the operating device 1 with respect to the display device 2 based on the captured image acquired from the camera. Calculate. Thereby, the attitude setting unit 111 sets the attitude of the operating device 1 to the facing attitude.

このように、姿勢設定部111は、様々な方法により操作装置1の正面方向(正対姿勢)を設定することができる。また、姿勢設定部111は、ユーザが操作装置1を所定の場所に載置する度に正対姿勢を設定することが可能である。なお、操作装置1自身に正面、背面などの向きが定められている場合には、姿勢設定部111は、操作装置1の向きを考慮して正対姿勢を設定する。例えば、操作装置1がユーザ側(表示装置2の正面側)に向くようにして所定の場所に載置された場合に、姿勢設定部111は、正対姿勢を設定する。これにより、表示装置2は、オブジェクト画像3をその向きがユーザ側(表示装置2の正面側)に向くように表示することが可能となる。また、姿勢設定部111は、所定の場所に載置された操作装置1の向きを検出して、正対姿勢を設定してもよい。この場合、表示装置2は、オブジェクト画像3を操作装置1の向きと同じ方向を向くように表示する。 In this way, the attitude setting unit 111 can set the front direction (front-facing attitude) of the operating device 1 using various methods. Further, the attitude setting unit 111 can set the facing attitude each time the user places the operating device 1 at a predetermined location. Note that if the operating device 1 itself has a predetermined orientation such as front or back, the attitude setting unit 111 sets the facing attitude in consideration of the orientation of the operating device 1 . For example, when the operating device 1 is placed at a predetermined location so as to face the user (the front side of the display device 2), the attitude setting unit 111 sets the facing attitude. Thereby, the display device 2 can display the object image 3 so that the object image 3 faces the user (the front side of the display device 2). Further, the attitude setting unit 111 may detect the orientation of the operating device 1 placed at a predetermined location and set the facing attitude. In this case, the display device 2 displays the object image 3 so as to face the same direction as the operating device 1.

姿勢検出部112は、ユーザが操作装置1の姿勢を変化させた場合に、操作装置1の姿勢変化を検出する。具体的には、姿勢検出部112は、姿勢検出センサ13から取得する検出信号に基づいて操作装置1の姿勢変化を検出する。姿勢検出部112は、本発明の姿勢検出部の一例である。 The posture detection unit 112 detects a change in the posture of the operating device 1 when the user changes the posture of the operating device 1 . Specifically, the attitude detection unit 112 detects a change in the attitude of the operating device 1 based on a detection signal obtained from the attitude detection sensor 13. The posture detection section 112 is an example of the posture detection section of the present invention.

例えば図1に示すように、ユーザは、表示装置2に表示されたオブジェクト画像3の向きを変えたい場合に、操作装置1を把持して右方向D1又は左方向D2に回転させる。この場合に、姿勢検出部112は、姿勢検出センサ13から取得する検出信号に基づいて操作装置1の姿勢変化(右回転又は左回転)を検出する。 For example, as shown in FIG. 1, when the user wants to change the orientation of the object image 3 displayed on the display device 2, the user grasps the operating device 1 and rotates it in the right direction D1 or the left direction D2. In this case, the attitude detection unit 112 detects an attitude change (rightward rotation or leftward rotation) of the operating device 1 based on a detection signal obtained from the attitude detection sensor 13.

また例えば図1に示すように、ユーザは、表示装置2に表示されたオブジェクト画像3の大きさ(表示倍率)を変えたい(例えば拡大させたい)場合に、操作装置1を把持して手前側に動かす。この場合に、姿勢検出部112は、姿勢検出センサ13から取得する検出信号に基づいて、操作装置1の姿勢変化(手前側への移動)を検出する。 For example, as shown in FIG. 1, when the user wants to change the size (display magnification) of the object image 3 displayed on the display device 2 (for example, to enlarge it), the user holds the operating device 1 and moves it toward the front side. move to. In this case, the attitude detection unit 112 detects an attitude change (movement toward the front side) of the operating device 1 based on a detection signal obtained from the attitude detection sensor 13.

姿勢検出部112は、操作装置1の姿勢変化を検出すると、正対姿勢からの姿勢変化に対応する情報(姿勢情報)を表示装置2に出力する。前記姿勢情報には、回転角度、傾き角度、座標、表示倍率(拡大率、縮小率)などの情報が含まれる。 When detecting a change in the posture of the operating device 1 , the posture detection unit 112 outputs information (posture information) corresponding to the change in posture from the facing posture to the display device 2 . The posture information includes information such as a rotation angle, a tilt angle, coordinates, and a display magnification (enlargement rate, reduction rate).

[表示装置2]
図2に示されるように、表示装置2は、制御部21、記憶部22、表示部23、位置検出センサ24、及び通信部25などを備える。表示装置2は、例えばパーソナルコンピュータのような情報処理装置であってもよい。
[Display device 2]
As shown in FIG. 2, the display device 2 includes a control section 21, a storage section 22, a display section 23, a position detection sensor 24, a communication section 25, and the like. The display device 2 may be, for example, an information processing device such as a personal computer.

通信部25は、表示装置2を有線又は無線で通信網N1に接続し、通信網N1を介して操作装置1などの外部機器との間で所定の通信プロトコルに従ったデータ通信を実行するための通信インターフェースである。 The communication unit 25 connects the display device 2 to the communication network N1 by wire or wirelessly, and executes data communication according to a predetermined communication protocol with an external device such as the operating device 1 via the communication network N1. communication interface.

位置検出センサ24は、表示装置2に対する操作装置1の位置を検出する。具体的には、位置検出センサ24は、例えば位置検出センサ24の設置場所を基準(座標原点)とした操作装置1の位置(XYZ座標)を検出する。例えば、位置検出センサ24は、赤外線を照射して反射光を検出することにより操作装置1までの距離及び位置を検出する。なお、位置検出センサ24は、カメラで構成されてもよい。この場合、位置検出センサ24は、カメラによる撮像画像に基づいて操作装置1までの距離及び位置を検出する。位置検出センサ24は、表示装置2の外部に設けられてもよい。例えば、位置検出センサ24は、操作装置1及び表示装置2が設置される部屋の天井又は壁に設けられてもよい。 The position detection sensor 24 detects the position of the operating device 1 with respect to the display device 2 . Specifically, the position detection sensor 24 detects the position (XYZ coordinates) of the operating device 1 with the installation location of the position detection sensor 24 as a reference (coordinate origin), for example. For example, the position detection sensor 24 detects the distance and position to the operating device 1 by emitting infrared rays and detecting reflected light. Note that the position detection sensor 24 may be composed of a camera. In this case, the position detection sensor 24 detects the distance and position to the operating device 1 based on the image captured by the camera. The position detection sensor 24 may be provided outside the display device 2. For example, the position detection sensor 24 may be provided on the ceiling or wall of a room in which the operating device 1 and the display device 2 are installed.

表示部23は、各種の情報を表示する液晶ディスプレイ又は有機ELディスプレイである。表示部23は、例えばオブジェクト画像3を表示する。なお、表示装置2は、各種の操作を受け付けるマウス、キーボード、又はタッチパネルなどの操作部(不図示)を備えてもよい。 The display unit 23 is a liquid crystal display or an organic EL display that displays various information. The display unit 23 displays the object image 3, for example. Note that the display device 2 may include an operation unit (not shown) such as a mouse, a keyboard, or a touch panel that accepts various operations.

記憶部22は、各種の情報を記憶するHDD、SSD又はフラッシュメモリーなどの不揮発性の記憶部である。記憶部22には、表示部23に表示されるオブジェクト画像3のデータ(三次元画像データ)が記憶される。 The storage unit 22 is a nonvolatile storage unit such as an HDD, SSD, or flash memory that stores various information. The storage unit 22 stores data (three-dimensional image data) of the object image 3 displayed on the display unit 23.

また、記憶部22には、制御部21に後述の表示制御処理(図12参照)を実行させるための表示制御プログラムなどの制御プログラムが記憶されている。例えば、前記表示制御プログラムは、USB、CD又はDVDなどのコンピュータ読取可能な記録媒体に非一時的に記録されており、表示装置2に電気的に接続されるUSBドライブ、CDドライブ又はDVDドライブなどの読取装置(不図示)で読み取られて記憶部22に記憶される。また、前記表示制御プログラムは、表示装置2からアクセス可能なサーバからダウンロードされて、記憶部22に記憶されてもよい。 The storage unit 22 also stores control programs such as a display control program for causing the control unit 21 to execute display control processing (see FIG. 12), which will be described later. For example, the display control program is non-temporarily recorded on a computer-readable recording medium such as a USB, a CD, or a DVD, and is connected to a USB drive, a CD drive, a DVD drive, etc. that is electrically connected to the display device 2. is read by a reading device (not shown) and stored in the storage unit 22. Further, the display control program may be downloaded from a server accessible from the display device 2 and stored in the storage unit 22.

制御部21は、CPU、ROM、及びRAMなどの制御機器を有する。前記CPUは、各種の演算処理を実行するプロセッサである。前記ROMは、前記CPUに各種の処理を実行させるためのBIOS及びOSなどの制御プログラムが予め記憶された不揮発性の記憶部である。前記RAMは、各種の情報を記憶する揮発性又は不揮発性の記憶部であり、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。そして、制御部21は、前記ROM又は記憶部22に予め記憶された各種の制御プログラムを前記CPUで実行することにより表示装置2を制御する。 The control unit 21 includes control devices such as a CPU, ROM, and RAM. The CPU is a processor that executes various calculation processes. The ROM is a nonvolatile storage unit in which control programs such as a BIOS and an OS for causing the CPU to execute various processes are stored in advance. The RAM is a volatile or nonvolatile storage unit that stores various information, and is used as a temporary storage memory (work area) for various processes executed by the CPU. The control unit 21 controls the display device 2 by causing the CPU to execute various control programs stored in the ROM or the storage unit 22 in advance.

具体的に、制御部21は、図2に示されるように、表示処理部211、姿勢制御部212、マーカー検出部213、情報提示部214、断面表示部215などの各種の処理部を含む。なお、制御部21は、前記CPUで前記表示制御プログラムに従った各種の処理を実行することによって、表示処理部211、姿勢制御部212、マーカー検出部213、情報提示部214、断面表示部215として機能する。また、制御部21に含まれる一部又は全部の処理部が電子回路で構成されていてもよい。なお、前記表示制御プログラムは、複数のプロセッサを前記各種の処理部として機能させるためのプログラムであってもよい。 Specifically, the control unit 21 includes various processing units such as a display processing unit 211, an attitude control unit 212, a marker detection unit 213, an information presentation unit 214, and a cross-section display unit 215, as shown in FIG. Note that the control unit 21 executes various processes according to the display control program using the CPU, thereby controlling the display processing unit 211, the posture control unit 212, the marker detection unit 213, the information presentation unit 214, and the cross-section display unit 215. functions as Furthermore, some or all of the processing units included in the control unit 21 may be configured with electronic circuits. Note that the display control program may be a program for causing a plurality of processors to function as the various processing units.

表示処理部211は、各種情報を表示部23に表示させる。例えば、表示処理部211は、オブジェクト画像3(図1参照)を表示部23に表示させる。 The display processing unit 211 causes the display unit 23 to display various information. For example, the display processing unit 211 causes the display unit 23 to display the object image 3 (see FIG. 1).

姿勢制御部212は、操作装置1から前記姿勢情報を受信し、表示部23に表示されたオブジェクト画像3に対して当該姿勢情報に応じた処理を実行する。具体的には、姿勢制御部212は、操作装置1の姿勢変化に応じて、オブジェクト画像3の姿勢を変化させる。姿勢制御部212は、操作装置1の姿勢変化に対応する操作装置1の回転角と表示装置2に対する操作装置1の位置とに基づいて、オブジェクト画像3の姿勢を変化させる。姿勢制御部212は、本発明の姿勢制御部の一例である。 The attitude control unit 212 receives the attitude information from the operating device 1 and executes processing on the object image 3 displayed on the display unit 23 according to the attitude information. Specifically, the attitude control unit 212 changes the attitude of the object image 3 in accordance with the change in the attitude of the operating device 1 . The attitude control unit 212 changes the attitude of the object image 3 based on the rotation angle of the operating device 1 corresponding to the attitude change of the operating device 1 and the position of the operating device 1 with respect to the display device 2 . The attitude control unit 212 is an example of an attitude control unit of the present invention.

例えば、ユーザが操作装置1を動かした場合に、操作装置1の姿勢検出部112は、姿勢検出センサ13から取得する回転角度、傾き角度、座標、表示倍率などの情報を含む姿勢情報を表示装置2に出力する。姿勢制御部212は、前記姿勢情報を受信すると、前記姿勢情報に基づいてオブジェクト画像3の回転角度、傾き角度、座標、表示倍率などを変更する。なお、操作装置1自身に正面、背面などの向きが定められている場合には、姿勢制御部212は、操作装置1の向きとオブジェクト画像3の向きとが一致した状態で、オブジェクト画像3の回転角度、傾き角度、座標、表示倍率など変更する。また、姿勢制御部212は、位置検出センサ24の検出信号に基づいて、オブジェクト画像3の表示座標及び表示倍率を算出してもよい。 For example, when the user moves the operating device 1, the attitude detection unit 112 of the operating device 1 transmits attitude information including information such as rotation angle, tilt angle, coordinates, display magnification, etc. acquired from the attitude detection sensor 13 to the display device. Output to 2. Upon receiving the orientation information, the orientation control unit 212 changes the rotation angle, tilt angle, coordinates, display magnification, etc. of the object image 3 based on the orientation information. Note that if the operating device 1 itself has a predetermined orientation such as front or back, the posture control unit 212 adjusts the orientation of the object image 3 in a state where the orientation of the operating device 1 and the orientation of the object image 3 match. Change rotation angle, tilt angle, coordinates, display magnification, etc. Additionally, the attitude control unit 212 may calculate the display coordinates and display magnification of the object image 3 based on the detection signal of the position detection sensor 24.

例えば、図5に示すように、ユーザが操作装置1を顔に近付けるように手前側に移動させた場合に、姿勢制御部212は、移動量に応じた拡大率を算出してオブジェクト画像3の表示倍率を変更(拡大)する。また例えば、図6に示すように、ユーザが操作装置1を顔から遠ざけるように奥側に移動させた場合に、姿勢制御部212は、移動量に応じた縮小率を算出してオブジェクト画像3の表示倍率を変更(縮小)する。 For example, as shown in FIG. 5, when the user moves the operating device 1 to the front side so as to bring it closer to the face, the posture control unit 212 calculates an enlargement rate according to the amount of movement and displays the object image 3. Change (enlarge) the display magnification. For example, as shown in FIG. 6, when the user moves the operating device 1 to the back side away from the face, the posture control unit 212 calculates a reduction rate according to the amount of movement and reduces the object image 3. Change (reduce) the display magnification.

姿勢制御部212は、表示部23に表示されるオブジェクト画像3を、ユーザから見える操作装置1の姿勢と一致するように姿勢(表示状態)を制御する。このため、例えばユーザが茶碗(操作装置1)の底を自身に向けた場合には、姿勢制御部212は、オブジェクト画像3の茶碗の底がユーザ側に向くように回転させる。 The attitude control unit 212 controls the attitude (display state) of the object image 3 displayed on the display unit 23 so that it matches the attitude of the operating device 1 seen by the user. Therefore, for example, when the user points the bottom of the bowl (control device 1) toward himself, the posture control unit 212 rotates the bowl in the object image 3 so that the bottom of the bowl faces toward the user.

なお、姿勢制御部212は、操作装置1の姿勢検出部112の機能を兼ね備えてもよい。この場合、操作装置1において姿勢検出部112が省略されてもよい。 Note that the attitude control section 212 may also have the function of the attitude detection section 112 of the operating device 1. In this case, the posture detection section 112 may be omitted in the operating device 1.

マーカー検出部213、オブジェクト画像3の特定位置に設定されたマーカーMを検出する。例えば図7に示すように、オブジェクト画像3には、予め定められた各特定位置に複数のマーカーM1、M2、M3がそれぞれ設定されている。マーカーMは、複数個に限定されず、1個でもよい。例えば、展示会に茶碗を出展する出展者が、茶碗の特徴部分にマーカーMを設定する。各マーカーMは、表示装置2において、オブジェクト画像3とともに識別可能に表示される。例えばマーカーMは、表示装置2において点灯又は点滅して表示される。 A marker detection unit 213 detects a marker M set at a specific position of the object image 3. For example, as shown in FIG. 7, in the object image 3, a plurality of markers M1, M2, and M3 are set at each predetermined specific position. The number of markers M is not limited to a plurality, and may be one. For example, an exhibitor exhibiting a tea bowl at an exhibition sets a marker M on a characteristic part of the tea bowl. Each marker M is identifiably displayed on the display device 2 together with the object image 3. For example, the marker M is displayed on the display device 2 by lighting or blinking.

具体的には、マーカー検出部213は、操作装置1の姿勢変化に応じてオブジェクト画像3の姿勢が変化することによりマーカーMが表示装置2の正面方向に向いた場合にマーカーMを検出する。例えば図8に示すように、ユーザは表示装置2に表示されたオブジェクト画像3のマーカーM1が正面方向に向くように操作装置1を回転させる。操作装置1の回転に連動してオブジェクト画像3が回転してマーカーM1の向きが正面方向に一致した場合、具体的にはオブジェクト画像3におけるマーカーM1が付された部分(面)に垂直な方向が表示部23の表示面に垂直な方向と一致した場合に、マーカー検出部213は、マーカーM1を検出する。 Specifically, the marker detection unit 213 detects the marker M when the marker M faces toward the front of the display device 2 due to a change in the attitude of the object image 3 in accordance with a change in the attitude of the operating device 1 . For example, as shown in FIG. 8, the user rotates the operating device 1 so that the marker M1 of the object image 3 displayed on the display device 2 faces forward. When the object image 3 rotates in conjunction with the rotation of the operating device 1 and the orientation of the marker M1 coincides with the front direction, specifically, the direction perpendicular to the portion (plane) of the object image 3 to which the marker M1 is attached. When the direction coincides with the direction perpendicular to the display surface of the display unit 23, the marker detection unit 213 detects the marker M1.

情報提示部214は、マーカー検出部213によりマーカーMが検出された場合に、前記特定位置に対応付けられた特定情報を提示する。例えば図8に示す例では、情報提示部214は、マーカー検出部213によりマーカーM1が検出された場合に、マーカーM1に対応付けられた特定情報C1を表示部23に表示する。同様に、情報提示部214は、マーカー検出部213によりマーカーM2が検出された場合に、マーカーM2に対応付けられた特定情報C2を表示部23に表示し、マーカー検出部213によりマーカーM3が検出された場合に、マーカーM3に対応付けられた特定情報C3を表示部23に表示する。特定情報C1、C2、C3は、例えば、茶碗に関する説明、解説などの情報であり、それぞれ異なる情報が登録されている。特定情報Cは、テキスト情報であってもよいし、写真、イラストなどの画像情報であってもよい。各マーカーM及び各特定情報Cは、互いに関連付けられて記憶部22に記憶されている。 The information presentation unit 214 presents specific information associated with the specific position when the marker M is detected by the marker detection unit 213. For example, in the example shown in FIG. 8, when the marker M1 is detected by the marker detection unit 213, the information presentation unit 214 displays specific information C1 associated with the marker M1 on the display unit 23. Similarly, when marker M2 is detected by marker detection section 213, information presentation section 214 displays specific information C2 associated with marker M2 on display section 23, and when marker M3 is detected by marker detection section 213. When the marker M3 is selected, the specific information C3 associated with the marker M3 is displayed on the display section 23. The specific information C1, C2, and C3 are, for example, information such as explanations and explanations regarding the tea bowl, and different information is registered therein. The specific information C may be text information, or may be image information such as a photograph or illustration. Each marker M and each specific information C are stored in the storage unit 22 in association with each other.

情報提示部214は、マーカー検出部213によりマーカーMが検出されるごとに、対応する特定情報Cを提示する。 The information presentation unit 214 presents the corresponding specific information C each time the marker M is detected by the marker detection unit 213.

ここで、マーカー検出部213は、マーカーMを検出した場合に、検出済みであることを示す情報を記憶部22に登録してもよい。例えば、マーカー検出部213は、マーカーMごとに「検出済」、「未検出」の検出状況を登録する。マーカー検出部213は、検出済みのマーカーMについては再検出を行わない。このため、マーカーMが一度検出されて情報提示部214が対応する特定情報Cを提示した場合には、当該特定情報Cは再提示されない。マーカー検出部213は、マーカーMを検出した場合には、検出済みのマーカーMをオブジェクト画像3から削除してもよい。マーカー検出部213は、操作装置1が所定の場所に載置された場合に、前記検出状況をリセットする。この構成によれば、例えば、ユーザAが茶碗を鑑賞して特定情報C1、C2、C3の全てを閲覧した場合には、ユーザAに対して特定情報C1、C2、C3の再度の提示が行われない。その後、ユーザAが操作装置1を所定の場所に戻し、ユーザBが茶碗の鑑賞を開始した場合に特定情報C1、C2、C3の提示が行われる。 Here, when the marker detection unit 213 detects the marker M, it may register information indicating that the marker M has been detected in the storage unit 22. For example, the marker detection unit 213 registers the detection status of "detected" or "undetected" for each marker M. The marker detection unit 213 does not re-detect the detected marker M. Therefore, when the marker M is detected once and the information presentation unit 214 presents the corresponding specific information C, the specific information C is not presented again. When the marker detection unit 213 detects the marker M, the marker detection unit 213 may delete the detected marker M from the object image 3. The marker detection unit 213 resets the detection status when the operating device 1 is placed at a predetermined location. According to this configuration, for example, when user A appreciates the bowl and views all of the specific information C1, C2, and C3, the specific information C1, C2, and C3 are not presented to user A again. It won't happen. Thereafter, when the user A returns the operating device 1 to the predetermined location and the user B starts viewing the teacup, the specific information C1, C2, and C3 are presented.

なお、情報提示部214は、特定情報Cを音声により出力させてもよい。例えば、情報提示部214は、マーカー検出部213によりマーカーM1が検出された場合に、マーカーM1に対応付けられた特定情報C1のテキスト情報をスピーカ(不図示)から音声出力させる。前記スピーカは、表示装置2に設けられてもよいし、操作装置1に設けられてもよい。 Note that the information presentation unit 214 may output the specific information C by voice. For example, when the marker M1 is detected by the marker detection unit 213, the information presentation unit 214 causes a speaker (not shown) to output text information of the specific information C1 associated with the marker M1. The speaker may be provided on the display device 2 or the operating device 1.

また、マーカーMは、オブジェクト画像3のみに表示されてもよいし、オブジェクト画像3及び操作装置1の両方に表示されてもよいし、操作装置1のみに表示されてもよい。 Further, the marker M may be displayed only on the object image 3, may be displayed on both the object image 3 and the operating device 1, or may be displayed only on the operating device 1.

断面表示部215は、操作装置1が表示装置2から遠ざかる方向に移動して表示装置2から所定距離L1だけ離れた位置の仮想面S1に重なる場合に、操作装置1を仮想面S1で切断した切断面を含むオブジェクト画像3を表示部23に表示させる。具体的には、先ず、制御部21は、図9に示すように、所定距離L1だけ離れた位置に仮想面S1を設定する。所定距離L1は、管理者などにより予め設定され、適宜変更可能である。所定距離L1は記憶部22に登録される。制御部21は、位置検出センサ24の検出結果に基づいて操作装置1の位置を特定し、操作装置1が所定距離L1を超えた場合に、オブジェクト画像3の断面を表示する。なお、図9に示す操作装置1の点線は、仮想面S1による切断位置を表している。 The cross-section display unit 215 cuts the operating device 1 at the virtual plane S1 when the operating device 1 moves in a direction away from the display device 2 and overlaps the virtual plane S1 at a position away from the display device 2 by a predetermined distance L1. The object image 3 including the cut plane is displayed on the display unit 23. Specifically, first, the control unit 21 sets the virtual plane S1 at a position separated by a predetermined distance L1, as shown in FIG. The predetermined distance L1 is set in advance by an administrator or the like, and can be changed as appropriate. The predetermined distance L1 is registered in the storage unit 22. The control unit 21 specifies the position of the operating device 1 based on the detection result of the position detection sensor 24, and displays a cross section of the object image 3 when the operating device 1 exceeds a predetermined distance L1. Note that the dotted line of the operating device 1 shown in FIG. 9 represents the cutting position by the virtual plane S1.

例えば、制御部21は、オブジェクト画像3に設定された全てのマーカーMが検出され、全ての特定情報Cが提示された場合に、オブジェクト画像3の断面を表示可能な断面表示モードを有効にする。断面表示モードが無効の間は、制御部21は、操作装置1の移動に応じてオブジェクト画像3の表示倍率を変更する(図5、図6参照)。 For example, the control unit 21 enables a cross-section display mode in which a cross-section of the object image 3 can be displayed when all the markers M set on the object image 3 are detected and all the specific information C is presented. . While the cross-sectional display mode is disabled, the control unit 21 changes the display magnification of the object image 3 according to the movement of the operating device 1 (see FIGS. 5 and 6).

断面表示モードが有効になると、図10に示すように、制御部21は、操作装置1が表示装置2から所定距離L1の範囲内で移動する場合にはオブジェクト画像3の表示倍率を変更し、操作装置1が表示装置2から所定距離L1の範囲を超えて仮想面S1に重なる場合にオブジェクト画像3の断面を表示させる。例えば、所定距離L1の範囲内では、姿勢制御部212は、操作装置1が表示装置2に近づく場合にオブジェクト画像3を縮小表示させ、操作装置1が表示装置2から遠ざかる場合にオブジェクト画像3を拡大表示させる。一方、所定距離L1の範囲を超える場合に、断面表示部215は、操作装置1を仮想面S1で切断した切断面を含むオブジェクト画像3を表示部23に表示させる。また、所定距離L1の範囲を超える場合には、姿勢制御部212は、オブジェクト画像3を予め設定された設定倍率で表示させる。すなわち、所定距離L1の範囲を超える場合には、姿勢制御部212は、操作装置1の移動に応じてオブジェクト画像3の切断位置を変更し、表示倍率を変更しない。 When the cross-sectional display mode is enabled, as shown in FIG. 10, the control unit 21 changes the display magnification of the object image 3 when the operating device 1 moves within a predetermined distance L1 from the display device 2, When the operating device 1 overlaps the virtual plane S1 beyond a predetermined distance L1 from the display device 2, a cross section of the object image 3 is displayed. For example, within the range of the predetermined distance L1, the attitude control unit 212 displays the object image 3 in a reduced size when the operating device 1 approaches the display device 2, and displays the object image 3 in a reduced size when the operating device 1 moves away from the display device 2. Enlarge the display. On the other hand, if the predetermined distance L1 is exceeded, the cross-section display unit 215 causes the display unit 23 to display an object image 3 including a cross-section obtained by cutting the operating device 1 along the virtual plane S1. Further, when the predetermined distance L1 is exceeded, the posture control unit 212 displays the object image 3 at a preset magnification. That is, when the predetermined distance L1 is exceeded, the attitude control unit 212 changes the cutting position of the object image 3 according to the movement of the operating device 1, and does not change the display magnification.

また、情報提示部214は、仮想面S1が操作装置1の所定位置を切断する場合に、当該所定位置に対応付けられた特定情報C4を提示してもよい。例えば図11に示すように、仮想面S1が操作装置1の中間位置を切断する場合に、断面表示部215は、中間位置で切断した断面を含むオブジェクト画像3を表示するとともに、情報提示部214は、中間位置に対応付けられた特定情報C4を提示する。なお、情報提示部214は、仮想面S1が上述のマーカーM(図7参照)と重なった場合に、当該マーカーMに対応付けられた特定情報Cを提示してもよい。 Furthermore, when the virtual plane S1 cuts a predetermined position of the operating device 1, the information presentation unit 214 may present specific information C4 associated with the predetermined position. For example, as shown in FIG. 11, when the virtual plane S1 cuts an intermediate position of the operating device 1, the cross section display section 215 displays the object image 3 including the cross section cut at the intermediate position, and the information presentation section 214 presents specific information C4 associated with the intermediate position. Note that, when the virtual surface S1 overlaps with the marker M (see FIG. 7), the information presentation unit 214 may present the specific information C associated with the marker M.

[表示制御処理]
次に、図12を参照しつつ、表示制御システム100において実行される表示制御処理について説明する。具体的に、本実施形態では、操作装置1の制御部11及び表示装置2の制御部21によって表示制御処理が実行される。なお、制御部11、21は、操作装置1又は表示装置2の所定の操作によって表示制御処理を途中で終了することがある。
[Display control processing]
Next, the display control processing executed in the display control system 100 will be described with reference to FIG. 12. Specifically, in this embodiment, the display control process is executed by the control unit 11 of the operating device 1 and the control unit 21 of the display device 2. Note that the control units 11 and 21 may end the display control process midway through a predetermined operation of the operating device 1 or the display device 2.

なお、本発明は、前記表示制御処理に含まれる一又は複数のステップを実行する表示制御方法(本発明の表示制御方法の一例)の発明として捉えることができる。また、ここで説明する前記表示制御処理に含まれる一又は複数のステップは適宜省略されてもよい。なお、前記表示制御処理における各ステップは同様の作用効果を生じる範囲で実行順序が異なってもよい。さらに、ここでは制御部11、21によって前記表示制御処理における各ステップが実行される場合を例に挙げて説明するが、複数のプロセッサによって前記表示制御処理における各ステップが分散して実行される表示制御方法も他の実施形態として考えられる。 Note that the present invention can be regarded as an invention of a display control method (an example of the display control method of the present invention) that executes one or more steps included in the display control process. Furthermore, one or more steps included in the display control processing described here may be omitted as appropriate. Note that the steps in the display control process may be executed in a different order as long as similar effects are produced. Furthermore, although a case will be described here taking as an example a case where each step in the display control process is executed by the control units 11 and 21, a display in which each step in the display control process is executed in a distributed manner by a plurality of processors is explained here. Other embodiments of the control method are also conceivable.

ここで、操作装置1は、専用アプリケーションが起動されることにより、表示装置2に表示されたオブジェクト画像3を操作することが可能となる。 Here, the operating device 1 becomes able to operate the object image 3 displayed on the display device 2 by activating the dedicated application.

先ず、ステップS1において、操作装置1の制御部11は、操作装置1の姿勢が正対姿勢(正面方向)に設定されたか否かを判定する。具体的には、制御部11は、前記専用アプリケーションを起動させて、操作装置1の正面となる位置の操作装置1の姿勢を正対姿勢に設定する。 First, in step S1, the control unit 11 of the operating device 1 determines whether the attitude of the operating device 1 is set to the facing attitude (front direction). Specifically, the control unit 11 starts the dedicated application and sets the posture of the operating device 1 at a position in front of the operating device 1 to a facing posture.

制御部11は、姿勢検出センサ13から取得する位置座標及び傾きに基づいて正対姿勢を設定する。例えば、操作装置1が所定の場所に載置された場合に、制御部11は正対姿勢を設定する。 The control unit 11 sets the facing attitude based on the position coordinates and inclination acquired from the attitude detection sensor 13. For example, when the operating device 1 is placed at a predetermined location, the control unit 11 sets the facing attitude.

操作装置1の正対姿勢が設定された場合(S1:Yes)、処理はステップS2に移行する。制御部11は、操作装置1の正対姿勢が設定されるまで待機する(S1:No)。 When the facing attitude of the operating device 1 is set (S1: Yes), the process moves to step S2. The control unit 11 waits until the facing attitude of the operating device 1 is set (S1: No).

ステップS2において、表示装置2の制御部21は、表示部23において、オブジェクト画像3を正対姿勢に対応する所定の方向に向けて表示させる。 In step S2, the control unit 21 of the display device 2 causes the display unit 23 to display the object image 3 in a predetermined direction corresponding to the facing attitude.

ステップS3において、操作装置1の制御部11は、操作装置1に対するユーザの操作の受け付けを開始する。これにより、ユーザ(鑑賞者)は操作装置1を用いてオブジェクト画像3を操作することが可能となる。 In step S3, the control unit 11 of the operating device 1 starts accepting user operations on the operating device 1. This allows the user (viewer) to operate the object image 3 using the operating device 1.

ステップS4において、操作装置1の制御部11は、操作装置1の姿勢変化を検出したか否かを判定する。具体的には、制御部11は、姿勢検出センサ13から取得する検出信号に基づいて操作装置1の姿勢変化の有無を検出する。例えば図1に示すように、ユーザが操作装置1を右方向D1に回転させた場合に、制御部11は、姿勢検出センサ13から取得する検出信号に基づいて操作装置1の姿勢変化(右回転)を検出する。また、例えば図5に示すように、ユーザが操作装置1を手前側に移動させた場合に、制御部11は、姿勢検出センサ13から取得する検出信号に基づいて操作装置1の姿勢変化(位置変化)を検出する。制御部11が操作装置1の姿勢変化を検出した場合(S4:Yes)、処理はステップS5に移行する。制御部11は、操作装置1の姿勢変化を検出するまで待機する(S4:No)。ステップS4は、本発明の姿勢検出ステップの一例である。 In step S4, the control unit 11 of the operating device 1 determines whether a change in the posture of the operating device 1 has been detected. Specifically, the control unit 11 detects whether there is a change in the attitude of the operating device 1 based on a detection signal obtained from the attitude detection sensor 13. For example, as shown in FIG. 1, when the user rotates the operating device 1 in the right direction D1, the control unit 11 controls the attitude change of the operating device 1 (clockwise rotation) based on the detection signal acquired from the attitude detection sensor 13. ) is detected. For example, as shown in FIG. change). If the control unit 11 detects a change in the posture of the operating device 1 (S4: Yes), the process moves to step S5. The control unit 11 waits until a change in the posture of the operating device 1 is detected (S4: No). Step S4 is an example of the posture detection step of the present invention.

ステップS5において、表示装置2の制御部21は、操作装置1の姿勢変化に応じて、表示装置2に表示されたオブジェクト画像3の姿勢を変化させる。具体的には、操作装置1の制御部11は、姿勢検出センサ13から取得する回転角度、傾き角度、座標、表示倍率などの情報を含む姿勢情報を表示装置2に出力する。表示装置2の制御部21は、前記姿勢情報を受信すると、前記姿勢情報に基づいてオブジェクト画像3の回転角度、傾き角度、座標、表示倍率などを変更する(図5、図6参照)。ステップS5は、本発明の姿勢制御ステップの一例である。 In step S5, the control unit 21 of the display device 2 changes the attitude of the object image 3 displayed on the display device 2 in accordance with the change in the attitude of the operating device 1. Specifically, the control unit 11 of the operating device 1 outputs posture information including information such as the rotation angle, tilt angle, coordinates, display magnification, etc. acquired from the posture detection sensor 13 to the display device 2. Upon receiving the orientation information, the control unit 21 of the display device 2 changes the rotation angle, tilt angle, coordinates, display magnification, etc. of the object image 3 based on the orientation information (see FIGS. 5 and 6). Step S5 is an example of the attitude control step of the present invention.

ステップS6において、表示装置2の制御部21は、オブジェクト画像3の特定位置に設定されたマーカーMを検出したか否かを判定する。例えば、オブジェクト画像3に3個のマーカーM1、M2、M3が設定されている場合(図7参照)に、制御部21は、いずれか1個のマーカーMを検出したか否かを判定する。制御部21がマーカーMを検出した場合(S6:Yes)、処理はステップS7に移行する。制御部21がマーカーMを検出しない場合(S6:No)、処理はステップS4に戻る。ステップS6は、本発明のマーカー検出ステップの一例である。 In step S6, the control unit 21 of the display device 2 determines whether the marker M set at the specific position of the object image 3 has been detected. For example, when three markers M1, M2, and M3 are set in the object image 3 (see FIG. 7), the control unit 21 determines whether any one marker M is detected. If the control unit 21 detects the marker M (S6: Yes), the process moves to step S7. If the control unit 21 does not detect the marker M (S6: No), the process returns to step S4. Step S6 is an example of the marker detection step of the present invention.

ステップS7において、表示装置2の制御部21は、全てのマーカーMを検出したか否かを判定する。例えば、制御部21は、記憶部22の前記検出状況を参照して、オブジェクト画像3に設定されたマーカーM1、M2、M3が全て検出済みであるか否かを判定する。制御部21が全てのマーカーMを検出済みでない場合(S7:No)、処理はステップS8に移行する。一方、制御部21が全てのマーカーMを検出済みである場合(S7:Yes)、処理はステップS9に移行する。 In step S7, the control unit 21 of the display device 2 determines whether all markers M have been detected. For example, the control unit 21 refers to the detection status in the storage unit 22 and determines whether all markers M1, M2, and M3 set in the object image 3 have been detected. If the control unit 21 has not detected all the markers M (S7: No), the process moves to step S8. On the other hand, if the control unit 21 has detected all the markers M (S7: Yes), the process moves to step S9.

ステップS8では、制御部21は、検出したマーカーMに対応付けられた特定情報Cを提示する。例えば、制御部21は、マーカーM1を検出した場合に、マーカーM1に対応付けられた特定情報C1を表示部23に表示する(図8参照)。ステップS8は、本発明の情報提示ステップの一例である。 In step S8, the control unit 21 presents specific information C associated with the detected marker M. For example, when the control unit 21 detects the marker M1, the control unit 21 displays the specific information C1 associated with the marker M1 on the display unit 23 (see FIG. 8). Step S8 is an example of an information presentation step of the present invention.

ステップS9では、制御部21は、ステップS8と同様に、検出したマーカーMに対応付けられた特定情報Cを提示する。ステップS9では、制御部21は、オブジェクト画像3に設定された複数のマーカーMのうち最後に検出したマーカーMに対応付けられた特定情報Cを提示する。ステップS4~S8を繰り返すことにより、ユーザに対して、マーカーM1に対応付けられた特定情報C1、マーカーM2に対応付けられた特定情報C2、及びマーカーM3に対応付けられた特定情報C3の全てが順に提示される。全てのマーカーMが検出されて全ての特定情報Cが提示されると、処理はステップS10に移行する。 In step S9, the control unit 21 presents the specific information C associated with the detected marker M, similarly to step S8. In step S9, the control unit 21 presents specific information C associated with the marker M detected last among the plurality of markers M set in the object image 3. By repeating steps S4 to S8, all of the specific information C1 associated with the marker M1, the specific information C2 associated with the marker M2, and the specific information C3 associated with the marker M3 are displayed to the user. presented in order. When all the markers M are detected and all the specific information C is presented, the process moves to step S10.

ステップS10において、制御部21は、断面表示モードを有効化する。断面表示モードが有効化されると、制御部21は、以下に示す条件を満たす場合にオブジェクト画像3の断面を表示部23に表示する。 In step S10, the control unit 21 enables the cross-section display mode. When the cross-section display mode is enabled, the control unit 21 displays the cross-section of the object image 3 on the display unit 23 when the following conditions are met.

ステップS11において、操作装置1の制御部11は、操作装置1の姿勢変化を検出したか否かを判定する。例えば図5に示すように、ユーザが操作装置1を手前側に移動させた場合に、制御部11は、姿勢検出センサ13から取得する検出信号に基づいて操作装置1の姿勢変化(位置変化)を検出する。制御部11が操作装置1の姿勢変化を検出した場合(S11:Yes)、処理はステップS12に移行する。制御部11が操作装置1の姿勢変化を検出しない場合(S11:No)、処理はステップS15に移行する。 In step S11, the control unit 11 of the operating device 1 determines whether a change in the posture of the operating device 1 has been detected. For example, as shown in FIG. 5, when the user moves the operating device 1 to the front side, the control unit 11 changes the attitude (position change) of the operating device 1 based on the detection signal acquired from the attitude detection sensor 13. Detect. If the control unit 11 detects a change in the posture of the operating device 1 (S11: Yes), the process moves to step S12. If the control unit 11 does not detect a change in the posture of the operating device 1 (S11: No), the process moves to step S15.

ステップS12において、表示装置2の制御部21は、操作装置1が仮想面S1を超えたか否か(又は仮想面S1に重なったか否か)を判定する。具体的には、制御部21は、位置検出センサ24の検出結果に基づいて操作装置1の位置を特定し、操作装置1の先端が表示装置2からの所定距離L1を超えたか否かを判定する。操作装置1が仮想面S1を超えない場合(S12:No)、処理はステップS13に移行する。一方、操作装置1が仮想面S1を超えた場合(S12:Yes)、処理はステップS14に移行する。 In step S12, the control unit 21 of the display device 2 determines whether the operating device 1 has exceeded the virtual surface S1 (or overlapped with the virtual surface S1). Specifically, the control unit 21 specifies the position of the operating device 1 based on the detection result of the position detection sensor 24, and determines whether the tip of the operating device 1 exceeds a predetermined distance L1 from the display device 2. do. If the operating device 1 does not exceed the virtual surface S1 (S12: No), the process moves to step S13. On the other hand, if the operating device 1 exceeds the virtual surface S1 (S12: Yes), the process moves to step S14.

ステップS13では、表示装置2の制御部21は、操作装置1の姿勢変化に応じて、表示装置2に表示されたオブジェクト画像3の姿勢を変化させる。ここでは、操作装置1は所定距離L1の範囲内において例えば奥側又は手前側に移動することになるため、制御部21は、操作装置1が表示装置2に近づく場合にオブジェクト画像3を縮小表示させ、操作装置1が表示装置2から遠ざかる場合にオブジェクト画像3を拡大表示させる。その後、処理はステップS11に戻る。操作装置1が所定距離L1の範囲内で姿勢変化する場合は、ステップS11~S13の処理が繰り返される。ステップS13は、本発明の姿勢制御ステップの一例である。 In step S13, the control unit 21 of the display device 2 changes the posture of the object image 3 displayed on the display device 2 in accordance with the change in the posture of the operating device 1. Here, since the operating device 1 moves, for example, to the back or the front within the predetermined distance L1, the control unit 21 displays the object image 3 in a reduced size when the operating device 1 approaches the display device 2. and when the operating device 1 moves away from the display device 2, the object image 3 is enlarged and displayed. After that, the process returns to step S11. If the operating device 1 changes its posture within the predetermined distance L1, the processes of steps S11 to S13 are repeated. Step S13 is an example of an attitude control step of the present invention.

一方、ステップS14では、制御部21は、操作装置1を仮想面S1で切断した切断面を含むオブジェクト画像3を表示部23に表示させる(図9、図11参照)。この場合、制御部21は、操作装置1の移動に応じて、オブジェクト画像3の表示倍率を変更することなく、切断位置を変更してオブジェクト画像3の断面を表示させる。ステップS14は、本発明の断面表示ステップの一例である。 On the other hand, in step S14, the control unit 21 causes the display unit 23 to display the object image 3 including a cut plane obtained by cutting the operating device 1 along the virtual plane S1 (see FIGS. 9 and 11). In this case, the control unit 21 changes the cutting position and displays the cross section of the object image 3 without changing the display magnification of the object image 3 according to the movement of the operating device 1. Step S14 is an example of a cross-sectional display step of the present invention.

ステップS15において、制御部21は、ユーザの終了操作を受け付けたか否かを判定する。例えば、ユーザが操作装置1を所定の場所に載置した場合に、制御部21は、終了操作を受け付けたと判定する。制御部21が終了操作を受け付けると(S15:Yes)、前記表示制御処理は終了する。制御部21は終了操作を受け付けるまでステップS11~S14の処理を繰り返す(S15:No)。 In step S15, the control unit 21 determines whether the user's termination operation has been accepted. For example, when the user places the operating device 1 at a predetermined location, the control unit 21 determines that an end operation has been received. When the control unit 21 accepts the end operation (S15: Yes), the display control process ends. The control unit 21 repeats the processing of steps S11 to S14 until it receives an end operation (S15: No).

なお、前記表示制御処理において、操作装置1の所定位置が仮想面S1を超えた場合、すなわち仮想面S1が操作装置1の所定位置を切断する場合、制御部21は、当該所定位置に対応付けられた特定情報C4を提示してもよい(図11参照)。前記所定位置は、操作装置1の中間位置であってもよいし、マーカーM(図7参照)が設けられた位置であってもよい。以上のようにして、制御部11は、前記表示制御処理を実行する。 Note that in the display control process, if the predetermined position of the operating device 1 exceeds the virtual plane S1, that is, if the virtual plane S1 cuts off the predetermined position of the operating device 1, the control unit 21 performs the mapping to the predetermined position. The specified information C4 may be presented (see FIG. 11). The predetermined position may be an intermediate position of the operating device 1, or a position where a marker M (see FIG. 7) is provided. As described above, the control unit 11 executes the display control process.

ここで、表示制御システム100は、操作装置1の正対姿勢が設定(ステップS1)されてから所定時間が経過した場合に前記表示制御処理を終了してもよい。これにより、例えば、複数の鑑賞者が順に美術品を鑑賞する場合に、各鑑賞者は平等に美術品を鑑賞することができる。また、表示制御システム100は、全てのマーカーMが検出(ステップS7)されてから所定時間が経過した場合に前記表示制御処理を終了してもよい。これにより、各鑑賞者は、全ての特定情報Cを閲覧することができる。 Here, the display control system 100 may end the display control process when a predetermined time has elapsed since the facing attitude of the operating device 1 was set (step S1). With this, for example, when a plurality of viewers sequentially view a work of art, each viewer can equally appreciate the work of art. Furthermore, the display control system 100 may end the display control process when a predetermined time has elapsed since all the markers M have been detected (step S7). This allows each viewer to view all of the specific information C.

なお、上述の表示制御処理では、全てのマーカーMが検出されたことを条件(ステップS7)として、断面表示モードを有効化(ステップS10)する構成であるが、他の実施形態として、表示制御システム100は、ユーザの所定の操作を受け付けた場合に、断面表示モードを有効化してもよい。例えばユーザが操作装置1又は表示装置2の所定のボタン(不図示)を押下した場合、ユーザが操作装置1を所定の姿勢に変化させた場合、ユーザが音声で指示した場合などに、表示制御システム100が断面表示モードを有効化してもよい。 Note that in the display control processing described above, the cross-section display mode is enabled (step S10) on the condition that all markers M have been detected (step S7), but as another embodiment, the display control The system 100 may enable the cross-section display mode when receiving a predetermined operation from the user. For example, when the user presses a predetermined button (not shown) on the operating device 1 or the display device 2, when the user changes the operating device 1 to a predetermined posture, when the user gives an instruction by voice, etc. System 100 may enable a cross-section display mode.

以上説明したように、本実施形態に係る表示制御システム100は、ユーザが操作装置1の姿勢を変化させた場合に、操作装置1の姿勢変化を検出し、操作装置1の姿勢変化に応じて、表示装置2に表示される操作対象物のオブジェクト画像3の姿勢を変化させる。また、表示制御システム100は、オブジェクト画像3の特定位置に設定されたマーカーMを検出し、検出されたマーカーMに対応付けられた特定情報Cをユーザ(鑑賞者)に提示する。この構成によれば、操作装置1の動きに連動してオブジェクト画像3を動かすことができる。また、ユーザは操作装置1を動かして操作対象物に関する情報(特定情報)を閲覧することができる。 As described above, the display control system 100 according to the present embodiment detects the change in the posture of the operation device 1 when the user changes the posture of the operation device 1, and detects the change in the posture of the operation device 1 according to the change in the posture of the operation device 1. , changes the posture of the object image 3 of the operation target displayed on the display device 2. Furthermore, the display control system 100 detects a marker M set at a specific position of the object image 3, and presents specific information C associated with the detected marker M to the user (viewer). According to this configuration, the object image 3 can be moved in conjunction with the movement of the operating device 1. Furthermore, the user can move the operating device 1 to view information (specific information) regarding the operating object.

また、本実施形態に係る表示制御システム100は、操作装置1が表示装置2から遠ざかる方向に移動して表示装置2から所定距離だけ離れた位置の仮想面S1に重なる場合に、操作装置1を仮想面S1で切断した切断面を含むオブジェクト画像3を表示装置2に表示させる。この構成によれば、操作装置1の動きに連動してオブジェクト画像3の厚み、内部構造などの断面情報を表示させることができる。よって、ユーザは操作装置1を動かして操作対象物に関する断面情報を閲覧することができる。 Further, the display control system 100 according to the present embodiment moves the operating device 1 when the operating device 1 moves in a direction away from the display device 2 and overlaps the virtual plane S1 at a position a predetermined distance away from the display device 2. The object image 3 including the cut plane cut by the virtual plane S1 is displayed on the display device 2. According to this configuration, cross-sectional information such as the thickness and internal structure of the object image 3 can be displayed in conjunction with the movement of the operating device 1. Therefore, the user can move the operating device 1 to view cross-sectional information regarding the object to be operated.

本発明は上述の実施形態に限定されない。本発明の他の実施形態について以下に説明する。 The invention is not limited to the embodiments described above. Other embodiments of the invention will be described below.

上述の実施形態では、例えばユーザが操作装置1を把持して腕を伸ばした場合には、顔と操作装置1との相対的な位置が離れるため、ユーザから見た操作装置1の大きさは小さくなる。この場合、表示装置2に表示されるオブジェクト画像3は、ユーザから見た操作装置1の大きさが反映されるように縮小表示される(図6参照)。同様に、例えばユーザが操作装置1を把持して腕を縮めた場合には、顔と操作装置1との相対的な位置が近づくため、ユーザから見た操作装置1の大きさは大きくなる。この場合、表示装置2に表示されるオブジェクト画像3は、ユーザから見た操作装置1の大きさが反映されるように拡大表示される(図5参照)。このように、ユーザがその場(立ったまま又は座ったまま)で腕の曲げ伸ばしによりユーザと操作装置1との相対位置が変化する場合には、ユーザから見た操作装置1の大きさがオブジェクト画像3に適切に反映される。 In the above-described embodiment, for example, when the user holds the operating device 1 and extends his arm, the relative position of the operating device 1 and the face moves apart, so the size of the operating device 1 as seen from the user is becomes smaller. In this case, the object image 3 displayed on the display device 2 is displayed in a reduced size so as to reflect the size of the operating device 1 as seen from the user (see FIG. 6). Similarly, for example, when the user grasps the operating device 1 and retracts his arm, the relative position of the operating device 1 and his face becomes closer, so that the size of the operating device 1 as seen from the user increases. In this case, the object image 3 displayed on the display device 2 is enlarged to reflect the size of the operating device 1 as seen from the user (see FIG. 5). In this way, when the relative position between the user and the operating device 1 changes as the user bends and stretches his/her arm while standing or sitting, the size of the operating device 1 as seen from the user changes. It is appropriately reflected in the object image 3.

しかし、例えばユーザが操作装置1を把持した状態で移動した(歩いた)場合には、ユーザから見た操作装置1の大きさがオブジェクト画像3に適切に反映されないことが考えられる。例えば、ユーザが操作装置1を把持した状態で歩いて表示装置2に近付いた場合には、ユーザと操作装置1との相対位置が変化せずユーザから見た操作装置1の大きさが変わらないにもかかわらず、オブジェクト画像3が縮小表示されてしまう。同様に、例えば、ユーザが操作装置1を把持した状態で歩いて表示装置2から遠ざかった場合には、ユーザと操作装置1との相対位置が変化せずユーザから見た操作装置1の大きさが変わらないにもかかわらず、オブジェクト画像3が拡大表示されてしまう。このように、ユーザから見た操作装置1の大きさがオブジェクト画像3に適切に反映されない場合には、操作装置1の操作性及びオブジェクト画像3の視認性が低下する問題が生じる。 However, for example, if the user moves (walks) while holding the operating device 1, the size of the operating device 1 seen from the user may not be appropriately reflected in the object image 3. For example, if the user walks and approaches the display device 2 while holding the operating device 1, the relative position between the user and the operating device 1 does not change, and the size of the operating device 1 seen from the user does not change. Despite this, the object image 3 is displayed in a reduced size. Similarly, for example, if the user walks away from the display device 2 while holding the operating device 1, the relative position between the user and the operating device 1 does not change, and the size of the operating device 1 as seen from the user remains unchanged. Object image 3 is enlarged and displayed even though it does not change. As described above, if the size of the operating device 1 seen by the user is not appropriately reflected in the object image 3, a problem arises in which the operability of the operating device 1 and the visibility of the object image 3 are reduced.

そこで、他の実施形態に係る表示制御システム100は、上述の実施形態の構成に加えて、前記問題を解消し得る構成を備える。 Therefore, the display control system 100 according to another embodiment includes, in addition to the configuration of the above-described embodiment, a configuration that can solve the above problem.

具体的には、位置検出センサ24は、表示装置2に対する操作装置1の位置とユーザの位置とを検出する。具体的には、位置検出センサ24は、位置検出センサ24の位置を基準(座標原点)とした操作装置1の位置(XYZ座標)とユーザの位置(XYZ座標)とを検出する。姿勢制御部212は、位置検出センサ24の検出信号に基づいて、操作装置1と表示装置2との相対位置、及び、操作装置1とユーザとの相対位置を算出する。例えば図13に示すように、姿勢制御部212は、操作装置1と表示装置2との距離L2、及び、操作装置1とユーザとの距離L3とを算出する。そして、姿勢制御部212は、距離L2,L3に基づいてオブジェクト画像3の姿勢を変化させる。 Specifically, the position detection sensor 24 detects the position of the operating device 1 and the user's position with respect to the display device 2. Specifically, the position detection sensor 24 detects the position of the operating device 1 (XYZ coordinates) and the user's position (XYZ coordinates) with the position of the position detection sensor 24 as a reference (coordinate origin). Posture control unit 212 calculates the relative position between operating device 1 and display device 2 and the relative position between operating device 1 and the user based on the detection signal of position detection sensor 24 . For example, as shown in FIG. 13, the attitude control unit 212 calculates a distance L2 between the operating device 1 and the display device 2, and a distance L3 between the operating device 1 and the user. Then, the posture control unit 212 changes the posture of the object image 3 based on the distances L2 and L3.

例えば、所定の場所に載置された操作装置1をユーザが把持すると、姿勢設定部111が、操作装置1の姿勢を、操作装置1がユーザに対して正対する正対姿勢に設定する。このとき、姿勢制御部212は、操作装置1とユーザとの距離L3を基準距離に設定する。その後、例えばユーザがその場で腕を伸ばして操作装置1を奥側(表示装置2側)に移動させた場合、距離L3が前記基準距離よりも大きくなる。姿勢制御部212は、距離L3の変化(増加)を検出すると、変化量に応じた縮小率でオブジェクト画像3を縮小表示する。また、例えばユーザがその場で腕を縮めて操作装置1を手前側(ユーザ側)に移動させた場合、距離L3が前記基準距離よりも小さくなる。姿勢制御部212は、距離L3の変化(減少)を検出すると、変化量に応じた拡大率でオブジェクト画像3を拡大表示する。 For example, when a user grasps the operating device 1 placed at a predetermined location, the attitude setting unit 111 sets the attitude of the operating device 1 to a facing attitude in which the operating device 1 faces the user. At this time, the attitude control unit 212 sets the distance L3 between the operating device 1 and the user as a reference distance. After that, for example, when the user extends his arm on the spot and moves the operating device 1 to the back side (toward the display device 2 side), the distance L3 becomes larger than the reference distance. When the posture control unit 212 detects a change (increase) in the distance L3, it displays the object image 3 in a reduced size at a reduction rate according to the amount of change. Further, for example, when the user contracts his arm on the spot and moves the operating device 1 toward the user (towards the user), the distance L3 becomes smaller than the reference distance. When the attitude control unit 212 detects a change (decrease) in the distance L3, the attitude control unit 212 enlarges and displays the object image 3 at an enlargement rate according to the amount of change.

これに対して、例えばユーザが操作装置1を把持した状態で歩いて奥側(表示装置2側)に移動した場合、距離L3は前記基準距離から略変わらず、距離L2だけが小さくなる。この場合、姿勢制御部212は、距離L3の変化を検出しないことを条件として、オブジェクト画像3の表示倍率を変更しない。同様に、例えばユーザが操作装置1を把持した状態で歩いて手前側(表示装置2から離れる方向)に移動した場合、距離L3は前記基準距離から略変わらず、距離L2だけが大きくなる。この場合、姿勢制御部212は、距離L3の変化を検出しないことを条件として、オブジェクト画像3の表示倍率を変更しない。 On the other hand, for example, when the user walks to the back side (towards the display device 2) while holding the operating device 1, the distance L3 remains substantially unchanged from the reference distance, and only the distance L2 becomes smaller. In this case, the attitude control unit 212 does not change the display magnification of the object image 3 on the condition that no change in the distance L3 is detected. Similarly, for example, when the user walks while holding the operating device 1 and moves toward the near side (in the direction away from the display device 2), the distance L3 remains substantially unchanged from the reference distance, and only the distance L2 increases. In this case, the attitude control unit 212 does not change the display magnification of the object image 3 on the condition that no change in the distance L3 is detected.

この構成によれば、ユーザから見た操作装置1の大きさをオブジェクト画像3に適切に反映させることが可能となる。よって、操作装置1の操作性及びオブジェクト画像3の視認性が低下することを回避することができる。なお、制御部21は、距離L3の変化を検出しないで距離L2の変化だけを検出した場合に、ユーザが操作装置1を持って移動していると判断して、所定のメッセージを表示部23に表示させてもよい。例えば、制御部21は、「レプリカを体(顔)に近づけたり遠ざけたりしてください。」など、ユーザが移動しないで操作装置1を動かすよう促すメッセージを表示させてもよい。 According to this configuration, it is possible to appropriately reflect the size of the operating device 1 as seen by the user on the object image 3. Therefore, it is possible to avoid deterioration in the operability of the operating device 1 and the visibility of the object image 3. Note that when the control unit 21 detects only a change in the distance L2 without detecting a change in the distance L3, the control unit 21 determines that the user is moving while holding the operating device 1, and displays a predetermined message on the display unit 23. may be displayed. For example, the control unit 21 may display a message urging the user to move the operating device 1 without moving, such as "Please move the replica closer to or farther away from the body (face)."

本発明の他の実施形態として、位置検出センサ24は、操作装置1に搭載されてもよい。例えば図14に示すように、操作装置1は、位置検出センサ24の一例であるカメラ15を備えてもよい。カメラ15は、鉛直上向きに撮像可能に配置され、室内の天井を撮像可能である。操作装置1は、カメラ15の撮像画像(天井画像)に基づいて、操作装置1の位置(座標)を検出する。操作装置1は検出信号(座標情報)を表示装置2に出力する。表示装置2は、前記検出信号を受信すると、操作装置1の姿勢変化を検出してオブジェクト画像3の姿勢を変化させる。 As another embodiment of the present invention, the position detection sensor 24 may be installed in the operating device 1. For example, as shown in FIG. 14, the operating device 1 may include a camera 15, which is an example of the position detection sensor 24. The camera 15 is arranged vertically upward so that it can take an image, and can take an image of the ceiling in the room. The operating device 1 detects the position (coordinates) of the operating device 1 based on the image captured by the camera 15 (ceiling image). The operating device 1 outputs a detection signal (coordinate information) to the display device 2. Upon receiving the detection signal, the display device 2 detects a change in the posture of the operating device 1 and changes the posture of the object image 3.

本発明の操作対象物は、美術品に限定されず、種々の分野の物品であってもよい。例えば、前記操作対象物は、臓器、建築物、装飾品などであってもよい。 The object to be operated according to the present invention is not limited to works of art, but may be objects in various fields. For example, the object to be manipulated may be an organ, a building, an ornament, or the like.

1 :操作装置
2 :表示装置
3 :オブジェクト画像
11 :制御部
12 :記憶部
13 :姿勢検出センサ
14 :通信部
15 :カメラ
21 :制御部
22 :記憶部
23 :表示部
24 :位置検出センサ
25 :通信部
100 :表示制御システム
111 :姿勢設定部
112 :姿勢検出部
211 :表示処理部
212 :姿勢制御部
213 :マーカー検出部
214 :情報提示部
215 :断面表示部
1: Operating device 2: Display device 3: Object image 11: Control unit 12: Storage unit 13: Posture detection sensor 14: Communication unit 15: Camera 21: Control unit 22: Storage unit 23: Display unit 24: Position detection sensor 25 : Communication unit 100 : Display control system 111 : Attitude setting unit 112 : Attitude detection unit 211 : Display processing unit 212 : Attitude control unit 213 : Marker detection unit 214 : Information presentation unit 215 : Cross section display unit

Claims (9)

表示装置に表示される操作対象物のオブジェクト画像の姿勢を操作装置の姿勢変化に連動させて変化させる表示制御システムであって、
前記オブジェクト画像を前記表示装置に表示させるとともに、前記オブジェクト画像上に設定された特定位置にマーカー画像を表示させる表示処理部と、
前記操作装置の姿勢変化に応じて前記オブジェクト画像の姿勢が変化することにより前記マーカー画像が前記表示装置の正面方向に向いた場合に前記マーカー画像を検出するマーカー検出部と、
前記マーカー検出部により前記マーカー画像が検出された場合に、前記マーカー画像に対応付けられた特定情報を提示する情報提示部と、
を備える表示制御システム。
A display control system that changes the attitude of an object image of an operation target displayed on a display device in conjunction with a change in the attitude of an operating device, the system comprising:
a display processing unit that displays the object image on the display device and displays a marker image at a specific position set on the object image;
a marker detection unit that detects the marker image when the marker image faces in the front direction of the display device due to a change in the attitude of the object image according to a change in the attitude of the operating device;
an information presentation unit that presents specific information associated with the marker image when the marker image is detected by the marker detection unit;
A display control system equipped with
前記表示処理部は、前記表示装置において、前記オブジェクト画像上の第1位置に第1特定情報が対応付けられた第1マーカー画像を表示させ、前記オブジェクト画像上の第2位置に第2特定情報が対応付けられた第2マーカー画像を表示させ、
前記情報提示部は、前記マーカー検出部により前記第1マーカー画像が検出された場合に前記第1特定情報を提示し、前記マーカー検出部により前記第2マーカー画像が検出された場合に前記第2特定情報を提示する
請求項1に記載の表示制御システム。
The display processing unit causes the display device to display a first marker image associated with first specific information at a first position on the object image, and displays second specific information at a second position on the object image. displays a second marker image associated with
The information presentation section presents the first specific information when the first marker image is detected by the marker detection section, and presents the second specific information when the second marker image is detected by the marker detection section. provide specific information ;
The display control system according to claim 1.
前記情報提示部は、前記特定情報を前記表示装置に表示させる、
請求項1又は請求項2に記載の表示制御システム。
The information presentation unit displays the specific information on the display device,
The display control system according to claim 1 or claim 2 .
前記情報提示部は、前記特定情報を音声により出力させる、
請求項1から請求項のいずれか1項に記載の表示制御システム。
The information presentation unit outputs the specific information by voice.
The display control system according to any one of claims 1 to 3 .
ユーザが前記操作装置の姿勢を変化させた場合に、前記操作装置の姿勢変化を検出する姿勢検出部と、
前記操作装置の姿勢変化に応じて、前記表示装置に表示される前記オブジェクト画像の姿勢を変化させる姿勢制御部と、
をさらに備え、
前記姿勢制御部は、前記操作装置の姿勢変化に対応する前記操作装置の回転角と前記表示装置に対する前記操作装置の位置とに基づいて、前記オブジェクト画像の姿勢を変化させる、
請求項1から請求項のいずれか1項に記載の表示制御システム。
an attitude detection unit that detects a change in attitude of the operating device when a user changes the attitude of the operating device;
an attitude control unit that changes the attitude of the object image displayed on the display device according to a change in the attitude of the operating device;
Furthermore,
The attitude control unit changes the attitude of the object image based on a rotation angle of the operating device corresponding to a change in attitude of the operating device and a position of the operating device with respect to the display device.
The display control system according to any one of claims 1 to 4 .
前記姿勢制御部は、前記操作装置が前記表示装置に近づく場合に前記オブジェクト画像を縮小表示させ、前記操作装置が前記表示装置から遠ざかる場合に前記オブジェクト画像を拡大表示させる、
請求項に記載の表示制御システム。
The attitude control unit displays the object image in a reduced size when the operating device approaches the display device, and displays the object image in an enlarged manner when the operating device moves away from the display device.
The display control system according to claim 5 .
前記操作対象物は、美術品であり、
前記オブジェクト画像は、前記美術品の三次元画像であり、
前記操作装置は、前記美術品のレプリカである、
請求項1から請求項のいずれか1項に記載の表示制御システム。
The object to be manipulated is a work of art;
The object image is a three-dimensional image of the artwork,
the operating device is a replica of the artwork;
The display control system according to any one of claims 1 to 6 .
表示装置に表示される操作対象物のオブジェクト画像の姿勢を操作装置の姿勢変化に連動させて変化させる表示制御方法であって、
前記オブジェクト画像を前記表示装置に表示させるとともに、前記オブジェクト画像上に設定された特定位置にマーカー画像を表示させる表示ステップと、
前記操作装置の姿勢変化に応じて前記オブジェクト画像の姿勢が変化することにより前記マーカー画像が前記表示装置の正面方向に向いた場合に前記マーカー画像を検出するマーカー検出ステップと、
前記マーカー検出ステップにより前記マーカー画像が検出された場合に、前記マーカー画像に対応付けられた特定情報を提示する情報提示ステップと、
を一又は複数のプロセッサ実行する表示制御方法。
A display control method for changing the attitude of an object image of an operation target displayed on a display device in conjunction with a change in the attitude of an operating device, the method comprising:
a display step of displaying the object image on the display device and displaying a marker image at a specific position set on the object image;
a marker detection step of detecting the marker image when the marker image faces in the front direction of the display device due to a change in the attitude of the object image according to a change in the attitude of the operating device;
an information presentation step of presenting specific information associated with the marker image when the marker image is detected in the marker detection step ;
A display control method executed by one or more processors.
表示装置に表示される操作対象物のオブジェクト画像の姿勢を操作装置の姿勢変化に連動させて変化させる表示制御プログラムであって、
前記オブジェクト画像を前記表示装置に表示させるとともに、前記オブジェクト画像上に設定された特定位置にマーカー画像を表示させる表示ステップと、
前記操作装置の姿勢変化に応じて前記オブジェクト画像の姿勢が変化することにより前記マーカー画像が前記表示装置の正面方向に向いた場合に前記マーカー画像を検出するマーカー検出ステップと、
前記マーカー検出ステップにより前記マーカー画像が検出された場合に、前記マーカー画像に対応付けられた特定情報を提示する情報提示ステップと、
を一又は複数のプロセッサに実行させるための表示制御プログラム。
A display control program that changes the attitude of an object image of an operation target displayed on a display device in conjunction with a change in the attitude of an operating device, the program comprising:
a display step of displaying the object image on the display device and displaying a marker image at a specific position set on the object image;
a marker detection step of detecting the marker image when the marker image faces in the front direction of the display device due to a change in the attitude of the object image according to a change in the attitude of the operating device;
an information presentation step of presenting specific information associated with the marker image when the marker image is detected in the marker detection step ;
A display control program that causes one or more processors to execute.
JP2020068984A 2020-04-07 2020-04-07 Display control system, display control method, and display control program Active JP7438827B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020068984A JP7438827B2 (en) 2020-04-07 2020-04-07 Display control system, display control method, and display control program
US17/220,289 US11650673B2 (en) 2020-04-07 2021-04-01 Display control system and display control method for changing a size of an object image in association with a location change of an operation device
US18/130,819 US20230244327A1 (en) 2020-04-07 2023-04-04 Display control system and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020068984A JP7438827B2 (en) 2020-04-07 2020-04-07 Display control system, display control method, and display control program

Publications (2)

Publication Number Publication Date
JP2021165934A JP2021165934A (en) 2021-10-14
JP7438827B2 true JP7438827B2 (en) 2024-02-27

Family

ID=78022106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020068984A Active JP7438827B2 (en) 2020-04-07 2020-04-07 Display control system, display control method, and display control program

Country Status (1)

Country Link
JP (1) JP7438827B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023166636A1 (en) * 2022-03-02 2023-09-07 日本電信電話株式会社 Speech reproduction device, speech reproduction method, and speech reproduction program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013149106A (en) 2012-01-19 2013-08-01 Kaiyodo:Kk I-figure and image processing system using i-figure
JP2017010228A (en) 2015-06-19 2017-01-12 キヤノン株式会社 Information processing apparatus, information processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013149106A (en) 2012-01-19 2013-08-01 Kaiyodo:Kk I-figure and image processing system using i-figure
JP2017010228A (en) 2015-06-19 2017-01-12 キヤノン株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2021165934A (en) 2021-10-14

Similar Documents

Publication Publication Date Title
US11409376B2 (en) Multi-sensor device with an accelerometer for enabling user interaction through sound or image
JP6748961B2 (en) Projection image adjustment system and projection image adjustment method
TW202117502A (en) An augmented reality data presentation method, device and storage medium
US7911468B2 (en) Storage medium storing a program for controlling the movement of an object
US10685485B2 (en) Navigation in augmented reality environment
TW201013630A (en) Device with display position input
JP4694435B2 (en) Sectional image display device, sectional image display method, and sectional image display program
JP2008293357A (en) Information processing method and information processor
WO2019065846A1 (en) Program, information processing method, information processing system, head mounted display device, and information processing device
JP7438827B2 (en) Display control system, display control method, and display control program
JP2022505457A (en) How to build buildings in virtual environments, equipment, equipment and programs
JP7404139B2 (en) Display control system, display control method, and display control program
JP2019155062A (en) Display system, display control device, and program
US11650673B2 (en) Display control system and display control method for changing a size of an object image in association with a location change of an operation device
JP2016139199A (en) Image processing device, image processing method, and program
JP7262247B2 (en) Information processing program, information processing device, information processing system, and information processing method
JP2021165932A (en) Display control system, display control method, and display control program
JP2022078623A (en) Display control system, display control method, and display control program
JPWO2018074054A1 (en) Display control apparatus, display control method, and program
JP2020164319A (en) Winch control system
JP7319686B2 (en) Game program, game processing method, and game device
JP7325833B2 (en) Game program, game processing method, and game device
US11972037B2 (en) Head mounted information processing apparatus and head mounted display system
WO2021235316A1 (en) Information processing device, information processing method, and information processing program
JP6452014B1 (en) Display system, display control apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20231221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240214

R150 Certificate of patent or registration of utility model

Ref document number: 7438827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150