JP2021196851A - Image display method, image display system, and image display program - Google Patents

Image display method, image display system, and image display program Download PDF

Info

Publication number
JP2021196851A
JP2021196851A JP2020102701A JP2020102701A JP2021196851A JP 2021196851 A JP2021196851 A JP 2021196851A JP 2020102701 A JP2020102701 A JP 2020102701A JP 2020102701 A JP2020102701 A JP 2020102701A JP 2021196851 A JP2021196851 A JP 2021196851A
Authority
JP
Japan
Prior art keywords
image
image display
display device
model
trigger signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020102701A
Other languages
Japanese (ja)
Other versions
JP7029118B2 (en
Inventor
▲張▼顕赫
Xianhe Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3dnest Inc
3D Nest Inc
Original Assignee
3dnest Inc
3D Nest Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3dnest Inc, 3D Nest Inc filed Critical 3dnest Inc
Priority to JP2020102701A priority Critical patent/JP7029118B2/en
Publication of JP2021196851A publication Critical patent/JP2021196851A/en
Application granted granted Critical
Publication of JP7029118B2 publication Critical patent/JP7029118B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)

Abstract

To provide an image display method, an image display system, and an image display program that allow a plurality of remote users to view the same image as if they were in the same place in the same space and can enhance the sense of presence to the users.SOLUTION: An image display method includes the steps of: a plurality of image display devices accessing a server via a communication network; the server transmitting a three-dimensional model reproducing an object to the image display devices; when any image display device of the image display devices detects a trigger operation, the image display device transmitting a trigger signal to the server; the server transmitting image content containing an image and an observation angle included in the trigger signal to the image display devices based on the trigger signal; and each image display device incorporating the image contained in the image content with the three-dimensional model by the trigger signal and displaying the image incorporated with the three-dimensional model.SELECTED DRAWING: Figure 2

Description

本発明は、建物などの対象物の画像を表示する技術に関し、特に画像表示方法、画像表示システム、及び画像表示プログラムに関する。 The present invention relates to a technique for displaying an image of an object such as a building, and more particularly to an image display method, an image display system, and an image display program.

一般的に、不動産物件を選ぶ場合、間取り図を見ながら物件を選び、選んだ物件を内覧することなどにより、所望の物件を選んでいる。また、購入者や賃貸者などの対象者の好感度を高めるために、モデルルームの展示などが行われている。 Generally, when selecting a real estate property, the desired property is selected by selecting the property while looking at the floor plan and viewing the selected property. In addition, model rooms are exhibited in order to increase the likability of the target audience such as purchasers and renters.

近年、インターネットなどの通信ネットワークを介して所望する物件の画像や間取り図などをコンピュータに表示させ、物件を案内する技術が望まれている。いわゆる不動産の紹介サービスに使われる遠隔案内技術といわれている。 In recent years, there has been a demand for a technique for guiding a property by displaying an image or a floor plan of a desired property on a computer via a communication network such as the Internet. It is said to be a remote guidance technology used for so-called real estate referral services.

遠隔案内技術では、物件の構造を再現した3Dモデルを作成して、作成した3Dモデルをネットで表示する3Dモデル技術が利用されている。3Dモデル技術では、建物の構造の全てが立体的に再現されており、利用者が、実際の建物の中にいて、その内部を移動しているかのように、画像の表示が変更される。 In the remote guidance technology, a 3D model technology that creates a 3D model that reproduces the structure of the property and displays the created 3D model on the net is used. In the 3D model technology, the entire structure of the building is reproduced three-dimensionally, and the display of the image is changed as if the user is inside the actual building and is moving inside the building.

上記の遠隔案内技術では、ユーザは、一人でネット上の物件の内容を観覧する。しかし、一人だけではなく、遠く離れている複数のユーザ同士、また、複数のユーザと不動産業者との即時的コミュニケーションを取りながら、ネット上で物件の内容を観覧することも望まれている。 In the above remote guidance technology, the user views the contents of the property on the Internet by himself. However, it is also desired to view the contents of the property on the Internet while having immediate communication not only with one person but also with a plurality of users who are far apart, or with a plurality of users and a real estate agent.

本発明は、上記課題を解決するためになされたものであり、遠隔に居る複数のユーザが同じ空間の同じ場所に居るような状態で同じ画像を観覧でき、ユーザへの臨場感を高められる画像表示方法、画像表示システム、及び画像表示プログラムを提供する。 The present invention has been made to solve the above-mentioned problems, and it is possible to view the same image in a state where a plurality of remote users are in the same place in the same space, and an image that enhances the sense of presence to the user. A display method, an image display system, and an image display program are provided.

本発明の第1態様は、対象物を表現する画像を画像表示装置に表示するための画像表示方法であって、複数の画像表示装置が、通信ネットワークを介してサーバにアクセスするステップと、サーバが、複数の画像表示装置に対象物を再現した3Dモデルを送信するステップと、複数の画像表示装置のうち、いずれかの画像表示装置が、トリガー操作を検出すると、トリガー信号をサーバに発信するステップと、サーバが、トリガー信号に基づいて、画像を含んでいる画像コンテンツとトリガー信号に含まれている観察角度とを複数の画像表示装置に送信するステップと、各画像表示装置が、トリガー信号により、画像コンテンツに含まれている画像を3Dモデルに合成させ、3Dモデルと合成された画像を表示するステップと、を備える。 A first aspect of the present invention is an image display method for displaying an image representing an object on an image display device, in which a plurality of image display devices access a server via a communication network, and a server. However, when a step of transmitting a 3D model that reproduces an object to a plurality of image display devices and one of the plurality of image display devices detects a trigger operation, a trigger signal is transmitted to the server. A step, a step in which the server transmits an image content containing an image and an observation angle included in the trigger signal to a plurality of image display devices based on the trigger signal, and each image display device causes a trigger signal. This includes a step of synthesizing an image included in the image content into a 3D model and displaying the combined image with the 3D model.

本態様によれば、遠隔に居る複数のユーザが同じ空間の同じ場所に居るような感覚で当該空間の同じ画像を観覧することができる。また、対象物における画像の位置を3Dモデルで把握できるため、各画像表示装置は、対象物の奥行きや立体感を表現しやすくなる。これにより、ユーザの臨場感が確保できる。 According to this aspect, a plurality of remote users can view the same image in the space as if they were in the same place in the same space. Further, since the position of the image on the object can be grasped by the 3D model, each image display device can easily express the depth and the three-dimensional effect of the object. As a result, the user's sense of presence can be ensured.

本発明の第2の態様は、第1の態様の画像表示方法において、一つの画像表示装置からトリガー信号を受信すると、所定時間内に、サーバは、他の画像表示装置からのトリガー信号を拒否するステップをさらに備える。 A second aspect of the present invention is that in the image display method of the first aspect, when a trigger signal is received from one image display device, the server rejects the trigger signal from the other image display device within a predetermined time. Further prepare for the steps to be taken.

本態様によれば、通信可能に接続された複数の画像表示装置に対して、一つの画像表示装置からのトリガー信号を受信すると、所定時間内に、サーバは、他の画像表示装置からの時間的に後のトリガー信号を拒否する。これにより、それぞれのユーザからの異なる指示による混乱がないため、ユーザの臨場感を高められる。 According to this aspect, when a trigger signal from one image display device is received for a plurality of image display devices connected communicably, the server receives a time from another image display device within a predetermined time. The later trigger signal is rejected. As a result, there is no confusion due to different instructions from each user, so that the user's sense of presence can be enhanced.

本発明の第3の態様は、第1の態様又は第2の態様の画像表示方法において、複数の画像表示装置のうち、いずれかの画像表示装置が他の画像表示装置に通話申請をすると、他の画像表示装置が通話申請を受け入れた場合に、通話申請した画像表示装置は、通話申請を受け入れた画像表示装置と通話できるようになるステップをさらに備える。 A third aspect of the present invention is that in the image display method of the first aspect or the second aspect, when any one of the plurality of image display devices makes a call application to the other image display device, If another image display device accepts the call request, the image display device that has applied for the call further comprises a step of being able to make a call with the image display device that has accepted the call request.

本態様によれば、通信可能に接続された各画像表示装置のユーザは、通話することができる。特にユーザの中に不動産案内サービスを提供する仲介業者がいる場合、仲介業者とユーザとのコミュニケーションが容易になる。 According to this aspect, the user of each image display device connected communicably can make a call. In particular, when there is an intermediary who provides a real estate information service among the users, communication between the intermediary and the user becomes easy.

本発明の第4の態様は、第1から第3の態様のいずれかの画像表示方法において、画像は平面図とパノラマ画像とを含み、平面図と3Dモデルとは、複数の観察点を含み、パノラマ画像は、自らの観察点と違う他の観察点を一つ以上有し、各観察点は、パノラマ画像とそれぞれ関連付けられており、各観察点へのトリガー操作が検出されると、サーバは、トリガー操作された観察点に関連付けられているパノラマ画像を画像コンテンツに含めて送信する。 A fourth aspect of the present invention is the image display method according to any one of the first to third aspects, wherein the image includes a plan view and a panoramic image, and the plan view and the 3D model include a plurality of observation points. , The panoramic image has one or more other observation points different from its own observation point, each observation point is associated with the panorama image, and when a trigger operation to each observation point is detected, the server Includes the panoramic image associated with the triggered observation point in the image content and sends it.

本態様において、平面図とパノラマ画像は、画像表示装置に送信され、3Dモデルと合成される。本態様によれば、表示している平面図やパノラマ画像における観察点がトリガー操作されて別のパノラマ画像へと切り替え表示する際に、平面図やパノラマ画像が3Dモデルと合成されているため、ただの表示する画像の切り替えではなく、3Dモデルの空間に飛んで入り、該当する観察点に立っているように臨場感がある。また、3Dモデルと表示する画像とを合成させることで、表示する画像に空間の奥行き感を表現しやすくなり、より臨場感を高めることができる。また、パノラマ画像同士の切り替えでは、切り替え表示前後の奥行き感が変化するので、インパクトがあり、臨場感をより高められる。 In this embodiment, the plan view and the panoramic image are transmitted to the image display device and combined with the 3D model. According to this aspect, when the observation point in the displayed plan view or panoramic image is triggered to switch to another panoramic image and displayed, the plan view or panoramic image is combined with the 3D model. Instead of just switching the images to be displayed, you can jump into the space of the 3D model and feel as if you are standing at the corresponding observation point. Further, by synthesizing the 3D model and the image to be displayed, it becomes easy to express a sense of depth of space in the image to be displayed, and it is possible to further enhance the sense of presence. In addition, when switching between panoramic images, the sense of depth before and after the switching display changes, which has an impact and enhances the sense of presence.

本発明の第5の態様は、第4の態様の画像表示方法において、表示されている画像に対するトリガー操作が検出されると、トリガー操作を受け取った位置が、観察点のないところであれば、画像表示装置は、トリガー操作を受け取った位置の最接近観察点の位置情報を取得して、トリガー信号に含ませる。 In the fifth aspect of the present invention, when the trigger operation for the displayed image is detected in the image display method of the fourth aspect, if the position where the trigger operation is received is a place without an observation point, the image is displayed. The display device acquires the position information of the closest observation point at the position where the trigger operation is received and includes it in the trigger signal.

本態様によれば、表示画像の任意点にトリガー操作してもトリガー操作として検出されるようになり、使いやすい。 According to this aspect, even if a trigger operation is performed at an arbitrary point on the display image, it is detected as a trigger operation, which is easy to use.

本発明の第6の態様は、第4又は第5の態様の画像表示方法において、複数の観察点の内、第一観察点の画像から第二観察点の画像に切り替え表示すると、切り替え後に表示される第二観察点の画像は、切り替え前に表示された第一観察点の画像と同じ観察角度で表示される。 According to the sixth aspect of the present invention, in the image display method of the fourth or fifth aspect, when the image of the first observation point is switched to the image of the second observation point among the plurality of observation points, the image is displayed after the switching. The image of the second observation point to be displayed is displayed at the same observation angle as the image of the first observation point displayed before switching.

本態様によれば、切り替え表示前後の画像が同じ観察角度で切り替えられるため、前の観察点から後の観察点へ「直行」する感覚で表示できる。ユーザへのインパクトが高く、臨場感を高めることができる。 According to this aspect, since the images before and after the switching display are switched at the same observation angle, the images can be displayed as if they were "straight" from the previous observation point to the later observation point. It has a high impact on the user and can enhance the sense of presence.

本発明の第7の態様は、対象物を表現する画像を画像表示装置に表示するための画像表示システムであって、複数の画像表示装置と、複数の画像表示装置に、通信ネットワークを介して、対象物を再現した3Dモデルと、画像とを送信するサーバと、を備える。サーバは、画像と3Dモデルとを保存するコンテンツ記憶部と、画像表示装置からのトリガー信号に応じて画像表示装置に送信する情報処理部と、を含み、複数の画像表示装置のそれぞれは、画像を表示する表示部と、表示制御部と、操作検出部とを含み、画像表示装置がサーバにアクセスすると、サーバは画像表示装置に3Dモデルを送信し、いずれかの画像表示装置の操作検出部が、トリガー操作を検出すると、トリガー信号を情報処理部に送信し、情報処理部は、トリガー信号に基づいて、コンテンツ記憶部に画像を含んでいる画像コンテンツを要求し、コンテンツ記憶部は、情報処理部に要求された画像コンテンツを各表示制御部にそれぞれ送信し、各表示制御部は、トリガー信号より、画像コンテンツに含まれている画像を3Dモデルに合成させ、3Dモデルと合成された画像を観察角度で表示部に表示させる。 A seventh aspect of the present invention is an image display system for displaying an image representing an object on an image display device, which is connected to a plurality of image display devices and a plurality of image display devices via a communication network. , A 3D model that reproduces an object, and a server that transmits an image. The server includes a content storage unit that stores an image and a 3D model, and an information processing unit that transmits to the image display device in response to a trigger signal from the image display device, and each of the plurality of image display devices has an image. When the image display device accesses the server, the server sends a 3D model to the image display device, and the operation detection unit of any of the image display devices includes a display unit, a display control unit, and an operation detection unit. However, when the trigger operation is detected, the trigger signal is transmitted to the information processing unit, the information processing unit requests the image content including the image in the content storage unit based on the trigger signal, and the content storage unit receives information. The image content requested by the processing unit is transmitted to each display control unit, and each display control unit synthesizes the image included in the image content into the 3D model from the trigger signal, and the combined image with the 3D model. Is displayed on the display unit at the observation angle.

本発明の第8の態様は、第7態様の画像表示システムにおいて、複数の画像表示装置のそれぞれは、音声入力部と音声出力部とをさらに含んでおり、いずれかの画像表示装置が他の画像表示装置に通話申請をすると、他の画像表示装置が通話申請を受け入れた場合に、通話申請した画像表示装置と、通話申請を受け入れた画像表示装置とは、音声入力部と音声出力部とにより通話できるようになる。 An eighth aspect of the present invention is the image display system of the seventh aspect, wherein each of the plurality of image display devices further includes an audio input unit and an audio output unit, and one of the image display devices is the other. When a call application is made to the image display device, when another image display device accepts the call application, the image display device that applied for the call and the image display device that accepted the call application are a voice input unit and a voice output unit. Allows you to make calls.

本発明の第9の態様は、第1から第6態様のいずれかに記載の画像表示方法をコンピュータに実行させるための画像表示プログラムである。 A ninth aspect of the present invention is an image display program for causing a computer to execute the image display method according to any one of the first to sixth aspects.

本発明によれば、遠隔に居る複数のユーザが同じ空間の同じ場所に居るような状態で同じ画像を観覧でき、ユーザへの臨場感をたかめられる。また、遠隔に居る複数のユーザがコミュニケーションを取りながら当該空間を観覧し、案内することができる。 According to the present invention, a plurality of remote users can view the same image in a state where they are in the same place in the same space, and the user can feel the presence of the image. In addition, a plurality of remote users can view and guide the space while communicating with each other.

画像表示システムの構成を示す模式図である。It is a schematic diagram which shows the structure of an image display system. 画像表示方法の処理を示すフローチャートである。It is a flowchart which shows the process of an image display method. 建物の3Dモデルを表示する図である。It is a figure which displays the 3D model of a building. 図3の3Dモデルを時計回りに回転させた図である。It is the figure which rotated the 3D model of FIG. 3 clockwise. 観察点P1でのパノラマ画像を表示している図である。It is a figure which displays the panoramic image at the observation point P1. 観察点P2でのパノラマ画像を表示している図である。It is a figure which displays the panoramic image at the observation point P2. 観察点P2でのパノラマ画像を表示している図である。It is a figure which displays the panoramic image at the observation point P2. 建物の平面図を表示している図である。It is a figure which displays the plan view of a building. 画像表示方法の処理を示すフローチャートである。It is a flowchart which shows the process of an image display method.

以下、図面を参照して、本発明の実施形態について説明する。図1は、実施形態に係る画像表示システムの構成を示す模式図である。本実施形態の画像表示システムは、サーバ1と複数の画像表示装置2a,2bとを含む。画像表示装置の数は、2つに限らず、2つより多くてもよい。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram showing a configuration of an image display system according to an embodiment. The image display system of the present embodiment includes a server 1 and a plurality of image display devices 2a and 2b. The number of image display devices is not limited to two, and may be more than two.

サーバ1は、通信ネットワーク100を介して、画像表示装置2a,2bとデータ転送可能に接続されている。サーバ1は、情報処理部11とコンテンツ記憶部12とを含む。情報処理部11は、CPUなどのプロセッサと、RAM,ROMなどのメモリとを含む。情報処理部11は、画像表示装置からの信号に応じて、コンテンツ記憶部12に保存されている画像コンテンツを要求する。コンテンツ記憶部12は、画像の表示に要する画像コンテンツを記憶しており、情報処理部11からの要求に応じて、画像表示装置に画像コンテンツを送信する。 The server 1 is connected to the image display devices 2a and 2b so as to be able to transfer data via the communication network 100. The server 1 includes an information processing unit 11 and a content storage unit 12. The information processing unit 11 includes a processor such as a CPU and a memory such as a RAM and a ROM. The information processing unit 11 requests the image content stored in the content storage unit 12 in response to the signal from the image display device. The content storage unit 12 stores image content required for displaying an image, and transmits the image content to the image display device in response to a request from the information processing unit 11.

画像コンテンツとは、2次元画像、パノラマ画像、3Dモデル、画像や3Dモデルと共に出力される効果音等の音声データや紹介用テキストや動画等が挙げられる。 Examples of the image content include a two-dimensional image, a panoramic image, a 3D model, audio data such as a sound effect output together with the image and the 3D model, an introduction text, a moving image, and the like.

2次元画像とは、写真等の平面画像である。パノラマ画像とは、対象物の前後、左右の360度と上下180度の範囲内の状況を確認できる画像である。パノラマ画像を撮影する場合、カメラを中心として、所定角度ごとに別々に撮った一群の写真を取得し、隣接し且つ重なり合う領域のある写真を、CG用ソフトウエアなどによりシームレスにつなぎ、それらを球形パノラマ画像に結合する。パノラマ画像は、カメラで撮影した写真だけではなく、CG技術で生成した画像を使って作成したパノラマ画像も含む。三次元の要素を表現しているパノラマ画像が二次元のコンピュータの表示部(スクリーンなど)で表示される際に、表示する展示角度(観察角度)により、パノラマ画像の一部分だけが表示される。 A two-dimensional image is a flat image such as a photograph. The panoramic image is an image in which the situation within the range of 360 degrees to the front and back, left and right, and 180 degrees up and down of the object can be confirmed. When taking a panoramic image, a group of photographs taken separately at predetermined angles are taken around the camera, and photographs with adjacent and overlapping areas are seamlessly connected by CG software, etc., and they are spherical. Combine to panoramic image. The panoramic image includes not only a photograph taken by a camera but also a panoramic image created by using an image generated by CG technology. When a panoramic image representing a three-dimensional element is displayed on a display unit (screen, etc.) of a two-dimensional computer, only a part of the panoramic image is displayed depending on the display angle (observation angle) to be displayed.

本実施形態の3Dモデルとは、対象物である建物などの空間内の要素を比例的に再現したものである。建物の空間内の要素とは、対象となる建物の全体構造、内部構造、全体空間、壁などで全体空間から区画された各子空間、各子空間と全体空間との関係、空間の奥行き、寸法、空間の内部に内蔵しているオブジェクトなど、目で確認できる物理的な存在である。3Dモデルは、コンピュータグラフィックス(computer graphics、略称:CG)で通常の3D技術用の座標系を配置して構成される。3Dモデルは、コンピュータで読み取って、表示できるデータである。3Dモデルとして、OBJファイルデータやMTLファイルデータなど、数多くのポリゴンで構成されているデータを例として挙げられる。OBJファイルデータとは、3Dモデルフォーマットの1つであり、頂点、法線などの情報が格納されている「.obj」ファイルと、モデル色やテクスチャ情報を格納している「.mtl」ファイルとで構成されている。「.mtl」ファイルがなくても、「.obj」ファイルさえあれば3Dモデルの形状を描画することは可能である。 The 3D model of the present embodiment is a proportional reproduction of elements in a space such as a building which is an object. The elements in the space of the building are the whole structure of the target building, the internal structure, the whole space, each child space partitioned from the whole space by walls, the relationship between each child space and the whole space, the depth of the space, It is a physical entity that can be visually confirmed, such as dimensions and objects built inside the space. The 3D model is composed of computer graphics (abbreviation: CG) by arranging a coordinate system for ordinary 3D technology. A 3D model is data that can be read and displayed by a computer. As an example of the 3D model, data composed of a large number of polygons such as OBJ file data and MTL file data can be mentioned. OBJ file data is one of the 3D model formats, and includes an ".obj" file that stores information such as vertices and normals, and a ".mtl" file that stores model color and texture information. It is composed of. Even if there is no ".mtl" file, it is possible to draw the shape of the 3D model as long as there is an ".obj" file.

ポリゴンとは、CG技術において、三角形や四角形等の多角形の組み合わせにより物体を再現する際に用いられる要素のことである。ポリゴンの数を減らすことで、データ量が小さくなり、解像度が低くなる。 A polygon is an element used in CG technology to reproduce an object by combining polygons such as triangles and quadrangles. By reducing the number of polygons, the amount of data becomes smaller and the resolution becomes lower.

対象物となる建物がマンションのように各部屋を有している場合には、その3Dモデルとしては、各部屋と、各部屋で構成された住戸ごとの全体構造と、を表現してもよい。図3に示しているのは、二階建ての戸建て住宅の3Dモデルである。図3の3Dモデルでは、外壁と天井がないため、外壁と天井が透明であるように表示することで、壁で区画された各部屋、各部屋で構成された住宅の全体構造、内部にある家具、家電などすべての存在を確認することができる。 When the object building has each room like an apartment, the 3D model may represent each room and the overall structure of each dwelling unit composed of each room. .. Figure 3 shows a 3D model of a two-story detached house. In the 3D model of FIG. 3, since there is no outer wall and ceiling, by displaying the outer wall and ceiling as if they are transparent, each room partitioned by the wall, the entire structure of the house composed of each room, and the inside are inside. You can confirm the existence of all furniture, home appliances, etc.

画像表示装置2a、2bは、ユーザ用の端末として、通信ネットワーク100を介してサーバ1と通信可能であり、画像を表示できるコンピュータである。画像表示装置2a、2bは、例えばスマートフォンやタブレットなどの携帯端末、或いはパーソナルコンピュータである。 The image display devices 2a and 2b are computers that can communicate with the server 1 via the communication network 100 as terminals for users and can display images. The image display devices 2a and 2b are, for example, mobile terminals such as smartphones and tablets, or personal computers.

画像表示装置2aは、表示制御部21aと、表示部22aと、操作検出部23aと、音声入力部24aと、音声出力部25aを含む。画像表示装置2bは、表示制御部21bと、表示部22bと、操作検出部23bと、音声入力部24bと、音声出力部25bを含む。表示制御部21a、21bは、CPUなどのプロセッサと、RAM,ROMなどのメモリとを含む。表示制御部21a、21bは、トリガー信号により、コンテンツ記憶部12から送信してきた画像コンテンツを読み取り、表示用のデータを合成し、表示すべき画像を表示部22a、22bに表示させる。 The image display device 2a includes a display control unit 21a, a display unit 22a, an operation detection unit 23a, a voice input unit 24a, and a voice output unit 25a. The image display device 2b includes a display control unit 21b, a display unit 22b, an operation detection unit 23b, a voice input unit 24b, and a voice output unit 25b. The display control units 21a and 21b include a processor such as a CPU and a memory such as a RAM and a ROM. The display control units 21a and 21b read the image content transmitted from the content storage unit 12 by the trigger signal, synthesize the display data, and display the image to be displayed on the display units 22a and 22b.

表示部22a、22bは、スクリーンのような2次元の表示画面であり、2次元画像と3次元のパノラマ画像とを含む画像を表示することができる。また、表示部はタッチパネルなどの入力手段であってもよい。 The display units 22a and 22b are two-dimensional display screens such as screens, and can display an image including a two-dimensional image and a three-dimensional panoramic image. Further, the display unit may be an input means such as a touch panel.

操作検出部23a、23bは、タッチパネル、キーボード、マウス、マイクなどの入力手段からの入力を受け取る手段である。操作検出部23a、23bがトリガー操作を受けると、トリガー操作を受けたことを示すトリガー信号を情報処理部11に送信し、情報処理部11がトリガー信号に基づいて、表示用の画像コンテンツを判断し、判断結果により表示すべき画像コンテンツをサーバ1のコンテンツ記憶部12に要求する。 The operation detection units 23a and 23b are means for receiving inputs from input means such as a touch panel, a keyboard, a mouse, and a microphone. When the operation detection units 23a and 23b receive the trigger operation, a trigger signal indicating that the trigger operation has been received is transmitted to the information processing unit 11, and the information processing unit 11 determines the image content for display based on the trigger signal. Then, the content storage unit 12 of the server 1 is requested to display the image content to be displayed based on the determination result.

トリガー操作は、クリックに限らず、マウスやタッチパネルなどによるタップ、スライド、ドラッグ(drag−and−drop)、予め設定された認識可能なジェスチャー操作、音声操作などの入力でもよい。 The trigger operation is not limited to clicking, but may be input such as tapping, sliding, dragging (drag-and-drop) with a mouse or a touch panel, preset recognizable gesture operation, voice operation, or the like.

操作検出部23a、23bは、トリガー操作された位置やアイコンなどにより、トリガー操作の意味を読み取り、その位置情報、観察角度情報、画像データ情報などをトリガー信号に含ませる。 The operation detection units 23a and 23b read the meaning of the trigger operation by the position and the icon of the trigger operation, and include the position information, the observation angle information, the image data information and the like in the trigger signal.

画像データ情報とは、2次元画像、パノラマ画像、平面図などの画像の情報である。位置情報は、3Dモデル自身の座標系により3Dモデル内の各位置を示す情報である。3Dモデル内の各位置は、物理的な建物の空間内の各位置と対応している。観察角度は、ユーザが対象物を観察する際の角度(表示部で表示する角度)である。上記観察角度の0度を示す方向と上記3Dモデル自身の座標系の原点とは、3Dモデルを構築する際に事前に決められている。 The image data information is image information such as a two-dimensional image, a panoramic image, and a plan view. The position information is information indicating each position in the 3D model by the coordinate system of the 3D model itself. Each position in the 3D model corresponds to each position in the physical space of the building. The observation angle is an angle (angle displayed on the display unit) when the user observes an object. The direction indicating 0 degrees of the observation angle and the origin of the coordinate system of the 3D model itself are determined in advance when constructing the 3D model.

音声入力部24a、24bは、例えばマイクであり、音声入力に用いられる。音声出力部25a、25bは、例えばイヤホンやスピーカーであり、音声出力に用いられる。音声入力部24が音声出力部25と連動することで、複数の画像表示装置の間に、画像を確認しながら電話のように即時的の会話機能が発揮される。 The voice input units 24a and 24b are, for example, microphones and are used for voice input. The audio output units 25a and 25b are, for example, earphones and speakers, and are used for audio output. By interlocking the voice input unit 24 with the voice output unit 25, an immediate conversation function like a telephone is exhibited between a plurality of image display devices while checking an image.

表示制御部21a、21bによって実行される処理の一部又は全部は、サーバ1によって実行されてもよい。
[画像表示方法]
A part or all of the processing executed by the display control units 21a and 21b may be executed by the server 1.
[Image display method]

以下、本実施形態の画像表示方法について、マンションや戸建て住宅などの建物の内部空間を例に詳細に説明する。 Hereinafter, the image display method of the present embodiment will be described in detail by taking the internal space of a building such as a condominium or a detached house as an example.

図2は、一つの画像表示装置2aがサーバ1にアクセスしている際の処理を示すフローチャートである。 FIG. 2 is a flowchart showing a process when one image display device 2a is accessing the server 1.

表示の開始時に、画像表示装置2aは、サーバ1にアクセスする。サーバ1は、画像表示装置2aに識別用のユーザIDなどの設定情報を付与する。そして、サーバ1から画像表示装置2aに3DモデルのOBJファイルデータを送信する。3DモデルのOBJファイルデータが画像表示装置2aにダウンロードされる(ステップS0)。画像表示装置2aの表示部22aは3Dモデルを表示し、初期表示状態となる(ステップS1)。操作検出部23aが表示部22aへのトリガー操作を検出すると、トリガー信号を情報処理部11に送信する(ステップS2)。情報処理部11が、トリガー信号に含んでいる画像データ情報、位置情報、観察角度情報などに基づいて表示画面に表示するための画像コンテンツを判断して、コンテンツ記憶部12に要求する(ステップS3)。コンテンツ記憶部12は、情報処理部11に要求された画像コンテンツを、画像表示装置2aの表示制御部21aに送信する(ステップS4)。表示制御部21aは、画像コンテンツを読み取り、解析し、画像コンテンツに含まれている表示用の画像を3Dモデルと合成させ、表示用の画像を表示部22aに表示させる(ステップS5)。 At the start of display, the image display device 2a accesses the server 1. The server 1 assigns setting information such as a user ID for identification to the image display device 2a. Then, the OBJ file data of the 3D model is transmitted from the server 1 to the image display device 2a. The OBJ file data of the 3D model is downloaded to the image display device 2a (step S0). The display unit 22a of the image display device 2a displays the 3D model and is in the initial display state (step S1). When the operation detection unit 23a detects a trigger operation on the display unit 22a, the trigger signal is transmitted to the information processing unit 11 (step S2). The information processing unit 11 determines the image content to be displayed on the display screen based on the image data information, position information, observation angle information, etc. included in the trigger signal, and requests the content storage unit 12 (step S3). ). The content storage unit 12 transmits the image content requested by the information processing unit 11 to the display control unit 21a of the image display device 2a (step S4). The display control unit 21a reads and analyzes the image content, synthesizes the display image included in the image content with the 3D model, and displays the display image on the display unit 22a (step S5).

ステップS0のダウンロード処理は一回だけで完了してもよい。画像表示装置2aは、画像の切り替え表示などを行うたびに、ステップS1からS5までの処理を繰り返し実行してもよい。 The download process of step S0 may be completed only once. The image display device 2a may repeatedly execute the processes from steps S1 to S5 each time the image is switched and displayed.

次は、図9を参考して、複数の画像表示装置(二つの画像表示装置2aと2bとを例とする)がサーバ1にアクセスする際の処理を説明する。 Next, with reference to FIG. 9, a process when a plurality of image display devices (two image display devices 2a and 2b as an example) access the server 1 will be described.

IM技術(Instant Messenger)により、一つの画像表示装置2aがすでにサーバ1と接続して物件の画像を観覧している状態では、他の画像表示装置2bを招請し、画像表示装置2bと連携できる。画像表示装置2aが画像表示装置2bと連携した場合、画像表示装置2aと画像表示装置2bとは同じ物件を観覧できるようになる。また、当該画像表示装置2aは、他の画像表示装置2bから同じ物件を観覧しようとする招請を受け入れ、連携することもできる。画像表示装置2aは、画像表示装置2bからの招請を受信すると、画像表示装置2bと連携するか否かを選択できる。 With IM technology (Instant Messenger), when one image display device 2a is already connected to the server 1 and viewing the image of the property, another image display device 2b can be invited and linked with the image display device 2b. .. When the image display device 2a cooperates with the image display device 2b, the image display device 2a and the image display device 2b can view the same property. Further, the image display device 2a can also accept an invitation to view the same property from another image display device 2b and cooperate with the image display device 2a. Upon receiving the invitation from the image display device 2b, the image display device 2a can select whether or not to cooperate with the image display device 2b.

画像表示装置2aが、画像表示装置2bとの連携を許可すると、サーバ1は、画像表示装置2bに識別用のユーザIDを付与し、サーバ1から画像表示装置2bに3Dモデルを送信する。3Dモデルは、画像表示装置2bに保存される。また、サーバ1では、画像表示装置2aと2bが連携しているグループとして設定される(ステップS10)。 When the image display device 2a permits cooperation with the image display device 2b, the server 1 assigns a user ID for identification to the image display device 2b, and the server 1 transmits a 3D model to the image display device 2b. The 3D model is stored in the image display device 2b. Further, on the server 1, the image display devices 2a and 2b are set as a linked group (step S10).

画像表示装置2bが画像表示装置2aと連携されると、サーバ1は、画像表示装置2aと連携してきた画像表示装置2bに、画像表示装置2aに直前に送信した画像コンテンツを送信する。そして、画像表示装置2bは、図2に示している処理を実行する。それにより、連携された画像表示装置2aと2bは同じ画像を表示するようになる(ステップS11)。この状態では、操作検出部23a,23bのいずれかが表示部22へのトリガー操作を検出すると、トリガー信号を情報処理部11に送信する(ステップS12)。情報処理部11が、トリガー信号を受信すると、当該トリガー信号の送信元である画像表示装置2aのユーザIDを識別し、トリガー信号に含んでいる画像データ情報、位置情報、観察角度情報などに基づいて、表示するための画像コンテンツを判断して、当該画像コンテンツをコンテンツ記憶部12に要求する(ステップS13)。また、情報処理部11が、時間的に前後して、異なる画像表示装置からトリガー信号を受信すると、前のトリガー信号を受信してから、所定時間内に同じグループにある他のユーザIDからのトリガー信号を拒否する(ステップS14)。 When the image display device 2b is linked with the image display device 2a, the server 1 transmits the image content previously transmitted to the image display device 2a to the image display device 2b linked with the image display device 2a. Then, the image display device 2b executes the process shown in FIG. As a result, the linked image display devices 2a and 2b display the same image (step S11). In this state, when any of the operation detection units 23a and 23b detects a trigger operation on the display unit 22, a trigger signal is transmitted to the information processing unit 11 (step S12). When the information processing unit 11 receives the trigger signal, it identifies the user ID of the image display device 2a that is the source of the trigger signal, and is based on the image data information, position information, observation angle information, and the like included in the trigger signal. Then, the image content to be displayed is determined, and the image content is requested to the content storage unit 12 (step S13). Further, when the information processing unit 11 receives a trigger signal from a different image display device in a timely manner, it is received from another user ID in the same group within a predetermined time after receiving the previous trigger signal. Reject the trigger signal (step S14).

コンテンツ記憶部12は、画像コンテンツを、グループのすべての画像表示装置2a、2bの表示制御部21a、21bに送信する(ステップS15)。上記画像コンテンツを受信した各表示制御部21a、21bは、画像コンテンツを分析し、表示すべき画像を3Dモデルに合成し、3Dモデルと合成している画像を各表示部22a、22bに表示させる(ステップS16)。 The content storage unit 12 transmits the image content to the display control units 21a and 21b of all the image display devices 2a and 2b of the group (step S15). The display control units 21a and 21b that have received the image content analyze the image content, synthesize the image to be displayed into the 3D model, and display the image combined with the 3D model on the display units 22a and 22b. (Step S16).

ステップ14において、所定時間内で他の画像表示装置からのトリガー信号を拒否した場合には、拒否された画像表示装置に拒否メッセッージを送信してもよい。 If the trigger signal from another image display device is rejected within a predetermined time in step 14, a rejection message may be transmitted to the rejected image display device.

ステップS10のダウンロード処理は一回だけで完了してもよい。各画像表示装置2a、2bは、画像の切り替え表示などを行うたびに、ステップS11からS16までの処理を繰り返し実行してもよい。 The download process in step S10 may be completed only once. Each of the image display devices 2a and 2b may repeatedly execute the processes from steps S11 to S16 each time the image is switched and displayed.

本実施形態において、初期表示状態における表示画像は限定されない。表示部22a、22bが初期表示状態である場合、表示される画像は、対象空間に関する画像であってよい。例えば、物件内の写真などのパノラマ画像の一部、間取り図、3Dモデルなどでもよい。 In the present embodiment, the display image in the initial display state is not limited. When the display units 22a and 22b are in the initial display state, the displayed image may be an image relating to the target space. For example, a part of a panoramic image such as a photograph in the property, a floor plan, a 3D model, or the like may be used.

次に、連携された複数の画像表示装置2a、2bにおいて、3Dモデルの表示から平面図に切り替え表示することを例として、表示方法を説明する。平面図とは、対象物の構造、配置などを表現するために、対象物の上面からの投影図又は水平断面図であり、物件の場合には、間取図ともいう。 Next, a display method will be described by taking as an example the switching from the display of the 3D model to the plan view in the plurality of linked image display devices 2a and 2b. The plan view is a projection view or a horizontal cross-sectional view from the upper surface of the object in order to express the structure, arrangement, etc. of the object, and in the case of a property, it is also called a floor plan.

連携が許可された場合、サーバは、後にアクセスしてきた画像表示装置2bに、先にアクセスしていた画像表示装置2aに直前に送信した画像コンテンツを送信するので、連携された複数の画像表示装置は、常に同じ表示状態である。 When the linkage is permitted, the server transmits the image content transmitted immediately before to the image display device 2a that was accessed earlier to the image display device 2b that was accessed later, so that the plurality of linked image display devices are linked. Is always in the same display state.

図3は、対象物の3Dモデルを表示している。画像表示装置2a、2bは、それぞれサーバにアクセスして、3Dモデルをダウンロード済みである(ステップS10)。図3に示すように、連携された複数の画像表示装置2a、2bは同じ初期表示状態であり、所定の第1観察角度(例えば南方面)から3Dモデルを表示している。また、各表示部22a、22bの一部には、平面図などのアイコンA2が設置されている(ステップS11)。例えば、画像表示装置2aにおいて、平面図のアイコンA2をクリックすると、画像表示装置2aの操作検出部23aが平面図のアイコンA2へのトリガー操作を検出したトリガー信号を情報処理部11に送信する(ステップS12)。情報処理部11は、トリガー信号に基づいて、表示すべき画像は平面図であると判定し、平面図をコンテンツ記憶部12に要求する(ステップS13)。また、情報処理部11は、トリガー信号を受信すると、当該トリガー信号の送信元である画像表示装置2aのユーザIDを識別する。情報処理部11は、所定時間内に同じグループにある他のユーザIDからのトリガー信号を受信すると、そのトリガー信号を拒否し、該当する他の画像表示装置に拒否メッセージを送信する(ステップS14)。コンテンツ記憶部12は、平面図を含んでいる画像コンテンツを各画像表示装置2a、2bの表示制御部21a、21bにそれぞれ送信する(ステップS15)。画像表示装置2a、2bの各表示制御部21a、21bは、それぞれ画像コンテンツに含まれている平面図を3Dモデルに合成させる。これにより、平面図と3Dモデルとの合成3Dモデル画像が生成される。各表示制御部21a、21bは、それぞれ各表示部22a、22bに3Dモデルと合成している平面図を表示させる(ステップS16)。そして、各表示部22a、22bは、図3の3Dモデルの表示から図8のような平面図の表示に切り替える。 FIG. 3 displays a 3D model of the object. The image display devices 2a and 2b have accessed the server and downloaded the 3D model (step S10). As shown in FIG. 3, the plurality of linked image display devices 2a and 2b are in the same initial display state and display the 3D model from a predetermined first observation angle (for example, toward the south). Further, an icon A2 such as a plan view is installed in a part of each display unit 22a and 22b (step S11). For example, when the icon A2 in the plan view is clicked on the image display device 2a, the operation detection unit 23a of the image display device 2a transmits a trigger signal for detecting the trigger operation to the icon A2 in the plan view to the information processing unit 11 ( Step S12). Based on the trigger signal, the information processing unit 11 determines that the image to be displayed is a plan view, and requests the content storage unit 12 for the plan view (step S13). Further, when the information processing unit 11 receives the trigger signal, the information processing unit 11 identifies the user ID of the image display device 2a that is the source of the trigger signal. When the information processing unit 11 receives a trigger signal from another user ID in the same group within a predetermined time, the information processing unit 11 rejects the trigger signal and transmits a rejection message to the corresponding other image display device (step S14). .. The content storage unit 12 transmits the image content including the plan view to the display control units 21a and 21b of the image display devices 2a and 2b, respectively (step S15). Each of the display control units 21a and 21b of the image display devices 2a and 2b causes the 3D model to synthesize the plan view included in the image content, respectively. As a result, a composite 3D model image of the plan view and the 3D model is generated. Each display control unit 21a and 21b causes each display unit 22a and 22b to display a plan view synthesized with the 3D model (step S16). Then, the display units 22a and 22b switch from the display of the 3D model of FIG. 3 to the display of the plan view as shown in FIG.

図3と図4の3Dモデルと、図5〜図7のパノラマ画像と、図8の平面図とは、複数の観察点Pを含む。観察点とは、対象物の内部において、観覧するポイントとして事前に選択した場所であり、各観察点は、各観察点の位置を表現する位置情報を有する。各観察点は、位置情報により各観察点からのパノラマ画像と、3Dモデルや平面図における対応位置と関連付けられている。観察点と関連付けられているパノラマ画像は、当該観察点に立って観覧できる対象物内の画像である。当該パノラマ画像により、前後左右の360度と上下180度の範囲内の状況を確認できる。各パノラマ画像は、対応する観察点の位置情報を有する。各観察点へのトリガー操作が検出されると、3Dモデルの中に入るように、3Dモデルからパノラマ画像に切り替えられる。そして、各表示部22a、22bは、各観察点で対象物の空間内の様子を見ているかのように、当観察点でのパノラマ画像を表示する。 The 3D model of FIGS. 3 and 4, the panoramic image of FIGS. 5 to 7, and the plan view of FIG. 8 include a plurality of observation points P. The observation point is a place selected in advance as a viewing point inside the object, and each observation point has position information expressing the position of each observation point. Each observation point is associated with a panoramic image from each observation point by position information and a corresponding position in a 3D model or a plan view. The panoramic image associated with the observation point is an image in the object that can be viewed while standing at the observation point. From the panoramic image, the situation within the range of 360 degrees in front, back, left and right and 180 degrees up and down can be confirmed. Each panoramic image has the position information of the corresponding observation point. When the trigger operation to each observation point is detected, the 3D model is switched to the panoramic image so as to be inside the 3D model. Then, the display units 22a and 22b display the panoramic image at each observation point as if they were looking at the state of the object in the space at each observation point.

次に、連携されているすべての画像表示装置2a、2bにおいて、3Dモデルから観察点のパノラマ画像に切り替え表示することについて説明する。 Next, it will be described that the 3D model is switched to the panoramic image of the observation point and displayed in all the linked image display devices 2a and 2b.

画像表示装置2a、2bは、3Dモデルをダウンロード済みであり(ステップS10)、図4に示すように、3Dモデルを表示している。図4に表示されている3Dモデルには、複数の観察点が設置されており、3Dモデルへのトリガー操作が可能である(ステップS11)。画像表示装置2a、2bのうち、いずれかの操作検出部が、自らの表示部に表示されている3Dモデルへのトリガー操作を検出すると、トリガー信号を情報処理部11に送信する(ステップS12)。例えば、画像表示装置2aの表示部22aにおいて、図4に示す3Dモデルの観察点P1(第一観察点)がクリックされると、操作検出部23aは、観察点P1の位置情報と、現在表示している3Dモデルの観察角度(以下、「第2観察角度」と呼ぶ)を示す観察角度情報(後述)とを含んでいるトリガー信号を情報処理部11に送信する(ステップS12)。情報処理部11は、トリガー信号に含んでいる観察点P1の位置情報に基づいて、表示すべき画像が観察点P1のパノラマ画像であることを判断し、観察点P1の位置情報を有するパノラマ画像をコンテンツ記憶部12に要求する(ステップS13)。また、情報処理部11が、トリガー信号を受信すると、当該トリガー信号の送信元である画像表示装置2aのユーザIDを識別し、所定時間内に同じグループにある他のユーザIDからのトリガー信号を拒否する(ステップS14)。コンテンツ記憶部12は、観察点P1のパノラマ画像を含んでいる画像コンテンツを、連携されているすべての表示制御部21a,21bに送信する(ステップS15)。すべての画像表示装置2a、2bの各表示制御部21a,21bは、送信された上記画像コンテンツを読み取り、観察点P1の位置情報に基づき、観察点P1のパノラマ画像を3Dモデルと観察点P1で合成させる。これにより、観察点P1の合成3Dモデル画像を生成する。各表示制御部21a,21bは、トリガー信号により、上記第2観察角度で各表示部22a,22bに3Dモデルと合成している観察点P1のパノラマ画像をそれぞれ表示させる(ステップS16)。そして、連携された画像表示装置2a、2bの全てが、図4の3Dモデルの表示状態から、観察点P1のパノラマ画像に切り替えする(図5)。 The image display devices 2a and 2b have already downloaded the 3D model (step S10), and display the 3D model as shown in FIG. A plurality of observation points are installed in the 3D model displayed in FIG. 4, and a trigger operation to the 3D model is possible (step S11). When any of the operation detection units of the image display devices 2a and 2b detects a trigger operation on the 3D model displayed on its own display unit, the trigger signal is transmitted to the information processing unit 11 (step S12). .. For example, when the observation point P1 (first observation point) of the 3D model shown in FIG. 4 is clicked on the display unit 22a of the image display device 2a, the operation detection unit 23a displays the position information of the observation point P1 and the current display. A trigger signal including observation angle information (described later) indicating an observation angle (hereinafter referred to as “second observation angle”) of the 3D model is transmitted to the information processing unit 11 (step S12). The information processing unit 11 determines that the image to be displayed is a panoramic image of the observation point P1 based on the position information of the observation point P1 included in the trigger signal, and has a panoramic image having the position information of the observation point P1. Is requested from the content storage unit 12 (step S13). When the information processing unit 11 receives the trigger signal, the information processing unit 11 identifies the user ID of the image display device 2a that is the source of the trigger signal, and within a predetermined time, receives a trigger signal from another user ID in the same group. Reject (step S14). The content storage unit 12 transmits the image content including the panoramic image of the observation point P1 to all the linked display control units 21a and 21b (step S15). The display control units 21a and 21b of all the image display devices 2a and 2b read the transmitted image contents, and based on the position information of the observation point P1, the panoramic image of the observation point P1 is displayed on the 3D model and the observation point P1. Synthesize. As a result, a synthetic 3D model image of the observation point P1 is generated. Each display control unit 21a, 21b causes each display unit 22a, 22b to display a panoramic image of the observation point P1 synthesized with the 3D model at the second observation angle by the trigger signal (step S16). Then, all of the linked image display devices 2a and 2b switch from the display state of the 3D model of FIG. 4 to the panoramic image of the observation point P1 (FIG. 5).

上記観察点P1がクリックされると、操作検出部23aは、観察点P1の位置情報を読み取ってトリガー信号に含ませる。なお、予め設置された観察点以外の位置へのトリガー操作を検出した際には、操作検出部23aは、当該トリガー操作された位置に最も近い観察点を判断して、その最も近い観察点(以下、「最接近観察点」)の位置情報を読み取ってトリガー信号に含ませる。 When the observation point P1 is clicked, the operation detection unit 23a reads the position information of the observation point P1 and includes it in the trigger signal. When a trigger operation to a position other than the previously installed observation point is detected, the operation detection unit 23a determines the observation point closest to the position where the trigger operation was performed, and the nearest observation point (the nearest observation point ( Hereinafter, the position information of the "closest observation point") is read and included in the trigger signal.

本実施形態では、切り替え表示前の3Dモデルの表示角度(図4の3Dモデルの第2観察角度)を操作検出部23aが観察角度情報として読み取ってトリガー信号に含ませる。そして、表示制御部21a、21bは、3Dモデルと観察点P1で合成している観察点P1のパノラマ画像を第2観察角度で表示させる。従って、表示している画像の観察角度は、3Dモデルとパノラマ画像との切り替え表示前後で同じである。 In the present embodiment, the operation detection unit 23a reads the display angle of the 3D model before the switching display (the second observation angle of the 3D model in FIG. 4) as the observation angle information and includes it in the trigger signal. Then, the display control units 21a and 21b display the panoramic image of the observation point P1 synthesized at the observation point P1 with the 3D model at the second observation angle. Therefore, the observation angle of the displayed image is the same before and after the switching display between the 3D model and the panoramic image.

次に、連携されているすべての画像表示装置2a、2bにおいて、異なる観察点のパノラマ画像に切り替え表示することについて説明する。 Next, it will be described that the panoramic images of different observation points are switched and displayed in all the linked image display devices 2a and 2b.

図5に示すように、各画像表示装置2a、2bは、第2観察角度で観察点P1のパノラマ画像をそれぞれ表示している。観察点P1(第一観察点)のパノラマ画像には、複数の別観察点(P2、P3、P4、P5、……)も表示される(ステップ11)。 As shown in FIG. 5, each image display device 2a and 2b displays a panoramic image of the observation point P1 at the second observation angle. A plurality of different observation points (P2, P3, P4, P5, ...) Are also displayed in the panoramic image of the observation point P1 (first observation point) (step 11).

図5の状態で、例えば画像表示装置2bにおいて、観察点P2(第二観察点)へのトリガー操作を検出すると、操作検出部23bは、観察点P2の位置情報と、現在表示している画面の第2観察角度とを含んでいるトリガー信号を情報処理部11に送信する(ステップS12)。情報処理部11は、観察点P2の位置情報を有するパノラマ画像をコンテンツ記憶部12に要求する(ステップS13)。情報処理部11が、トリガー信号を受信すると、当該トリガー信号の送信元である画像表示装置2bのユーザIDを識別し、所定時間内に同じグループにある他のユーザIDからのトリガー信号を拒否する(ステップS14)。コンテンツ記憶部12は、観察点P2のパノラマ画像を含んでいる画像コンテンツを、すべての表示制御部21a、21bに送信する(ステップS15)。すべての画像表示装置2a、2bの各表示制御部21a、21bは、送信してきた上記画像コンテンツを読み取り、観察点P2の位置情報に基づき、観察点P2のパノラマ画像を3Dモデルと観察点P2で合成させる。これにより、各画像表示装置2aと2bで、それぞれ観察点P2の合成3Dモデル画像が生成される。表示制御部21a、21bは、図6に示すように、トリガー信号により、3Dモデルに合成された観察点P2のパノラマ画像を、上記第2観察角度で、各表示部22a、22bのそれぞれに表示させる(ステップS16)。それにより、全ての画像表示装置2a、2bにおいて、観察点P1のパノラマ画像から観察点P2のパノラマ画像に切り替えられる。切り替え表示前後の観察角度が同じであるため、それぞれのユーザに第一観察点P1から第二観察点P2へ直行した感覚を与えることができる。それにより、当該空間内で移動している感覚をユーザに与えることができ、ユーザの臨場感を高めることができる。 In the state of FIG. 5, for example, when a trigger operation to the observation point P2 (second observation point) is detected in the image display device 2b, the operation detection unit 23b displays the position information of the observation point P2 and the screen currently displayed. A trigger signal including the second observation angle of the above is transmitted to the information processing unit 11 (step S12). The information processing unit 11 requests the content storage unit 12 for a panoramic image having the position information of the observation point P2 (step S13). When the information processing unit 11 receives the trigger signal, it identifies the user ID of the image display device 2b that is the source of the trigger signal, and rejects the trigger signal from another user ID in the same group within a predetermined time. (Step S14). The content storage unit 12 transmits the image content including the panoramic image of the observation point P2 to all the display control units 21a and 21b (step S15). The display control units 21a and 21b of all the image display devices 2a and 2b read the transmitted image contents, and based on the position information of the observation point P2, generate a panoramic image of the observation point P2 with a 3D model and the observation point P2. Synthesize. As a result, the composite 3D model image of the observation point P2 is generated in each of the image display devices 2a and 2b, respectively. As shown in FIG. 6, the display control units 21a and 21b display the panoramic image of the observation point P2 synthesized in the 3D model by the trigger signal on each of the display units 22a and 22b at the second observation angle. (Step S16). As a result, in all the image display devices 2a and 2b, the panoramic image of the observation point P1 is switched to the panoramic image of the observation point P2. Since the observation angles before and after the switching display are the same, it is possible to give each user a sense of going straight from the first observation point P1 to the second observation point P2. As a result, the user can be given the feeling of moving in the space, and the user's sense of presence can be enhanced.

図5に示すように、表示されている画像の任意の箇所P0(予め設定した観察点以外の箇所)をクリックしてトリガー操作を行うと、ステップS2においては、表示制御部21bは、このトリガー操作が発生した箇所P0に最も近い第二観察点P2の位置情報を取得し、トリガー信号に含ませる。 As shown in FIG. 5, when an arbitrary part P0 (a part other than a preset observation point) of the displayed image is clicked to perform a trigger operation, in step S2, the display control unit 21b performs this trigger. The position information of the second observation point P2 closest to the place where the operation occurred P0 is acquired and included in the trigger signal.

図5および図6に示すように、表示画像の一部分に、当該建物の平面図の簡略図Kが表示されている。簡略図は、模擬移動表示Cを有する。模擬移動表示Cは、現在表示されているパノラマ画像の観察点の建物内での位置と観察角度とを示している。すなわち、模擬移動表示Cは、建物におけるユーザの位置と観察の方向とを示している。例えば、表示画像が図5から図6に切り替えられた場合、模擬移動表示Cは、観察点P1からP2まで移動する。 As shown in FIGS. 5 and 6, a simplified view K of the plan view of the building is displayed in a part of the displayed image. The simplified diagram has a simulated movement display C. The simulated movement display C shows the position and observation angle of the observation point of the currently displayed panoramic image in the building. That is, the simulated movement display C indicates the position of the user in the building and the direction of observation. For example, when the display image is switched from FIG. 5 to FIG. 6, the simulated movement display C moves from the observation points P1 to P2.

図6のパノラマ画像が表示されているときに、平面図のアイコンA2や簡略図Kへの操作により、平面図への切り替え表示を要求するトリガー信号を操作検出部23bが検出すると、図6に示すパノラマ画像から、図8に示す平面図に切り替え表示する。平面図にも、パノラマ画像とそれぞれ関連付けられた複数の観察点が設けられている。従って、平面図において任意箇所をクリックすることで、平面図からパノラマ画像への切り替え表示が可能である。 When the operation detection unit 23b detects a trigger signal requesting switching display to the plan view by operating the icon A2 of the plan view or the simplified view K while the panoramic image of FIG. 6 is displayed, FIG. 6 shows. The panoramic image shown is switched to the plan view shown in FIG. 8 for display. The plan view is also provided with a plurality of observation points associated with the panoramic image. Therefore, it is possible to switch from the plan view to the panoramic image by clicking an arbitrary place on the plan view.

次に、連携されている全ての画像表示装置2a,2bにおいて、同じ観察点のパノラマ画像の観察角度が変更される場合について説明する。 Next, a case where the observation angle of the panoramic image at the same observation point is changed in all the linked image display devices 2a and 2b will be described.

図6と図7とは、同じ観察点P2のパノラマ画像であるが、観察角度が異なる。図6の表示画像をドラッグすることで、表示する観察角度を任意に変更することができる。従って、図6の表示画像から図7の表示画像に切り換えることが可能である。また、図7の表示画像をドラッグすることで、図7の表示画像から図6の表示画像に切り換えることも可能である。同じ観察点P2のパノラマ画像であるが、観察角度が変わることで、そのパノラマ画像の異なる部分が表示される。 6 and 7 are panoramic images of the same observation point P2, but the observation angles are different. By dragging the display image of FIG. 6, the observation angle to be displayed can be arbitrarily changed. Therefore, it is possible to switch from the display image of FIG. 6 to the display image of FIG. 7. It is also possible to switch from the display image of FIG. 7 to the display image of FIG. 6 by dragging the display image of FIG. 7. Although it is a panoramic image of the same observation point P2, different parts of the panoramic image are displayed by changing the observation angle.

例えば、図6に示すように、各表示部22a、22bの初期表示状態が、第2観察角度で観察点P2のパノラマ画像の表示であるものとする(ステップS11)。操作検出部23aが表示部22aへのトリガー操作としてのドラッグ操作を検出すると、操作検出部23aは、ドラッグ操作を分析して第1観察角度が要求されているかを判定する。操作検出部23aは、第1観察角度が要求されていることを判断すると、観察点P2のパノラマ画像に対して第1観察角度に変更する情報を含んでいるトリガー信号を情報処理部11に送信する(ステップS12)。情報処理部11が、このトリガー信号に基づいて観察点P2のパノラマ画像をコンテンツ記憶部12に要求する(ステップS13)。情報処理部11が、トリガー信号を受信すると、当該トリガー信号の送信元である画像表示装置2aのユーザIDを識別し、所定時間内に同じグループにある他のユーザIDからのトリガー信号を拒否する(ステップS14)。コンテンツ記憶部12は、観察点P2のパノラマ画像と第1観察角度を含んでいる画像コンテンツを各表示制御部21a,21bに送信する(ステップS15)。すべての画像表示装置2a、2bの各表示制御部21a、21bは、送信してきた上記画像コンテンツを読み取り、観察点P2の位置情報に基づき、観察点P2のパノラマ画像を3Dモデルと観察点P2で合成させる。そして、各画像表示装置2a、2bで、観察点P2の合成3Dモデル画像を生成する。各表示制御部21a、21bは、トリガー信号により、3Dモデルに合成している観察点P2のパノラマ画像を上記第1観察角度でそれぞれ各表示部22a、22bに表示させる(ステップS16)。そして、グループ内の画像表示装置2a、2bは、同じ観察点のパノラマ画像に対して、第2観察角度での表示(図6)から第1観察角度での表示(図7)に変更する。 For example, as shown in FIG. 6, it is assumed that the initial display state of each display unit 22a and 22b is the display of the panoramic image of the observation point P2 at the second observation angle (step S11). When the operation detection unit 23a detects a drag operation as a trigger operation to the display unit 22a, the operation detection unit 23a analyzes the drag operation and determines whether or not the first observation angle is requested. When the operation detection unit 23a determines that the first observation angle is required, the operation detection unit 23a transmits a trigger signal including information for changing to the first observation angle to the panoramic image of the observation point P2 to the information processing unit 11. (Step S12). The information processing unit 11 requests the content storage unit 12 for a panoramic image of the observation point P2 based on this trigger signal (step S13). When the information processing unit 11 receives the trigger signal, it identifies the user ID of the image display device 2a that is the source of the trigger signal, and rejects the trigger signal from another user ID in the same group within a predetermined time. (Step S14). The content storage unit 12 transmits the panoramic image of the observation point P2 and the image content including the first observation angle to the display control units 21a and 21b (step S15). The display control units 21a and 21b of all the image display devices 2a and 2b read the transmitted image contents, and based on the position information of the observation point P2, generate a panoramic image of the observation point P2 with a 3D model and the observation point P2. Synthesize. Then, each image display device 2a and 2b generates a composite 3D model image of the observation point P2. The display control units 21a and 21b display the panoramic image of the observation point P2 synthesized in the 3D model on the display units 22a and 22b at the first observation angle, respectively (step S16). Then, the image display devices 2a and 2b in the group change the display at the second observation angle (FIG. 6) to the display at the first observation angle (FIG. 7) for the panoramic image at the same observation point.

なお、送信するデータ量を抑えるために、ある観察点(例えばP2)のパノラマ画像を表示する際に、位置情報が変わらない場合には、変更する観察角度の情報だけを含んでいるトリガー信号を情報処理部11に送信することも可能である。そして、各表示制御部21は、サーバから送信してきたデータにより、変更された観察角度でパノラマ画像を表示させる。 In order to reduce the amount of data to be transmitted, when displaying a panoramic image of a certain observation point (for example, P2), if the position information does not change, a trigger signal containing only the information of the observation angle to be changed is transmitted. It is also possible to transmit to the information processing unit 11. Then, each display control unit 21 displays the panoramic image at the changed observation angle according to the data transmitted from the server.

連携されている画像表示装置2a、2bのうち、いずれかの画像表示装置2aが他の画像表示装置2bに通話しようとする場合の処理について説明する。 A process when any of the linked image display devices 2a and 2b tries to make a call to the other image display device 2b will be described.

IM技術により、画像を観覧しながら、通話することが可能である。本実施形態では、画像の観覧中に、画像表示装置2aが通話アイコンなどにより他の画像表示装置2bに通話申請してもよい。他の画像表示装置2bが通話申請を受け入れた場合には、音声入力部24a、24bと音声出力部25a、25bとを起動させ、画像表示装置2aと2bは通話できるようになる。 With IM technology, it is possible to make a call while viewing an image. In the present embodiment, the image display device 2a may apply for a call to another image display device 2b by means of a call icon or the like while viewing an image. When the other image display device 2b accepts the call application, the voice input units 24a and 24b and the voice output units 25a and 25b are activated so that the image display devices 2a and 2b can make a call.

本実施形態では、3Dモデルは、ユーザの操作によって回転可能である。例えば、画像表示装置2aにおいて、図5〜図8に示している3DアイコンA1へのトリガー操作を検出すると、操作検出部23aは、3Dモデルを表示する指示として読み取り、トリガー信号に含ませて、トリガー信号をサーバ1に送信する。サーバ1は当該トリガー信号を各画像表示装置2a,2bの表示制御部21a、21bに送信する。各表示制御部21a、21bは、それぞれ保存している3Dモデルを表示部22a、22bに表示させる。3Dモデルの表示中に、表示画面の3Dモデル以外の所をドラッグしてポインターを移動させると、3Dモデルが回転して、各観察角度で3Dモデルが表示される。それにより、図4に示すように、図3とは異なる第2観察角度で3Dモデルが表示される。 In this embodiment, the 3D model can be rotated by the user's operation. For example, when the image display device 2a detects a trigger operation on the 3D icon A1 shown in FIGS. 5 to 8, the operation detection unit 23a reads it as an instruction to display the 3D model and includes it in the trigger signal. Send the trigger signal to server 1. The server 1 transmits the trigger signal to the display control units 21a and 21b of the image display devices 2a and 2b. The display control units 21a and 21b display the stored 3D model on the display units 22a and 22b, respectively. While the 3D model is being displayed, if you drag a place other than the 3D model on the display screen to move the pointer, the 3D model will rotate and the 3D model will be displayed at each observation angle. As a result, as shown in FIG. 4, the 3D model is displayed at a second observation angle different from that in FIG.

なお、本実施形態において、画像と3Dモデルとを合成させるとは、3Dモデルと、3Dモデルの各部分に対応する画像とを、各画像の3Dモデルにおける位置に対応させて関連付けることである。この合成作業は、WebGLなどの従来技術を利用することが可能である。3Dモデルと合成された画像は、スクリーンなどの二次元の表示部22に表示される場合、見た目では二次元画像であるが、対象物における画像の位置を3Dモデルで把握できるため、対象物の奥行きや寸法や立体感を表現しやすくなる。 In the present embodiment, synthesizing the image and the 3D model means associating the 3D model with the image corresponding to each part of the 3D model in correspondence with the position of each image in the 3D model. For this synthesis work, it is possible to use a conventional technique such as WebGL. When the image combined with the 3D model is displayed on a two-dimensional display unit 22 such as a screen, it looks like a two-dimensional image, but since the position of the image on the object can be grasped by the 3D model, the object is displayed. It becomes easier to express depth, dimensions, and three-dimensional effect.

次に、本実施形態における画像データの生成方法について説明する。 Next, a method of generating image data in the present embodiment will be described.

まず、CG技術で、対象物としての建物の構造を再現した3Dモデルを作成する。3Dモデルは主にOBJファイルである。そして、現実感を高めるために、3Dモデルをレンダリングする。レンダリングにより、建物内の物体の実際の色、模様、質感などを3Dモデル上に再現する。そして、レンダリング後の3Dモデルを保存する。レンダリング後の3Dモデルは、解像度が高いため、3Dモデル全体のデータ量が大きい。 First, using CG technology, a 3D model that reproduces the structure of the building as an object is created. The 3D model is mainly an OBJ file. Then, in order to enhance the sense of reality, the 3D model is rendered. Rendering reproduces the actual colors, patterns, textures, etc. of objects in the building on a 3D model. Then, the rendered 3D model is saved. Since the 3D model after rendering has a high resolution, the amount of data of the entire 3D model is large.

レンダリング後の3Dモデルから、複数の観察点でのパノラマ画像をピックアップして、各観察点のパノラマ画像として保存する。保存されたパノラマ画像は、自らの観察点の位置情報を有する。レンダリング後の3Dモデルに対して、ポリゴンの数を削減することで、レンダリング後の3Dモデルを圧縮する。圧縮されたレンダリング後の3Dモデルをサーバ1のコンテンツ記憶部12に保存する。 A panoramic image at a plurality of observation points is picked up from the rendered 3D model and saved as a panoramic image at each observation point. The saved panoramic image has the position information of its own observation point. By reducing the number of polygons for the rendered 3D model, the rendered 3D model is compressed. The compressed rendered 3D model is stored in the content storage unit 12 of the server 1.

そして、ピックアップされた各観察点のパノラマ画像を、各観察点の位置情報により圧縮後の3Dモデルにある各観察点にそれぞれ関連付けさせる。また、各パノラマ画像にも、それぞれ他の観察点を一つ以上設置し、各観察点にパノラマ画像を関連付けさせる。 Then, the panoramic image of each picked-up observation point is associated with each observation point in the compressed 3D model by the position information of each observation point. In addition, one or more other observation points are set in each panoramic image, and the panoramic image is associated with each observation point.

このように生成した圧縮されたレンダリング後の3Dモデルは、上述した図3および図4の3Dモデルとして、画像表示装置2a,2bに表示される。圧縮後の3Dモデルは、その解像度がレンダリング後の3Dモデルより低い。圧縮後の3Dモデルの解像度は、レンダリング後の3Dモデルからピックアップした各パノラマ画像よりも低い。それにより、圧縮後の3Dモデルによる通信データ量が著しく減少し、携帯電話などの通信端末においても、時間の遅延が発生しない。パノラマ画像は、解像度の高い圧縮前のレンダリング後の3Dモデルからピックアップされる。そのため、ユーザに解像度の高いパノラマ画像の表示を確保できる。また、上記画像表示装置がサーバにアクセスしてダウンロードしてきたのは圧縮されたレンダリング後の3Dモデルである。 The compressed rendered 3D model thus generated is displayed on the image display devices 2a and 2b as the above-mentioned 3D models of FIGS. 3 and 4. The compressed 3D model has a lower resolution than the rendered 3D model. The resolution of the compressed 3D model is lower than each panoramic image picked up from the rendered 3D model. As a result, the amount of communication data by the compressed 3D model is significantly reduced, and no time delay occurs even in a communication terminal such as a mobile phone. The panoramic image is picked up from a high resolution uncompressed, post-rendered 3D model. Therefore, it is possible to secure the user to display a panoramic image with high resolution. Further, the image display device accesses the server and downloads the compressed 3D model after rendering.

なお、上記の実施形態では、レンダリング後の3Dモデルから解像度の高いパノラマ画像をピックアップしているが、ピックアップするステップを省略して、カメラで撮影して作成したパノラマ写真などを圧縮後の3Dモデルの各観察点に関連付けることも可能である。そして、3Dモデルを作成した後に、すぐ圧縮し、事前に用意したパノラマ画像を圧縮後の3Dモデルの各観察点に関連付けてもよい。レンダリング後の3Dモデルから解像度の高いパノラマ画像をピックアップする作業は、従来CG技術でパノラマ画像を生成することである。 In the above embodiment, a high-resolution panoramic image is picked up from the rendered 3D model, but the step of picking up is omitted, and the panoramic photograph created by taking a picture with a camera is compressed into a 3D model. It is also possible to associate it with each observation point of. Then, after creating the 3D model, it may be compressed immediately and the panoramic image prepared in advance may be associated with each observation point of the compressed 3D model. The task of picking up a high-resolution panoramic image from a rendered 3D model is to generate a panoramic image using conventional CG technology.

上記実施形態では、建物の空間を対象空間として、主に戸建て住宅を例として説明したが、対象空間はこれに限定されない。オフィスタワー、博物館、百貨店の販売空間、自動車の車内空間、工場、天然洞窟、公園などの人工や自然に形成された空間など、3Dモデルで再現できる空間であればよい。 In the above embodiment, the space of the building is used as the target space, and the detached house is mainly used as an example, but the target space is not limited to this. Any space that can be reproduced with a 3D model, such as an office tower, a museum, a department store sales space, a car interior space, a factory, a natural cave, a park, or other artificial or naturally formed space.

上記の実施形態では、ユーザの臨場感を高めるために、表示部に表示している画像の観察角度が3Dモデルとパノラマ画像との切り替え表示前後で同じとして説明しているが、切り替え後の観察角度は、任意に設定されてもよい。 In the above embodiment, in order to enhance the presence of the user, the observation angle of the image displayed on the display unit is the same before and after the switching display between the 3D model and the panoramic image, but the observation after switching is performed. The angle may be set arbitrarily.

以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。またそのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, it goes without saying that the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. It is also clear from the description of the claims that the form with such changes or improvements may be included in the technical scope of the present invention.

1 サーバ
2 画像表示装置
11 情報処理部
12 コンテンツ記憶部
21 表示制御部
22 表示部
23 操作検出部
24 音声入力部
25 音声出力部
1 Server 2 Image display device 11 Information processing unit 12 Content storage unit 21 Display control unit 22 Display unit 23 Operation detection unit 24 Audio input unit 25 Audio output unit

Claims (9)

対象物を表現する画像を画像表示装置に表示するための画像表示方法であって、
複数の前記画像表示装置が、通信ネットワークを介してサーバにアクセスするステップと、
前記サーバが、複数の前記画像表示装置に前記対象物を再現した3Dモデルを送信するステップと、
複数の前記画像表示装置のうち、いずれかの前記画像表示装置が、トリガー操作を検出すると、トリガー信号を前記サーバに発信するステップと、
前記サーバが、前記トリガー信号に基づいて、前記画像を含んでいる画像コンテンツと前記トリガー信号に含まれている観察角度とを複数の前記画像表示装置に送信するステップと、
各前記画像表示装置が、前記トリガー信号により、前記画像コンテンツに含まれている前記画像を前記3Dモデルに合成させ、前記3Dモデルと合成された前記画像を表示するステップと、
を備える、画像表示方法。
It is an image display method for displaying an image expressing an object on an image display device.
A step in which a plurality of the image display devices access a server via a communication network,
A step in which the server transmits a 3D model that reproduces the object to the plurality of image display devices.
A step of transmitting a trigger signal to the server when any one of the image display devices detects a trigger operation among the plurality of image display devices.
A step in which the server transmits the image content including the image and the observation angle included in the trigger signal to the plurality of image display devices based on the trigger signal.
Each of the image display devices synthesizes the image included in the image content into the 3D model by the trigger signal, and displays the image combined with the 3D model.
An image display method.
一つの前記画像表示装置から前記トリガー信号を受信すると、所定時間内に、前記サーバは、他の前記画像表示装置からのトリガー信号を拒否するステップをさらに備える、
請求項1に記載の画像表示方法。
Upon receiving the trigger signal from one image display device, the server further comprises a step of rejecting the trigger signal from the other image display device within a predetermined time.
The image display method according to claim 1.
複数の前記画像表示装置のうち、いずれかの前記画像表示装置が他の前記画像表示装置に通話申請をすると、他の前記画像表示装置が前記通話申請を受け入れた場合に、前記通話申請した前記画像表示装置は、前記通話申請を受け入れた前記画像表示装置と通話できるようになるステップをさらに備える、
請求項1又は2に記載の画像表示方法。
When any one of the plurality of image display devices makes a call application to the other image display device and the other image display device accepts the call application, the call application is made. The image display device further comprises a step of being able to make a call with the image display device that has accepted the call request.
The image display method according to claim 1 or 2.
前記画像は平面図とパノラマ画像とを含み、
前記平面図と前記3Dモデルとは、複数の観察点を含み、
前記パノラマ画像は、自らの観察点と違う他の観察点を一つ以上有し、
各前記観察点は、前記パノラマ画像とそれぞれ関連付けられており、
各前記観察点へのトリガー操作が検出されると、前記サーバは、前記トリガー操作された観察点に関連付けられている前記パノラマ画像を前記画像コンテンツに含めて送信する、
請求項1から3のいずれか1項に記載の画像表示方法。
The image includes a plan view and a panoramic image.
The plan view and the 3D model include a plurality of observation points.
The panoramic image has one or more other observation points different from its own observation point.
Each of the observation points is associated with the panoramic image, respectively.
When a trigger operation to each of the observation points is detected, the server includes the panoramic image associated with the triggered observation point in the image content and transmits the panoramic image.
The image display method according to any one of claims 1 to 3.
表示されている前記画像に対する前記トリガー操作が検出されると、前記トリガー操作を受け取った位置が、前記観察点のないところであれば、前記画像表示装置は、前記トリガー操作を受け取った位置の最接近観察点の位置情報を取得して、前記トリガー信号に含ませる、
請求項4に記載の画像表示方法。
When the trigger operation for the displayed image is detected, if the position where the trigger operation is received is not the observation point, the image display device is closest to the position where the trigger operation is received. The position information of the observation point is acquired and included in the trigger signal.
The image display method according to claim 4.
前記複数の観察点の内、第一観察点の画像から第二観察点の画像に切り替え表示すると、切り替え後に表示される前記第二観察点の画像は、切り替え前に表示された前記第一観察点の画像と同じ観察角度で表示される、
請求項4又は5に記載の画像表示方法。
When the image of the first observation point is switched to the image of the second observation point among the plurality of observation points and displayed, the image of the second observation point displayed after the switching is the first observation displayed before the switching. Displayed at the same observation angle as the point image,
The image display method according to claim 4 or 5.
対象物を表現する画像を画像表示装置に表示するための画像表示システムであって、
複数の前記画像表示装置と、
複数の前記画像表示装置に、通信ネットワークを介して、前記対象物を再現した3Dモデルと、前記画像とを送信するサーバと、
を備え、
前記サーバは、前記画像と前記3Dモデルとを保存するコンテンツ記憶部と、前記画像表示装置からのトリガー信号に応じて前記画像表示装置に送信する情報処理部と、を含み、
複数の前記画像表示装置のそれぞれは、前記画像を表示する表示部と、表示制御部と、操作検出部とを含み、
前記画像表示装置が前記サーバにアクセスすると、前記サーバは前記画像表示装置に前記3Dモデルを送信し、
いずれかの前記画像表示装置の前記操作検出部が、トリガー操作を検出すると、前記トリガー信号を前記情報処理部に送信し、
前記情報処理部は、前記トリガー信号に基づいて、前記コンテンツ記憶部に前記画像を含んでいる画像コンテンツを要求し、
前記コンテンツ記憶部は、前記情報処理部に要求された前記画像コンテンツを各前記表示制御部にそれぞれ送信し、
各前記表示制御部は、前記トリガー信号より、前記画像コンテンツに含まれている前記画像を前記3Dモデルに合成させ、前記3Dモデルと合成された前記画像を前記観察角度で前記表示部に表示させる、
画像表示システム。
An image display system for displaying an image representing an object on an image display device.
With the plurality of the image display devices,
A 3D model that reproduces the object and a server that transmits the image to the plurality of image display devices via a communication network.
Equipped with
The server includes a content storage unit that stores the image and the 3D model, and an information processing unit that transmits to the image display device in response to a trigger signal from the image display device.
Each of the plurality of image display devices includes a display unit for displaying the image, a display control unit, and an operation detection unit.
When the image display device accesses the server, the server transmits the 3D model to the image display device.
When the operation detection unit of any of the image display devices detects a trigger operation, the trigger signal is transmitted to the information processing unit.
Based on the trigger signal, the information processing unit requests the image content including the image in the content storage unit.
The content storage unit transmits the image content requested by the information processing unit to each display control unit, respectively.
From the trigger signal, each display control unit causes the 3D model to synthesize the image included in the image content, and causes the display unit to display the image combined with the 3D model at the observation angle. ,
Image display system.
複数の前記画像表示装置のそれぞれは、音声入力部と音声出力部とをさらに含んでおり、
いずれかの前記画像表示装置が他の前記画像表示装置に通話申請をすると、他の前記画像表示装置が前記通話申請を受け入れた場合に、前記通話申請した前記画像表示装置と、前記通話申請を受け入れた前記画像表示装置とは、前記音声入力部と前記音声出力部とにより通話できるようになる、
請求項7に記載の画像表示システム。
Each of the plurality of image display devices further includes an audio input unit and an audio output unit.
When any of the image display devices makes a call application to the other image display device, and the other image display device accepts the call application, the image display device that applied for the call and the call application are made. The accepted image display device can be talked to by the voice input unit and the voice output unit.
The image display system according to claim 7.
請求項1から6のいずれか1項に記載の画像表示方法をコンピュータに実行させるための画像表示プログラム。 An image display program for causing a computer to execute the image display method according to any one of claims 1 to 6.
JP2020102701A 2020-06-12 2020-06-12 Image display method, image display system, and image display program Active JP7029118B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020102701A JP7029118B2 (en) 2020-06-12 2020-06-12 Image display method, image display system, and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020102701A JP7029118B2 (en) 2020-06-12 2020-06-12 Image display method, image display system, and image display program

Publications (2)

Publication Number Publication Date
JP2021196851A true JP2021196851A (en) 2021-12-27
JP7029118B2 JP7029118B2 (en) 2022-03-03

Family

ID=79195570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020102701A Active JP7029118B2 (en) 2020-06-12 2020-06-12 Image display method, image display system, and image display program

Country Status (1)

Country Link
JP (1) JP7029118B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130120367A1 (en) * 2011-11-15 2013-05-16 Trimble Navigation Limited Providing A Real-Time Shared Viewing Experience In A Three-Dimensional Modeling Environment
WO2019026919A1 (en) * 2017-08-02 2019-02-07 ナーブ株式会社 Image processing system, image processing method, and program
CN110162236A (en) * 2019-04-28 2019-08-23 深圳市思为软件技术有限公司 Methods of exhibiting, device and the computer equipment of virtual model room

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130120367A1 (en) * 2011-11-15 2013-05-16 Trimble Navigation Limited Providing A Real-Time Shared Viewing Experience In A Three-Dimensional Modeling Environment
WO2019026919A1 (en) * 2017-08-02 2019-02-07 ナーブ株式会社 Image processing system, image processing method, and program
CN110162236A (en) * 2019-04-28 2019-08-23 深圳市思为软件技术有限公司 Methods of exhibiting, device and the computer equipment of virtual model room

Also Published As

Publication number Publication date
JP7029118B2 (en) 2022-03-03

Similar Documents

Publication Publication Date Title
KR101918262B1 (en) Method and system for providing mixed reality service
US8411091B2 (en) Image drawing system, image drawing server, image drawing method, and computer program
EP3332565B1 (en) Mixed reality social interaction
JP7498209B2 (en) Information processing device, information processing method, and computer program
US6753857B1 (en) Method and system for 3-D shared virtual environment display communication virtual conference and programs therefor
CN111028336B (en) Scene switching method and device and storage medium
CN111414225B (en) Three-dimensional model remote display method, first terminal, electronic device and storage medium
JP2009252240A (en) System, method and program for incorporating reflection
GB2526245A (en) Sharing content
CN108960947A (en) Show house methods of exhibiting and system based on virtual reality
JP6684952B1 (en) Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
KR20200067537A (en) System and method for providing a virtual environmental conference room
JP6975370B1 (en) Image display method, program and data generation method
CN110889384A (en) Scene switching method and device, electronic equipment and storage medium
JP2001526502A (en) Conference facilities
JP7029118B2 (en) Image display method, image display system, and image display program
Kurillo et al. Teleimmersive 3D collaborative environment for cyberarchaeology
KR20190085681A (en) Method and server for providing realistic virtual reality image
Ishida et al. Proposal of tele-immersion system by the fusion of virtual space and real space
JP2012128737A (en) Three-dimentional (3d) video generation system
JP2023134045A (en) Communication apparatus, communication system, display method, and program
JP2023134220A (en) Communication system, communication management server, communication management method, and program
WO2019105002A1 (en) Systems and methods for creating virtual 3d environment
JP2023134089A (en) Communication device, communication system, display method, and program
JP2023134065A (en) Communication device, communication system, display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220203

R150 Certificate of patent or registration of utility model

Ref document number: 7029118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150