JP2003264740A - Observation scope - Google Patents

Observation scope

Info

Publication number
JP2003264740A
JP2003264740A JP2002064199A JP2002064199A JP2003264740A JP 2003264740 A JP2003264740 A JP 2003264740A JP 2002064199 A JP2002064199 A JP 2002064199A JP 2002064199 A JP2002064199 A JP 2002064199A JP 2003264740 A JP2003264740 A JP 2003264740A
Authority
JP
Japan
Prior art keywords
image
virtual image
view
angle
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002064199A
Other languages
Japanese (ja)
Other versions
JP2003264740A5 (en
Inventor
Yutaka Takase
裕 高瀬
Tatsuya Hatanaka
達也 畑中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CAD CENTER KK
CAD CT KK
Original Assignee
CAD CENTER KK
CAD CT KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CAD CENTER KK, CAD CT KK filed Critical CAD CENTER KK
Priority to JP2002064199A priority Critical patent/JP2003264740A/en
Publication of JP2003264740A publication Critical patent/JP2003264740A/en
Publication of JP2003264740A5 publication Critical patent/JP2003264740A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an observation scope capable of quickly and surely displaying the image of things such as remains in an actual view. <P>SOLUTION: The observation scope for appropriately processing the video images of a variety of view objects such as a landscape and providing them for a user comprises: a photographing means for photographing the video images of the view object; a storage means for storing the virtual video image of the thing whose present position is specified in the view object in relation to the view object; and a video synthesis means for extracting the corresponding virtual image from the storage means and synthetically displaying it for the photographed video image of the view object. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、実際の眺望の映像
と仮想映像とを合成表示可能な展望鏡に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a viewing mirror capable of synthesizing and displaying an actual view image and a virtual image.

【0002】[0002]

【発明の背景】訪れた土地の悠久の歴史に心中思いを馳
せつつ、その眺望を味わうことは、歴史愛好家のみなら
ず広く世間一般に共有される楽しみといえる。例えば、
飛鳥・奈良といった古代史の舞台となる土地柄であれ
ば、その時代の関係資料をひもといて、現存する寺社仏
閣といった建造物や地形などの山川草木と対照して、往
時の宮所の結構を想像する状況がそれにあたるであろ
う。人はそこで遠い過去に生じた歴史上の出来事を多少
の現実感をもって想像し楽しむ訳である。
BACKGROUND OF THE INVENTION It is a pleasure not only for history lovers but also for the general public to enjoy the view while feeling the eternal history of the visited land. For example,
If it is a land pattern such as Asuka and Nara that is the stage of ancient history, we will use the materials related to that period and compare it with the Yamakawa plants of the existing structures and topography such as temples and shrines and temples. That is the situation you can imagine. People imagine and enjoy the historical events that occurred in the distant past with some sense of reality.

【0003】このような状況に応えて、より明確に、し
かも簡便に、現況と遺跡との関係を人々に知らしめる対
応措置がとられてきた。例えば、遺跡博物館や観光地な
どにおいては、遺跡所在地の航空写真上で遺跡位置やそ
の形状等を表示するパネルやパンフレットを展示・配布
したり、或いは遺跡所在エリアのジオラマを作成してこ
のジオラマ上で復元遺跡を展示したりすることがある。
勿論、これら表現形態をビデオ等の映像に代えて放映し
利用者に提供することもあった。
In response to such a situation, measures have been taken to inform people of the relationship between the present situation and the ruins more clearly and simply. For example, at archaeological museums and sightseeing spots, panels and pamphlets that display the location and shape of archaeological sites are displayed and distributed on aerial photographs of the location of the archaeological site, or a diorama for the area where the archeological site is located is created. There is a case where the restored ruins are exhibited.
Of course, these expression forms may be broadcast to the user in place of video images such as videos.

【0004】[0004]

【発明が解決しようとする課題】上記のような遺跡博物
館等を訪れた人々は、展示パネルやパンフレット、説明
ビデオ等を見ることで確かに一定の復元イメージを遺跡
等について膨らませることは出来るかもしれない。だ
が、いずれにしても、実際の現地風景と遺跡のイメージ
とを交互に頭で思い描く作業を強いることになり、頭の
中でのイメージ作業に馴れない一般の人々にとっては難
しくもあり、また面倒な作業でもあった。しかも、1つ
のイメージを保持しながら他のイメージを同時に記憶し
て重ねる、といった作業の結果えられるイメージは漠然
としたものとなりがちで、仮想映像の縮尺や地形上での
位置関係が曖昧でリアリティに乏しく、また一定方向か
らの視線のイメージに固定されがちであった。たとえ前
記したビデオ映像にて実写風景と遺跡の復元イメージと
を合成して提供するにしても、風景のある一区画を切り
取って見せるにすぎず、任意の角度からの映像を利用者
が自由に閲覧出来るという機能は提供されなかった。
[Problems to be Solved by the Invention] It may be possible for people who visit the archaeological museums, etc., to inflate a certain restoration image of the archaeological sites, etc. by viewing the exhibition panels, pamphlets, explanation videos, etc. unknown. However, in any case, it will force you to think of the actual local landscape and the image of the ruins alternately with your head, which is difficult and troublesome for ordinary people who are not accustomed to image work in their heads. It was also a task. Moreover, the image obtained as a result of holding one image and simultaneously memorizing and overlapping the other images tends to be vague, and the scale of the virtual image and the positional relationship on the terrain are ambiguous, making it more realistic. Poor, and tended to be fixed to the image of the line of sight from a certain direction. Even if the live-action scenery and the restored image of the ruins are combined and provided with the above-mentioned video image, it only cuts out a section of the landscape and the user can freely view the image from any angle. The function of being able to browse was not provided.

【0005】そこで本発明はこのような従来の課題に着
目してなされたもので、遺跡等の事物のイメージを実際
の眺望の中で迅速確実に表示可能な展望鏡を提供するこ
とを目的とする。
Therefore, the present invention has been made in view of such conventional problems, and an object thereof is to provide a viewing mirror capable of displaying images of objects such as ruins in an actual view quickly and surely. To do.

【0006】[0006]

【課題を解決するための手段】上記目的を達成する本発
明の展望鏡は、風景など各種眺望対象の映像を適宜処理
して利用者に提供する展望鏡であって、眺望対象の映像
を撮影する手段と、眺望対象の中にその存在位置が指定
される事物の仮想映像を記憶する手段と、眺望対象の撮
影映像に対し、対応する仮想映像を合成して表示する手
段と、を備えることを特徴とする。
A perspective mirror of the present invention that achieves the above object is a perspective mirror that appropriately processes images of various view objects such as landscapes and provides them to a user. And a means for storing a virtual image of an object whose existence position is designated in the view target, and a means for combining and displaying a virtual image corresponding to the captured image of the view target. Is characterized by.

【0007】第2の発明は、第1の発明において、前記
撮影手段における撮影方向の、原位置からの変位を検出
する変位検出手段と、撮影方向の変位の検出結果に基づ
き、撮影映像に合成する仮想映像の表示態様を変更する
合成調整手段と、を備えることを特徴とする。
According to a second aspect of the present invention, in the first aspect of the present invention, a displacement detecting means for detecting a displacement of the photographing direction from the original position in the photographing means, and a photographed image are combined based on a detection result of the displacement in the photographing direction. And a composite adjusting means for changing the display mode of the virtual image.

【0008】第3の発明は、第2の発明において、設置
位置が固定された展望鏡であって、前記原位置を一定と
することを特徴とする。
A third aspect of the present invention is the observation mirror according to the second aspect, wherein the installation position is fixed, and the original position is constant.

【0009】第4の発明は、第2または第3の発明にお
いて、 前記撮影方向の原位置からの変位を角度変化と
して検出するための水平角度および鉛直角度の少なくと
もいずれかの検出センサを備えて、前記合成調整手段が
前記検出センサが検出した角度変位に応じて、撮影映像
に合成表示する仮想映像の表示角度を変更することを特
徴とする。
According to a fourth aspect of the present invention, in the second or third aspect of the invention, a sensor for detecting at least one of a horizontal angle and a vertical angle for detecting the displacement from the original position in the photographing direction as an angle change is provided. The combination adjusting unit changes the display angle of the virtual image to be combined and displayed on the captured image according to the angular displacement detected by the detection sensor.

【0010】第5の発明は、第1〜4のいずれかの発明
において、ズーム撮影の指示を受けたならば、眺望対象
の映像をズーム撮影するズーム撮影手段と、ズーム映像
に合成する仮想映像を、前記眺望対象のズーム倍率に応
じてズーム処理し合成するズーム調整手段と、を備える
ことを特徴とする。
According to a fifth aspect of the present invention, in any one of the first to fourth aspects of the present invention, when a zoom photographing instruction is received, zoom photographing means for photographing the image of the view object by zoom photographing, and a virtual image combined with the zoom image. And zoom adjusting means for performing zoom processing and composition according to the zoom magnification of the view target.

【0011】第6の発明は、第1〜5のいずれかの発明
において、撮影時における眺望対象の照度を検出する照
度センサと、前記撮影時照度の検出結果に基づき、撮影
映像に合成する仮想映像の表示照度を変更する照度調整
手段と、を備えることを特徴とする。
According to a sixth invention, in any one of the first to fifth inventions, an illuminance sensor for detecting the illuminance of the view object at the time of photographing, and a virtual image to be combined with the photographed image based on the detection result of the illuminance at the time of photographing. And an illuminance adjusting means for changing the display illuminance of the image.

【0012】第7の発明は、第1〜6のいずれかの発明
において、撮影日時や天候などの諸条件と日照条件との
関係を設定したテーブルを備えて、撮影時における前記
諸条件から日照条件を認識する日照認識手段と、認識し
た日照条件に基づき、撮影映像の中で仮想映像が生じる
べき影の表示態様を調整する影調整手段と、を備えるこ
とを特徴とする。
In a seventh aspect of the present invention, in any one of the first to sixth aspects of the present invention, a table is provided in which a relationship between various conditions such as shooting date and weather and the sunshine conditions is set. It is characterized by comprising a sunshine recognition means for recognizing a condition and a shadow adjusting means for adjusting a display mode of a shadow in which a virtual image should appear in a captured image based on the recognized sunshine condition.

【0013】第8の発明は、第1〜7のいずれかの発明
において、眺望対象の中にその存在位置が指定され、仮
想映像の起源となる前記事物は、眺望対象中に過去に存
在した建造物または建造物群であって、当該建造物また
は建造物群の復元イメージを仮想映像とすることを特徴
とする。
In an eighth invention according to any one of the first to seventh inventions, the existence position is specified in the view object, and the thing which is the origin of the virtual image exists in the view object in the past. It is characterized in that the restored image of the building or the group of buildings is a virtual image.

【0014】第9の発明は、第1〜8のいずれかの発明
の展望鏡を運用するプログラムであって、眺望対象の映
像を撮影する撮影ステップと、眺望対象の中にその存在
位置が指定される事物の仮想映像を、眺望対象と関係付
けて記憶する記憶ステップと、眺望対象の撮影映像に対
し、対応する仮想映像を前記記憶手段から抽出して合成
表示する映像合成ステップと、第10の発明は、第9の
発明の展望鏡運用プログラムを記録したコンピュータ読
み取り可能な記録媒体。
A ninth invention is a program for operating the view mirror according to any one of the first to eighth inventions, wherein a photographing step for photographing an image of a view target and a position where the view target exists is specified. A storage step of storing a virtual image of the object to be viewed in association with the view target, and a video combining step of extracting a virtual image corresponding to the captured image of the view target from the storage means and displaying the composite image. Invention is a computer-readable recording medium in which the perspective operation program of the ninth invention is recorded.

【0015】第10の発明は、第9に記載の展望鏡運用
プログラムを記録したコンピュータ読み取り可能な記録
媒体。
A tenth aspect of the present invention is a computer-readable recording medium in which the perspective operation program described in the ninth aspect is recorded.

【0016】[0016]

【発明の実施の形態】以下に本発明の実施形態について
図面を用いて詳細に説明する。図1は本実施形態におけ
る展望鏡の技術概念を示す説明図である。本実施例の背
景は、現実の眺望対象の撮影映像に合成する仮想映像と
して、遺跡から推定される復元構造物(過去の宮殿や寺
院等)のCG(Computer Graphics)を適用する状況を
想定する。勿論、本実施例だけに本発明の適用範囲が限
定されるものではなく、過去未来を問わず現在は存在し
ないか、或いは存在しても形態が異なる事物(建造物や
装置等の“物”だけでなく、人物、気象や火山活動等の
自然現象等も含む)を現眺望の撮影映像に合成して利用
者に提供するいずれの状況にも本発明を適用することが
可能であるのは言うまでもない。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings. FIG. 1 is an explanatory diagram showing the technical concept of the viewing mirror in this embodiment. The background of the present embodiment assumes a situation in which CG (Computer Graphics) of a restored structure (past palace, temple, etc.) estimated from the ruins is applied as a virtual image to be combined with a captured image of an actual view target. . Of course, the scope of application of the present invention is not limited to the present embodiment, and it does not exist at present regardless of the past and future, or even if it exists, a thing having a different form (a "object" such as a building or a device). The present invention can be applied to any situation in which a person, a natural phenomenon such as weather and a volcanic activity, etc. are combined with a photographed image of the current view and provided to the user. Needless to say.

【0017】===技術思想のあらまし=== 「仮想現実感」バーチャルリアリティ(VR)から発展
した新しい技術体系である「複合現実感」Mixed Realit
y(以下MRとする)に関する技術をベースに本発明を
構成する。これまでリアルタイムCGなどで表現されてき
た仮想空間と見たままの現実世界との二つを融合させ、
両者を補完し合うことでより充実した情報を利用者に提
供するのが本発明の展望鏡10である。なお、図中では
MR技術を利用した展望鏡という意味合いでMRスコー
プと記している。
=== Summary of technological ideas === "Virtual Reality" Mixed Reality, which is a new technology system developed from virtual reality (VR)
The present invention is configured based on a technique related to y (hereinafter referred to as MR). Fusion of the virtual space, which has been represented by real-time CG, etc., and the real world as it is,
The perspective mirror 10 of the present invention provides the user with more complete information by complementing both. It should be noted that in the figure, it is described as an MR scope in the sense that it is a perspective mirror using MR technology.

【0018】このMRスコープ10は、自身で備えるビ
デオカメラ11によって取得した発掘現場や遺跡など
(眺望対象)の実写映像20を、例えば自身の備える内
部コンピュータ12、またはネットワーク接続されMR
スコープ10群の制御・管理を行うサーバ等へ取り込
む。それと同時に、過去の事物(遺跡等の起源となる宮
殿など)を復元した仮想映像たるCG映像30の映像デー
タを前記内部コンピュータ12等のビデオRAMから読
み出して、先の実写映像と合成し、リアルタイムにMR
スコープ10内のディスプレイ13へ出力するのであ
る。なお、実写映像20と仮想映像30との合成が可能
であれば、上記した以外の構成や手順であっても適宜採
用可能である。
The MR scope 10 includes a live-action image 20 of an excavation site, ruins, etc. (view target) acquired by a video camera 11 included in the MR scope 10, for example, an internal computer 12 included in the MR scope 10 or a network-connected MR.
It is imported to the server that controls and manages the scope 10 group. At the same time, the image data of the CG image 30, which is a virtual image obtained by reconstructing the past things (palaces that are the origin of ruins, etc.), is read from the video RAM of the internal computer 12 or the like, and is combined with the above-mentioned live-action image for real time To MR
It is output to the display 13 in the scope 10. It should be noted that, as long as it is possible to combine the live-action video 20 and the virtual video 30, it is possible to appropriately employ configurations and procedures other than those described above.

【0019】また、ビデオカメラ11の二軸方向(例:
ヨー角、ピッチ角)の動きを角度センサー14(変位検
出手段)で検知してこの角度に合わせて前記のCG映像も
同一アングルで動かすことで、実写映像の中においてVR
空間をより自然な形で構築する。これにより、合成され
た映像を眺める利用者が感じる違和感を抑制すると共
に、遺跡空間とそこに存在したであろう過去の建造物の
存在具合との関係をより把握し易くする事が出来る。勿
論、前記CG映像としては図1中に示すように例えば古代
の歴史事象や生活ぶりにまつわる人間の動きをアニメー
ション化したといった動画でもよいし、現存しない建造
物の復元映像(若しくはビル等の完成予定映像も含む)
などの静止画像も含まれている。
In addition, biaxial directions of the video camera 11 (eg:
The motion of the yaw angle and pitch angle) is detected by the angle sensor 14 (displacement detection means), and the CG image is also moved at the same angle according to this angle, so that the VR in the live-action image is detected.
Build space in a more natural way. As a result, it is possible to suppress the discomfort felt by the user who views the composited image, and it is possible to more easily understand the relationship between the archeological space and the existing state of the building that may have existed there. Of course, as the CG image, as shown in FIG. 1, for example, an animation of human movements related to ancient historical events and life styles may be used, or a restored image of a building that does not exist (or a completion plan of a building, etc.) (Including video)
Still images are also included.

【0020】===展望鏡システム=== 図2は本実施形態における展望鏡を含む全体システム図
である。本システム200は実写映像20または仮想映
像30の表示及びその表示切替を可能とする。さらに、
MRスコープ10のディスプレイ13内で表示した合成
映像上もしくは、ディスプレイ画面上の特定のポイント
を利用者がカーソル等のポインタで選択する事象を受け
て、その合成映像が含む事柄、例えば建造物の由来や登
場人物の来歴、歴史的事実等々に関連するマルチメディ
ア情報(音声、映像情報など)を画面表示もしくは音声
出力する事も可能である。以下、本システム200を構
成する機能等につき説明する。
=== Perspective Mirror System === FIG. 2 is an overall system diagram including the perspective mirror in this embodiment. The system 200 is capable of displaying the real image 20 or the virtual image 30 and switching the display thereof. further,
When the user selects a specific point on the composite image displayed on the display 13 of the MR scope 10 or on the display screen with a pointer such as a cursor, the composite image includes the matter, for example, the origin of the building. It is also possible to display or output the multimedia information (audio, video information, etc.) related to the history of characters, historical facts, etc. on the screen. Hereinafter, the functions and the like of the system 200 will be described.

【0021】MR画像生成機能12aとは、MRスコープ
10の内部コンピュータ12が備える機能である。この
機能は、ビデオカメラ11により得られた実写映像20
と、予め作成して記憶済みの仮想映像30とをリアルタ
イムに合成する機能である。具体的にはビデオカメラ1
1が捉えた実写映像20と、ビデオRAM12b若しく
はハードディスクなどの記憶資源で構成されるマルチメ
ディア情報データベース51から抽出した仮想映像30
とを、角度センサー14からのセンサー情報に基づき位
置・アングル合わせを行う機能と、実写映像20および
仮想映像30の画質調整を行う機能とから構成される。
これら機能に関しては後述する。
The MR image generating function 12a is a function provided in the internal computer 12 of the MR scope 10. This function is applied to the live-action image 20 obtained by the video camera 11.
And a virtual image 30 created and stored in advance in real time. Specifically, the video camera 1
1 and the virtual image 30 extracted from the multimedia information database 51 constituted by the storage resources such as the video RAM 12b or the hard disk.
And a function of performing position / angle adjustment based on sensor information from the angle sensor 14 and a function of adjusting the image quality of the real image 20 and the virtual image 30.
These functions will be described later.

【0022】表示機能53とは、MR画像生成機能12a
より得られた合成映像100や更にこれに付加するマル
チメディア情報(マルチメディア情報データベース51
由来)を入力データとし、それらデータをGUIを介した
利用者の操作等に応じてコントロールしてディスプレイ
13に出力する。この機能は、MR画像生成機能12aよ
り出力された合成映像100をディスプレイ13へ表示
するにあたり、仮想映像30の3次元形状を予め記述し
たFLTファイル及び、ADFファイルに基づき、リアルタイ
ムに3次元映像処理を行うことになる。
The display function 53 is the MR image generation function 12a.
The composite video 100 obtained from the above and the multimedia information added to the composite video 100 (multimedia information database 51
(Origin) is used as input data, and the data is controlled and output to the display 13 according to the user's operation or the like via the GUI. This function is to display the composite image 100 output from the MR image generation function 12a on the display 13 based on the FLT file and the ADF file in which the three-dimensional shape of the virtual image 30 is described in advance, and the three-dimensional image processing is performed in real time. Will be done.

【0023】また、マルチメディア情報データベース5
1より、各種ユーザインターフェイスが適用できる情報
選択機能52によって利用者から選択された動画情報を
ディスプレイにおいて再生表示する機能も発揮する。具
体的には、該当するAVIファイルを抽出して、再生アプ
リケーションにて動画再生し出力する。これと同様に、
WAVファイルなどの音声ファイルを抽出・再生するサウ
ンド再生機能、 SWFファイルなど各種の文字や静止画フ
ァイルを抽出して出力する文字・静止画表示機能なども
備える。
In addition, the multimedia information database 5
From 1, the function of reproducing and displaying the moving picture information selected by the user by the information selecting function 52 to which various user interfaces can be applied is also exhibited. Specifically, the corresponding AVI file is extracted, and the moving image is reproduced and output by the reproducing application. Similarly to this,
It also has a sound playback function that extracts and plays audio files such as WAV files, and a character / still image display function that extracts and outputs various characters such as SWF files and still image files.

【0024】上記のようにして実写映像20と仮想映像
30との合成映像100、またはこれに更に付加するマ
ルチメディア情報を生成し、また前記センサー情報のヨ
ー、ピッチ角などの制御情報に基づき、映像再生とディ
スプレイ13への出力形態をコントロールする。
As described above, the composite image 100 of the real image 20 and the virtual image 30 or the multimedia information added to this is generated, and based on the control information such as yaw and pitch angle of the sensor information, The video reproduction and the output form to the display 13 are controlled.

【0025】なお、ディスプレイ12として、レンズや
ハーフミラーなどを眼球の直前に配置、それを通して液
晶ディスプレイなどの超小型の表示装置を直視すること
で、大型の表示装置を用いずにディスプレイ表示を行う
ヘッド・マウント・ディスプレイ(Head Mounted Displ
ay)を利用するとしてもよい。また映像を表示する他の
技術として、アナグリフ方式(補色カラー・フィルタ方
式)、偏向眼鏡方式、時分割眼鏡方式、ヘッド・マウン
ト・ディスプレイ(HMD)、ステレオ・ペア画像、パラ
ラックス方式、レンティキュラ方式など各種方式が採用
できる立体視(Stereo Graphics)技術を採用してもよ
い。加えて、MRスコープ10に対する入力デバイスと
してデータ・グローブ(Data Glove)を採用して、利用
者の仮想空間への没入感を高めることも図れる。 ===メインフロー=== 図3は本実施形態における展望鏡の映像処理フローを示
す流れ図である。まず、ビデオカメラ11により眺望対
象の撮影を行い、そのビデオカメラ映像、つまり実写映
像20を内部コンピュータ12等にキャプチャ(取り込
み処理)する。このキャプチャは、展望鏡たるMRスコ
ープ10の利用者が、普通にスコープをのぞき込んで景
色を見ようとしている状況で処理される。この時、実写
映像20の照度情報を認識して合わせて取り込み処理を
行う。
As the display 12, a lens, a half mirror, etc. are arranged immediately in front of the eyeball, and a very small display device such as a liquid crystal display is directly looked at through the display, thereby displaying a display without using a large display device. Head Mounted Displ
ay) may be used. Also, as other technologies for displaying images, anaglyph method (complementary color filter method), polarizing glasses method, time division glasses method, head mounted display (HMD), stereo pair image, parallax method, lenticular method It is also possible to adopt stereo graphics technology that can adopt various methods such as. In addition, a data globe can be adopted as an input device for the MR scope 10 to enhance the user's immersive feeling in the virtual space. === Main Flow === FIG. 3 is a flowchart showing a video processing flow of the perspective mirror in the present embodiment. First, the view object is photographed by the video camera 11, and the video camera image, that is, the live-action image 20 is captured (capture processing) in the internal computer 12 or the like. This capture is processed in a situation where the user of the MR scope 10 as a viewing mirror normally looks into the scope by looking into the scope. At this time, the illuminance information of the photographed image 20 is recognized, and the capturing process is performed together.

【0026】上記の取り込み処理と平行して、ビデオカ
メラ11の実写映像20と仮想映像30とをリアルタイ
ムに同期させるため、カメラ11のヨー角、ピッチ角と
いった変位をロータリエンコーダ等の検出装置でもって
正確に取得する。一般的には、描画フレーム数として30
フレーム/秒を満足させるように、実写映像20と仮想
映像30との同期を図ると違和感のない同期が達成され
る。このため、例えば角度センサー、加速度センサー、
ロータリーエンコーダー等の各種姿勢センサーを用い、
または組み合わせて精度の高いカメラ姿勢情報(原位置
からの変位)を取得するとよい。勿論、カメラの姿勢情
報、つまりは原位置からの変位の情報を検出する手段は
これに限定されない。
In parallel with the above-mentioned capturing process, in order to synchronize the real image 20 and the virtual image 30 of the video camera 11 in real time, the displacement such as the yaw angle and the pitch angle of the camera 11 can be detected by a detecting device such as a rotary encoder. Get exactly. Generally, the number of drawing frames is 30
If the real video 20 and the virtual video 30 are synchronized so as to satisfy the frame / second, the synchronization can be achieved without a feeling of strangeness. Therefore, for example, an angle sensor, an acceleration sensor,
Using various attitude sensors such as rotary encoder,
Alternatively, camera posture information (displacement from the original position) with high accuracy may be acquired in combination. Of course, the means for detecting the posture information of the camera, that is, the information of the displacement from the original position is not limited to this.

【0027】そして、上記センサー類にて求めた姿勢情
報、ここでは角度情報を使って、合成映像100中にお
けるカメラの向きを決定し、この結果に基づいて抽出・
編集したリアルタイムCG画像30と、前記キャプチャー
した実写映像20との合成を行うことになる。この時、
以下のような各種調整処理を行う。
Then, the orientation of the camera in the composite image 100 is determined using the posture information obtained by the above-mentioned sensors, in this case, the angle information, and the extraction / extraction is performed based on this result.
The edited real-time CG image 30 and the captured live-action image 20 are combined. At this time,
The following various adjustment processes are performed.

【0028】1.起動時の位置・アングル合わせと累積
誤差の修正 一度センサーによって姿勢情報を得たとしても、MRス
コープ10の起動時や、継続使用時におけるセンサーの
誤差累積によって、実写映像20と仮想映像30との位
置関係にずれが生じる事が予想される。このような初期
誤差、累積誤差を補正する手法として、ビデオカメラ1
1の角度を自動的に微小角度変動させ、その際に得られ
た2枚以上の実写映像20のずれから、エッジ抽出技
術、パースマッチ技術等により自動的にカメラの初期位
置・アングルを決定する技術を採用できる。また、一定
時間ごと、または急激なカメラアングルの変動等で実写
映像20の連続性が損なわれるような場合、ビデオカメ
ラ11の角度を微小角度変動させることにより得られた
カメラ位置を用いて累積誤差を補正する対処方法を採用
することも出来る。
1. Position / angle alignment at start-up and correction of accumulated error Even if the posture information is obtained by the sensor once, the error of the sensor is accumulated when the MR scope 10 is started or continuously used. It is expected that the positional relationship will shift. As a method for correcting such initial error and accumulated error, the video camera 1
The angle of 1 is automatically changed by a slight angle, and the initial position and angle of the camera are automatically determined from the deviation of the two or more photographed images 20 obtained at that time by the edge extraction technology, the perspective matching technology, or the like. Can adopt technology. Further, when the continuity of the photographed image 20 is impaired at regular time intervals or due to a sudden camera angle change, etc., the accumulated error is calculated using the camera position obtained by slightly changing the angle of the video camera 11. It is also possible to adopt a coping method to correct the.

【0029】2.実写画像と仮想映像の画質調整 位置・アングルを合わせた実写映像20と仮想映像30
をそのまま重ね合わせると、一般的に太陽光や照明の明
るさの違いから不自然で違和感の大きな合成結果とな
る。そこで、より自然な合成結果を得るために実写映像
20と仮想映像30の明るさ、光源方向の違いを補正す
る必要が生じる。このためMRスコープ10を設置する
位置や日付、時刻から太陽位置を割り出し、また照度計
等を用いて仮想映像の明るさを調整し違和感を低減す
る。具体的には実写映像20の明るさや光源方向と、仮
想映像30に対して設定した明るさや光源方向とを近似
させる。また、MRスコープ10の設置が屋内の場合に
は、例えばマーカーを用いて、その輝度変化から光源方
向、明るさ、光源形状を推定する方法を採用することも
出来る。
2. Image quality adjustment position and angle of real image and virtual image Real image 20 and virtual image 30
If the two are overlapped as they are, the composition result is generally unnatural and gives a feeling of strangeness due to the difference in brightness of sunlight and lighting. Therefore, in order to obtain a more natural synthesis result, it is necessary to correct the difference in brightness and light source direction between the real image 20 and the virtual image 30. Therefore, the sun position is calculated from the position where the MR scope 10 is installed, the date, and the time, and the brightness of the virtual image is adjusted using an illuminometer or the like to reduce the sense of discomfort. Specifically, the brightness and light source direction of the photographed image 20 are approximated to the brightness and light source direction set for the virtual image 30. Further, when the MR scope 10 is installed indoors, a method of estimating the light source direction, the brightness, and the light source shape from the change in the brightness by using, for example, a marker can be adopted.

【0030】3.実写映像と仮想映像の前後関係の調整 実写映像20の中に存在する実在の物体と、重ね合わせ
る仮想映像の中の仮想物体との前後関係を判断して、両
者物体の可視・不可視を調整する。眺望対象の存在エリ
アに関する地理情報または、リアルタイムの距離計測等
を用いて実在物体の位置やMRスコープ10からの距離
を認識し、この認識情報と、仮想映像に関係付けされた
位置情報とを対照することで相互の隠蔽を調整すること
が可能となる。
3. Adjusting the Front-and-Back Relationship between the Real Image and the Virtual Image The front-and-rear relationship between the real object existing in the real image 20 and the virtual object in the superimposed virtual image is determined to adjust the visibility of both objects. . The position of the real object or the distance from the MR scope 10 is recognized by using the geographic information regarding the existing area of the view object or the real-time distance measurement, and the recognition information is compared with the position information related to the virtual image. By doing so, it becomes possible to adjust mutual concealment.

【0031】このようにして適宜調整された上で合成さ
れた合成画像100は、MRスコープ10のディスプレ
イ12において表示されるのである。例えば、図5に示
すように、現実には田園風景である実写映像20と、過
去ここに存在したであろう遺跡復元映像(図では寺院の
CG映像となっている)、つまり仮想映像30とが合成
された上で、MRスコープ10をのぞき込む利用者には
提示されることとなる。その際の合成映像100を拡大
したイメージが図6である。電柱や近代的な家屋等が点
在する現代の風景中に、過去ここに存在した宮所、例え
ば飛鳥板蓋宮の復元CGが見事に合成される。つまり、
MRスコープ10の利用者は、普通の展望鏡を利用する
手軽さでもって、現実の眺望に合わせて古代の遺物等を
再現したイメージを優れた現実感のもとスムーズに眺め
ることが可能なのである。
The composite image 100, which has been appropriately adjusted in this way and then combined, is displayed on the display 12 of the MR scope 10. For example, as shown in FIG. 5, a live-action image 20 that is actually a rural scene, and a reconstructed image of ruins that may have existed here in the past (CG image of a temple), that is, a virtual image 30. Will be presented to the user looking into the MR scope 10. FIG. 6 is an enlarged image of the composite image 100 at that time. In the modern landscape with utility poles, modern houses, etc., the restored CG of the shrine that has existed here in the past, for example, the Asukaita lid shrine, is beautifully combined. That is,
The user of the MR scope 10 can easily view an image of an ancient relic or the like in accordance with the actual view, with an excellent sense of reality, with the convenience of using an ordinary viewing mirror. .

【0032】図7は本実施形態におけるテキスト情報お
よびムービーの提供画面を示す説明図である。MRスコ
ープ10は、実写映像20と仮想映像30とを合成した
合成映像100を利用者に提供するのみならず、例え
ば、遺跡の説明を記述したテキスト情報やナレーショ
ン、またそれの説明アニメーションなどの各種マルチメ
ディア情報を提供することも出来る。その提供素材の一
覧を図4に示す。この例では、ビデオ、VR、CGアニ
メーション、CG静止画、写真、テキスト画面、ナレー
ション、BGMといった素材がその再生時間とともに集
約されている。これらの素材は、MRスコープ10の利
用者からの指示を受けて適宜選択され、再生に供され
る。
FIG. 7 is an explanatory diagram showing a screen for providing text information and a movie in this embodiment. The MR scope 10 not only provides the user with the composite image 100 in which the live-action image 20 and the virtual image 30 are combined, but also, for example, various kinds of text information describing the ruins, narration, and animation explaining the same. It can also provide multimedia information. A list of the provided materials is shown in FIG. In this example, materials such as video, VR, CG animation, CG still image, photograph, text screen, narration, and BGM are aggregated together with their playback time. These materials are appropriately selected in response to an instruction from the user of the MR scope 10 and provided for reproduction.

【0033】例えば、図5に示す合成画像100に表現
されている復元イメージが飛鳥寺であるとする。それを
眺めていた利用者が、飛鳥寺のイメージについて適宜な
ユーザインターフェイスで選択を行うと、その選択事象
がMRスコープ10の内部コンピュータ12に送られ
る。内部コンピュータ12は、前記したマルチメディア
情報データベース51から該当する飛鳥寺の紹介画面7
00を抽出してディスプレイ13に出力する。そこで、
例えば説明開始の選択ボタンが押されたならば、飛鳥寺
に関連するテキスト情報を前記マルチメディア情報デー
タベース51から抽出し、再生する。また、同様にCGア
ニメーションやビデオ映像、ナレーションなどを再生す
ることも可能となる。これらの再生が終了すると、もし
くは、途中で利用者からの指示を受ければ、通常の合成
映像100の出力画面に戻る。
For example, assume that the restored image represented in the composite image 100 shown in FIG. 5 is Asukaji. When the user who is looking at it selects the image of Asukaji using an appropriate user interface, the selected event is sent to the internal computer 12 of the MR scope 10. The internal computer 12 displays the introduction screen 7 of the corresponding Asuka temple from the multimedia information database 51.
00 is extracted and output to the display 13. Therefore,
For example, if the selection button for starting the explanation is pressed, the text information related to Asukaji is extracted from the multimedia information database 51 and reproduced. It is also possible to play CG animations, video images, and narrations. When these reproductions are completed, or if an instruction from the user is received on the way, the screen returns to the normal output screen of the composite video 100.

【0034】以上のように本発明によれば、実際の現地
風景と遺跡等の仮想イメージとを交互に頭で思い描く作
業を強いることなく、建造物等の縮尺や地形上での位置
関係が正確でリアリティに富んだ合成映像を利用者に提
供することが可能となる。しかも、その合成映像は、利
用者の任意の角度からのものとすることができ、自由度
の高いサービスを提供可能である。
As described above, according to the present invention, the scale of a building or the like and the positional relationship on the terrain are accurate without the work of envisioning the actual local landscape and the virtual image of the ruins, etc. alternately. With this, it is possible to provide users with highly realistic composite images. Moreover, the composite video can be taken from any angle of the user, and a service with a high degree of freedom can be provided.

【0035】利用者は、全てコンピュータによるCGやVR
を眺めるだけの状況とは異なり、自然環境の中の遺跡な
ど現実の歴史的景観の中に過去に存在した宮殿や城郭な
どの復元イメージを、展望台の望遠鏡のような簡便な使
い勝手で見ることが可能となる。これにより、実物スケ
ールの空間の中で過去を「体験」することができるとい
える。
All the users are computer-generated CG and VR.
Unlike the situation of just looking at, you can see the restored image of the palace, castle, etc. that existed in the past in the actual historical landscape such as ruins in the natural environment with a simple and convenient way like a telescope on the observatory. Is possible. This means that you can "experience" the past in a real-scale space.

【0036】しかも、本発明の展望鏡は基台を固定式と
して眺望対象の中での位置を一定しているため、ビデオ
カメラの姿勢情報等の各種制御用の情報要素が限定的と
なって、その姿勢情報を取得するセンサーやそのシステ
ムを安価に構築することが可能なのである。この効果
は、実写画像と仮想映像とを合成するさい、実写画像と
仮想映像との互いの重なり具合、つまり隠蔽処理を行う
ことを容易にし、簡便で効率的なシステム構成とするこ
とができる。
In addition, since the base of the present invention is fixed and its position in the view object is fixed, the information elements for various controls such as the attitude information of the video camera are limited. It is possible to inexpensively construct a sensor and its system for acquiring the attitude information. This effect makes it easy to perform the degree of overlap between the real shot image and the virtual video, that is, the concealment process when the real shot image and the virtual video are combined, and a simple and efficient system configuration can be obtained.

【0037】===本発明の他の適用範囲=== 本装置は、3次元のリアルタイム映像を楽しみながら多
様な情報を得るためのエデュテインメント用途に格好な
メディア装置となる。よって、遺跡エリアにおける過去
の建造物をCGで復元して提供する上記実施例だけでな
く様々な適用範囲が考えられる。例として、観光都市に
おける風景の四季うつろい具合を提示したり、建築物の
完成イメージを表現して計画段階における近隣説明やテ
ナント誘致に用いたり、高層建築物上層階における展望
台での都市オブザベーション用など、様々なシチュエー
ションに対応できる。以下に列挙した。
=== Other Applicable Range of the Present Invention === The present device is a media device suitable for edutainment purposes for obtaining various information while enjoying a three-dimensional real-time image. Therefore, various application ranges are conceivable in addition to the above-described embodiment in which past buildings in the archeological area are restored by CG and provided. As an example, we present the four seasons of the scenery in a tourist city, express the image of the completion of the building, and use it for explaining the neighborhood and attracting tenants at the planning stage, and the city observation at the observation deck on the upper floors of the high-rise building. It can be used for various situations such as business. Listed below.

【0038】1)観光:遺跡等の歴史的建造物の復元イ
メージ提供、観光関連施設の案内情報提供など。 2)イベント:博覧会、各種イベントにおける案内情報
提供など。 3)博物館・美術館:デジタルミュージアムにおける文
化財の3次元展示。 4)都市オブザベーション:高層ビル上層階展望台にお
ける都市の眺望と現在・過去・未来の都市情報提供な
ど。 5)建築・都市開発:建築設計検討、計画段階における
近隣説明・テナント誘致など。 6)街づくり:自治体、地域商店街などによる地域や街
の案内情報提供など。
1) Sightseeing: providing restoration images of historical buildings such as ruins, and providing guidance information on tourism-related facilities. 2) Events: Expositions, provision of guidance information at various events, etc. 3) Museum: A three-dimensional exhibition of cultural assets at the Digital Museum. 4) Urban observation: View of the city on the upper floors of the skyscraper and provision of information on the present, past, and future cities. 5) Architecture / Urban Development: Architectural design study, neighborhood explanations at the planning stage, attracting tenants, etc. 6) Town planning: Providing information on local and regional information by local governments and local shopping districts.

【0039】[0039]

【発明の効果】本発明によれば、遺跡等の事物のイメー
ジを実際の眺望の中で迅速確実に表示可能な展望鏡を提
供可能となる。
According to the present invention, it is possible to provide a viewing mirror capable of displaying images of things such as ruins in an actual view quickly and reliably.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施形態における展望鏡の技術概念を示す説
明図である。
FIG. 1 is an explanatory diagram showing a technical concept of a viewing mirror in the present embodiment.

【図2】本実施形態における展望鏡を含む全体システム
図である。
FIG. 2 is an overall system diagram including a perspective mirror in the present embodiment.

【図3】本実施形態における展望鏡の映像処理フローを
示す流れ図である。
FIG. 3 is a flow chart showing a video processing flow of the perspective mirror in the present embodiment.

【図4】本実施形態における展望鏡に想定される使用素
材一覧を示す図である。
FIG. 4 is a diagram showing a list of materials to be used, which are supposed to be used in the scope according to the present embodiment.

【図5】本実施形態における現状風景とCG映像との合
成具合を示す説明図である。
FIG. 5 is an explanatory diagram showing a combination of a current landscape and a CG image in the present embodiment.

【図6】本実施形態における利用者の閲覧映像例を示す
説明図である。
FIG. 6 is an explanatory diagram showing an example of a browsed image of a user according to the present embodiment.

【図7】本実施形態におけるテキスト情報およびムービ
ーの提供画面を示す説明図である。
FIG. 7 is an explanatory diagram showing a screen for providing text information and a movie according to the present embodiment.

【符号の説明】[Explanation of symbols]

10 展望鏡、MRスコープ 11 撮影手段、ビデオカメラ 12 内部コンピュータ 13 ディスプレイ 14 変位検出手段、角度センサー 20 撮影映像、実写映像 30 仮想映像、CG 100 合成映像 10 Observation mirror, MR scope 11 Photographing means, video camera 12 Internal computer 13 Display 14 Displacement detection means, angle sensor 20 Shooting video, live-action video 30 virtual images, CG 100 composite images

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 AA06 AA08 BA08 BA11 DA01 EA19 EA24 EA27 FA02 5C023 AA11 AA37 AA38 BA11 CA03 DA04 5C054 CA04 CD03 EA01 EA05 FE14 HA00    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 5B050 AA06 AA08 BA08 BA11 DA01                       EA19 EA24 EA27 FA02                 5C023 AA11 AA37 AA38 BA11 CA03                       DA04                 5C054 CA04 CD03 EA01 EA05 FE14                       HA00

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 風景など各種眺望対象の映像を適宜処理
して利用者に提供する展望鏡であって、 眺望対象の映像を撮影する撮影手段と、 眺望対象の中にその存在位置が指定される事物の仮想映
像を、眺望対象と関係付けて記憶する記憶手段と、 眺望対象の撮影映像に対し、対応する仮想映像を前記記
憶手段から抽出して合成表示する映像合成手段と、を備
えることを特徴とする展望鏡。
1. A view mirror for appropriately processing images of various view objects such as landscapes and providing the same to a user, wherein a photographing means for photographing the image of the view object and its existence position are specified in the view object. Storage means for storing a virtual image of the object to be viewed in association with the view target, and image combining means for extracting a virtual image corresponding to the captured image of the view object from the storage means and displaying the combined image. Is a viewing mirror.
【請求項2】 前記撮影手段における撮影方向の、原位
置からの変位を検出する変位検出手段と、 撮影方向の変位の検出結果に基づき、撮影映像に合成す
る仮想映像の表示態様を変更する合成調整手段と、 を備えることを特徴とする請求項1に記載の展望鏡。
2. A displacement detecting means for detecting a displacement of an image capturing direction from an original position in the image capturing means, and a composition for changing a display mode of a virtual image to be combined with a captured image based on a detection result of the displacement in the image capturing direction. The viewing mirror according to claim 1, further comprising: adjusting means.
【請求項3】 設置位置が固定された展望鏡であって、
前記原位置を一定とすることを特徴とする請求項2に記
載の展望鏡。
3. A viewing mirror whose installation position is fixed,
The observation mirror according to claim 2, wherein the original position is constant.
【請求項4】 前記撮影方向の原位置からの変位を角度
変化として検出するための水平角度および鉛直角度の少
なくともいずれかの検出センサを備えて、 前記合成調整手段が前記検出センサが検出した角度変位
に応じて、撮影映像に合成表示する仮想映像の表示角度
を変更することを特徴とする請求項2または3に記載の
展望鏡。
4. An angle sensor which detects at least one of a horizontal angle and a vertical angle for detecting a displacement of the photographing direction from the original position as an angle change, and an angle detected by the detection sensor by the synthesis adjusting unit. The viewing mirror according to claim 2 or 3, wherein a display angle of the virtual image to be combined and displayed on the captured image is changed according to the displacement.
【請求項5】 ズーム撮影の指示を受けたならば、眺望
対象の映像をズーム撮影するズーム撮影手段と、 ズーム映像に合成する仮想映像を、前記眺望対象のズー
ム倍率に応じてズーム処理し合成するズーム調整手段
と、 を備えることを特徴とする請求項1〜4のいずれかに記
載の展望鏡。
5. When a zoom shooting instruction is received, zoom shooting means for zoom shooting the image of the view target and a virtual image to be combined with the zoom image are zoomed and combined according to the zoom magnification of the view target. A zoom adjusting means for adjusting the viewing angle, and the viewing mirror according to any one of claims 1 to 4.
【請求項6】 撮影時における眺望対象の照度を検出す
る照度センサと、 前記撮影時照度の検出結果に基づき、撮影映像に合成す
る仮想映像の表示照度を変更する照度調整手段と、 を備えることを特徴とする請求項1〜5のいずれかに記
載の展望鏡。
6. An illuminance sensor for detecting the illuminance of a view target at the time of shooting, and an illuminance adjusting means for changing the display illuminance of a virtual image to be combined with the taken image based on the detection result of the illuminance at the time of shooting. The observing mirror according to any one of claims 1 to 5, characterized in that:
【請求項7】 撮影日時や天候などの諸条件と日照条件
との関係を設定したテーブルを備えて、撮影時における
前記諸条件から日照条件を認識する日照認識手段と、 認識した日照条件に基づき、撮影映像の中で仮想映像が
生じるべき影の表示態様を調整する影調整手段と、 を備えることを特徴とする請求項1〜6のいずれかに記
載の展望鏡。
7. A sunshine recognition means for recognizing a sunshine condition from the various conditions at the time of shooting, comprising a table in which a relationship between various conditions such as shooting date and weather and the sunshine condition is set, and based on the recognized sunshine condition The shadow adjusting means for adjusting a display mode of a shadow in which a virtual image should occur in a captured image, and the perspective mirror according to any one of claims 1 to 6.
【請求項8】 眺望対象の中にその存在位置が指定さ
れ、仮想映像の起源となる前記事物は、眺望対象中に過
去に存在した建造物または建造物群であって、当該建造
物または建造物群の復元イメージを仮想映像とすること
を特徴とする請求項1〜7のいずれかに記載の展望鏡。
8. The thing whose existence position is specified in the view target and which is the origin of the virtual image is a building or group of buildings that existed in the past in the view target, The perspective image according to any one of claims 1 to 7, wherein a restored image of the group of buildings is a virtual image.
【請求項9】 請求項1〜8のいずれかに記載の展望鏡
を運用するプログラムであって、 眺望対象の映像を撮影する撮影ステップと、 眺望対象の中にその存在位置が指定される事物の仮想映
像を、眺望対象と関係付けて記憶する記憶ステップと、 眺望対象の撮影映像に対し、対応する仮想映像を前記記
憶手段から抽出して合成表示する映像合成ステップと、 を含むことを特徴とする展望鏡運用プログラム。
9. A program for operating the observing mirror according to claim 1, wherein a photographing step for photographing an image of a view target, and an existence position thereof is designated in the view target. A storage step of storing the virtual image of the virtual image in association with the view target, and a video synthesis step of extracting a virtual image corresponding to the captured video of the view target from the storage means and displaying the synthesized virtual image. Speculum operation program.
【請求項10】 請求項9に記載の展望鏡運用プログラ
ムを記録したコンピュータ読み取り可能な記録媒体。
10. A computer-readable recording medium in which the perspective operation program according to claim 9 is recorded.
JP2002064199A 2002-03-08 2002-03-08 Observation scope Pending JP2003264740A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002064199A JP2003264740A (en) 2002-03-08 2002-03-08 Observation scope

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002064199A JP2003264740A (en) 2002-03-08 2002-03-08 Observation scope

Publications (2)

Publication Number Publication Date
JP2003264740A true JP2003264740A (en) 2003-09-19
JP2003264740A5 JP2003264740A5 (en) 2005-08-25

Family

ID=29197107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002064199A Pending JP2003264740A (en) 2002-03-08 2002-03-08 Observation scope

Country Status (1)

Country Link
JP (1) JP2003264740A (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107968A (en) * 2003-09-30 2005-04-21 Canon Inc Image display device and method, and information processing method
JP2005157611A (en) * 2003-11-25 2005-06-16 Canon Inc Image processor and image processing method
JP2007052484A (en) * 2005-08-15 2007-03-01 Dainippon Printing Co Ltd Image processor, image processing method, program for image processing, and information recording medium
JP2007280046A (en) * 2006-04-06 2007-10-25 Canon Inc Image processor and its control method, and program
JP2009211251A (en) * 2008-03-03 2009-09-17 Dainippon Printing Co Ltd Expanded reality-sense display device
JP2010515189A (en) * 2007-01-05 2010-05-06 トタル イメルシオン Method and apparatus for inserting virtual objects in real time into an image stream using data from a real scene represented by an image
JP2010541054A (en) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for rendering a virtual object in a real environment
JP2010541053A (en) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for rendering a virtual object in a real environment
JP2011229679A (en) * 2010-04-27 2011-11-17 Senyo Kogyo Kk Ferris wheel
JP2012033043A (en) * 2010-07-30 2012-02-16 Toshiba Corp Information display device and information display method
JP2012048597A (en) * 2010-08-30 2012-03-08 Univ Of Tokyo Mixed reality display system, image providing server, display device and display program
JP2013054740A (en) * 2011-08-31 2013-03-21 Zazzle.Com Inc Visualizing custom product in situ
JP2013110764A (en) * 2013-02-19 2013-06-06 Sony Corp Imaging display device, and imaging display method
JP2013156670A (en) * 2012-01-26 2013-08-15 Fujitsu Ltd Display method and display device
WO2013179992A1 (en) * 2012-05-31 2013-12-05 株式会社セガ Stage device and stage facility
WO2014156257A1 (en) * 2013-03-29 2014-10-02 ソニー株式会社 Display control device, display control method, and recording medium
US8856160B2 (en) 2011-08-31 2014-10-07 Zazzle Inc. Product options framework and accessories
JP2015011360A (en) * 2013-06-26 2015-01-19 株式会社デジタル・スタンダード Information processing device and program
US8958633B2 (en) 2013-03-14 2015-02-17 Zazzle Inc. Segmentation of an image based on color and color differences
JP2015523624A (en) * 2012-05-07 2015-08-13 本田技研工業株式会社 A method for generating a virtual display surface from a video image of a landscape based on a road
JP2015176450A (en) * 2014-03-17 2015-10-05 富士フイルム株式会社 Augmented reality providing system, method, and program
KR101577146B1 (en) 2014-09-30 2015-12-14 한남대학교 산학협력단 Shader Application Method of Augmented object using Solar tracking
US9213920B2 (en) 2010-05-28 2015-12-15 Zazzle.Com, Inc. Using infrared imaging to create digital images for use in product customization
JP2016054524A (en) * 2015-11-18 2016-04-14 株式会社ニコン Program and display device
US9665167B2 (en) 2006-10-16 2017-05-30 Sony Corporation Imaging display apparatus and method
JP2018128815A (en) * 2017-02-08 2018-08-16 ソフトバンク株式会社 Information presentation system, information presentation method and information presentation program
US10277890B2 (en) 2016-06-17 2019-04-30 Dustin Kerstein System and method for capturing and viewing panoramic images having motion parallax depth perception without image stitching
JP2019125108A (en) * 2018-01-15 2019-07-25 凸版印刷株式会社 Image processing apparatus, image processing system, and image processing method
KR102116561B1 (en) * 2018-12-20 2020-05-28 배국승 Method for producing virtual reality content for virtual experience of destroyed or loss historic site
CN113568504A (en) * 2021-07-22 2021-10-29 福州富星光学科技有限公司 AR display processing method and system based on mobile equipment

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107968A (en) * 2003-09-30 2005-04-21 Canon Inc Image display device and method, and information processing method
JP2005157611A (en) * 2003-11-25 2005-06-16 Canon Inc Image processor and image processing method
JP2007052484A (en) * 2005-08-15 2007-03-01 Dainippon Printing Co Ltd Image processor, image processing method, program for image processing, and information recording medium
JP2007280046A (en) * 2006-04-06 2007-10-25 Canon Inc Image processor and its control method, and program
US9772686B2 (en) 2006-10-16 2017-09-26 Sony Corporation Imaging display apparatus and method
US9665167B2 (en) 2006-10-16 2017-05-30 Sony Corporation Imaging display apparatus and method
JP2010515189A (en) * 2007-01-05 2010-05-06 トタル イメルシオン Method and apparatus for inserting virtual objects in real time into an image stream using data from a real scene represented by an image
JP2012226766A (en) * 2007-09-25 2012-11-15 Metaio Gmbh Method and device for drawing virtual object in real environment
US9165405B2 (en) 2007-09-25 2015-10-20 Metaio Gmbh Method and device for illustrating a virtual object in a real environment
US9390560B2 (en) 2007-09-25 2016-07-12 Metaio Gmbh Method and device for illustrating a virtual object in a real environment
US10043315B2 (en) 2007-09-25 2018-08-07 Apple Inc. Method and apparatus for representing a virtual object in a real environment
JP2010541054A (en) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for rendering a virtual object in a real environment
JP2010541053A (en) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for rendering a virtual object in a real environment
US10366538B2 (en) 2007-09-25 2019-07-30 Apple Inc. Method and device for illustrating a virtual object in a real environment
US10665025B2 (en) 2007-09-25 2020-05-26 Apple Inc. Method and apparatus for representing a virtual object in a real environment
JP2014238883A (en) * 2007-09-25 2014-12-18 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and device for drawing virtual object in real environment
US11080932B2 (en) 2007-09-25 2021-08-03 Apple Inc. Method and apparatus for representing a virtual object in a real environment
US9183582B2 (en) 2007-10-26 2015-11-10 Zazzle Inc. Tiling process for digital image retrieval
US9355421B2 (en) 2007-10-26 2016-05-31 Zazzle Inc. Product options framework and accessories
US9147213B2 (en) 2007-10-26 2015-09-29 Zazzle Inc. Visualizing a custom product in situ
JP2009211251A (en) * 2008-03-03 2009-09-17 Dainippon Printing Co Ltd Expanded reality-sense display device
JP2011229679A (en) * 2010-04-27 2011-11-17 Senyo Kogyo Kk Ferris wheel
US9213920B2 (en) 2010-05-28 2015-12-15 Zazzle.Com, Inc. Using infrared imaging to create digital images for use in product customization
JP2012033043A (en) * 2010-07-30 2012-02-16 Toshiba Corp Information display device and information display method
US8466894B2 (en) 2010-07-30 2013-06-18 Kabushiki Kaisha Toshiba Apparatus and method for displaying information
JP2012048597A (en) * 2010-08-30 2012-03-08 Univ Of Tokyo Mixed reality display system, image providing server, display device and display program
WO2012029576A1 (en) * 2010-08-30 2012-03-08 国立大学法人東京大学 Mixed reality display system, image providing server, display apparatus, and display program
JP2013054740A (en) * 2011-08-31 2013-03-21 Zazzle.Com Inc Visualizing custom product in situ
US8856160B2 (en) 2011-08-31 2014-10-07 Zazzle Inc. Product options framework and accessories
US9436963B2 (en) 2011-08-31 2016-09-06 Zazzle Inc. Visualizing a custom product in situ
JP2013156670A (en) * 2012-01-26 2013-08-15 Fujitsu Ltd Display method and display device
JP2015523624A (en) * 2012-05-07 2015-08-13 本田技研工業株式会社 A method for generating a virtual display surface from a video image of a landscape based on a road
WO2013179992A1 (en) * 2012-05-31 2013-12-05 株式会社セガ Stage device and stage facility
JP2013110764A (en) * 2013-02-19 2013-06-06 Sony Corp Imaging display device, and imaging display method
US8958633B2 (en) 2013-03-14 2015-02-17 Zazzle Inc. Segmentation of an image based on color and color differences
US9992419B2 (en) 2013-03-29 2018-06-05 Sony Corporation Display control apparatus for displaying a virtual object
WO2014156257A1 (en) * 2013-03-29 2014-10-02 ソニー株式会社 Display control device, display control method, and recording medium
JPWO2014156257A1 (en) * 2013-03-29 2017-02-16 ソニー株式会社 Display control device, display control method, and recording medium
JP2015011360A (en) * 2013-06-26 2015-01-19 株式会社デジタル・スタンダード Information processing device and program
US9639991B2 (en) 2014-03-17 2017-05-02 Fujifilm Corporation Augmented reality provision system
JP2015176450A (en) * 2014-03-17 2015-10-05 富士フイルム株式会社 Augmented reality providing system, method, and program
KR101577146B1 (en) 2014-09-30 2015-12-14 한남대학교 산학협력단 Shader Application Method of Augmented object using Solar tracking
JP2016054524A (en) * 2015-11-18 2016-04-14 株式会社ニコン Program and display device
US10277890B2 (en) 2016-06-17 2019-04-30 Dustin Kerstein System and method for capturing and viewing panoramic images having motion parallax depth perception without image stitching
JP2018128815A (en) * 2017-02-08 2018-08-16 ソフトバンク株式会社 Information presentation system, information presentation method and information presentation program
JP2019125108A (en) * 2018-01-15 2019-07-25 凸版印刷株式会社 Image processing apparatus, image processing system, and image processing method
JP7081162B2 (en) 2018-01-15 2022-06-07 凸版印刷株式会社 Image processing device, image processing system, and image processing method
KR102116561B1 (en) * 2018-12-20 2020-05-28 배국승 Method for producing virtual reality content for virtual experience of destroyed or loss historic site
CN113568504A (en) * 2021-07-22 2021-10-29 福州富星光学科技有限公司 AR display processing method and system based on mobile equipment

Similar Documents

Publication Publication Date Title
JP2003264740A (en) Observation scope
JP7187446B2 (en) augmented virtual reality
JP5406813B2 (en) Panorama image display device and panorama image display method
US20180250589A1 (en) Mixed reality viewer system and method
JP5464955B2 (en) Panorama image display device
JP5250598B2 (en) Image display device and image display method
Zoellner et al. An augmented reality presentation system for remote cultural heritage sites
Kimber et al. Flyabout: spatially indexed panoramic video
Mohl Cognitive space in the interactive movie map: an investigation of spatial learning in virtual environments
CN114401414B (en) Information display method and system for immersive live broadcast and information pushing method
JP6390992B1 (en) Street viewer system
EP2022010A1 (en) Virtual display method and apparatus
WO2024022070A1 (en) Picture display method and apparatus, and device and medium
JP7378510B2 (en) street viewer system
JP5766394B2 (en) 3D image map
Mohammed-Amin Augmented reality: A narrative layer for historic sites
ES2300204B1 (en) SYSTEM AND METHOD FOR THE DISPLAY OF AN INCREASED IMAGE APPLYING INCREASED REALITY TECHNIQUES.
JP5701967B2 (en) Image display device and image display method
JP2009271618A (en) Image display device, image display method and program for image display
Kuchelmeister et al. The Amnesia Atlas. An immersive SenseCam interface as memory-prosthesis
JP6122991B2 (en) Image display device and image display method
JP5646033B2 (en) Image display device and image display method
JP5920857B2 (en) Image display device and image display method
US9185374B2 (en) Method and system for producing full motion media to display on a spherical surface
Nagakura et al. Panoramic Video: Recording and Representing the Digital Heritage Experience

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070515

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071002