JP2007052484A - Image processor, image processing method, program for image processing, and information recording medium - Google Patents

Image processor, image processing method, program for image processing, and information recording medium Download PDF

Info

Publication number
JP2007052484A
JP2007052484A JP2005235281A JP2005235281A JP2007052484A JP 2007052484 A JP2007052484 A JP 2007052484A JP 2005235281 A JP2005235281 A JP 2005235281A JP 2005235281 A JP2005235281 A JP 2005235281A JP 2007052484 A JP2007052484 A JP 2007052484A
Authority
JP
Japan
Prior art keywords
information
image
visual field
image processing
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005235281A
Other languages
Japanese (ja)
Inventor
Toshiki Hara
豪紀 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2005235281A priority Critical patent/JP2007052484A/en
Publication of JP2007052484A publication Critical patent/JP2007052484A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor for visually recognizing a desired scenery regardless of weather, and for easily acquiring such accessory information as the designation of natural features in the scenery, and for adding such an added value as an interest to the scenery observation in an observing device which is present in a scenic spot. <P>SOLUTION: This image processor is configured to optically acquire image information Sv corresponding to a visual field image equivalent to a visual field range in a camera 1 of an observer who operates the camera 1 for observing a scenery, and to preliminarily store relevant information Sm relative to an object present in the visual field range, and to generate image information Smx for composition correspondingly to the object in the visual field, and different from the original image information Sv on the basis of the image information Sv and the relevant information Sm, and to make a display part 2 display either an image including only the image information Smx for composition or an image acquired by superimposing the image information Smx for composition on the image information Sv to the observer. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法及び画像処理用プログラム並びに情報記録媒体の技術分野に属し、より詳細には、例えば景色観察を行う展望台等に設置された景色観察用の観察装置を含む画像処理装置及び画像処理方法並びに当該画像処理装置において用いられる画像処理用プログラム及び当該画像処理用プログラムが記録された情報記録媒体の技術分野に属する。   The present invention belongs to the technical field of an image processing device, an image processing method, an image processing program, and an information recording medium. More specifically, for example, an observation device for observing a landscape installed on an observation platform for observing the landscape is provided. The present invention belongs to the technical field of image processing apparatuses and image processing methods, image processing programs used in the image processing apparatuses, and information recording media on which the image processing programs are recorded.

従来、いわゆる観光名所(城郭、高層タワー、高層ビルディング又は山頂)や美術館、博物館と言った場所には、夫々そこから見える景色や展示物等をより詳しく観察するため、例えば双眼鏡や望遠鏡(観光名所の場合)或いは顕微鏡(博物館等の場合)などの観察装置が設置されている。   Traditionally, so-called tourist attractions (castles, high-rise towers, high-rise buildings or summits), art museums, museums, etc., in order to observe the scenery and exhibits that can be seen from there in more detail, for example, binoculars and telescopes (tourist attractions) ) Or an observation device such as a microscope (in the case of a museum, etc.) is installed.

また、インターネット等のネットワーク環境が発達した近年では、高層ビルディングの屋上等の高所に設置されたビデオカメラやテレビカメラ等を当該ネットワークを介して操作し、観察者のパーソナルコンピュータ上に当該ビデオカメラ等で撮像した画像を表示することも行われている。   Also, in recent years when the network environment such as the Internet has developed, a video camera or a TV camera installed on a high place such as a rooftop of a high-rise building is operated via the network, and the video camera is placed on an observer's personal computer. It is also performed to display an image captured by the above.

一方、この種の観察装置により観察された実際の地物の映像に対して、人為的に他の映像を合成する技術としては、例えば下記特許文献1に記載された技術がある。この特許文献1に記載された技術では、例えば飛鳥時代の遺跡につき、現在の当該遺跡の位置に、その遺跡が実在した頃の物として想像される遺跡内の建物等の画像を合成して表示する構成となっている。
特開2003−264740号公報
On the other hand, as a technique for artificially synthesizing another image with an image of an actual feature observed by this type of observation apparatus, for example, there is a technique described in Patent Document 1 below. In the technique described in Patent Document 1, for example, an image of a building in a ruin that is imagined as a thing at the time when the ruins actually existed is displayed at the current position of the ruins in the Asuka period. It is the composition to do.
JP 2003-264740 A

しかしながら、上述した従来の双眼鏡や顕微鏡等の観察装置では、例えば雨天時や霧がかかった場合等の悪天候時においては観察されるべき景色等が全く観察できない場合があると言う問題点があった。   However, the conventional observation apparatus such as the binoculars and the microscope described above has a problem that the scenery to be observed may not be observed at all in bad weather such as rainy weather or fog. .

また、好天時において景色等が観察できても、その景色(視野範囲)内に存在している観光名所等の名称等が判別し難い場合があると言う問題点もあった。   In addition, there is a problem that even if the scenery etc. can be observed in good weather, it may be difficult to distinguish the names of tourist attractions etc. existing in the scenery (view range).

更には、上述した観察装置等は、その視野範囲内にある地物等をただ単に観るだけであるため、観光名所としては面白みに欠けると言った問題点もあった。   Furthermore, the above-described observation device has a problem that it is not interesting as a tourist attraction because it only looks at features within the field of view.

また、上記した特許文献1に記載された技術では、あくまで創造された仮想画像を表示するものであるため、上述した如き観察装置としての用途を鑑みた場合、必ずしも十分に面白みを引き出せない場合もあると言う問題点がある。   Moreover, in the technique described in Patent Document 1 described above, a virtual image created is only displayed. Therefore, in view of the use as an observation apparatus as described above, there may be cases where it is not always possible to draw out enough interest. There is a problem that there is.

そこで、本発明は上記の各問題点に鑑みて為されたもので、その課題は、上述した観察装置等において、天候に拘らず所望の景色を視認することができると共に、当該景色内の地物の名称等の付帯情報が容易に取得でき、且つ景色観察に面白み等の付加価値を追加することが可能な画像処理装置及び画像処理方法並びに当該画像処理装置において用いられる画像処理用プログラム及び当該画像処理用プログラムが記録された情報記録媒体を提供することにある。   Therefore, the present invention has been made in view of the above-mentioned problems, and the problem thereof is that the above-described observation device or the like can visually recognize a desired scenery regardless of the weather and Image processing apparatus, image processing method, image processing program used in the image processing apparatus, and image processing program capable of easily adding incidental information such as the name of an object and adding added value such as interest to scenery observation An object is to provide an information recording medium on which an image processing program is recorded.

上記の課題を解決するために、請求項1に記載の発明は、景色を観察するための観察装置を操作する観察者の、当該観察装置における視野範囲に相当する視野画像に対応する画像情報を光学的に取得するカメラ等の取得手段と、前記視野範囲内に存在する物に関連する関連情報を記憶する記憶部等の記憶手段と、前記取得された画像情報及び前記記憶されている関連情報に基づいて、前記物に対応し且つ元の前記画像情報とは異なる対応情報を生成する分配/合成部等の生成手段と、前記生成された対応情報のみ、又は当該生成された対応情報を前記取得された画像情報に重畳して得られる重畳情報のいずれか一方を、前記観察者に対して出力する表示部等の出力手段と、を備える。   In order to solve the above-described problem, the invention according to claim 1 provides image information corresponding to a visual field image corresponding to a visual field range in the observation device of an observer who operates the observation device for observing a landscape. Acquisition means such as an optically acquired camera, storage means such as a storage unit for storing related information related to objects existing in the visual field range, the acquired image information, and the stored related information Based on the generation means, such as a distribution / combination unit for generating correspondence information corresponding to the object and different from the original image information, and only the generated correspondence information or the generated correspondence information Output means such as a display unit for outputting any one of the superimposition information obtained by superimposing the acquired image information to the observer.

よって、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。   Therefore, correspondence information corresponding to the image within the visual field range of the observation device is generated based on the related information, and only the correspondence information or the correspondence information and the image information corresponding to the image within the visual field range are superimposed. Since any one of the superimposition information is output to the observer, not only a monotonous image within the visual field range but also various information corresponding to the image can be provided to the observer.

上記の課題を解決するために、請求項2に記載の発明は、請求項1に記載の画像処理装置において、前記生成手段は、前記観察装置の姿勢を検出する制御部等の姿勢検出手段と、前記検出された姿勢に基づいて、前記視野範囲内における前記観察者の視点の位置を検出する認識部等の視点検出手段と、前記検出された視点の位置に基づいて、前記視野範囲内において注目されている前記物を抽出する認識部等の抽出手段と、前記抽出された物に対応する前記関連情報を前記記憶手段から読み出す加工部等の読出手段と、を備え、前記読み出された関連情報及び前記取得された画像情報に基づいて、前記対応情報を生成するように構成される。   In order to solve the above-described problem, the invention according to claim 2 is the image processing apparatus according to claim 1, wherein the generation unit includes an attitude detection unit such as a control unit that detects an attitude of the observation device; A viewpoint detection unit such as a recognition unit that detects a position of the observer's viewpoint within the field of view based on the detected posture, and a position within the field of view based on the position of the detected viewpoint. An extraction unit such as a recognition unit for extracting the object of interest; and a reading unit such as a processing unit for reading out the related information corresponding to the extracted object from the storage unit. The correspondence information is generated based on related information and the acquired image information.

よって、観察装置の姿勢から観察者の視点を検出し、その視点上にある物に対応する関連情報から対応情報を生成して当該観察者に出力するので、当該観察者の現在の視点にある物(すなわち、観察者が興味を抱いている物)に関する関連情報をタイミングよく当該観察者に出力することができる。   Therefore, since the viewpoint of the observer is detected from the posture of the observation apparatus, the correspondence information is generated from the related information corresponding to the object on the viewpoint and output to the observer, so that the current viewpoint of the observer is present. Related information regarding an object (that is, an object in which the observer is interested) can be output to the observer in a timely manner.

上記の課題を解決するために、請求項3に記載の発明は、請求項1又は2に記載の画像処理装置において、前記記憶手段は、前記視野範囲内にある前記物に対応する文字情報を前記関連情報として記憶しており、前記生成手段は、当該文字情報が対応する前記物が存在する前記画像情報内の位置に当該文字情報を重畳して前記対応情報を生成するように構成される。   In order to solve the above problem, the invention according to claim 3 is the image processing apparatus according to claim 1 or 2, wherein the storage means stores character information corresponding to the object within the field of view. The related information is stored, and the generation unit is configured to generate the correspondence information by superimposing the character information on a position in the image information where the object corresponding to the character information exists. .

よって、視野範囲内にある物に対応する文字情報を関連情報として記憶し、これを対応する物の位置に重畳して対応情報とするので、現在見ている物の説明を、観察者が容易に取得することができる。   Therefore, text information corresponding to objects within the field of view is stored as related information, and this information is superimposed on the corresponding object position as correspondence information, so that the observer can easily explain the object currently being viewed. Can be obtained.

上記の課題を解決するために、請求項4に記載の発明は、請求項1から3のいずれか一項に記載の画像処理装置において、前記記憶手段は、前記視野範囲内においては他の前記物に隠蔽されて見えない前記物の画像に対応する被隠蔽物画像情報を前記関連情報として記憶しており、前記生成手段は、前記被隠蔽物画像に対応する前記物を前記視野範囲内において隠蔽している前記他の物に対応する隠蔽物画像を、当該被隠蔽物画像に置換して前記対応情報を生成するように構成される。   In order to solve the above-mentioned problem, the invention according to claim 4 is the image processing apparatus according to any one of claims 1 to 3, wherein the storage means is the other in the visual field range. Concealed object image information corresponding to an image of the object that is hidden by an object and not visible is stored as the related information, and the generation unit includes the object corresponding to the concealed object image within the field of view. The concealed object image corresponding to the other object being concealed is replaced with the concealed object image to generate the correspondence information.

よって、通常の視野範囲内では視認できない物に対応する被隠蔽物画像情報を関連情報として記憶し、当該物を隠蔽している他の物に対応する隠蔽物画像を当該被隠蔽物画像に置換して対応情報を生成するので、通常では視認できない物の画像を観察者に提供することができる。   Therefore, the concealed object image information corresponding to an object that cannot be viewed within the normal visual field range is stored as related information, and the concealed object image corresponding to another object concealing the object is replaced with the concealed object image. Since the correspondence information is generated, an image of an object that cannot be visually recognized can be provided to the observer.

上記の課題を解決するために、請求項5に記載の発明は、請求項1から4のいずれか一項に記載の画像処理装置において、前記記憶手段は、現在時刻と異なる時刻における前記視野画像に対応する他時刻画像情報を前記関連情報として記憶しており、前記生成手段は、現在時刻における前記画像情報に代えて同一の前記視野範囲に相当する前記他時刻画像を前記対応情報として生成するように構成される。   In order to solve the above-described problem, according to a fifth aspect of the present invention, in the image processing device according to any one of the first to fourth aspects, the storage unit is configured to store the visual field image at a time different from the current time. Is stored as the related information, and the generation unit generates the other time image corresponding to the same visual field range as the corresponding information instead of the image information at the current time. Configured as follows.

よって、現在時刻と異なる時刻における視野範囲内の画像が関連情報として記憶されており、これを用いて対応情報を生成するので、現在視認している視野範囲内の現在又は過去の状態を容易に観察者に提供することができる。   Therefore, an image in the visual field range at a time different from the current time is stored as related information, and correspondence information is generated using this, so that the current or past state in the visual field range currently being viewed can be easily obtained. Can be provided to the observer.

上記の課題を解決するために、請求項6に記載の発明は、請求項1から5のいずれか一項に記載の画像処理装置において、前記記憶手段は、前記視野範囲に対応し且つ前記観察者から観て水平線より遠方にある物に対応する遠方物画像を前記関連情報として記憶しており、前記出力手段は、現在の前記画像情報に対して当該画像情報に対応する前記遠方物画像を重畳して出力するように構成される。   In order to solve the above-described problem, the invention according to claim 6 is the image processing apparatus according to any one of claims 1 to 5, wherein the storage unit corresponds to the field of view range and the observation is performed. A far object image corresponding to an object farther from the horizon as viewed from the person is stored as the related information, and the output means displays the far object image corresponding to the image information with respect to the current image information. It is configured to superimpose and output.

よって、水平線より更に遠方にあることで物理的には見えない物に対応する遠方物画像を関連情報として記憶しているので、更に興味深い情報を観察者に提供することができる。   Therefore, since a far object image corresponding to an object that cannot be physically seen by being farther from the horizon is stored as related information, more interesting information can be provided to the observer.

上記の課題を解決するために、請求項7に記載の発明は、請求項1から6のいずれか一項に記載の画像処理装置において、前記生成手段は、前記視野範囲内に存在するいずれかの前記物を他の前記物よりも強調して表示するための前記対応情報を生成するように構成される。   In order to solve the above-described problem, the invention according to claim 7 is the image processing apparatus according to any one of claims 1 to 6, wherein the generation unit is any of the field-of-view ranges. The correspondence information for displaying the object in a more emphasized manner than the other objects is generated.

よって、視野範囲内に存在するいずれかの物を他の物よりも強調して表示するための対応情報を生成するので、例えば曇天時、雨天時或いは夜間でも、観察者が観たい物を他の物と区別して鮮明に加工し、当該観察者に提示することができる。   Therefore, correspondence information for displaying any object existing in the field of view with emphasis over other objects is generated.For example, even when it is cloudy, rainy, or at night, the object that the observer wants to see is displayed. It can be clearly distinguished from the object and presented to the observer.

上記の課題を解決するために、請求項8に記載の発明は、請求項1から7のいずれか一項に記載の画像処理装置において、前記記憶手段は、前記視野範囲内の前記物に対応する音を出力するための音情報を前記関連情報として記憶しており、前記出力手段は、現在出力されている前記いずれか一方に対応する前記音を、当該音に対応する前記音情報を用いて出力する音出力手段を備える。   In order to solve the above problem, an invention according to an eighth aspect is the image processing apparatus according to any one of the first to seventh aspects, wherein the storage means corresponds to the object in the visual field range. Sound information for outputting a sound to be stored is stored as the related information, and the output means uses the sound information corresponding to the sound as the sound corresponding to any one of the currently output sounds. Sound output means.

よって、現在の視野範囲内にある物に関連する音を観察者に提供することができるので、観察者をしてより興味深く観察を行わせることができる。   Therefore, since sounds related to objects within the current visual field range can be provided to the observer, the observer can be made to observe more interestingly.

上記の課題を解決するために、請求項9に記載の発明は、景色を観察するための観察装置を操作する観察者の、当該観察装置における視野範囲に相当する視野画像に対応する画像情報を光学的に取得する取得工程と、前記視野範囲内に存在する物に関連する関連情報と、前記取得された画像情報と、に基づき、前記物に対応し且つ元の前記画像情報とは異なる対応情報を生成する生成工程と、前記生成された対応情報のみ、又は当該生成された対応情報を前記取得された画像情報に重畳して得られる重畳情報のいずれか一方を、前記観察者に対して出力する出力工程と、を含む。   In order to solve the above-described problem, the invention according to claim 9 provides image information corresponding to a visual field image corresponding to a visual field range in the observation device of an observer who operates the observation device for observing a landscape. Corresponding to the object and different from the original image information based on the acquisition step optically acquired, the related information related to the object existing in the visual field range, and the acquired image information Either a generation step of generating information and only the generated correspondence information, or superimposition information obtained by superimposing the generated correspondence information on the acquired image information, to the observer An output step of outputting.

よって、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。   Therefore, correspondence information corresponding to the image within the visual field range of the observation device is generated based on the related information, and only the correspondence information or the correspondence information and the image information corresponding to the image within the visual field range are superimposed. Since any one of the superimposition information is output to the observer, not only a monotonous image within the visual field range but also various information corresponding to the image can be provided to the observer.

上記の課題を解決するために、請求項10に記載の発明は、景色を観察するための観察装置を含む画像処理装置に含まれるコンピュータを、前記観察装置を操作する観察者の、当該観察装置における視野範囲に相当する視野画像に対応する画像情報を光学的に取得する取得手段、前記視野範囲内に存在する物に関連する関連情報を記憶する記憶手段、前記取得された画像情報及び前記記憶されている関連情報に基づいて、前記物に対応し且つ元の前記画像情報とは異なる対応情報を生成する生成手段、及び、前記生成された対応情報のみ、又は当該生成された対応情報を前記取得された画像情報に重畳して得られる重畳情報のいずれか一方を、前記観察者に対して出力する出力手段、として機能させる。   In order to solve the above-described problem, the invention according to claim 10 is directed to a computer included in an image processing apparatus including an observation apparatus for observing a landscape, and the observation apparatus of an observer who operates the observation apparatus. An acquisition means for optically acquiring image information corresponding to a visual field image corresponding to a visual field range in the storage, a storage means for storing related information related to an object existing in the visual field range, the acquired image information, and the storage Generating means for generating correspondence information corresponding to the object and different from the original image information, and only the generated correspondence information, or the generated correspondence information. One of the superimposition information obtained by superimposing the acquired image information is caused to function as output means for outputting to the observer.

よって、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するようにコンピュータが機能するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。   Therefore, correspondence information corresponding to the image within the visual field range of the observation device is generated based on the related information, and only the correspondence information or the correspondence information and the image information corresponding to the image within the visual field range are superimposed. Since the computer functions so as to output any of the superimposition information to the observer, not only a monotonous image within the field of view but also various information corresponding to the image can be provided to the observer. .

上記の課題を解決するために、請求項11に記載の発明は、請求項10に記載の画像処理用プログラムが前記コンピュータにより読み出し可能に記録されている。   In order to solve the above-mentioned problem, the invention according to claim 11 is recorded with the image processing program according to claim 10 readable by the computer.

よって、当該画像処理用プログラムをコンピュータにより読み出して実行することにより、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するように当該コンピュータが機能するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。   Therefore, by reading out and executing the image processing program by a computer, correspondence information corresponding to the image within the visual field range of the observation apparatus is generated based on the related information, and only the correspondence information or the correspondence information and the correspondence information are generated. Since the computer functions to output to the observer either superimposition information obtained by superimposing image information corresponding to an image in the field of view range, not only the monotonous image in the field of view but the Various information corresponding to the image can be provided to the observer.

以上説明したように、請求項1に記載の発明によれば、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。   As described above, according to the first aspect of the present invention, the correspondence information corresponding to the image within the visual field range of the observation device is generated based on the related information, and only the correspondence information or the correspondence information and the correspondence information are generated. Since either superimposition information obtained by superimposing image information corresponding to an image in the field of view range is output to the observer, not only a monotonous image in the field of view but also various information corresponding to the image Can be provided to the observer.

従って、上記観察者に対して付加価値に富んだ画像を提供することができる。   Therefore, an image rich in added value can be provided to the observer.

請求項2に記載の発明によれば、請求項1に記載の発明の効果に加えて、観察装置の姿勢から観察者の視点を検出し、その視点上にある物に対応する関連情報から対応情報を生成して当該観察者に出力するので、当該観察者の現在の視点にある物(すなわち、観察者が興味を抱いている物)に関する関連情報をタイミングよく当該観察者に出力することができる。   According to the invention described in claim 2, in addition to the effect of the invention described in claim 1, the viewpoint of the observer is detected from the posture of the observation device, and the response is performed from related information corresponding to the object on the viewpoint. Since information is generated and output to the observer, related information regarding an object at the current viewpoint of the observer (that is, an object in which the observer is interested) can be output to the observer at a good timing. it can.

請求項3に記載の発明によれば、請求項1又は2に記載の発明の効果に加えて、視野範囲内にある物に対応する文字情報を関連情報として記憶し、これを対応する物の位置に重畳して対応情報とするので、現在見ている物の説明を、観察者が容易に取得することができる。   According to the invention described in claim 3, in addition to the effect of the invention described in claim 1 or 2, the character information corresponding to the object in the visual field range is stored as related information, and this is stored in the corresponding object. Since the corresponding information is superimposed on the position, the observer can easily obtain an explanation of the object currently being viewed.

請求項4に記載の発明によれば、請求項1から3のいずれか一項に記載の発明の効果に加えて、通常の視野範囲内では視認できない物に対応する被隠蔽物画像情報を関連情報として記憶し、当該物を隠蔽している他の物に対応する隠蔽物画像を当該被隠蔽物画像に置換して対応情報を生成するので、通常では視認できない物の画像を観察者に提供することができる。   According to the invention described in claim 4, in addition to the effect of the invention described in any one of claims 1 to 3, related object image information corresponding to an object that cannot be viewed within the normal visual field range is related. Stores information as information and replaces the concealed object image corresponding to another object concealing the object with the concealed object image to generate correspondence information, thus providing the observer with an image of an object that cannot be normally viewed can do.

請求項5に記載の発明によれば、請求項1から4のいずれか一項に記載の発明の効果に加えて、現在時刻と異なる時刻における視野範囲内の画像が関連情報として記憶されており、これを用いて対応情報を生成するので、現在視認している視野範囲内の現在又は過去の状態を容易に観察者に提供することができる。   According to the invention described in claim 5, in addition to the effect of the invention described in any one of claims 1 to 4, an image in the visual field range at a time different from the current time is stored as related information. Since the correspondence information is generated using this, it is possible to easily provide the observer with the current or past state within the currently viewed visual field range.

請求項6に記載の発明によれば、請求項1から5のいずれか一項に記載の発明の効果に加えて、水平線より更に遠方にあることで物理的には見えない物に対応する遠方物画像を関連情報として記憶しているので、更に興味深い情報を観察者に提供することができる。   According to the invention described in claim 6, in addition to the effect of the invention described in any one of claims 1 to 5, a distant place corresponding to an object that cannot be physically seen by being further away from the horizon. Since the object image is stored as the related information, more interesting information can be provided to the observer.

請求項7に記載の発明によれば、請求項1から6のいずれか一項に記載の発明の効果に加えて、視野範囲内に存在するいずれかの物を他の物よりも強調して表示するための対応情報を生成するので、例えば曇天時、雨天時或いは夜間でも、観察者が観たい物を他の物と区別して鮮明に加工し、当該観察者に提示することができる。   According to the invention described in claim 7, in addition to the effect of the invention described in any one of claims 1 to 6, any object existing in the visual field range is emphasized more than the other objects. Since the correspondence information for display is generated, for example, even when it is cloudy, rainy, or at night, the object that the observer wants to see can be clearly distinguished from other objects and presented to the observer.

請求項8に記載の発明によれば、現在の視野範囲内にある物に関連する音を観察者に提供することができるので、観察者をしてより興味深く観察を行わせることができる。   According to the eighth aspect of the present invention, it is possible to provide the observer with sound related to an object within the current visual field range, so that the observer can make observation more interesting.

請求項9に記載の発明によれば、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。   According to the invention described in claim 9, correspondence information corresponding to an image in the visual field range of the observation device is generated based on the related information, and only the correspondence information or the correspondence information and the image in the visual field range are generated. Since either superimposition information obtained by superimposing corresponding image information is output to the observer, not only a monotonous image within the field of view but also various information corresponding to the image is provided to the observer. be able to.

従って、上記観察者に対して付加価値に富んだ画像を提供することができる。   Therefore, an image rich in added value can be provided to the observer.

請求項10に記載の発明によれば、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するようにコンピュータが機能するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。   According to the invention described in claim 10, the correspondence information corresponding to the image within the visual field range of the observation device is generated based on the related information, and only the correspondence information or the correspondence information and the image within the visual field range are generated. Since the computer functions to output to the observer one of the superimposition information obtained by superimposing the corresponding image information, various information corresponding to the image as well as the monotonous image within the field of view range. Can be provided to the observer.

従って、上記観察者に対して付加価値に富んだ画像を提供することができる。   Therefore, an image rich in added value can be provided to the observer.

請求項11に記載の発明によれば、当該画像処理用プログラムをコンピュータにより読み出して実行することにより、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するように当該コンピュータが機能するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。   According to the eleventh aspect of the present invention, by reading and executing the image processing program by a computer, correspondence information corresponding to an image within the visual field range of the observation device is generated based on the related information, and the correspondence Since the computer functions to output to the observer either the information alone or the superimposition information obtained by superimposing the correspondence information and the image information corresponding to the image in the visual field range, the visual field range In addition to the monotonous image, various information corresponding to the image can be provided to the observer.

従って、上記観察者に対して付加価値に富んだ画像を提供することができる。   Therefore, an image rich in added value can be provided to the observer.

次に、本発明を実施するための最良の形態について、図面に基づいて説明する。なお、以下に説明する実施形態は、例えば高層ビルディングの展望台等に設置されている望遠鏡又は双眼鏡を介して観察者に画像を提示(表示)する画像処理装置に対して本発明を適用した場合の実施の形態である。   Next, the best mode for carrying out the present invention will be described with reference to the drawings. In the embodiment described below, the present invention is applied to an image processing apparatus that presents (displays) an image to an observer via, for example, a telescope or binoculars installed on an observation deck of a high-rise building. It is an embodiment.

始めに、実施形態に係る画像処理装置の全体構成及び動作について、図1乃至図3を用いて説明する。なお、図1は実施形態に係る画像処理装置全体の概要構成を示すブロック図であり、図2は当該画像処理装置の細部構成を示すブロック図であり、図3は当該画像処理装置の全体動作を示すフローチャートである。   First, the overall configuration and operation of the image processing apparatus according to the embodiment will be described with reference to FIGS. 1 to 3. 1 is a block diagram showing a schematic configuration of the entire image processing apparatus according to the embodiment, FIG. 2 is a block diagram showing a detailed configuration of the image processing apparatus, and FIG. 3 is an overall operation of the image processing apparatus. It is a flowchart which shows.

図1に示すように、実施形態に係る画像処理装置Sは、上記展望台等から見た景色を取り込む取得手段としてのカメラ1と、当該取り込まれた景色に対応する画像等を表示する出力手段としての表示部2と、姿勢検出手段としての制御部3と、キーボード又はタッチパネル等からなる入力部4と、生成手段としての分配/合成部5と、処理部6と、により構成されている。   As shown in FIG. 1, the image processing apparatus S according to the embodiment includes a camera 1 as an acquisition unit that captures a scene viewed from the observation deck and the like, and an output unit that displays an image or the like corresponding to the captured scene. As a display unit 2, a control unit 3 as an attitude detection unit, an input unit 4 including a keyboard or a touch panel, a distribution / combination unit 5 as a generation unit, and a processing unit 6.

この構成において、カメラ1は、より具体的にはビデオカメラ又はいわゆるウエブカメラ等により構成されるものであり、上記景色等を光学的な画像として取得し、それを電気的に増幅又は符号化等して画像情報Svを生成し、分配/合成部5へ出力する。なお、カメラ1にマイクを設け、現在画像情報Sv化している画像に対応する音を同時に収集し、これを音声情報として当該画像情報Svと共に分配/合成部5に出力するように構成することもできる。また、上述した従来の望遠鏡や双眼鏡等を改造し、上記マイクや画像情報Svを生成するためのセンサを設置することでカメラ1を構成することもできる。   In this configuration, the camera 1 is more specifically configured by a video camera or a so-called web camera, and acquires the scenery or the like as an optical image and electrically amplifies or encodes it. Then, image information Sv is generated and output to the distribution / synthesis unit 5. It should be noted that the camera 1 may be provided with a microphone so that sound corresponding to the image that is currently converted into the image information Sv is simultaneously collected and output to the distribution / synthesis unit 5 together with the image information Sv as audio information. it can. In addition, the camera 1 can be configured by modifying the above-described conventional telescope and binoculars and installing the microphone and the sensor for generating the image information Sv.

次に、カメラ1に付随している制御部3は、カメラ1の現在の状態(三次元的な姿勢、焦点距離及び接続(稼動)状況等を含む。以下同じ)を検出し、当該検出した状態を示す状態情報Sposを生成して処理部6へ出力する。この機能に加えて、制御部3は、処理部6からの制御情報Sc1の内容に基づきカメラ1の動作を制御すると共に、その姿勢(上下左右の角度)を制御して画像情報Sv化する景色等を切り換える。   Next, the control unit 3 attached to the camera 1 detects the current state of the camera 1 (including a three-dimensional posture, a focal length, a connection (operation) state, etc. The same applies hereinafter). Status information Spos indicating the status is generated and output to the processing unit 6. In addition to this function, the control unit 3 controls the operation of the camera 1 based on the content of the control information Sc1 from the processing unit 6, and controls the posture (up / down / left / right angle) to convert the image information into Sv. Switch etc.

更に、分配/合成部5は、処理部6からの制御情報Sc2の内容に基づき、カメラ1から出力された画像情報Svを処理部6又は表示部2へ出力する。これに加えて、分配/合成部5は、処理部6から出力されて来た後述する合成用画像情報Smxをカメラ1からの画像情報Svに対して重畳(合成)し、表示情報Sdpとして表示部2へ出力する。   Further, the distribution / combination unit 5 outputs the image information Sv output from the camera 1 to the processing unit 6 or the display unit 2 based on the content of the control information Sc2 from the processing unit 6. In addition to this, the distribution / synthesis unit 5 superimposes (synthesizes) later-described synthesis image information Smx output from the processing unit 6 on the image information Sv from the camera 1 and displays it as display information Sdp. Output to part 2.

ここで、カメラ1から出力されて来た画像情報Svの処理部6及び表示部2への分配の態様及び処理部6から出力されて来た合成用画像情報Smxの表示部2への出力態様は、処理部6からの制御情報Sc2に基づき、分配/合成部5において任意に設定できる。すなわち、より具体的には、カメラ1からの画像情報Svの表示部2への出力を全く禁止し、当該画像情報Svに代えて処理部6からの合成用画像情報Smxに対応する画像のみを含む上記表示情報Sdpを表示部2へ出力するように分配/合成部5において切り換えることも可能であるし、反対にカメラ1からの画像情報Svのみを表示部2に出力するように分配/合成部5において切り換えることも可能である。   Here, the distribution mode of the image information Sv output from the camera 1 to the processing unit 6 and the display unit 2 and the output mode of the synthesis image information Smx output from the processing unit 6 to the display unit 2 Can be arbitrarily set in the distribution / synthesis unit 5 based on the control information Sc2 from the processing unit 6. More specifically, the output of the image information Sv from the camera 1 to the display unit 2 is completely prohibited, and only the image corresponding to the image information Smx for synthesis from the processing unit 6 is substituted for the image information Sv. The distribution / combination unit 5 can also switch the display information Sdp including the display information 2 to the display unit 2. On the contrary, the distribution / combination can output only the image information Sv from the camera 1 to the display unit 2. Switching in the unit 5 is also possible.

一方、上記表示部2は、より具体的には、液晶ディスプレイ、HMD(Head Mounted Display)、光学プロジェクタ、CRT(Cathode Ray Tube)又はハーフミラースクリーン等よりなる画像表示部であり、分配/合成部5から出力されてくる画像情報Sv又は表示情報Sdpの少なくともいずれか一方に含まれている画像を、観察者が視認可能に表示する。なお、表示部2としては、上述した従来の望遠鏡や双眼鏡等における接眼部を改造し、上記した各ディスプレイを設置することで表示部2として構成することもできる。   On the other hand, the display unit 2 is more specifically an image display unit including a liquid crystal display, an HMD (Head Mounted Display), an optical projector, a CRT (Cathode Ray Tube), a half mirror screen, or the like. The image included in at least one of the image information Sv and the display information Sdp output from 5 is displayed so that the viewer can see the image. The display unit 2 may be configured as the display unit 2 by modifying the eyepiece unit in the above-described conventional telescope, binoculars, and the like, and installing each display described above.

他方、入力部4は、当該入力部4において実行された観察者による操作に対応する操作情報Sinを生成し、処理部6へ出力する。なお、当該操作として具体的には、画像処理装置Sとしての後述する動作モードの指定操作や、現在カメラ1が捉えている画像内の地物等の指定操作が挙げられる。   On the other hand, the input unit 4 generates operation information Sin corresponding to the operation performed by the observer performed in the input unit 4 and outputs the operation information Sin to the processing unit 6. Specific examples of the operation include an operation mode designation operation to be described later as the image processing apparatus S, and a designation operation for features in the image currently captured by the camera 1.

これにより、処理部6は、当該操作情報Sinの内容が実現されるように上記制御情報Sc1及びSc2を生成して制御部3及び分配/合成部5へ出力すると共に画像処理装置S全体を統括制御する。   As a result, the processing unit 6 generates the control information Sc1 and Sc2 and outputs the control information Sc1 and Sc2 to the control unit 3 and the distribution / combination unit 5 so that the contents of the operation information Sin are realized, and supervises the entire image processing apparatus S. Control.

より具体的には、処理部6は、分配/合成部5を介して出力されてきた画像情報Svと、制御部3から出力されて来た状態情報Sposと、に基づき、現在カメラ1に捉えられている景色等の内容(それに含まれている地物の形や大きさ等。以下、同様)を解析し、その解析結果及び上記操作信号Sinに基づき、画像情報Svの内容を加工して上記合成用画像情報Smxとして分配/合成部5へ出力する。   More specifically, the processing unit 6 captures the current camera 1 based on the image information Sv output via the distribution / combination unit 5 and the state information Spos output from the control unit 3. Analyzing the contents of the scenery (such as the shape and size of the features contained in the scene, and so on), and processing the contents of the image information Sv based on the analysis result and the operation signal Sin. The combined image information Smx is output to the distribution / synthesis unit 5.

これに加えて、処理部6は、制御部3を介してカメラ1の姿勢を制御すべく上記制御情報Sc1を生成して当該制御部3へ出力する。なお、表示部2における表示態様や画面角度等を処理部6からの図示しない制御情報により制御するように構成することも可能である。   In addition, the processing unit 6 generates the control information Sc1 to control the attitude of the camera 1 via the control unit 3 and outputs the control information Sc1 to the control unit 3. Note that the display mode, the screen angle, and the like on the display unit 2 can be controlled by control information (not shown) from the processing unit 6.

次に、主として本実施形態の動作を行う上記処理部6の具体的な構成及び細部動作について、図2を用いて説明する。   Next, a specific configuration and detailed operation of the processing unit 6 that mainly performs the operation of the present embodiment will be described with reference to FIG.

図2に示すように、処理部6は、視点検出手段及び抽出手段としての認識部7と、読出手段としての加工部8と、記憶手段としての記憶部9と、生成部10と、出力部11と、処理制御部12と、により構成されている。そして、分配/合成部5からの画像情報Sv及び制御部3からの状態情報Sposは認識部7に入力されており、入力部4からの操作情報Sinは処理制御部12に入力されている。更に、上記合成用画像情報Smxは出力部11から出力されており、制御情報Sc1及びSc2は処理制御部12から出力されている。   As shown in FIG. 2, the processing unit 6 includes a recognition unit 7 as a viewpoint detection unit and an extraction unit, a processing unit 8 as a reading unit, a storage unit 9 as a storage unit, a generation unit 10, and an output unit. 11 and a processing control unit 12. The image information Sv from the distribution / synthesis unit 5 and the status information Spos from the control unit 3 are input to the recognition unit 7, and the operation information Sin from the input unit 4 is input to the processing control unit 12. Further, the image information Smx for synthesis is output from the output unit 11, and the control information Sc1 and Sc2 are output from the processing control unit 12.

この構成において、認識部7は、処理制御部12からの制御情報Sc11に基づき、分配/合成部5から出力されて来た画像情報Svを加工部8へ出力すると共に当該画像情報Svとしての画像に対応する景色等の内容を解析し、更に当該内容を認識する認識処理を行い、それらの結果を含む認識情報Srgを生成して出力部11、加工部8及び生成部10へ夫々出力する。ここで、当該認識処理として具体的には、当該内容として画像情報Svに含まれている地物等(以下、当該地物等を「オブジェクト」と称する)の、相互分離処理、抽出処理、同定処理、空間座標特定処理及び保持処理等を含むものであり、入力されて来た当該画像情報Svの内容と記憶部9に蓄積されている後述の関連情報Smとを比較することで実現される。このとき、制御部3からの状態情報Sposに基づいて観察者の視点をカメラ1の視野範囲内で抽出することにより上記認識処理を高速化/高精度化する。なお、当該認識処理は、具体的にはいわゆるロジック(論理)回路を用いて行うこともできるし、又は人工知能等を用いて行ってもよい。   In this configuration, the recognition unit 7 outputs the image information Sv output from the distribution / combination unit 5 to the processing unit 8 based on the control information Sc11 from the processing control unit 12, and the image as the image information Sv. The contents such as the scenery corresponding to are analyzed, recognition processing for recognizing the contents is performed, recognition information Srg including the results is generated, and output to the output unit 11, the processing unit 8, and the generation unit 10, respectively. Here, as the recognition process, specifically, the features included in the image information Sv as the contents (hereinafter referred to as “object”) are separated from each other, extracted, and identified. Processing, spatial coordinate specifying processing, holding processing, and the like, which are realized by comparing the content of the input image information Sv and the later-described related information Sm stored in the storage unit 9. . At this time, by extracting the observer's viewpoint within the visual field range of the camera 1 based on the state information Spos from the control unit 3, the recognition process is speeded up / accurate. Note that the recognition processing can be performed specifically using a so-called logic circuit, or can be performed using artificial intelligence or the like.

一方、加工部8は、処理制御部12からの制御情報Sc10、記憶部9からの関連情報Sm並びに認識部7からの認識情報Srgに基づき、認識部7を介して受け取った画像情報Svを加工することで後述する如き様々な視覚的・聴覚的効果を付加し、加工情報Smdとして出力部11へ出力する。   On the other hand, the processing unit 8 processes the image information Sv received through the recognition unit 7 based on the control information Sc10 from the processing control unit 12, the related information Sm from the storage unit 9, and the recognition information Srg from the recognition unit 7. As a result, various visual and auditory effects as described later are added and output to the output unit 11 as processing information Smd.

更に、生成部10は、処理制御部12からの制御情報Sc13、記憶部9からの関連情報Sm並びに認識部7からの認識情報Srgに基づき、制御部3からの状態情報Sposを用いて認識される観察者の視点を含む領域内に存在するオブジェクトに対応する新たな画像を生成する生成処理を行い、その結果として得られる生成情報Soを出力部11へ出力する。ここで、当該生成処理として具体的には、例えば、当該オブジェクトの輪郭線の描画処理、当該オブジェクトに対応するテキスト情報の描画処理、当該オブジェクトを示す解説映像又は解説音声の生成処理或いは当該オブジェクトに関連する三次元画像の描画処理等がある。   Furthermore, the generation unit 10 is recognized using the state information Spos from the control unit 3 based on the control information Sc13 from the processing control unit 12, the related information Sm from the storage unit 9, and the recognition information Srg from the recognition unit 7. A generation process for generating a new image corresponding to an object existing in a region including the observer's viewpoint is performed, and generation information So obtained as a result is output to the output unit 11. Specifically, the generation processing includes, for example, drawing processing of the outline of the object, drawing processing of text information corresponding to the object, generation processing of commentary video or commentary sound indicating the object, or processing of the object. There is a related 3D image drawing process.

また、記憶部9は立体形状、動画像、静止画像、テキスト(文字)、音声又は動き等の、画像情報Svに含まれてカメラ1から出力される可能性のある全ての(全方位分の)画像と、当該画像を説明するための情報と、を関連情報Smとして蓄積しておく記憶装置であり、必要に応じて当該関連情報Smを認識部7、加工部8又は生成部10へ出力する。ここで、当該記憶部9としては、カメラ1から入力されることが予想される画像情報Svに含まれる画像(オブジェクト)そのもの及び当該画像に関連する関連情報Smを予め蓄積しておくことが一般的であるが、様々な情報が記録されたデータセンタ等とネットワーク経由で接続し、このデータセンタ等から画像処理装置Sに対応する種々の関連情報Svを収集して記憶部9内に記憶しておくように構成することもできる。   In addition, the storage unit 9 includes all (all omnidirectional images) that are included in the image information Sv and may be output from the camera 1 such as a three-dimensional shape, a moving image, a still image, text (character), voice, or motion. ) A storage device that accumulates an image and information for explaining the image as related information Sm, and outputs the related information Sm to the recognition unit 7, the processing unit 8, or the generation unit 10 as necessary. To do. Here, the storage unit 9 generally stores in advance an image (object) itself included in the image information Sv expected to be input from the camera 1 and related information Sm related to the image. As a matter of course, it is connected via a network to a data center or the like in which various information is recorded, and various related information Sv corresponding to the image processing apparatus S is collected from the data center or the like and stored in the storage unit 9. It can also be configured to keep.

更に、出力部11は、認識部7から出力されて来た認識情報Srg、加工部8から出力されて来た加工情報Smd及び生成部10から出力されて来た生成情報Soを、処理制御部12からの制御情報Sc12に基づいて相互に合成し、上記合成用画像情報Smxとして上記分配/合成部5へ出力する。   Further, the output unit 11 receives the recognition information Srg output from the recognition unit 7, the processing information Smd output from the processing unit 8, and the generation information So output from the generation unit 10. Are combined with each other based on the control information Sc12 from 12, and output to the distribution / synthesis unit 5 as the image information for synthesis Smx.

最後に、処理制御部12は、上記操作情報Sinの内容を解析し、その内容を実現すべく上記各制御情報Sc1、Sc2、Sc10、Sc11、Sc12及びSc13を夫々生成し、対応する制御部3、分配/合成部5、認識部7、加工部8、生成部10及び出力部11等へ出力する。   Finally, the process control unit 12 analyzes the contents of the operation information Sin, generates the control information Sc1, Sc2, Sc10, Sc11, Sc12, and Sc13, respectively, in order to realize the contents, and the corresponding control unit 3 , The distribution / combination unit 5, the recognition unit 7, the processing unit 8, the generation unit 10, the output unit 11, and the like.

次に、上述した構成及び動作を有する画像処理装置Sの全体動作について、具体的に図3に示す各フローチャートを用いて説明する。なお、図3(a)は当該全体動作を示すフローチャートであり、図3(b)は当該全体動作のうち認識処理の細部を示すフローチャートであり、図3(c)は当該全体動作のうち表示情報生成処理を示すフローチャートである。   Next, the overall operation of the image processing apparatus S having the above-described configuration and operation will be specifically described with reference to each flowchart shown in FIG. 3A is a flowchart showing the overall operation, FIG. 3B is a flowchart showing details of the recognition process in the overall operation, and FIG. 3C is a display of the overall operation. It is a flowchart which shows an information generation process.

先ず、画像処理装置Sとしての全体動作につき、図3(a)を用いて説明する。   First, the overall operation of the image processing apparatus S will be described with reference to FIG.

図3(a)に示すように、上記した構成を有する画像処理装置Sにおいては、その電源が投入されてカメラ1により上記オブジェクトを含む画像情報Svが送信されて来ると(ステップS1)、処理部6により、入力部4において指定された現在の動作モードの内容を確認する(ステップS2)。   As shown in FIG. 3A, in the image processing apparatus S having the above-described configuration, when the power is turned on and image information Sv including the object is transmitted from the camera 1 (step S1), the processing is performed. The content of the current operation mode designated in the input unit 4 is confirmed by the unit 6 (step S2).

ここで、当該動作モードとは、入力部4において観察者により指定された画像処理装置Sとして実行すべき動作の種類を示すものであり、実施形態の場合、具体的には、「説明モード」、「削除モード」、「超望遠モード」、「強調表示モード」、「時間変化モード」及び「天候変化モード」のいずれかである。   Here, the said operation mode shows the kind of operation | movement which should be performed as the image processing apparatus S designated by the observer in the input part 4, and in the case of embodiment, specifically, "explanation mode" , “Delete mode”, “super telephoto mode”, “highlight display mode”, “time change mode”, and “weather change mode”.

このとき、上記「説明モード」とは、文字情報によるオブジェクトの説明を当該オブジェクトが含まれて表示部2に表示されている画像内に重畳して表示するモードである。また、上記「削除モード」とは、カメラ1の視野範囲内において手前にあるオブジェクトを削除してその向こうにある他のオブジェクト(通常では当該手前にあるオブジェクトに隠れて見えないオブジェクト)を表示させるモードである。更に、上記「超望遠モード」とは、カメラ1の視野範囲内にある水平線よりも更に遠方に実在しているオブジェクト(すなわち、実際はその水平線に隠れて視認できないオブジェクト)をその水平線上に表示させるモードである。更にまた、上記「強調表示モード」とは、特に夜景を観察する場合において、通常は暗くて見えないオブジェクトを強調して表示するモードである。また、上記「時間変化モード」とは、現在カメラ1の視野範囲内にある景色等につき、入力部4により指定された時間だけ先(未来)又は前(過去)におけるその景色等を、現在の当該景色等に代えて表示部2に表示するモードである。最後に、上記「天候変化モード」とは、現在カメラ1の視野範囲内にある景色等につき、異なる天候におけるその景色等を現在の当該景色等に代えて表示部2に表示する(例えば現在雨天であれば晴天時の同じ範囲の景色等を表示し、現在晴天であれば例えば霧がかかった時の同じ範囲の景色等を表示する)モードである。   At this time, the “explanation mode” is a mode in which the description of the object based on the character information is displayed superimposed on the image that includes the object and is displayed on the display unit 2. In the “deletion mode”, an object in front is deleted in the field of view of the camera 1 and another object (an object that is normally hidden behind the object in front of the object) is displayed. Mode. Further, the “super-telephoto mode” is to display an object that exists farther than the horizontal line within the field of view of the camera 1 (that is, an object that is actually hidden behind the horizontal line and cannot be seen) on the horizontal line. Mode. Further, the “highlight display mode” is a mode in which an object that is normally dark and invisible is emphasized and displayed, particularly when a night view is observed. In addition, the “time change mode” refers to the current scenery in the field of view of the camera 1, the scenery in the future (future) or previous (past) for the time specified by the input unit 4. In this mode, the scene is displayed on the display unit 2 instead of the scenery. Lastly, the “weather change mode” refers to the scenery in the field of view of the camera 1 that is displayed in the display unit 2 in place of the current scenery etc. If it is fine weather, the same range of scenery, etc. is displayed. If the weather is currently fine, for example, the same range of scenery when foggy is displayed is displayed.

また、上記各モードを実現するため、カメラ1を介して認識し得る全方位の景色等につき、当該各景色等に含まれるオブジェクトの内容(名称や特徴等)を示す文字情報(上記説明モード実行用)、当該各景色等に含まれる各オブジェクト単独でのカメラ1の位置から見た画像に対応する削除用画像情報(上記削除モード実行用)、当該各景色等における水平線に隠れているオブジェクトであってカメラ1の視線をその視線方向に延長して初めて視認し得るオブジェクトの画像に対応する超望遠用画像情報(上記超望遠モード実行用)、当該各景色等に含まれる各オブジェクトの強調表示用画像情報(上記強調表示モード実行用)、例えば1時間毎の当該各景色等の画像(カメラ1の視野範囲内の画像)に対応する時間変化用画像情報(上記時間変化モード実行用)、及び例えば晴天時、曇天時、降雨時、霧時及び降雪時夫々における当該各景色等の画像(カメラ1の視野範囲内の画像)に対応する天候変化用画像情報(上記天候変化モード実行用)が、夫々関連情報Smとして記憶部9に蓄積・記憶されている。   In addition, in order to realize the above modes, character information indicating the contents (names, features, etc.) of objects included in the landscapes, etc. for landscapes that can be recognized through the camera 1 (execution of the description mode described above) ), Image information for deletion corresponding to an image viewed from the position of the camera 1 alone for each object included in the scenery, etc. (for execution of the deletion mode), an object hidden in a horizontal line in the scenery, etc. Super telephoto image information corresponding to an image of an object that can be viewed for the first time by extending the line of sight of the camera 1 in the direction of the line of sight (for performing the super telephoto mode), and highlighting of each object included in each scene Image information for time change (for executing the above highlight mode), for example, image information for time change corresponding to images of each scenery (images within the field of view of the camera 1) for each hour For changing the weather mode) and, for example, image information for weather change corresponding to images (images within the field of view of the camera 1) of the scenery, etc. during clear weather, cloudy weather, rain, fog and snow The weather change mode execution) is stored and stored in the storage unit 9 as related information Sm.

更に、画像処理装置Sが動作中であるときには、入力部4において指定されたオブジェクトの内容が操作情報Sinから検出される。   Further, when the image processing apparatus S is in operation, the content of the object designated by the input unit 4 is detected from the operation information Sin.

入力部4における操作等の内容の確認が行われると、次に、当該操作に対応する操作情報Sinに基づき、処理部6において画像情報Sv内のオブジェクトの内容等の認識処理を行う(ステップS3)。この認識処理の細部については、後ほど図3(b)に示すフローチャートを用いて説明する。   When the content of the operation or the like in the input unit 4 is confirmed, the processing unit 6 recognizes the content of the object in the image information Sv based on the operation information Sin corresponding to the operation (step S3). ). Details of this recognition processing will be described later with reference to a flowchart shown in FIG.

次に、当該認識された画像情報Svの内容に基づき、同じく処理部6において上記合成用画像情報Smxを生成して分配/合成部5に出力する(ステップS4)。なお、上記ステップS4としての生成処理については、後ほど図3(c)に示すフローチャートを用いて説明する。   Next, based on the content of the recognized image information Sv, the processing unit 6 similarly generates the synthesis image information Smx and outputs it to the distribution / synthesis unit 5 (step S4). The generation process as step S4 will be described later with reference to the flowchart shown in FIG.

そして、当該分配/合成部5において、出力されてきた合成用画像情報Smxと画像情報Svとの合成処理等を操作情報Sinの内容に応じて実行し、表示部2において表示するための画像を含む表示情報Sdpを生成する(ステップS5)。なお、当該合成処理には、画像情報Svをそのまま表示部2に出力する処理も含まれている。   Then, the distribution / combination unit 5 executes a combining process of the output image information Smx for synthesis and the image information Sv according to the contents of the operation information Sin, and displays an image to be displayed on the display unit 2. Display information Sdp is generated (step S5). The composition process includes a process of outputting the image information Sv as it is to the display unit 2.

その後、生成された画像を表示部2において表示し(ステップS6)、その後画像処理装置Sとしての動作を終了する旨の操作が入力部4において実行されたか否かを確認する(ステップS7)。そして、当該終了操作が行われていない時は(ステップS7;NO)上記ステップS1の動作に戻って上述した処理を引き続き行い、一方終了操作が行われたときは(ステップS7;YES)、そのまま画像処理装置Sとしての処理を終了する。なお、上記ステップS6としての処理には、当該表示されるべき画像に対応する内容の音声の出力も含まれている。   Thereafter, the generated image is displayed on the display unit 2 (step S6), and then it is confirmed whether or not an operation for ending the operation as the image processing apparatus S has been performed on the input unit 4 (step S7). When the end operation is not performed (step S7; NO), the process returns to the operation of step S1 and the above-described processing is continued. When the end operation is performed (step S7; YES), the operation is continued. The processing as the image processing apparatus S ends. It should be noted that the processing as step S6 includes outputting audio corresponding to the image to be displayed.

次に、認識部7において実行される上記認識処理(ステップS3)の細部について、図3(b)を用いて説明する。   Next, details of the recognition process (step S3) executed in the recognition unit 7 will be described with reference to FIG.

図3(b)に示すように、上記認識処理(ステップS3)においては、認識部7に画像情報Svが入力されると(ステップS10)、次に同様に入力されている状態情報Sposに基づいてカメラ1の姿勢を検出すると共に当該検出された姿勢と画像情報Svとして入力されている画像の内容の解析結果に基づいて観察者の現在の視点の位置を検出する(ステップS11)。ここで、当該ステップS11の処理として具体的には、予め記憶部9に記憶されている画像との照合・比較により現在の視点の位置を検出することができる。   As shown in FIG. 3B, in the recognition process (step S3), when the image information Sv is input to the recognition unit 7 (step S10), the next state information Spos is input similarly. Then, the posture of the camera 1 is detected, and the position of the observer's current viewpoint is detected based on the detected posture and the analysis result of the contents of the image input as the image information Sv (step S11). Here, specifically, the position of the current viewpoint can be detected by the collation / comparison with an image stored in advance in the storage unit 9 as the processing of step S11.

そして、視点の位置が検出されたら、その位置にあるオブジェクトの抽出処理を行い、現在の画像情報Svに含まれており且つ観察者が今注目しているオブジェクトが何であるか確認する(ステップS12)。   When the position of the viewpoint is detected, an object at that position is extracted, and it is confirmed what object is included in the current image information Sv and the observer is currently paying attention (step S12). ).

次に、上記ステップS12において抽出・確認したオブジェクトに関連する関連情報が記憶部9内に記憶されているか否かを検索・確認する(ステップS13、S14)。そして、当該オブジェクトに関連する関連情報が記憶部9内に存在していないときは(ステップS14;NO)そのまま後述するステップS17に移行し、一方、当該オブジェクトに関連する関連情報が記憶部9内に存在しているときは(ステップS14;YES)は、次に、記憶部9内において確認された当該オブジェクトに関連する関連情報Smを記憶部9から読み出し(ステップS15)、認識部7内の図示しないメモリ内に一時的に記憶させておく。   Next, it is searched and confirmed whether or not related information related to the object extracted and confirmed in step S12 is stored in the storage unit 9 (steps S13 and S14). And when the relevant information relevant to the said object does not exist in the memory | storage part 9 (step S14; NO), it transfers to step S17 mentioned later as it is, On the other hand, the relevant information relevant to the said object is stored in the memory | storage part 9. Is present (step S14; YES), the related information Sm related to the object confirmed in the storage unit 9 is read from the storage unit 9 (step S15). It is temporarily stored in a memory (not shown).

次に、図3(a)におけるステップS2において検出されている動作モードに基づき、必要に応じて、上記抽出・確認された(ステップS12)オブジェクトを示す三次元形状を表示部2において表示するための三次元情報を併せて記憶部9から読み出し(ステップS16)、これも上記認識部7内の図示しないメモリ内に一時的に記憶させておく。ここで、当該読み出された三次元情報は、例えば上記強調表示モード等の実行に用いられる。   Next, based on the operation mode detected in step S2 in FIG. 3A, if necessary, the display unit 2 displays a three-dimensional shape indicating the extracted and confirmed (step S12) object. The three-dimensional information is also read from the storage unit 9 (step S16), and is also temporarily stored in a memory (not shown) in the recognition unit 7. Here, the read-out three-dimensional information is used, for example, for executing the highlight mode or the like.

その後、入力されている画像情報Svに含まれている全てのオブジェクトについての認識処理が終了したか否かを確認する(ステップS17)。そして、終了していない場合は(ステップS17;NO)上記ステップS14に戻って上述した一連の処理を次のオブジェクトに対して実行し、一方、全てのオブジェクトについての認識処理が終了しているときは(ステップS17;YES)、上記認識部7内の図示しないメモリに記憶されている各情報を上記認識情報Srgとして認識部7、加工部8及び生成部10へ出力し(ステップS18)、図3(a)に示すステップS4に移行する。   Thereafter, it is confirmed whether or not the recognition process for all objects included in the input image information Sv has been completed (step S17). And when not complete | finished (step S17; NO), it returns to said step S14, and when the series of processes mentioned above are performed with respect to the following object, on the other hand, the recognition process about all the objects is complete | finished (Step S17; YES), each information stored in a memory (not shown) in the recognition unit 7 is output as the recognition information Srg to the recognition unit 7, the processing unit 8, and the generation unit 10 (step S18). The process proceeds to step S4 shown in FIG.

次に、主として認識部7、加工部8及び生成部10において実行される上記生成処理(ステップS4)の細部について、図3(c)を用いて説明する。   Next, details of the generation process (step S4) executed mainly by the recognition unit 7, the processing unit 8, and the generation unit 10 will be described with reference to FIG.

図3(c)に示すように、上記生成処理(ステップS4)においては、先ず、図3(a)ステップS2の処理において検出された観察者の操作の内容を確認する(ステップS20)。このとき、当該操作の内容は、通常は現在カメラ1で捉えられている視野範囲内のどのオブジェクトについての情報を表示部2に表示するかの指示であり、当該指示は、表示部2における具体的な画面上の座標値等で与えられるものである。   As shown in FIG. 3C, in the generation process (step S4), first, the contents of the operation of the observer detected in the process of step S2 of FIG. 3A are confirmed (step S20). At this time, the content of the operation is an instruction as to which information about which object in the visual field range currently captured by the camera 1 is to be displayed on the display unit 2. It is given by a coordinate value etc. on a typical screen.

そして、当該指示の内容に基づいて観察者がどのオブジェクトを指示しているか否か検出し(ステップS21)、その検出したオブジェクトに関連する関連情報が記憶部9内に記憶されているか否かを検索・確認する(ステップS22、S23)。そして、当該オブジェクトに関連する関連情報が記憶部9内に存在していないときは(ステップS23;NO)そのまま後述するステップS27に移行し、一方、当該オブジェクトに関連する関連情報Smが記憶部9内に存在しているときは(ステップS23;YES)は、次に、記憶部9内において確認された当該オブジェクトに関連する関連情報Sm(具体的には、当該オブジェクトに関連する動画像、風景等の静止画像、文字情報、音声情報又は三次元情報等)を記憶部9から読み出し(ステップS24)、認識部7内の図示しないメモリ内に一時的に記憶させておく。   Then, based on the content of the instruction, it is detected which object the observer is indicating (step S21), and whether the related information related to the detected object is stored in the storage unit 9 or not. Search and confirm (steps S22 and S23). And when the relevant information relevant to the said object does not exist in the memory | storage part 9 (step S23; NO), it transfers to step S27 mentioned later as it is, On the other hand, the relevant information Sm relevant to the said object is the memory | storage part 9. If it is present (step S23; YES), then the related information Sm related to the object confirmed in the storage unit 9 (specifically, the moving image and landscape related to the object) Are read out from the storage unit 9 (step S24), and are temporarily stored in a memory (not shown) in the recognition unit 7.

次に、認識部7において、上記記憶している(ステップS24)情報を描画すべき位置を、表示部2における表示画面上の座標位置として特定し(ステップS25)、当該特定された位置に上記記憶している情報に対応する画像を描画し、その描画結果を出力部11に出力して(ステップS27)、図3(a)に示すステップS5に移行する。   Next, the recognition unit 7 specifies the position where the stored information (step S24) is to be drawn as the coordinate position on the display screen in the display unit 2 (step S25), and the position is determined at the specified position. An image corresponding to the stored information is drawn, the drawing result is output to the output unit 11 (step S27), and the process proceeds to step S5 shown in FIG.

次に、上述した各処理が画像処理装置Sにおいて実行された結果の具体例を、上記各動作モード毎に例示しつつ説明する。   Next, specific examples of results obtained by executing the above-described processes in the image processing apparatus S will be described with reference to the respective operation modes.

(I)説明モードの具体例
初めに、上記説明モードについて、図4を用いて具体的に説明する。当該説明モードは、上述した如く文字情報によるオブジェクトの説明を当該オブジェクトが含まれて表示部2に表示されている画像内に重畳して表示するモードである。そして、当該説明モードの実行に当たっては、上述した文字情報が関連情報Smとして記憶部9から読み出される。
(I) Specific Example of Explanation Mode First, the explanation mode will be described in detail with reference to FIG. The explanation mode is a mode in which the explanation of the object based on the character information is superimposed and displayed in the image including the object and displayed on the display unit 2 as described above. In executing the explanation mode, the character information described above is read from the storage unit 9 as the related information Sm.

すなわち、当該説明モードにおいては、例えば表示部2に表示されている画像が図4(a)に示すような景色G1であるとき、その景色G1内において観察者がその詳細を知りたいと考えているオブジェクト(図4に例示する場合は左右端に夫々建っているビルディング)を入力部4において指定すると(図3(a)ステップS2参照)、その指定されたオブジェクトに関連する文字情報が関連情報Smとして記憶部9から読み出され(図3(b)ステップS24参照)、その読み出された文字情報に対応する文字画像が、例えば図4(b)に例示する文字画像T1及びT2の如く対応するオブジェクトに対応付けた態様で景色G1内に重畳して表示される(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。そして更に、入力部4においていずれかのオブジェクトに関する更に詳細な説明を求める旨の操作が為されると(図3(a)ステップS2参照)、その指定されたオブジェクトに関連する更に詳細な文字情報が関連情報Smとして記憶部9から読み出され(図3(b)ステップS24参照)、その読み出された詳細文字情報に対応する文字画像が、例えば図4(c)に例示する文字画像T2dの如く対応するオブジェクトに対応付けた態様で景色G1内に重畳して表示される(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。   That is, in the explanation mode, for example, when the image displayed on the display unit 2 is a scenery G1 as shown in FIG. 4A, the observer wants to know the details in the scenery G1. If an input object 4 is specified in the input unit 4 (see step S2 in FIG. 3A), the character information related to the specified object is related information. The character image corresponding to the read character information is read out as Sm from the storage unit 9 (see step S24 in FIG. 3B), for example, as character images T1 and T2 illustrated in FIG. 4B. It is displayed superimposed on the scene G1 in a manner associated with the corresponding object (see steps S25 to S27 in FIG. 3 (c) and steps S5 and S6 in FIG. 3 (a)). . Further, when an operation for requesting a more detailed explanation about any object is performed in the input unit 4 (see step S2 in FIG. 3A), more detailed character information related to the designated object. Is read from the storage unit 9 as the related information Sm (see step S24 in FIG. 3B), and the character image corresponding to the read detailed character information is, for example, the character image T2d illustrated in FIG. As shown in FIG. 3C, the image is superimposed and displayed in the scene G1 in a manner associated with the corresponding object (see steps S25 to S27 in FIG. 3C and steps S5 and S6 in FIG. 3A).

(II)削除モードの具体例
次に、上記削除モードについて、図5を用いて具体的に説明する。当該削除モードは、上述した如くカメラ1の視野範囲内において手前にあるオブジェクトを削除してその向こうにある他のオブジェクト(通常では当該手前にあるオブジェクトに隠れてその一部又は全部が見えないオブジェクト)を表示させるモードである。そして、当該削除モードの実行に当たっては、上述した、カメラ1を介して認識し得る全方位の景色等に含まれる各オブジェクト単独でのカメラ1の位置から見た画像に対応する削除用画像情報が関連情報Smとして記憶部9から読み出される。
(II) Specific Example of Delete Mode Next, the delete mode will be specifically described with reference to FIG. In the deletion mode, as described above, the object in the foreground within the field of view of the camera 1 is deleted and another object beyond the object (usually an object that is hidden behind the object in front and cannot see part or all of it) ) Is displayed. In executing the deletion mode, the deletion image information corresponding to the image viewed from the position of the camera 1 alone for each object included in the omnidirectional scenery that can be recognized through the camera 1 is provided. The related information Sm is read from the storage unit 9.

すなわち、当該削除モードにおいては、例えば表示部2に表示されている画像が図5(a)に示すような景色G2であるとき、その景色G2内において観察者がその背後にあるオブジェクトOBbの全景を観察したいと考えているオブジェクトOBa(図5に例示する場合は最も高いビルディングの前にある一連の建物)を、図5(a)に例示する如きカーソルWで囲むことにより入力部4において指定すると(図3(a)ステップS2参照)、その指定されたオブジェクトOBaを景色G2に相当する画像内から削除し(図3(b)ステップS25及びS26参照)、当該オブジェクトOBaが削除された部分にオブジェクトOBbの全景に相当する上記削除用画像情報が、例えば図5(b)に例示するオブジェクトOBbの如く景色G2内に表示される(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。   In other words, in the deletion mode, for example, when the image displayed on the display unit 2 is a landscape G2 as shown in FIG. 5A, the entire view of the object OBb behind it in the landscape G2 is displayed. Is specified in the input unit 4 by surrounding an object OBa (a series of buildings in front of the highest building in the case of FIG. 5) with a cursor W as shown in FIG. 5A. Then (see step S2 in FIG. 3A), the designated object OBa is deleted from the image corresponding to the scenery G2 (see steps S25 and S26 in FIG. 3B), and the portion where the object OBa is deleted. In addition, the image information for deletion corresponding to the entire view of the object OBb is displayed in the scenery G2 like the object OBb illustrated in FIG. 5B, for example. (See steps S25 to S27 in FIG. 3 (c) and steps S5 and S6 in FIG. 3 (a)).

(III)超望遠モードの具体例
次に、上記超望遠モードについて、図6を用いて具体的に説明する。当該超望遠モードは、上述した如くカメラ1の視野範囲内にある水平線(当該視野範囲内に海が存在しない場合は、例えば当該視野範囲内にある山の稜線等を言う)よりも更に遠方に実在しているオブジェクトをその水平線上に表示させるモードである。そして、当該超望遠モードの実行に当たっては、上述したカメラ1を介して認識し得る全方位の景色等における水平線に隠れているオブジェクトのカメラ1の位置から見た画像に対応する超望遠用画像情報が関連情報Smとして記憶部9から読み出される。
(III) Specific Example of Super-Telephoto Mode Next, the super-telephoto mode will be described in detail with reference to FIG. The super-telephoto mode is farther than the horizontal line in the field of view of the camera 1 as described above (if there is no sea in the field of view, for example, a mountain ridge line in the field of view). In this mode, a real object is displayed on the horizontal line. In executing the super-telephoto mode, the super-telephoto image information corresponding to the image viewed from the position of the camera 1 of the object hidden behind the horizon in the omnidirectional scenery that can be recognized through the camera 1 described above. Is read from the storage unit 9 as the related information Sm.

すなわち、当該超望遠モードにおいては、例えば表示部2に表示されている画像が図6(a)に示すような景色G3であるとき、その景色G3における水平線Hよりも更に遠方にあるオブジェクト(例えばアメリカ合衆国の西海岸沿いに実在する建物に相当するオブジェクト)の表示が入力部4において指定されると(図3(a)ステップS2参照)、その指定された水平線Hよりも遠方にあるはずのオブジェクトに相当する上記超望遠用画像情報が関連情報Smとして記憶部9から読み出され、その読み出された超望遠用画像情報が、例えば図5(b)に例示するオブジェクトOBcの如く景色G3内に表示される(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。   That is, in the super-telephoto mode, for example, when the image displayed on the display unit 2 is a landscape G3 as shown in FIG. 6A, an object further distant from the horizontal line H in the landscape G3 (for example, When display of an object corresponding to a building existing along the west coast of the United States is designated in the input unit 4 (see step S2 in FIG. 3A), an object that should be far from the designated horizontal line H is displayed. The corresponding super telephoto image information is read out from the storage unit 9 as the related information Sm, and the read super telephoto image information is in the scenery G3, for example, like an object OBc illustrated in FIG. 5B. (See steps S25 to S27 in FIG. 3 (c) and steps S5 and S6 in FIG. 3 (a)).

(IV)強調表示モードの具体例
次に、上記強調表示モードについて、図7を用いて具体的に説明する。当該強調表示モードは、上述した如く特に夜景を観察する場合において、通常は暗くて見えないオブジェクトを強調して表示するモードである。そして、当該強調表示モードの実行に当たっては、上述したカメラ1を介して認識し得る全方位の景色等に含まれる各オブジェクトの強調表示用画像情報が関連情報Smとして記憶部9から読み出される。
(IV) Specific Example of Highlight Display Mode Next, the highlight display mode will be described in detail with reference to FIG. The highlight mode is a mode for highlighting and displaying an object that is usually dark and invisible, especially when a night view is observed as described above. In executing the highlight mode, the highlight display image information of each object included in the omnidirectional landscape that can be recognized through the camera 1 is read from the storage unit 9 as the related information Sm.

すなわち、当該強調表示モードにおいては、例えば表示部2に表示されている画像が図7(a)に示すような夜景に相当する景色G4であるとき、その景色G4における最も右にある建物の屋上にある(景色G4上は暗くて視認できない)鉄塔を強調表示する旨が入力部4において指定されると(図3(a)ステップS2参照)、その指定された鉄塔を強調表示するための上記強調表示用画像情報が関連情報Smとして記憶部9から読み出され、その読み出された強調表示用画像情報に含まれるオブジェクトが、例えば図7(b)に例示する当該鉄塔が本来あるべき位置に相当する景色G4内の位置に強調画像PPとして表示される(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。   That is, in the highlight mode, for example, when the image displayed on the display unit 2 is a scenery G4 corresponding to a night view as shown in FIG. 7A, the roof of the rightmost building in the scenery G4. Is specified in the input unit 4 (see step S2 in FIG. 3 (a)), the above-mentioned for highlighting the designated tower is displayed. The highlighted image information is read out from the storage unit 9 as the related information Sm, and the object included in the read highlighted image information is, for example, the position where the steel tower illustrated in FIG. Is displayed as an emphasized image PP at a position in the scenery G4 corresponding to (see steps S25 to S27 in FIG. 3C and steps S5 and S6 in FIG. 3A).

(V)時間変化モードの具体例
次に、上記時間変化モードについて、図8及び図9を用いて具体的に説明する。当該時間変化モードは、上述した如くカメラ1の視野範囲内にある景色等につき、指定された時間だけ先(未来)又は前(過去)におけるその景色等を、現在の当該景色等に代えて表示部2に表示するモードである。そして、当該時間変化モードの実行に当たっては、上述したカメラ1を介して認識し得る全方位の景色等について、例えば1時間毎の当該各景色等の画像(カメラ1の視野範囲内の画像)に対応する時間変化用画像情報が関連情報Smとして記憶部9から読み出される。
(V) Specific Example of Time Change Mode Next, the time change mode will be described in detail with reference to FIGS. In the time change mode, as described above, the scenery in the field of view of the camera 1 is displayed in place of the current scenery etc. instead of the scenery in the future (future) or previous (past) for the specified time. This is a mode displayed on the part 2. In executing the time change mode, for example, an omnidirectional landscape that can be recognized through the camera 1 described above, for example, an image of each landscape (an image within the visual field range of the camera 1) every hour. Corresponding time change image information is read from the storage unit 9 as the related information Sm.

すなわち、当該時間変化モードにおいては、例えば表示部2に表示されている画像が図8(a)に示すような景色G5であるとき、その景色G5と同じアングルでみた例えば十年前の景色の表示が入力部4において指定されると(図3(a)ステップS2参照)、その指定された景色に対応する上記時間変化用画像情報を関連情報Smとして記憶部9から読み出し、当該読み出した時間変化用画像情報に対応する景色G5Bを図8(b)に例示するように表示部2に表示する(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。   That is, in the time change mode, for example, when the image displayed on the display unit 2 is a scenery G5 as shown in FIG. 8A, for example, a scene of a scene 10 years ago viewed from the same angle as the scenery G5. When display is designated in the input unit 4 (see step S2 in FIG. 3A), the time-changing image information corresponding to the designated scenery is read out from the storage unit 9 as related information Sm, and the read time The scenery G5B corresponding to the image information for change is displayed on the display unit 2 as illustrated in FIG. 8B (see steps S25 to S27 in FIG. 3C and steps S5 and S6 in FIG. 3A).

また、これとは逆に図8(a)に示す景色G5と同じアングルでみた例えば十年先の景色の表示が入力部4において指定されると(図3(a)ステップS2参照)、その指定された景色に対応する上記時間変化用画像情報を関連情報Smとして記憶部9から読み出し、当該読み出した時間変化用画像情報に対応する景色G5Fを図8(c)に例示するように表示部2に表示する(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。   On the other hand, when display of a landscape 10 years ahead, for example, viewed from the same angle as the landscape G5 shown in FIG. 8A is specified in the input unit 4 (see step S2 in FIG. 3A), The time change image information corresponding to the designated scenery is read out from the storage unit 9 as the related information Sm, and the view G5F corresponding to the read time change image information is illustrated in FIG. 8C. 2 (see steps S25 to S27 in FIG. 3C and steps S5 and S6 in FIG. 3A).

なお、この場合に、現在の景色G5(図8(a)参照)内に存在しないオブジェクトについては、図8(c)に例示するようにその説明文を含む文字画像T3を景色G5F内に重畳して表示させると好適である。更に、図9に示すように、図8(c)に例示する時期よりも更に未来の状態を示す景色G5FF(言うまでも無く想像図である)に対応する時間変化用画像情報を関連情報Smとして記憶部9から読み出して表示部2に表示するように構成することもできる。   In this case, for an object that does not exist in the current scenery G5 (see FIG. 8A), a character image T3 including its explanatory text is superimposed in the scenery G5F as illustrated in FIG. 8C. It is preferable to display them. Further, as shown in FIG. 9, the time change image information corresponding to the scenery G5FF (which is of course an imaginary view) showing a future state further than the time illustrated in FIG. It is also possible to read out from the storage unit 9 and display it on the display unit 2.

(VI)天候変化モードの具体例
最後に、上記天候変化モードについて、図10を用いて具体的に説明する。当該天候変化モードは、上述した如く現在カメラ1の視野範囲内にある景色等につき、異なる天候におけるその景色等を現在の当該景色等に代えて表示部2に表示するモードである。そして、当該天候変化モードの実行に当たっては、上述したカメラ1を介して認識し得る全方位の景色等につき、種々の天候時における当該各景色等の画像に対応する天候変化用画像情報が関連情報Smとして記憶部9から読み出される。
(VI) Specific Example of Weather Change Mode Finally, the weather change mode will be specifically described with reference to FIG. The weather change mode is a mode in which, for example, the scenery in the field of view of the camera 1 as described above is displayed on the display unit 2 in place of the current scenery. When the weather change mode is executed, the weather change image information corresponding to the images of the scenery in various weather conditions is associated with the related information for the scenery in all directions that can be recognized through the camera 1 described above. It is read from the storage unit 9 as Sm.

すなわち、当該天候変化モードにおいては、例えば表示部2に表示されている画像が図10上に示すような景色G6であるとき、その景色G6と同じアングルから観た同じ視野範囲の景色であって天候が現在とは異なる他の天候時の景色を表示する旨が入力部4において指定されると(図3(a)ステップS2参照)、その指定された天候時の景色G6の視野範囲を表示するための上記天候変化用画像情報が関連情報Smとして記憶部9から読み出され、その読み出された天候変化用画像情報が、例えば図10下に例示する霧がかかった時の同じ視野範囲の景色G6Wの如く表示部2に表示される(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。   That is, in the weather change mode, for example, when the image displayed on the display unit 2 is a scenery G6 as shown in FIG. 10, the scenery is in the same field of view as viewed from the same angle as the scenery G6. When it is designated in the input unit 4 that the scenery at the time of other weather different from the current one is displayed (see step S2 in FIG. 3 (a)), the viewing range of the scenery G6 at the designated weather is displayed. The weather change image information for reading is read out from the storage unit 9 as the related information Sm, and the read weather change image information is the same field of view when the fog illustrated in the lower part of FIG. Is displayed on the display unit 2 like the scenery G6W (see steps S25 to S27 in FIG. 3C and steps S5 and S6 in FIG. 3A).

なお、図10に示す場合においては、例えば実際の天候が図10下に示す如き霧がかかった状態の天候であるときに、対応する晴天時の景色G6に対応する画像を表示部2に表示することも、もちろん可能である。   In the case shown in FIG. 10, for example, when the actual weather is foggy weather as shown in the lower part of FIG. 10, an image corresponding to the corresponding sunny scenery G6 is displayed on the display unit 2. Of course, it is possible.

以上夫々説明したように、実施形態に係る画像処理装置Sの動作によれば、カメラ1の視野範囲内の画像に対応する合成用画像情報Smxを関連情報Smに基づいて生成し、当該合成用画像情報Smxのみを含む表示情報Sdp、又は当該合成用画像情報Smxと当該視野範囲内の画像に対応する画像情報Svとを重畳させた表示情報Sdp、のいずれかを観察者に対して出力するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。   As described above, according to the operation of the image processing apparatus S according to the embodiment, the composition image information Smx corresponding to the image within the visual field range of the camera 1 is generated based on the related information Sm, and the composition information Either display information Sdp including only image information Smx or display information Sdp in which image information Smx for synthesis and image information Sv corresponding to an image in the visual field range are superimposed is output to an observer. Therefore, not only a monotonous image within the visual field range but also various information corresponding to the image can be provided to the observer.

従って、上記観察者に対して付加価値に富んだ画像を提供することができる。   Therefore, an image rich in added value can be provided to the observer.

また、カメラ1の姿勢から観察者の視点を検出し、その視点上にある物に対応する関連情報Smから合成用画像情報Smxを生成して当該観察者に出力するので、当該観察者の現在の視点にある物(すなわち、観察者が興味を抱いている物)に関する情報をタイミングよく当該観察者に出力することができる。   Further, since the viewpoint of the observer is detected from the posture of the camera 1, and the image information Smx for synthesis is generated from the related information Sm corresponding to the object on the viewpoint and is output to the observer, the current state of the observer It is possible to output information related to an object at the viewpoint (that is, an object in which the observer is interested) to the observer with good timing.

更に、視野範囲内にある物に対応する文字情報を関連情報Smとして記憶し、これを対応する物の位置に重畳して合成用画像情報Smxとするので、現在見ている物の説明を、観察者が容易に取得することができる。   Furthermore, the character information corresponding to the object in the visual field range is stored as the related information Sm, and this is superimposed on the position of the corresponding object as the composite image information Smx. An observer can easily obtain it.

更にまた、通常の視野範囲内では視認できない物に対応する削除用画像情報を関連情報Smとして記憶し、当該物を隠蔽している他の物に対応する画像を当該削除用画像に置換して合成用画像情報Smxを生成するので、通常では視認できない物の画像を観察者に提供することができる。   Furthermore, the deletion image information corresponding to the object that cannot be visually recognized within the normal visual field range is stored as the related information Sm, and the image corresponding to the other object concealing the object is replaced with the deletion image. Since the compositing image information Smx is generated, an image of an object that cannot be visually recognized can be provided to the observer.

また、現在時刻と異なる時刻における視野範囲内の画像が関連情報Smとして記憶されており、これを用いて合成用画像情報Smxを生成するので、現在視認している視野範囲内の現在又は過去の状態を容易に観察者に提供することができる。   In addition, the image in the visual field range at a time different from the current time is stored as the related information Sm, and the image information for synthesis Smx is generated using the related information Sm. The state can be easily provided to the observer.

更に、水平線又は山の稜線等より更に遠方にあることで物理的には見えない物に対応する超望遠用画像を関連情報Smとして記憶しているので、更に興味深い情報を観察者に提供することができる。   Furthermore, since the super-telephoto image corresponding to an object that cannot be physically seen by being further away from the horizontal line or the ridgeline of the mountain is stored as the related information Sm, more interesting information is provided to the observer. Can do.

また、視野範囲内に存在するいずれかの物を他の物よりも強調して表示するための強調表示用画像を用いて合成用画像情報Smxを生成するので、例えば曇天時、雨天時或いは夜間でも、観察者が観たい物を他の物と区別して鮮明に加工し、当該観察者に提示することができる。   In addition, since the composite image information Smx is generated using the highlight display image for displaying any object existing in the field of view with emphasis over the other objects, for example, it is cloudy, rainy, or nighttime. However, the object that the observer wants to see can be clearly distinguished from other objects and presented to the observer.

更に、現在の視野範囲内にあるオブジェクトに関連する音を観察者に提供することができるので、観察者をしてより興味深く観察を行わせることができる。   In addition, sounds associated with objects within the current field of view can be provided to the observer, allowing the observer to make more interesting observations.

なお、図3に夫々示すフローチャートに対応する各プログラムを、フレキシブルディスク又は固体半導体メモリ等の書き換え可能なリムーバブルメモリデバイスやハードディスク等の情報記録媒体に記録しておき、又はインターネット等を介して取得して記録しておき、これらを汎用のコンピュータで読み出して実行することにより、当該コンピュータを実施形態に係る処理部6として活用することも可能である。   Each program corresponding to the flowchart shown in FIG. 3 is recorded in an information recording medium such as a rewritable removable memory device such as a flexible disk or a solid-state semiconductor memory, or a hard disk, or is acquired via the Internet or the like. It is also possible to utilize the computer as the processing unit 6 according to the embodiment by reading out and executing these by a general-purpose computer.

以上説明したように、本発明は遠方の景色等を観察する観察装置の分野に利用することが可能であり、特に景勝地の景色等を観察する観察装置の分野に適用すれば特に顕著な効果が得られる。   As described above, the present invention can be used in the field of observation devices for observing distant scenery and the like, and particularly remarkable effects when applied to the field of observation devices for observing scenery in scenic locations. Is obtained.

実施形態の画像処理装置の概要構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image processing apparatus according to an embodiment. 実施形態の画像処理装置における処理部の細部構成を示すブロック図である。It is a block diagram which shows the detailed structure of the process part in the image processing apparatus of embodiment. 実施形態の画像処理装置において実行される処理を示すフローチャートであり、(a)は当該処理の全体を示すフローチャートであり、(b)は当該処理のうち認識処理の細部を示すフローチャートであり、(c)は当該処理における表示情報生成処理の細部を示すフローチャートである。It is a flowchart which shows the process performed in the image processing apparatus of embodiment, (a) is a flowchart which shows the whole of the said process, (b) is a flowchart which shows the detail of a recognition process among the said processes, ( c) is a flowchart showing details of display information generation processing in the processing. 実施形態に係る説明モードの具体例を示す図であり、(a)は原景色を例示する図であり、(b)は説明モードの具体例(i)を示す図であり、(c)は説明モードの具体例(ii)を示す図である。It is a figure which shows the specific example of description mode which concerns on embodiment, (a) is a figure which illustrates original scenery, (b) is a figure which shows the specific example (i) of description mode, (c) is It is a figure which shows the specific example (ii) of description mode. 実施形態に係る削除モードの具体例を示す図であり、(a)は原景色を例示する図であり、(b)は削除モードの具体例を示す図である。It is a figure which shows the specific example of the deletion mode which concerns on embodiment, (a) is a figure which illustrates an original scenery, (b) is a figure which shows the specific example of deletion mode. 実施形態に係る超望遠モードの具体例を示す図であり、(a)は原景色を例示する図であり、(b)は超望遠モードの具体例を示す図である。It is a figure which shows the specific example of the super telephoto mode which concerns on embodiment, (a) is a figure which illustrates an original scenery, (b) is a figure which shows the specific example of a super telephoto mode. 実施形態に係る強調表示モードの具体例を示す図であり、(a)は原景色を例示する図であり、(b)は強調表示モードの具体例を示す図である。It is a figure which shows the specific example of the highlight display mode which concerns on embodiment, (a) is a figure which illustrates an original scenery, (b) is a figure which shows the specific example of highlight display mode. 実施形態に係る時間変化モードの具体例を示す図であり、(a)は原景色を例示する図であり、(b)は時間変化モードの具体例(i)を示す図であり、(c)は時間変化モードの具体例(ii)を示す図である。It is a figure which shows the specific example of the time change mode which concerns on embodiment, (a) is a figure which illustrates an original scenery, (b) is a figure which shows the specific example (i) of time change mode, (c ) Is a diagram showing a specific example (ii) of the time change mode. 実施形態に係る時間変化モードの具体例(iii)を示す図である。It is a figure which shows the specific example (iii) of the time change mode which concerns on embodiment. 実施形態に係る天候変化モードの具体例を示す図である。It is a figure which shows the specific example of the weather change mode which concerns on embodiment.

符号の説明Explanation of symbols

S 画像処理装置
1 カメラ
2 表示部
3 制御部
4 入力部
5 分配/合成部
6 処理部
7 認識部
8 加工部
9 記憶部
10 生成部
11 出力部
12 処理制御部
G1、G2、G3、G4、G5、G5B、G5F、G5FF、G6、G6W 景色
T1、T2、T2d、T3 文字画像
OBa、OBb、OBc オブジェクト
W カーソル
H 水平線
PP 強調画像
Sv 画像情報
Spos 状態情報
Sc1、Sc2、Sc10、Sc11、Sc12、Sc13 制御情報
Smx 合成用画像情報
Sdp 表示情報
Sin 操作情報
Srg 認識情報
Sm 関連情報
Smd 加工情報
So 生成情報
DESCRIPTION OF SYMBOLS S Image processing apparatus 1 Camera 2 Display part 3 Control part 4 Input part 5 Distribution / combination part 6 Processing part 7 Recognition part 8 Processing part 9 Storage part 10 Generation part 11 Output part 12 Processing control part G1, G2, G3, G4, G5, G5B, G5F, G5FF, G6, G6W Scenery T1, T2, T2d, T3 Character image OBa, OBb, OBc Object W Cursor H Horizontal line PP Enhanced image Sv Image information Spos Status information Sc1, Sc2, Sc10, Sc11, Sc12, Sc13 Control information Smx Composition image information Sdp Display information Sin Operation information Srg Recognition information Sm Related information Smd Processing information So Generation information

Claims (11)

景色を観察するための観察装置を操作する観察者の、当該観察装置における視野範囲に相当する視野画像に対応する画像情報を光学的に取得する取得手段と、
前記視野範囲内に存在する物に関連する関連情報を記憶する記憶手段と、
前記取得された画像情報及び前記記憶されている関連情報に基づいて、前記物に対応し且つ元の前記画像情報とは異なる対応情報を生成する生成手段と、
前記生成された対応情報のみ、又は当該生成された対応情報を前記取得された画像情報に重畳して得られる重畳情報のいずれか一方を、前記観察者に対して出力する出力手段と、
を備えることを特徴とする画像処理装置。
An acquisition means for optically acquiring image information corresponding to a visual field image corresponding to a visual field range of the observer operating the observation device for observing the scenery;
Storage means for storing relevant information related to objects present within the field of view;
Generation means for generating correspondence information corresponding to the object and different from the original image information based on the acquired image information and the stored related information;
Output means for outputting only one of the generated correspondence information or superimposition information obtained by superimposing the generated correspondence information on the acquired image information, to the observer;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記生成手段は、
前記観察装置の姿勢を検出する姿勢検出手段と、
前記検出された姿勢に基づいて、前記視野範囲内における前記観察者の視点の位置を検出する視点検出手段と、
前記検出された視点の位置に基づいて、前記視野範囲内において注目されている前記物を抽出する抽出手段と、
前記抽出された物に対応する前記関連情報を前記記憶手段から読み出す読出手段と、
を備え、
前記読み出された関連情報及び前記取得された画像情報に基づいて、前記対応情報を生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The generating means includes
Posture detecting means for detecting the posture of the observation device;
Viewpoint detection means for detecting a position of the viewpoint of the observer within the visual field range based on the detected posture;
Extracting means for extracting the object of interest in the visual field range based on the position of the detected viewpoint;
Reading means for reading out the related information corresponding to the extracted object from the storage means;
With
An image processing apparatus that generates the correspondence information based on the read related information and the acquired image information.
請求項1又は2に記載の画像処理装置において、
前記記憶手段は、前記視野範囲内にある前記物に対応する文字情報を前記関連情報として記憶しており、
前記生成手段は、当該文字情報が対応する前記物が存在する前記画像情報内の位置に当該文字情報を重畳して前記対応情報を生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The storage means stores character information corresponding to the object within the visual field range as the related information,
The image processing apparatus, wherein the generation unit generates the correspondence information by superimposing the character information on a position in the image information where the object corresponding to the character information exists.
請求項1から3のいずれか一項に記載の画像処理装置において、
前記記憶手段は、前記視野範囲内においては他の前記物に隠蔽されて見えない前記物の画像に対応する被隠蔽物画像情報を前記関連情報として記憶しており、
前記生成手段は、前記被隠蔽物画像に対応する前記物を前記視野範囲内において隠蔽している前記他の物に対応する隠蔽物画像を、当該被隠蔽物画像に置換して前記対応情報を生成することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The storage means stores concealed object image information corresponding to an image of the object that is concealed by another object within the visual field range as the related information,
The generating means replaces the concealed object image corresponding to the other object concealing the object corresponding to the concealed object image within the visual field range with the concealed object image, and the correspondence information is obtained. An image processing apparatus that generates the image processing apparatus.
請求項1から4のいずれか一項に記載の画像処理装置において、
前記記憶手段は、現在時刻と異なる時刻における前記視野画像に対応する他時刻画像情報を前記関連情報として記憶しており、
前記生成手段は、現在時刻における前記画像情報に代えて同一の前記視野範囲に相当する前記他時刻画像を前記対応情報として生成することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
The storage means stores other time image information corresponding to the visual field image at a time different from the current time as the related information,
The image processing apparatus, wherein the generating unit generates the other time image corresponding to the same visual field range as the correspondence information instead of the image information at a current time.
請求項1から5のいずれか一項に記載の画像処理装置において、
前記記憶手段は、前記視野範囲に対応し且つ前記観察者から観て水平線より遠方にある物に対応する遠方物画像を前記関連情報として記憶しており、
前記出力手段は、現在の前記画像情報に対して当該画像情報に対応する前記遠方物画像を重畳して出力することを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 5,
The storage means stores, as the related information, a far object image corresponding to the visual field range and corresponding to an object far from the horizontal line as viewed from the observer.
The image processing apparatus, wherein the output means superimposes and outputs the far object image corresponding to the image information on the current image information.
請求項1から6のいずれか一項に記載の画像処理装置において、
前記生成手段は、前記視野範囲内に存在するいずれかの前記物を他の前記物よりも強調して表示するための前記対応情報を生成することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The image processing apparatus, wherein the generation unit generates the correspondence information for displaying any of the objects existing in the visual field range with emphasis over the other objects.
請求項1から7のいずれか一項に記載の画像処理装置において、
前記記憶手段は、前記視野範囲内の前記物に対応する音を出力するための音情報を前記関連情報として記憶しており、
前記出力手段は、現在出力されている前記いずれか一方に対応する前記音を、当該音に対応する前記音情報を用いて出力する音出力手段を備えることを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 7,
The storage means stores sound information for outputting a sound corresponding to the object in the visual field range as the related information,
The image processing apparatus, wherein the output unit includes a sound output unit that outputs the sound corresponding to any one of the currently output using the sound information corresponding to the sound.
景色を観察するための観察装置を操作する観察者の、当該観察装置における視野範囲に相当する視野画像に対応する画像情報を光学的に取得する取得工程と、
前記視野範囲内に存在する物に関連する関連情報と、前記取得された画像情報と、に基づき、前記物に対応し且つ元の前記画像情報とは異なる対応情報を生成する生成工程と、
前記生成された対応情報のみ、又は当該生成された対応情報を前記取得された画像情報に重畳して得られる重畳情報のいずれか一方を、前記観察者に対して出力する出力工程と、
を含むことを特徴とする画像処理方法。
An acquisition step of optically acquiring image information corresponding to a visual field image corresponding to the visual field range of the observer operating the observation device for observing the scenery;
A generating step of generating correspondence information corresponding to the object and different from the original image information based on the related information related to the object existing in the visual field range and the acquired image information;
An output step of outputting only one of the generated correspondence information or superimposition information obtained by superimposing the generated correspondence information on the acquired image information, to the observer;
An image processing method comprising:
景色を観察するための観察装置を含む画像処理装置に含まれるコンピュータを、
前記観察装置を操作する観察者の、当該観察装置における視野範囲に相当する視野画像に対応する画像情報を光学的に取得する取得手段、
前記視野範囲内に存在する物に関連する関連情報を記憶する記憶手段、
前記取得された画像情報及び前記記憶されている関連情報に基づいて、前記物に対応し且つ元の前記画像情報とは異なる対応情報を生成する生成手段、及び、
前記生成された対応情報のみ、又は当該生成された対応情報を前記取得された画像情報に重畳して得られる重畳情報のいずれか一方を、前記観察者に対して出力する出力手段、
として機能させることを特徴とする画像処理用プログラム。
A computer included in an image processing apparatus including an observation apparatus for observing a landscape;
An acquisition means for optically acquiring image information corresponding to a visual field image corresponding to a visual field range in the observation device of an observer who operates the observation device;
Storage means for storing relevant information relating to objects present within the field of view;
Generating means for generating correspondence information corresponding to the object and different from the original image information based on the acquired image information and the stored related information; and
Output means for outputting only one of the generated correspondence information or superimposition information obtained by superimposing the generated correspondence information on the acquired image information, to the observer;
An image processing program that is made to function as:
請求項10に記載の画像処理用プログラムが前記コンピュータにより読み出し可能に記録されていることを特徴とする情報記録媒体。   11. An information recording medium in which the image processing program according to claim 10 is recorded so as to be readable by the computer.
JP2005235281A 2005-08-15 2005-08-15 Image processor, image processing method, program for image processing, and information recording medium Pending JP2007052484A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005235281A JP2007052484A (en) 2005-08-15 2005-08-15 Image processor, image processing method, program for image processing, and information recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005235281A JP2007052484A (en) 2005-08-15 2005-08-15 Image processor, image processing method, program for image processing, and information recording medium

Publications (1)

Publication Number Publication Date
JP2007052484A true JP2007052484A (en) 2007-03-01

Family

ID=37916921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005235281A Pending JP2007052484A (en) 2005-08-15 2005-08-15 Image processor, image processing method, program for image processing, and information recording medium

Country Status (1)

Country Link
JP (1) JP2007052484A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008288922A (en) * 2007-05-18 2008-11-27 Olympus Imaging Corp Camera
JP2009212714A (en) * 2008-03-03 2009-09-17 Olympus Imaging Corp Imaging apparatus, image reproducing unit, photographing program, image reproduction program, method of controlling photographing, and method of reproducing image
JP2011229679A (en) * 2010-04-27 2011-11-17 Senyo Kogyo Kk Ferris wheel
JP2012147495A (en) * 2012-04-23 2012-08-02 Olympus Imaging Corp Imaging apparatus, image reproducing apparatus, photographing program, image reproduction program, photographing controlling method, and image reproducing method
JP2020514900A (en) * 2017-03-06 2020-05-21 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー Mixed reality viewer system and method
JP2023082098A (en) * 2018-03-26 2023-06-13 ソニーグループ株式会社 Information processing device and information processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003264740A (en) * 2002-03-08 2003-09-19 Cad Center:Kk Observation scope
JP2004227332A (en) * 2003-01-23 2004-08-12 Hitachi Ltd Information display method
JP2005020559A (en) * 2003-06-27 2005-01-20 Univ Waseda Three-dimensional video presentation apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003264740A (en) * 2002-03-08 2003-09-19 Cad Center:Kk Observation scope
JP2004227332A (en) * 2003-01-23 2004-08-12 Hitachi Ltd Information display method
JP2005020559A (en) * 2003-06-27 2005-01-20 Univ Waseda Three-dimensional video presentation apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008288922A (en) * 2007-05-18 2008-11-27 Olympus Imaging Corp Camera
JP2009212714A (en) * 2008-03-03 2009-09-17 Olympus Imaging Corp Imaging apparatus, image reproducing unit, photographing program, image reproduction program, method of controlling photographing, and method of reproducing image
JP2011229679A (en) * 2010-04-27 2011-11-17 Senyo Kogyo Kk Ferris wheel
JP2012147495A (en) * 2012-04-23 2012-08-02 Olympus Imaging Corp Imaging apparatus, image reproducing apparatus, photographing program, image reproduction program, photographing controlling method, and image reproducing method
JP2020514900A (en) * 2017-03-06 2020-05-21 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー Mixed reality viewer system and method
JP7257960B2 (en) 2017-03-06 2023-04-14 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー Mixed reality viewer system and method
JP2023082098A (en) * 2018-03-26 2023-06-13 ソニーグループ株式会社 Information processing device and information processing method
JP7438486B2 (en) 2018-03-26 2024-02-27 サターン ライセンシング エルエルシー Information processing device, information processing method and program

Similar Documents

Publication Publication Date Title
US9256284B2 (en) Information processing apparatus and recording medium
US9858643B2 (en) Image generating device, image generating method, and program
JP4072330B2 (en) Display device and information processing method
US8564710B2 (en) Photographing apparatus and photographing method for displaying information related to a subject
JP5406813B2 (en) Panorama image display device and panorama image display method
US8994785B2 (en) Method for generating video data and image photographing device thereof
US20150373414A1 (en) Image processing apparatus, image processing method, and program
JP2001008232A (en) Omnidirectional video output method and apparatus
JP5578011B2 (en) Method and apparatus for superimposing a wide-angle image
JP2003264740A (en) Observation scope
TW200829957A (en) Display apparatus and display method
CN106296589B (en) Panoramic image processing method and device
JP6332037B2 (en) Image processing apparatus and method, and program
JP6126271B1 (en) Method, program, and recording medium for providing virtual space
US11232636B2 (en) Methods, devices, and systems for producing augmented reality
JP2007052484A (en) Image processor, image processing method, program for image processing, and information recording medium
KR20190080779A (en) Electronic apparatus and method for controlling the same
KR102435185B1 (en) How to create 3D images based on 360° VR shooting and provide 360° VR contents service
JP6390992B1 (en) Street viewer system
CN106101576A (en) Image pickup method, device and the mobile terminal of a kind of augmented reality photo
JP2010048851A (en) Display apparatus and display method
JP2017207595A (en) Method, program and recording medium for providing virtual space
KR20120074977A (en) Educational materials and methods using augmented reality the performance of voice recognition and command
JP2017208808A (en) Method of providing virtual space, program, and recording medium
JP7378510B2 (en) street viewer system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110705