JP2007052484A - Image processor, image processing method, program for image processing, and information recording medium - Google Patents
Image processor, image processing method, program for image processing, and information recording medium Download PDFInfo
- Publication number
- JP2007052484A JP2007052484A JP2005235281A JP2005235281A JP2007052484A JP 2007052484 A JP2007052484 A JP 2007052484A JP 2005235281 A JP2005235281 A JP 2005235281A JP 2005235281 A JP2005235281 A JP 2005235281A JP 2007052484 A JP2007052484 A JP 2007052484A
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- visual field
- image processing
- observer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Circuits (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法及び画像処理用プログラム並びに情報記録媒体の技術分野に属し、より詳細には、例えば景色観察を行う展望台等に設置された景色観察用の観察装置を含む画像処理装置及び画像処理方法並びに当該画像処理装置において用いられる画像処理用プログラム及び当該画像処理用プログラムが記録された情報記録媒体の技術分野に属する。 The present invention belongs to the technical field of an image processing device, an image processing method, an image processing program, and an information recording medium. More specifically, for example, an observation device for observing a landscape installed on an observation platform for observing the landscape is provided. The present invention belongs to the technical field of image processing apparatuses and image processing methods, image processing programs used in the image processing apparatuses, and information recording media on which the image processing programs are recorded.
従来、いわゆる観光名所(城郭、高層タワー、高層ビルディング又は山頂)や美術館、博物館と言った場所には、夫々そこから見える景色や展示物等をより詳しく観察するため、例えば双眼鏡や望遠鏡(観光名所の場合)或いは顕微鏡(博物館等の場合)などの観察装置が設置されている。 Traditionally, so-called tourist attractions (castles, high-rise towers, high-rise buildings or summits), art museums, museums, etc., in order to observe the scenery and exhibits that can be seen from there in more detail, for example, binoculars and telescopes (tourist attractions) ) Or an observation device such as a microscope (in the case of a museum, etc.) is installed.
また、インターネット等のネットワーク環境が発達した近年では、高層ビルディングの屋上等の高所に設置されたビデオカメラやテレビカメラ等を当該ネットワークを介して操作し、観察者のパーソナルコンピュータ上に当該ビデオカメラ等で撮像した画像を表示することも行われている。 Also, in recent years when the network environment such as the Internet has developed, a video camera or a TV camera installed on a high place such as a rooftop of a high-rise building is operated via the network, and the video camera is placed on an observer's personal computer. It is also performed to display an image captured by the above.
一方、この種の観察装置により観察された実際の地物の映像に対して、人為的に他の映像を合成する技術としては、例えば下記特許文献1に記載された技術がある。この特許文献1に記載された技術では、例えば飛鳥時代の遺跡につき、現在の当該遺跡の位置に、その遺跡が実在した頃の物として想像される遺跡内の建物等の画像を合成して表示する構成となっている。
しかしながら、上述した従来の双眼鏡や顕微鏡等の観察装置では、例えば雨天時や霧がかかった場合等の悪天候時においては観察されるべき景色等が全く観察できない場合があると言う問題点があった。 However, the conventional observation apparatus such as the binoculars and the microscope described above has a problem that the scenery to be observed may not be observed at all in bad weather such as rainy weather or fog. .
また、好天時において景色等が観察できても、その景色(視野範囲)内に存在している観光名所等の名称等が判別し難い場合があると言う問題点もあった。 In addition, there is a problem that even if the scenery etc. can be observed in good weather, it may be difficult to distinguish the names of tourist attractions etc. existing in the scenery (view range).
更には、上述した観察装置等は、その視野範囲内にある地物等をただ単に観るだけであるため、観光名所としては面白みに欠けると言った問題点もあった。 Furthermore, the above-described observation device has a problem that it is not interesting as a tourist attraction because it only looks at features within the field of view.
また、上記した特許文献1に記載された技術では、あくまで創造された仮想画像を表示するものであるため、上述した如き観察装置としての用途を鑑みた場合、必ずしも十分に面白みを引き出せない場合もあると言う問題点がある。
Moreover, in the technique described in
そこで、本発明は上記の各問題点に鑑みて為されたもので、その課題は、上述した観察装置等において、天候に拘らず所望の景色を視認することができると共に、当該景色内の地物の名称等の付帯情報が容易に取得でき、且つ景色観察に面白み等の付加価値を追加することが可能な画像処理装置及び画像処理方法並びに当該画像処理装置において用いられる画像処理用プログラム及び当該画像処理用プログラムが記録された情報記録媒体を提供することにある。 Therefore, the present invention has been made in view of the above-mentioned problems, and the problem thereof is that the above-described observation device or the like can visually recognize a desired scenery regardless of the weather and Image processing apparatus, image processing method, image processing program used in the image processing apparatus, and image processing program capable of easily adding incidental information such as the name of an object and adding added value such as interest to scenery observation An object is to provide an information recording medium on which an image processing program is recorded.
上記の課題を解決するために、請求項1に記載の発明は、景色を観察するための観察装置を操作する観察者の、当該観察装置における視野範囲に相当する視野画像に対応する画像情報を光学的に取得するカメラ等の取得手段と、前記視野範囲内に存在する物に関連する関連情報を記憶する記憶部等の記憶手段と、前記取得された画像情報及び前記記憶されている関連情報に基づいて、前記物に対応し且つ元の前記画像情報とは異なる対応情報を生成する分配/合成部等の生成手段と、前記生成された対応情報のみ、又は当該生成された対応情報を前記取得された画像情報に重畳して得られる重畳情報のいずれか一方を、前記観察者に対して出力する表示部等の出力手段と、を備える。
In order to solve the above-described problem, the invention according to
よって、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。 Therefore, correspondence information corresponding to the image within the visual field range of the observation device is generated based on the related information, and only the correspondence information or the correspondence information and the image information corresponding to the image within the visual field range are superimposed. Since any one of the superimposition information is output to the observer, not only a monotonous image within the visual field range but also various information corresponding to the image can be provided to the observer.
上記の課題を解決するために、請求項2に記載の発明は、請求項1に記載の画像処理装置において、前記生成手段は、前記観察装置の姿勢を検出する制御部等の姿勢検出手段と、前記検出された姿勢に基づいて、前記視野範囲内における前記観察者の視点の位置を検出する認識部等の視点検出手段と、前記検出された視点の位置に基づいて、前記視野範囲内において注目されている前記物を抽出する認識部等の抽出手段と、前記抽出された物に対応する前記関連情報を前記記憶手段から読み出す加工部等の読出手段と、を備え、前記読み出された関連情報及び前記取得された画像情報に基づいて、前記対応情報を生成するように構成される。
In order to solve the above-described problem, the invention according to
よって、観察装置の姿勢から観察者の視点を検出し、その視点上にある物に対応する関連情報から対応情報を生成して当該観察者に出力するので、当該観察者の現在の視点にある物(すなわち、観察者が興味を抱いている物)に関する関連情報をタイミングよく当該観察者に出力することができる。 Therefore, since the viewpoint of the observer is detected from the posture of the observation apparatus, the correspondence information is generated from the related information corresponding to the object on the viewpoint and output to the observer, so that the current viewpoint of the observer is present. Related information regarding an object (that is, an object in which the observer is interested) can be output to the observer in a timely manner.
上記の課題を解決するために、請求項3に記載の発明は、請求項1又は2に記載の画像処理装置において、前記記憶手段は、前記視野範囲内にある前記物に対応する文字情報を前記関連情報として記憶しており、前記生成手段は、当該文字情報が対応する前記物が存在する前記画像情報内の位置に当該文字情報を重畳して前記対応情報を生成するように構成される。
In order to solve the above problem, the invention according to
よって、視野範囲内にある物に対応する文字情報を関連情報として記憶し、これを対応する物の位置に重畳して対応情報とするので、現在見ている物の説明を、観察者が容易に取得することができる。 Therefore, text information corresponding to objects within the field of view is stored as related information, and this information is superimposed on the corresponding object position as correspondence information, so that the observer can easily explain the object currently being viewed. Can be obtained.
上記の課題を解決するために、請求項4に記載の発明は、請求項1から3のいずれか一項に記載の画像処理装置において、前記記憶手段は、前記視野範囲内においては他の前記物に隠蔽されて見えない前記物の画像に対応する被隠蔽物画像情報を前記関連情報として記憶しており、前記生成手段は、前記被隠蔽物画像に対応する前記物を前記視野範囲内において隠蔽している前記他の物に対応する隠蔽物画像を、当該被隠蔽物画像に置換して前記対応情報を生成するように構成される。
In order to solve the above-mentioned problem, the invention according to
よって、通常の視野範囲内では視認できない物に対応する被隠蔽物画像情報を関連情報として記憶し、当該物を隠蔽している他の物に対応する隠蔽物画像を当該被隠蔽物画像に置換して対応情報を生成するので、通常では視認できない物の画像を観察者に提供することができる。 Therefore, the concealed object image information corresponding to an object that cannot be viewed within the normal visual field range is stored as related information, and the concealed object image corresponding to another object concealing the object is replaced with the concealed object image. Since the correspondence information is generated, an image of an object that cannot be visually recognized can be provided to the observer.
上記の課題を解決するために、請求項5に記載の発明は、請求項1から4のいずれか一項に記載の画像処理装置において、前記記憶手段は、現在時刻と異なる時刻における前記視野画像に対応する他時刻画像情報を前記関連情報として記憶しており、前記生成手段は、現在時刻における前記画像情報に代えて同一の前記視野範囲に相当する前記他時刻画像を前記対応情報として生成するように構成される。 In order to solve the above-described problem, according to a fifth aspect of the present invention, in the image processing device according to any one of the first to fourth aspects, the storage unit is configured to store the visual field image at a time different from the current time. Is stored as the related information, and the generation unit generates the other time image corresponding to the same visual field range as the corresponding information instead of the image information at the current time. Configured as follows.
よって、現在時刻と異なる時刻における視野範囲内の画像が関連情報として記憶されており、これを用いて対応情報を生成するので、現在視認している視野範囲内の現在又は過去の状態を容易に観察者に提供することができる。 Therefore, an image in the visual field range at a time different from the current time is stored as related information, and correspondence information is generated using this, so that the current or past state in the visual field range currently being viewed can be easily obtained. Can be provided to the observer.
上記の課題を解決するために、請求項6に記載の発明は、請求項1から5のいずれか一項に記載の画像処理装置において、前記記憶手段は、前記視野範囲に対応し且つ前記観察者から観て水平線より遠方にある物に対応する遠方物画像を前記関連情報として記憶しており、前記出力手段は、現在の前記画像情報に対して当該画像情報に対応する前記遠方物画像を重畳して出力するように構成される。
In order to solve the above-described problem, the invention according to
よって、水平線より更に遠方にあることで物理的には見えない物に対応する遠方物画像を関連情報として記憶しているので、更に興味深い情報を観察者に提供することができる。 Therefore, since a far object image corresponding to an object that cannot be physically seen by being farther from the horizon is stored as related information, more interesting information can be provided to the observer.
上記の課題を解決するために、請求項7に記載の発明は、請求項1から6のいずれか一項に記載の画像処理装置において、前記生成手段は、前記視野範囲内に存在するいずれかの前記物を他の前記物よりも強調して表示するための前記対応情報を生成するように構成される。
In order to solve the above-described problem, the invention according to
よって、視野範囲内に存在するいずれかの物を他の物よりも強調して表示するための対応情報を生成するので、例えば曇天時、雨天時或いは夜間でも、観察者が観たい物を他の物と区別して鮮明に加工し、当該観察者に提示することができる。 Therefore, correspondence information for displaying any object existing in the field of view with emphasis over other objects is generated.For example, even when it is cloudy, rainy, or at night, the object that the observer wants to see is displayed. It can be clearly distinguished from the object and presented to the observer.
上記の課題を解決するために、請求項8に記載の発明は、請求項1から7のいずれか一項に記載の画像処理装置において、前記記憶手段は、前記視野範囲内の前記物に対応する音を出力するための音情報を前記関連情報として記憶しており、前記出力手段は、現在出力されている前記いずれか一方に対応する前記音を、当該音に対応する前記音情報を用いて出力する音出力手段を備える。 In order to solve the above problem, an invention according to an eighth aspect is the image processing apparatus according to any one of the first to seventh aspects, wherein the storage means corresponds to the object in the visual field range. Sound information for outputting a sound to be stored is stored as the related information, and the output means uses the sound information corresponding to the sound as the sound corresponding to any one of the currently output sounds. Sound output means.
よって、現在の視野範囲内にある物に関連する音を観察者に提供することができるので、観察者をしてより興味深く観察を行わせることができる。 Therefore, since sounds related to objects within the current visual field range can be provided to the observer, the observer can be made to observe more interestingly.
上記の課題を解決するために、請求項9に記載の発明は、景色を観察するための観察装置を操作する観察者の、当該観察装置における視野範囲に相当する視野画像に対応する画像情報を光学的に取得する取得工程と、前記視野範囲内に存在する物に関連する関連情報と、前記取得された画像情報と、に基づき、前記物に対応し且つ元の前記画像情報とは異なる対応情報を生成する生成工程と、前記生成された対応情報のみ、又は当該生成された対応情報を前記取得された画像情報に重畳して得られる重畳情報のいずれか一方を、前記観察者に対して出力する出力工程と、を含む。 In order to solve the above-described problem, the invention according to claim 9 provides image information corresponding to a visual field image corresponding to a visual field range in the observation device of an observer who operates the observation device for observing a landscape. Corresponding to the object and different from the original image information based on the acquisition step optically acquired, the related information related to the object existing in the visual field range, and the acquired image information Either a generation step of generating information and only the generated correspondence information, or superimposition information obtained by superimposing the generated correspondence information on the acquired image information, to the observer An output step of outputting.
よって、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。 Therefore, correspondence information corresponding to the image within the visual field range of the observation device is generated based on the related information, and only the correspondence information or the correspondence information and the image information corresponding to the image within the visual field range are superimposed. Since any one of the superimposition information is output to the observer, not only a monotonous image within the visual field range but also various information corresponding to the image can be provided to the observer.
上記の課題を解決するために、請求項10に記載の発明は、景色を観察するための観察装置を含む画像処理装置に含まれるコンピュータを、前記観察装置を操作する観察者の、当該観察装置における視野範囲に相当する視野画像に対応する画像情報を光学的に取得する取得手段、前記視野範囲内に存在する物に関連する関連情報を記憶する記憶手段、前記取得された画像情報及び前記記憶されている関連情報に基づいて、前記物に対応し且つ元の前記画像情報とは異なる対応情報を生成する生成手段、及び、前記生成された対応情報のみ、又は当該生成された対応情報を前記取得された画像情報に重畳して得られる重畳情報のいずれか一方を、前記観察者に対して出力する出力手段、として機能させる。
In order to solve the above-described problem, the invention according to
よって、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するようにコンピュータが機能するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。 Therefore, correspondence information corresponding to the image within the visual field range of the observation device is generated based on the related information, and only the correspondence information or the correspondence information and the image information corresponding to the image within the visual field range are superimposed. Since the computer functions so as to output any of the superimposition information to the observer, not only a monotonous image within the field of view but also various information corresponding to the image can be provided to the observer. .
上記の課題を解決するために、請求項11に記載の発明は、請求項10に記載の画像処理用プログラムが前記コンピュータにより読み出し可能に記録されている。
In order to solve the above-mentioned problem, the invention according to claim 11 is recorded with the image processing program according to
よって、当該画像処理用プログラムをコンピュータにより読み出して実行することにより、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するように当該コンピュータが機能するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。 Therefore, by reading out and executing the image processing program by a computer, correspondence information corresponding to the image within the visual field range of the observation apparatus is generated based on the related information, and only the correspondence information or the correspondence information and the correspondence information are generated. Since the computer functions to output to the observer either superimposition information obtained by superimposing image information corresponding to an image in the field of view range, not only the monotonous image in the field of view but the Various information corresponding to the image can be provided to the observer.
以上説明したように、請求項1に記載の発明によれば、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。 As described above, according to the first aspect of the present invention, the correspondence information corresponding to the image within the visual field range of the observation device is generated based on the related information, and only the correspondence information or the correspondence information and the correspondence information are generated. Since either superimposition information obtained by superimposing image information corresponding to an image in the field of view range is output to the observer, not only a monotonous image in the field of view but also various information corresponding to the image Can be provided to the observer.
従って、上記観察者に対して付加価値に富んだ画像を提供することができる。 Therefore, an image rich in added value can be provided to the observer.
請求項2に記載の発明によれば、請求項1に記載の発明の効果に加えて、観察装置の姿勢から観察者の視点を検出し、その視点上にある物に対応する関連情報から対応情報を生成して当該観察者に出力するので、当該観察者の現在の視点にある物(すなわち、観察者が興味を抱いている物)に関する関連情報をタイミングよく当該観察者に出力することができる。
According to the invention described in
請求項3に記載の発明によれば、請求項1又は2に記載の発明の効果に加えて、視野範囲内にある物に対応する文字情報を関連情報として記憶し、これを対応する物の位置に重畳して対応情報とするので、現在見ている物の説明を、観察者が容易に取得することができる。
According to the invention described in
請求項4に記載の発明によれば、請求項1から3のいずれか一項に記載の発明の効果に加えて、通常の視野範囲内では視認できない物に対応する被隠蔽物画像情報を関連情報として記憶し、当該物を隠蔽している他の物に対応する隠蔽物画像を当該被隠蔽物画像に置換して対応情報を生成するので、通常では視認できない物の画像を観察者に提供することができる。
According to the invention described in
請求項5に記載の発明によれば、請求項1から4のいずれか一項に記載の発明の効果に加えて、現在時刻と異なる時刻における視野範囲内の画像が関連情報として記憶されており、これを用いて対応情報を生成するので、現在視認している視野範囲内の現在又は過去の状態を容易に観察者に提供することができる。
According to the invention described in
請求項6に記載の発明によれば、請求項1から5のいずれか一項に記載の発明の効果に加えて、水平線より更に遠方にあることで物理的には見えない物に対応する遠方物画像を関連情報として記憶しているので、更に興味深い情報を観察者に提供することができる。
According to the invention described in
請求項7に記載の発明によれば、請求項1から6のいずれか一項に記載の発明の効果に加えて、視野範囲内に存在するいずれかの物を他の物よりも強調して表示するための対応情報を生成するので、例えば曇天時、雨天時或いは夜間でも、観察者が観たい物を他の物と区別して鮮明に加工し、当該観察者に提示することができる。
According to the invention described in
請求項8に記載の発明によれば、現在の視野範囲内にある物に関連する音を観察者に提供することができるので、観察者をしてより興味深く観察を行わせることができる。 According to the eighth aspect of the present invention, it is possible to provide the observer with sound related to an object within the current visual field range, so that the observer can make observation more interesting.
請求項9に記載の発明によれば、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。 According to the invention described in claim 9, correspondence information corresponding to an image in the visual field range of the observation device is generated based on the related information, and only the correspondence information or the correspondence information and the image in the visual field range are generated. Since either superimposition information obtained by superimposing corresponding image information is output to the observer, not only a monotonous image within the field of view but also various information corresponding to the image is provided to the observer. be able to.
従って、上記観察者に対して付加価値に富んだ画像を提供することができる。 Therefore, an image rich in added value can be provided to the observer.
請求項10に記載の発明によれば、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するようにコンピュータが機能するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。
According to the invention described in
従って、上記観察者に対して付加価値に富んだ画像を提供することができる。 Therefore, an image rich in added value can be provided to the observer.
請求項11に記載の発明によれば、当該画像処理用プログラムをコンピュータにより読み出して実行することにより、観察装置の視野範囲内の画像に対応する対応情報を関連情報に基づいて生成し、当該対応情報のみ、又は当該対応情報と当該視野範囲内の画像に対応する画像情報とを重畳させた重畳情報、のいずれかを観察者に対して出力するように当該コンピュータが機能するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。 According to the eleventh aspect of the present invention, by reading and executing the image processing program by a computer, correspondence information corresponding to an image within the visual field range of the observation device is generated based on the related information, and the correspondence Since the computer functions to output to the observer either the information alone or the superimposition information obtained by superimposing the correspondence information and the image information corresponding to the image in the visual field range, the visual field range In addition to the monotonous image, various information corresponding to the image can be provided to the observer.
従って、上記観察者に対して付加価値に富んだ画像を提供することができる。 Therefore, an image rich in added value can be provided to the observer.
次に、本発明を実施するための最良の形態について、図面に基づいて説明する。なお、以下に説明する実施形態は、例えば高層ビルディングの展望台等に設置されている望遠鏡又は双眼鏡を介して観察者に画像を提示(表示)する画像処理装置に対して本発明を適用した場合の実施の形態である。 Next, the best mode for carrying out the present invention will be described with reference to the drawings. In the embodiment described below, the present invention is applied to an image processing apparatus that presents (displays) an image to an observer via, for example, a telescope or binoculars installed on an observation deck of a high-rise building. It is an embodiment.
始めに、実施形態に係る画像処理装置の全体構成及び動作について、図1乃至図3を用いて説明する。なお、図1は実施形態に係る画像処理装置全体の概要構成を示すブロック図であり、図2は当該画像処理装置の細部構成を示すブロック図であり、図3は当該画像処理装置の全体動作を示すフローチャートである。 First, the overall configuration and operation of the image processing apparatus according to the embodiment will be described with reference to FIGS. 1 to 3. 1 is a block diagram showing a schematic configuration of the entire image processing apparatus according to the embodiment, FIG. 2 is a block diagram showing a detailed configuration of the image processing apparatus, and FIG. 3 is an overall operation of the image processing apparatus. It is a flowchart which shows.
図1に示すように、実施形態に係る画像処理装置Sは、上記展望台等から見た景色を取り込む取得手段としてのカメラ1と、当該取り込まれた景色に対応する画像等を表示する出力手段としての表示部2と、姿勢検出手段としての制御部3と、キーボード又はタッチパネル等からなる入力部4と、生成手段としての分配/合成部5と、処理部6と、により構成されている。
As shown in FIG. 1, the image processing apparatus S according to the embodiment includes a
この構成において、カメラ1は、より具体的にはビデオカメラ又はいわゆるウエブカメラ等により構成されるものであり、上記景色等を光学的な画像として取得し、それを電気的に増幅又は符号化等して画像情報Svを生成し、分配/合成部5へ出力する。なお、カメラ1にマイクを設け、現在画像情報Sv化している画像に対応する音を同時に収集し、これを音声情報として当該画像情報Svと共に分配/合成部5に出力するように構成することもできる。また、上述した従来の望遠鏡や双眼鏡等を改造し、上記マイクや画像情報Svを生成するためのセンサを設置することでカメラ1を構成することもできる。
In this configuration, the
次に、カメラ1に付随している制御部3は、カメラ1の現在の状態(三次元的な姿勢、焦点距離及び接続(稼動)状況等を含む。以下同じ)を検出し、当該検出した状態を示す状態情報Sposを生成して処理部6へ出力する。この機能に加えて、制御部3は、処理部6からの制御情報Sc1の内容に基づきカメラ1の動作を制御すると共に、その姿勢(上下左右の角度)を制御して画像情報Sv化する景色等を切り換える。
Next, the
更に、分配/合成部5は、処理部6からの制御情報Sc2の内容に基づき、カメラ1から出力された画像情報Svを処理部6又は表示部2へ出力する。これに加えて、分配/合成部5は、処理部6から出力されて来た後述する合成用画像情報Smxをカメラ1からの画像情報Svに対して重畳(合成)し、表示情報Sdpとして表示部2へ出力する。
Further, the distribution /
ここで、カメラ1から出力されて来た画像情報Svの処理部6及び表示部2への分配の態様及び処理部6から出力されて来た合成用画像情報Smxの表示部2への出力態様は、処理部6からの制御情報Sc2に基づき、分配/合成部5において任意に設定できる。すなわち、より具体的には、カメラ1からの画像情報Svの表示部2への出力を全く禁止し、当該画像情報Svに代えて処理部6からの合成用画像情報Smxに対応する画像のみを含む上記表示情報Sdpを表示部2へ出力するように分配/合成部5において切り換えることも可能であるし、反対にカメラ1からの画像情報Svのみを表示部2に出力するように分配/合成部5において切り換えることも可能である。
Here, the distribution mode of the image information Sv output from the
一方、上記表示部2は、より具体的には、液晶ディスプレイ、HMD(Head Mounted Display)、光学プロジェクタ、CRT(Cathode Ray Tube)又はハーフミラースクリーン等よりなる画像表示部であり、分配/合成部5から出力されてくる画像情報Sv又は表示情報Sdpの少なくともいずれか一方に含まれている画像を、観察者が視認可能に表示する。なお、表示部2としては、上述した従来の望遠鏡や双眼鏡等における接眼部を改造し、上記した各ディスプレイを設置することで表示部2として構成することもできる。
On the other hand, the
他方、入力部4は、当該入力部4において実行された観察者による操作に対応する操作情報Sinを生成し、処理部6へ出力する。なお、当該操作として具体的には、画像処理装置Sとしての後述する動作モードの指定操作や、現在カメラ1が捉えている画像内の地物等の指定操作が挙げられる。
On the other hand, the
これにより、処理部6は、当該操作情報Sinの内容が実現されるように上記制御情報Sc1及びSc2を生成して制御部3及び分配/合成部5へ出力すると共に画像処理装置S全体を統括制御する。
As a result, the
より具体的には、処理部6は、分配/合成部5を介して出力されてきた画像情報Svと、制御部3から出力されて来た状態情報Sposと、に基づき、現在カメラ1に捉えられている景色等の内容(それに含まれている地物の形や大きさ等。以下、同様)を解析し、その解析結果及び上記操作信号Sinに基づき、画像情報Svの内容を加工して上記合成用画像情報Smxとして分配/合成部5へ出力する。
More specifically, the
これに加えて、処理部6は、制御部3を介してカメラ1の姿勢を制御すべく上記制御情報Sc1を生成して当該制御部3へ出力する。なお、表示部2における表示態様や画面角度等を処理部6からの図示しない制御情報により制御するように構成することも可能である。
In addition, the
次に、主として本実施形態の動作を行う上記処理部6の具体的な構成及び細部動作について、図2を用いて説明する。
Next, a specific configuration and detailed operation of the
図2に示すように、処理部6は、視点検出手段及び抽出手段としての認識部7と、読出手段としての加工部8と、記憶手段としての記憶部9と、生成部10と、出力部11と、処理制御部12と、により構成されている。そして、分配/合成部5からの画像情報Sv及び制御部3からの状態情報Sposは認識部7に入力されており、入力部4からの操作情報Sinは処理制御部12に入力されている。更に、上記合成用画像情報Smxは出力部11から出力されており、制御情報Sc1及びSc2は処理制御部12から出力されている。
As shown in FIG. 2, the
この構成において、認識部7は、処理制御部12からの制御情報Sc11に基づき、分配/合成部5から出力されて来た画像情報Svを加工部8へ出力すると共に当該画像情報Svとしての画像に対応する景色等の内容を解析し、更に当該内容を認識する認識処理を行い、それらの結果を含む認識情報Srgを生成して出力部11、加工部8及び生成部10へ夫々出力する。ここで、当該認識処理として具体的には、当該内容として画像情報Svに含まれている地物等(以下、当該地物等を「オブジェクト」と称する)の、相互分離処理、抽出処理、同定処理、空間座標特定処理及び保持処理等を含むものであり、入力されて来た当該画像情報Svの内容と記憶部9に蓄積されている後述の関連情報Smとを比較することで実現される。このとき、制御部3からの状態情報Sposに基づいて観察者の視点をカメラ1の視野範囲内で抽出することにより上記認識処理を高速化/高精度化する。なお、当該認識処理は、具体的にはいわゆるロジック(論理)回路を用いて行うこともできるし、又は人工知能等を用いて行ってもよい。
In this configuration, the
一方、加工部8は、処理制御部12からの制御情報Sc10、記憶部9からの関連情報Sm並びに認識部7からの認識情報Srgに基づき、認識部7を介して受け取った画像情報Svを加工することで後述する如き様々な視覚的・聴覚的効果を付加し、加工情報Smdとして出力部11へ出力する。
On the other hand, the
更に、生成部10は、処理制御部12からの制御情報Sc13、記憶部9からの関連情報Sm並びに認識部7からの認識情報Srgに基づき、制御部3からの状態情報Sposを用いて認識される観察者の視点を含む領域内に存在するオブジェクトに対応する新たな画像を生成する生成処理を行い、その結果として得られる生成情報Soを出力部11へ出力する。ここで、当該生成処理として具体的には、例えば、当該オブジェクトの輪郭線の描画処理、当該オブジェクトに対応するテキスト情報の描画処理、当該オブジェクトを示す解説映像又は解説音声の生成処理或いは当該オブジェクトに関連する三次元画像の描画処理等がある。
Furthermore, the
また、記憶部9は立体形状、動画像、静止画像、テキスト(文字)、音声又は動き等の、画像情報Svに含まれてカメラ1から出力される可能性のある全ての(全方位分の)画像と、当該画像を説明するための情報と、を関連情報Smとして蓄積しておく記憶装置であり、必要に応じて当該関連情報Smを認識部7、加工部8又は生成部10へ出力する。ここで、当該記憶部9としては、カメラ1から入力されることが予想される画像情報Svに含まれる画像(オブジェクト)そのもの及び当該画像に関連する関連情報Smを予め蓄積しておくことが一般的であるが、様々な情報が記録されたデータセンタ等とネットワーク経由で接続し、このデータセンタ等から画像処理装置Sに対応する種々の関連情報Svを収集して記憶部9内に記憶しておくように構成することもできる。
In addition, the storage unit 9 includes all (all omnidirectional images) that are included in the image information Sv and may be output from the
更に、出力部11は、認識部7から出力されて来た認識情報Srg、加工部8から出力されて来た加工情報Smd及び生成部10から出力されて来た生成情報Soを、処理制御部12からの制御情報Sc12に基づいて相互に合成し、上記合成用画像情報Smxとして上記分配/合成部5へ出力する。
Further, the output unit 11 receives the recognition information Srg output from the
最後に、処理制御部12は、上記操作情報Sinの内容を解析し、その内容を実現すべく上記各制御情報Sc1、Sc2、Sc10、Sc11、Sc12及びSc13を夫々生成し、対応する制御部3、分配/合成部5、認識部7、加工部8、生成部10及び出力部11等へ出力する。
Finally, the
次に、上述した構成及び動作を有する画像処理装置Sの全体動作について、具体的に図3に示す各フローチャートを用いて説明する。なお、図3(a)は当該全体動作を示すフローチャートであり、図3(b)は当該全体動作のうち認識処理の細部を示すフローチャートであり、図3(c)は当該全体動作のうち表示情報生成処理を示すフローチャートである。 Next, the overall operation of the image processing apparatus S having the above-described configuration and operation will be specifically described with reference to each flowchart shown in FIG. 3A is a flowchart showing the overall operation, FIG. 3B is a flowchart showing details of the recognition process in the overall operation, and FIG. 3C is a display of the overall operation. It is a flowchart which shows an information generation process.
先ず、画像処理装置Sとしての全体動作につき、図3(a)を用いて説明する。 First, the overall operation of the image processing apparatus S will be described with reference to FIG.
図3(a)に示すように、上記した構成を有する画像処理装置Sにおいては、その電源が投入されてカメラ1により上記オブジェクトを含む画像情報Svが送信されて来ると(ステップS1)、処理部6により、入力部4において指定された現在の動作モードの内容を確認する(ステップS2)。
As shown in FIG. 3A, in the image processing apparatus S having the above-described configuration, when the power is turned on and image information Sv including the object is transmitted from the camera 1 (step S1), the processing is performed. The content of the current operation mode designated in the
ここで、当該動作モードとは、入力部4において観察者により指定された画像処理装置Sとして実行すべき動作の種類を示すものであり、実施形態の場合、具体的には、「説明モード」、「削除モード」、「超望遠モード」、「強調表示モード」、「時間変化モード」及び「天候変化モード」のいずれかである。
Here, the said operation mode shows the kind of operation | movement which should be performed as the image processing apparatus S designated by the observer in the
このとき、上記「説明モード」とは、文字情報によるオブジェクトの説明を当該オブジェクトが含まれて表示部2に表示されている画像内に重畳して表示するモードである。また、上記「削除モード」とは、カメラ1の視野範囲内において手前にあるオブジェクトを削除してその向こうにある他のオブジェクト(通常では当該手前にあるオブジェクトに隠れて見えないオブジェクト)を表示させるモードである。更に、上記「超望遠モード」とは、カメラ1の視野範囲内にある水平線よりも更に遠方に実在しているオブジェクト(すなわち、実際はその水平線に隠れて視認できないオブジェクト)をその水平線上に表示させるモードである。更にまた、上記「強調表示モード」とは、特に夜景を観察する場合において、通常は暗くて見えないオブジェクトを強調して表示するモードである。また、上記「時間変化モード」とは、現在カメラ1の視野範囲内にある景色等につき、入力部4により指定された時間だけ先(未来)又は前(過去)におけるその景色等を、現在の当該景色等に代えて表示部2に表示するモードである。最後に、上記「天候変化モード」とは、現在カメラ1の視野範囲内にある景色等につき、異なる天候におけるその景色等を現在の当該景色等に代えて表示部2に表示する(例えば現在雨天であれば晴天時の同じ範囲の景色等を表示し、現在晴天であれば例えば霧がかかった時の同じ範囲の景色等を表示する)モードである。
At this time, the “explanation mode” is a mode in which the description of the object based on the character information is displayed superimposed on the image that includes the object and is displayed on the
また、上記各モードを実現するため、カメラ1を介して認識し得る全方位の景色等につき、当該各景色等に含まれるオブジェクトの内容(名称や特徴等)を示す文字情報(上記説明モード実行用)、当該各景色等に含まれる各オブジェクト単独でのカメラ1の位置から見た画像に対応する削除用画像情報(上記削除モード実行用)、当該各景色等における水平線に隠れているオブジェクトであってカメラ1の視線をその視線方向に延長して初めて視認し得るオブジェクトの画像に対応する超望遠用画像情報(上記超望遠モード実行用)、当該各景色等に含まれる各オブジェクトの強調表示用画像情報(上記強調表示モード実行用)、例えば1時間毎の当該各景色等の画像(カメラ1の視野範囲内の画像)に対応する時間変化用画像情報(上記時間変化モード実行用)、及び例えば晴天時、曇天時、降雨時、霧時及び降雪時夫々における当該各景色等の画像(カメラ1の視野範囲内の画像)に対応する天候変化用画像情報(上記天候変化モード実行用)が、夫々関連情報Smとして記憶部9に蓄積・記憶されている。
In addition, in order to realize the above modes, character information indicating the contents (names, features, etc.) of objects included in the landscapes, etc. for landscapes that can be recognized through the camera 1 (execution of the description mode described above) ), Image information for deletion corresponding to an image viewed from the position of the
更に、画像処理装置Sが動作中であるときには、入力部4において指定されたオブジェクトの内容が操作情報Sinから検出される。
Further, when the image processing apparatus S is in operation, the content of the object designated by the
入力部4における操作等の内容の確認が行われると、次に、当該操作に対応する操作情報Sinに基づき、処理部6において画像情報Sv内のオブジェクトの内容等の認識処理を行う(ステップS3)。この認識処理の細部については、後ほど図3(b)に示すフローチャートを用いて説明する。
When the content of the operation or the like in the
次に、当該認識された画像情報Svの内容に基づき、同じく処理部6において上記合成用画像情報Smxを生成して分配/合成部5に出力する(ステップS4)。なお、上記ステップS4としての生成処理については、後ほど図3(c)に示すフローチャートを用いて説明する。
Next, based on the content of the recognized image information Sv, the
そして、当該分配/合成部5において、出力されてきた合成用画像情報Smxと画像情報Svとの合成処理等を操作情報Sinの内容に応じて実行し、表示部2において表示するための画像を含む表示情報Sdpを生成する(ステップS5)。なお、当該合成処理には、画像情報Svをそのまま表示部2に出力する処理も含まれている。
Then, the distribution /
その後、生成された画像を表示部2において表示し(ステップS6)、その後画像処理装置Sとしての動作を終了する旨の操作が入力部4において実行されたか否かを確認する(ステップS7)。そして、当該終了操作が行われていない時は(ステップS7;NO)上記ステップS1の動作に戻って上述した処理を引き続き行い、一方終了操作が行われたときは(ステップS7;YES)、そのまま画像処理装置Sとしての処理を終了する。なお、上記ステップS6としての処理には、当該表示されるべき画像に対応する内容の音声の出力も含まれている。 Thereafter, the generated image is displayed on the display unit 2 (step S6), and then it is confirmed whether or not an operation for ending the operation as the image processing apparatus S has been performed on the input unit 4 (step S7). When the end operation is not performed (step S7; NO), the process returns to the operation of step S1 and the above-described processing is continued. When the end operation is performed (step S7; YES), the operation is continued. The processing as the image processing apparatus S ends. It should be noted that the processing as step S6 includes outputting audio corresponding to the image to be displayed.
次に、認識部7において実行される上記認識処理(ステップS3)の細部について、図3(b)を用いて説明する。
Next, details of the recognition process (step S3) executed in the
図3(b)に示すように、上記認識処理(ステップS3)においては、認識部7に画像情報Svが入力されると(ステップS10)、次に同様に入力されている状態情報Sposに基づいてカメラ1の姿勢を検出すると共に当該検出された姿勢と画像情報Svとして入力されている画像の内容の解析結果に基づいて観察者の現在の視点の位置を検出する(ステップS11)。ここで、当該ステップS11の処理として具体的には、予め記憶部9に記憶されている画像との照合・比較により現在の視点の位置を検出することができる。
As shown in FIG. 3B, in the recognition process (step S3), when the image information Sv is input to the recognition unit 7 (step S10), the next state information Spos is input similarly. Then, the posture of the
そして、視点の位置が検出されたら、その位置にあるオブジェクトの抽出処理を行い、現在の画像情報Svに含まれており且つ観察者が今注目しているオブジェクトが何であるか確認する(ステップS12)。 When the position of the viewpoint is detected, an object at that position is extracted, and it is confirmed what object is included in the current image information Sv and the observer is currently paying attention (step S12). ).
次に、上記ステップS12において抽出・確認したオブジェクトに関連する関連情報が記憶部9内に記憶されているか否かを検索・確認する(ステップS13、S14)。そして、当該オブジェクトに関連する関連情報が記憶部9内に存在していないときは(ステップS14;NO)そのまま後述するステップS17に移行し、一方、当該オブジェクトに関連する関連情報が記憶部9内に存在しているときは(ステップS14;YES)は、次に、記憶部9内において確認された当該オブジェクトに関連する関連情報Smを記憶部9から読み出し(ステップS15)、認識部7内の図示しないメモリ内に一時的に記憶させておく。 Next, it is searched and confirmed whether or not related information related to the object extracted and confirmed in step S12 is stored in the storage unit 9 (steps S13 and S14). And when the relevant information relevant to the said object does not exist in the memory | storage part 9 (step S14; NO), it transfers to step S17 mentioned later as it is, On the other hand, the relevant information relevant to the said object is stored in the memory | storage part 9. Is present (step S14; YES), the related information Sm related to the object confirmed in the storage unit 9 is read from the storage unit 9 (step S15). It is temporarily stored in a memory (not shown).
次に、図3(a)におけるステップS2において検出されている動作モードに基づき、必要に応じて、上記抽出・確認された(ステップS12)オブジェクトを示す三次元形状を表示部2において表示するための三次元情報を併せて記憶部9から読み出し(ステップS16)、これも上記認識部7内の図示しないメモリ内に一時的に記憶させておく。ここで、当該読み出された三次元情報は、例えば上記強調表示モード等の実行に用いられる。
Next, based on the operation mode detected in step S2 in FIG. 3A, if necessary, the
その後、入力されている画像情報Svに含まれている全てのオブジェクトについての認識処理が終了したか否かを確認する(ステップS17)。そして、終了していない場合は(ステップS17;NO)上記ステップS14に戻って上述した一連の処理を次のオブジェクトに対して実行し、一方、全てのオブジェクトについての認識処理が終了しているときは(ステップS17;YES)、上記認識部7内の図示しないメモリに記憶されている各情報を上記認識情報Srgとして認識部7、加工部8及び生成部10へ出力し(ステップS18)、図3(a)に示すステップS4に移行する。
Thereafter, it is confirmed whether or not the recognition process for all objects included in the input image information Sv has been completed (step S17). And when not complete | finished (step S17; NO), it returns to said step S14, and when the series of processes mentioned above are performed with respect to the following object, on the other hand, the recognition process about all the objects is complete | finished (Step S17; YES), each information stored in a memory (not shown) in the
次に、主として認識部7、加工部8及び生成部10において実行される上記生成処理(ステップS4)の細部について、図3(c)を用いて説明する。
Next, details of the generation process (step S4) executed mainly by the
図3(c)に示すように、上記生成処理(ステップS4)においては、先ず、図3(a)ステップS2の処理において検出された観察者の操作の内容を確認する(ステップS20)。このとき、当該操作の内容は、通常は現在カメラ1で捉えられている視野範囲内のどのオブジェクトについての情報を表示部2に表示するかの指示であり、当該指示は、表示部2における具体的な画面上の座標値等で与えられるものである。
As shown in FIG. 3C, in the generation process (step S4), first, the contents of the operation of the observer detected in the process of step S2 of FIG. 3A are confirmed (step S20). At this time, the content of the operation is an instruction as to which information about which object in the visual field range currently captured by the
そして、当該指示の内容に基づいて観察者がどのオブジェクトを指示しているか否か検出し(ステップS21)、その検出したオブジェクトに関連する関連情報が記憶部9内に記憶されているか否かを検索・確認する(ステップS22、S23)。そして、当該オブジェクトに関連する関連情報が記憶部9内に存在していないときは(ステップS23;NO)そのまま後述するステップS27に移行し、一方、当該オブジェクトに関連する関連情報Smが記憶部9内に存在しているときは(ステップS23;YES)は、次に、記憶部9内において確認された当該オブジェクトに関連する関連情報Sm(具体的には、当該オブジェクトに関連する動画像、風景等の静止画像、文字情報、音声情報又は三次元情報等)を記憶部9から読み出し(ステップS24)、認識部7内の図示しないメモリ内に一時的に記憶させておく。
Then, based on the content of the instruction, it is detected which object the observer is indicating (step S21), and whether the related information related to the detected object is stored in the storage unit 9 or not. Search and confirm (steps S22 and S23). And when the relevant information relevant to the said object does not exist in the memory | storage part 9 (step S23; NO), it transfers to step S27 mentioned later as it is, On the other hand, the relevant information Sm relevant to the said object is the memory | storage part 9. If it is present (step S23; YES), then the related information Sm related to the object confirmed in the storage unit 9 (specifically, the moving image and landscape related to the object) Are read out from the storage unit 9 (step S24), and are temporarily stored in a memory (not shown) in the
次に、認識部7において、上記記憶している(ステップS24)情報を描画すべき位置を、表示部2における表示画面上の座標位置として特定し(ステップS25)、当該特定された位置に上記記憶している情報に対応する画像を描画し、その描画結果を出力部11に出力して(ステップS27)、図3(a)に示すステップS5に移行する。
Next, the
次に、上述した各処理が画像処理装置Sにおいて実行された結果の具体例を、上記各動作モード毎に例示しつつ説明する。 Next, specific examples of results obtained by executing the above-described processes in the image processing apparatus S will be described with reference to the respective operation modes.
(I)説明モードの具体例
初めに、上記説明モードについて、図4を用いて具体的に説明する。当該説明モードは、上述した如く文字情報によるオブジェクトの説明を当該オブジェクトが含まれて表示部2に表示されている画像内に重畳して表示するモードである。そして、当該説明モードの実行に当たっては、上述した文字情報が関連情報Smとして記憶部9から読み出される。
(I) Specific Example of Explanation Mode First, the explanation mode will be described in detail with reference to FIG. The explanation mode is a mode in which the explanation of the object based on the character information is superimposed and displayed in the image including the object and displayed on the
すなわち、当該説明モードにおいては、例えば表示部2に表示されている画像が図4(a)に示すような景色G1であるとき、その景色G1内において観察者がその詳細を知りたいと考えているオブジェクト(図4に例示する場合は左右端に夫々建っているビルディング)を入力部4において指定すると(図3(a)ステップS2参照)、その指定されたオブジェクトに関連する文字情報が関連情報Smとして記憶部9から読み出され(図3(b)ステップS24参照)、その読み出された文字情報に対応する文字画像が、例えば図4(b)に例示する文字画像T1及びT2の如く対応するオブジェクトに対応付けた態様で景色G1内に重畳して表示される(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。そして更に、入力部4においていずれかのオブジェクトに関する更に詳細な説明を求める旨の操作が為されると(図3(a)ステップS2参照)、その指定されたオブジェクトに関連する更に詳細な文字情報が関連情報Smとして記憶部9から読み出され(図3(b)ステップS24参照)、その読み出された詳細文字情報に対応する文字画像が、例えば図4(c)に例示する文字画像T2dの如く対応するオブジェクトに対応付けた態様で景色G1内に重畳して表示される(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。
That is, in the explanation mode, for example, when the image displayed on the
(II)削除モードの具体例
次に、上記削除モードについて、図5を用いて具体的に説明する。当該削除モードは、上述した如くカメラ1の視野範囲内において手前にあるオブジェクトを削除してその向こうにある他のオブジェクト(通常では当該手前にあるオブジェクトに隠れてその一部又は全部が見えないオブジェクト)を表示させるモードである。そして、当該削除モードの実行に当たっては、上述した、カメラ1を介して認識し得る全方位の景色等に含まれる各オブジェクト単独でのカメラ1の位置から見た画像に対応する削除用画像情報が関連情報Smとして記憶部9から読み出される。
(II) Specific Example of Delete Mode Next, the delete mode will be specifically described with reference to FIG. In the deletion mode, as described above, the object in the foreground within the field of view of the
すなわち、当該削除モードにおいては、例えば表示部2に表示されている画像が図5(a)に示すような景色G2であるとき、その景色G2内において観察者がその背後にあるオブジェクトOBbの全景を観察したいと考えているオブジェクトOBa(図5に例示する場合は最も高いビルディングの前にある一連の建物)を、図5(a)に例示する如きカーソルWで囲むことにより入力部4において指定すると(図3(a)ステップS2参照)、その指定されたオブジェクトOBaを景色G2に相当する画像内から削除し(図3(b)ステップS25及びS26参照)、当該オブジェクトOBaが削除された部分にオブジェクトOBbの全景に相当する上記削除用画像情報が、例えば図5(b)に例示するオブジェクトOBbの如く景色G2内に表示される(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。
In other words, in the deletion mode, for example, when the image displayed on the
(III)超望遠モードの具体例
次に、上記超望遠モードについて、図6を用いて具体的に説明する。当該超望遠モードは、上述した如くカメラ1の視野範囲内にある水平線(当該視野範囲内に海が存在しない場合は、例えば当該視野範囲内にある山の稜線等を言う)よりも更に遠方に実在しているオブジェクトをその水平線上に表示させるモードである。そして、当該超望遠モードの実行に当たっては、上述したカメラ1を介して認識し得る全方位の景色等における水平線に隠れているオブジェクトのカメラ1の位置から見た画像に対応する超望遠用画像情報が関連情報Smとして記憶部9から読み出される。
(III) Specific Example of Super-Telephoto Mode Next, the super-telephoto mode will be described in detail with reference to FIG. The super-telephoto mode is farther than the horizontal line in the field of view of the
すなわち、当該超望遠モードにおいては、例えば表示部2に表示されている画像が図6(a)に示すような景色G3であるとき、その景色G3における水平線Hよりも更に遠方にあるオブジェクト(例えばアメリカ合衆国の西海岸沿いに実在する建物に相当するオブジェクト)の表示が入力部4において指定されると(図3(a)ステップS2参照)、その指定された水平線Hよりも遠方にあるはずのオブジェクトに相当する上記超望遠用画像情報が関連情報Smとして記憶部9から読み出され、その読み出された超望遠用画像情報が、例えば図5(b)に例示するオブジェクトOBcの如く景色G3内に表示される(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。
That is, in the super-telephoto mode, for example, when the image displayed on the
(IV)強調表示モードの具体例
次に、上記強調表示モードについて、図7を用いて具体的に説明する。当該強調表示モードは、上述した如く特に夜景を観察する場合において、通常は暗くて見えないオブジェクトを強調して表示するモードである。そして、当該強調表示モードの実行に当たっては、上述したカメラ1を介して認識し得る全方位の景色等に含まれる各オブジェクトの強調表示用画像情報が関連情報Smとして記憶部9から読み出される。
(IV) Specific Example of Highlight Display Mode Next, the highlight display mode will be described in detail with reference to FIG. The highlight mode is a mode for highlighting and displaying an object that is usually dark and invisible, especially when a night view is observed as described above. In executing the highlight mode, the highlight display image information of each object included in the omnidirectional landscape that can be recognized through the
すなわち、当該強調表示モードにおいては、例えば表示部2に表示されている画像が図7(a)に示すような夜景に相当する景色G4であるとき、その景色G4における最も右にある建物の屋上にある(景色G4上は暗くて視認できない)鉄塔を強調表示する旨が入力部4において指定されると(図3(a)ステップS2参照)、その指定された鉄塔を強調表示するための上記強調表示用画像情報が関連情報Smとして記憶部9から読み出され、その読み出された強調表示用画像情報に含まれるオブジェクトが、例えば図7(b)に例示する当該鉄塔が本来あるべき位置に相当する景色G4内の位置に強調画像PPとして表示される(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。
That is, in the highlight mode, for example, when the image displayed on the
(V)時間変化モードの具体例
次に、上記時間変化モードについて、図8及び図9を用いて具体的に説明する。当該時間変化モードは、上述した如くカメラ1の視野範囲内にある景色等につき、指定された時間だけ先(未来)又は前(過去)におけるその景色等を、現在の当該景色等に代えて表示部2に表示するモードである。そして、当該時間変化モードの実行に当たっては、上述したカメラ1を介して認識し得る全方位の景色等について、例えば1時間毎の当該各景色等の画像(カメラ1の視野範囲内の画像)に対応する時間変化用画像情報が関連情報Smとして記憶部9から読み出される。
(V) Specific Example of Time Change Mode Next, the time change mode will be described in detail with reference to FIGS. In the time change mode, as described above, the scenery in the field of view of the
すなわち、当該時間変化モードにおいては、例えば表示部2に表示されている画像が図8(a)に示すような景色G5であるとき、その景色G5と同じアングルでみた例えば十年前の景色の表示が入力部4において指定されると(図3(a)ステップS2参照)、その指定された景色に対応する上記時間変化用画像情報を関連情報Smとして記憶部9から読み出し、当該読み出した時間変化用画像情報に対応する景色G5Bを図8(b)に例示するように表示部2に表示する(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。
That is, in the time change mode, for example, when the image displayed on the
また、これとは逆に図8(a)に示す景色G5と同じアングルでみた例えば十年先の景色の表示が入力部4において指定されると(図3(a)ステップS2参照)、その指定された景色に対応する上記時間変化用画像情報を関連情報Smとして記憶部9から読み出し、当該読み出した時間変化用画像情報に対応する景色G5Fを図8(c)に例示するように表示部2に表示する(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。
On the other hand, when display of a
なお、この場合に、現在の景色G5(図8(a)参照)内に存在しないオブジェクトについては、図8(c)に例示するようにその説明文を含む文字画像T3を景色G5F内に重畳して表示させると好適である。更に、図9に示すように、図8(c)に例示する時期よりも更に未来の状態を示す景色G5FF(言うまでも無く想像図である)に対応する時間変化用画像情報を関連情報Smとして記憶部9から読み出して表示部2に表示するように構成することもできる。
In this case, for an object that does not exist in the current scenery G5 (see FIG. 8A), a character image T3 including its explanatory text is superimposed in the scenery G5F as illustrated in FIG. 8C. It is preferable to display them. Further, as shown in FIG. 9, the time change image information corresponding to the scenery G5FF (which is of course an imaginary view) showing a future state further than the time illustrated in FIG. It is also possible to read out from the storage unit 9 and display it on the
(VI)天候変化モードの具体例
最後に、上記天候変化モードについて、図10を用いて具体的に説明する。当該天候変化モードは、上述した如く現在カメラ1の視野範囲内にある景色等につき、異なる天候におけるその景色等を現在の当該景色等に代えて表示部2に表示するモードである。そして、当該天候変化モードの実行に当たっては、上述したカメラ1を介して認識し得る全方位の景色等につき、種々の天候時における当該各景色等の画像に対応する天候変化用画像情報が関連情報Smとして記憶部9から読み出される。
(VI) Specific Example of Weather Change Mode Finally, the weather change mode will be specifically described with reference to FIG. The weather change mode is a mode in which, for example, the scenery in the field of view of the
すなわち、当該天候変化モードにおいては、例えば表示部2に表示されている画像が図10上に示すような景色G6であるとき、その景色G6と同じアングルから観た同じ視野範囲の景色であって天候が現在とは異なる他の天候時の景色を表示する旨が入力部4において指定されると(図3(a)ステップS2参照)、その指定された天候時の景色G6の視野範囲を表示するための上記天候変化用画像情報が関連情報Smとして記憶部9から読み出され、その読み出された天候変化用画像情報が、例えば図10下に例示する霧がかかった時の同じ視野範囲の景色G6Wの如く表示部2に表示される(図3(c)ステップS25乃至S27並びに図3(a)ステップS5及びS6参照)。
That is, in the weather change mode, for example, when the image displayed on the
なお、図10に示す場合においては、例えば実際の天候が図10下に示す如き霧がかかった状態の天候であるときに、対応する晴天時の景色G6に対応する画像を表示部2に表示することも、もちろん可能である。
In the case shown in FIG. 10, for example, when the actual weather is foggy weather as shown in the lower part of FIG. 10, an image corresponding to the corresponding sunny scenery G6 is displayed on the
以上夫々説明したように、実施形態に係る画像処理装置Sの動作によれば、カメラ1の視野範囲内の画像に対応する合成用画像情報Smxを関連情報Smに基づいて生成し、当該合成用画像情報Smxのみを含む表示情報Sdp、又は当該合成用画像情報Smxと当該視野範囲内の画像に対応する画像情報Svとを重畳させた表示情報Sdp、のいずれかを観察者に対して出力するので、当該視野範囲内の単調な画像だけでなく当該画像に対応する種々の情報を観察者に提供することができる。
As described above, according to the operation of the image processing apparatus S according to the embodiment, the composition image information Smx corresponding to the image within the visual field range of the
従って、上記観察者に対して付加価値に富んだ画像を提供することができる。 Therefore, an image rich in added value can be provided to the observer.
また、カメラ1の姿勢から観察者の視点を検出し、その視点上にある物に対応する関連情報Smから合成用画像情報Smxを生成して当該観察者に出力するので、当該観察者の現在の視点にある物(すなわち、観察者が興味を抱いている物)に関する情報をタイミングよく当該観察者に出力することができる。
Further, since the viewpoint of the observer is detected from the posture of the
更に、視野範囲内にある物に対応する文字情報を関連情報Smとして記憶し、これを対応する物の位置に重畳して合成用画像情報Smxとするので、現在見ている物の説明を、観察者が容易に取得することができる。 Furthermore, the character information corresponding to the object in the visual field range is stored as the related information Sm, and this is superimposed on the position of the corresponding object as the composite image information Smx. An observer can easily obtain it.
更にまた、通常の視野範囲内では視認できない物に対応する削除用画像情報を関連情報Smとして記憶し、当該物を隠蔽している他の物に対応する画像を当該削除用画像に置換して合成用画像情報Smxを生成するので、通常では視認できない物の画像を観察者に提供することができる。 Furthermore, the deletion image information corresponding to the object that cannot be visually recognized within the normal visual field range is stored as the related information Sm, and the image corresponding to the other object concealing the object is replaced with the deletion image. Since the compositing image information Smx is generated, an image of an object that cannot be visually recognized can be provided to the observer.
また、現在時刻と異なる時刻における視野範囲内の画像が関連情報Smとして記憶されており、これを用いて合成用画像情報Smxを生成するので、現在視認している視野範囲内の現在又は過去の状態を容易に観察者に提供することができる。 In addition, the image in the visual field range at a time different from the current time is stored as the related information Sm, and the image information for synthesis Smx is generated using the related information Sm. The state can be easily provided to the observer.
更に、水平線又は山の稜線等より更に遠方にあることで物理的には見えない物に対応する超望遠用画像を関連情報Smとして記憶しているので、更に興味深い情報を観察者に提供することができる。 Furthermore, since the super-telephoto image corresponding to an object that cannot be physically seen by being further away from the horizontal line or the ridgeline of the mountain is stored as the related information Sm, more interesting information is provided to the observer. Can do.
また、視野範囲内に存在するいずれかの物を他の物よりも強調して表示するための強調表示用画像を用いて合成用画像情報Smxを生成するので、例えば曇天時、雨天時或いは夜間でも、観察者が観たい物を他の物と区別して鮮明に加工し、当該観察者に提示することができる。 In addition, since the composite image information Smx is generated using the highlight display image for displaying any object existing in the field of view with emphasis over the other objects, for example, it is cloudy, rainy, or nighttime. However, the object that the observer wants to see can be clearly distinguished from other objects and presented to the observer.
更に、現在の視野範囲内にあるオブジェクトに関連する音を観察者に提供することができるので、観察者をしてより興味深く観察を行わせることができる。 In addition, sounds associated with objects within the current field of view can be provided to the observer, allowing the observer to make more interesting observations.
なお、図3に夫々示すフローチャートに対応する各プログラムを、フレキシブルディスク又は固体半導体メモリ等の書き換え可能なリムーバブルメモリデバイスやハードディスク等の情報記録媒体に記録しておき、又はインターネット等を介して取得して記録しておき、これらを汎用のコンピュータで読み出して実行することにより、当該コンピュータを実施形態に係る処理部6として活用することも可能である。
Each program corresponding to the flowchart shown in FIG. 3 is recorded in an information recording medium such as a rewritable removable memory device such as a flexible disk or a solid-state semiconductor memory, or a hard disk, or is acquired via the Internet or the like. It is also possible to utilize the computer as the
以上説明したように、本発明は遠方の景色等を観察する観察装置の分野に利用することが可能であり、特に景勝地の景色等を観察する観察装置の分野に適用すれば特に顕著な効果が得られる。 As described above, the present invention can be used in the field of observation devices for observing distant scenery and the like, and particularly remarkable effects when applied to the field of observation devices for observing scenery in scenic locations. Is obtained.
S 画像処理装置
1 カメラ
2 表示部
3 制御部
4 入力部
5 分配/合成部
6 処理部
7 認識部
8 加工部
9 記憶部
10 生成部
11 出力部
12 処理制御部
G1、G2、G3、G4、G5、G5B、G5F、G5FF、G6、G6W 景色
T1、T2、T2d、T3 文字画像
OBa、OBb、OBc オブジェクト
W カーソル
H 水平線
PP 強調画像
Sv 画像情報
Spos 状態情報
Sc1、Sc2、Sc10、Sc11、Sc12、Sc13 制御情報
Smx 合成用画像情報
Sdp 表示情報
Sin 操作情報
Srg 認識情報
Sm 関連情報
Smd 加工情報
So 生成情報
DESCRIPTION OF SYMBOLS S
Claims (11)
前記視野範囲内に存在する物に関連する関連情報を記憶する記憶手段と、
前記取得された画像情報及び前記記憶されている関連情報に基づいて、前記物に対応し且つ元の前記画像情報とは異なる対応情報を生成する生成手段と、
前記生成された対応情報のみ、又は当該生成された対応情報を前記取得された画像情報に重畳して得られる重畳情報のいずれか一方を、前記観察者に対して出力する出力手段と、
を備えることを特徴とする画像処理装置。 An acquisition means for optically acquiring image information corresponding to a visual field image corresponding to a visual field range of the observer operating the observation device for observing the scenery;
Storage means for storing relevant information related to objects present within the field of view;
Generation means for generating correspondence information corresponding to the object and different from the original image information based on the acquired image information and the stored related information;
Output means for outputting only one of the generated correspondence information or superimposition information obtained by superimposing the generated correspondence information on the acquired image information, to the observer;
An image processing apparatus comprising:
前記生成手段は、
前記観察装置の姿勢を検出する姿勢検出手段と、
前記検出された姿勢に基づいて、前記視野範囲内における前記観察者の視点の位置を検出する視点検出手段と、
前記検出された視点の位置に基づいて、前記視野範囲内において注目されている前記物を抽出する抽出手段と、
前記抽出された物に対応する前記関連情報を前記記憶手段から読み出す読出手段と、
を備え、
前記読み出された関連情報及び前記取得された画像情報に基づいて、前記対応情報を生成することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The generating means includes
Posture detecting means for detecting the posture of the observation device;
Viewpoint detection means for detecting a position of the viewpoint of the observer within the visual field range based on the detected posture;
Extracting means for extracting the object of interest in the visual field range based on the position of the detected viewpoint;
Reading means for reading out the related information corresponding to the extracted object from the storage means;
With
An image processing apparatus that generates the correspondence information based on the read related information and the acquired image information.
前記記憶手段は、前記視野範囲内にある前記物に対応する文字情報を前記関連情報として記憶しており、
前記生成手段は、当該文字情報が対応する前記物が存在する前記画像情報内の位置に当該文字情報を重畳して前記対応情報を生成することを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
The storage means stores character information corresponding to the object within the visual field range as the related information,
The image processing apparatus, wherein the generation unit generates the correspondence information by superimposing the character information on a position in the image information where the object corresponding to the character information exists.
前記記憶手段は、前記視野範囲内においては他の前記物に隠蔽されて見えない前記物の画像に対応する被隠蔽物画像情報を前記関連情報として記憶しており、
前記生成手段は、前記被隠蔽物画像に対応する前記物を前記視野範囲内において隠蔽している前記他の物に対応する隠蔽物画像を、当該被隠蔽物画像に置換して前記対応情報を生成することを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
The storage means stores concealed object image information corresponding to an image of the object that is concealed by another object within the visual field range as the related information,
The generating means replaces the concealed object image corresponding to the other object concealing the object corresponding to the concealed object image within the visual field range with the concealed object image, and the correspondence information is obtained. An image processing apparatus that generates the image processing apparatus.
前記記憶手段は、現在時刻と異なる時刻における前記視野画像に対応する他時刻画像情報を前記関連情報として記憶しており、
前記生成手段は、現在時刻における前記画像情報に代えて同一の前記視野範囲に相当する前記他時刻画像を前記対応情報として生成することを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 4,
The storage means stores other time image information corresponding to the visual field image at a time different from the current time as the related information,
The image processing apparatus, wherein the generating unit generates the other time image corresponding to the same visual field range as the correspondence information instead of the image information at a current time.
前記記憶手段は、前記視野範囲に対応し且つ前記観察者から観て水平線より遠方にある物に対応する遠方物画像を前記関連情報として記憶しており、
前記出力手段は、現在の前記画像情報に対して当該画像情報に対応する前記遠方物画像を重畳して出力することを特徴とする画像処理装置。 In the image processing device according to any one of claims 1 to 5,
The storage means stores, as the related information, a far object image corresponding to the visual field range and corresponding to an object far from the horizontal line as viewed from the observer.
The image processing apparatus, wherein the output means superimposes and outputs the far object image corresponding to the image information on the current image information.
前記生成手段は、前記視野範囲内に存在するいずれかの前記物を他の前記物よりも強調して表示するための前記対応情報を生成することを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 6,
The image processing apparatus, wherein the generation unit generates the correspondence information for displaying any of the objects existing in the visual field range with emphasis over the other objects.
前記記憶手段は、前記視野範囲内の前記物に対応する音を出力するための音情報を前記関連情報として記憶しており、
前記出力手段は、現在出力されている前記いずれか一方に対応する前記音を、当該音に対応する前記音情報を用いて出力する音出力手段を備えることを特徴とする画像処理装置。 In the image processing device according to any one of claims 1 to 7,
The storage means stores sound information for outputting a sound corresponding to the object in the visual field range as the related information,
The image processing apparatus, wherein the output unit includes a sound output unit that outputs the sound corresponding to any one of the currently output using the sound information corresponding to the sound.
前記視野範囲内に存在する物に関連する関連情報と、前記取得された画像情報と、に基づき、前記物に対応し且つ元の前記画像情報とは異なる対応情報を生成する生成工程と、
前記生成された対応情報のみ、又は当該生成された対応情報を前記取得された画像情報に重畳して得られる重畳情報のいずれか一方を、前記観察者に対して出力する出力工程と、
を含むことを特徴とする画像処理方法。 An acquisition step of optically acquiring image information corresponding to a visual field image corresponding to the visual field range of the observer operating the observation device for observing the scenery;
A generating step of generating correspondence information corresponding to the object and different from the original image information based on the related information related to the object existing in the visual field range and the acquired image information;
An output step of outputting only one of the generated correspondence information or superimposition information obtained by superimposing the generated correspondence information on the acquired image information, to the observer;
An image processing method comprising:
前記観察装置を操作する観察者の、当該観察装置における視野範囲に相当する視野画像に対応する画像情報を光学的に取得する取得手段、
前記視野範囲内に存在する物に関連する関連情報を記憶する記憶手段、
前記取得された画像情報及び前記記憶されている関連情報に基づいて、前記物に対応し且つ元の前記画像情報とは異なる対応情報を生成する生成手段、及び、
前記生成された対応情報のみ、又は当該生成された対応情報を前記取得された画像情報に重畳して得られる重畳情報のいずれか一方を、前記観察者に対して出力する出力手段、
として機能させることを特徴とする画像処理用プログラム。 A computer included in an image processing apparatus including an observation apparatus for observing a landscape;
An acquisition means for optically acquiring image information corresponding to a visual field image corresponding to a visual field range in the observation device of an observer who operates the observation device;
Storage means for storing relevant information relating to objects present within the field of view;
Generating means for generating correspondence information corresponding to the object and different from the original image information based on the acquired image information and the stored related information; and
Output means for outputting only one of the generated correspondence information or superimposition information obtained by superimposing the generated correspondence information on the acquired image information, to the observer;
An image processing program that is made to function as:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005235281A JP2007052484A (en) | 2005-08-15 | 2005-08-15 | Image processor, image processing method, program for image processing, and information recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005235281A JP2007052484A (en) | 2005-08-15 | 2005-08-15 | Image processor, image processing method, program for image processing, and information recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007052484A true JP2007052484A (en) | 2007-03-01 |
Family
ID=37916921
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005235281A Pending JP2007052484A (en) | 2005-08-15 | 2005-08-15 | Image processor, image processing method, program for image processing, and information recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007052484A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008288922A (en) * | 2007-05-18 | 2008-11-27 | Olympus Imaging Corp | Camera |
JP2009212714A (en) * | 2008-03-03 | 2009-09-17 | Olympus Imaging Corp | Imaging apparatus, image reproducing unit, photographing program, image reproduction program, method of controlling photographing, and method of reproducing image |
JP2011229679A (en) * | 2010-04-27 | 2011-11-17 | Senyo Kogyo Kk | Ferris wheel |
JP2012147495A (en) * | 2012-04-23 | 2012-08-02 | Olympus Imaging Corp | Imaging apparatus, image reproducing apparatus, photographing program, image reproduction program, photographing controlling method, and image reproducing method |
JP2020514900A (en) * | 2017-03-06 | 2020-05-21 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | Mixed reality viewer system and method |
JP2023082098A (en) * | 2018-03-26 | 2023-06-13 | ソニーグループ株式会社 | Information processing device and information processing method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003264740A (en) * | 2002-03-08 | 2003-09-19 | Cad Center:Kk | Observation scope |
JP2004227332A (en) * | 2003-01-23 | 2004-08-12 | Hitachi Ltd | Information display method |
JP2005020559A (en) * | 2003-06-27 | 2005-01-20 | Univ Waseda | Three-dimensional video presentation apparatus |
-
2005
- 2005-08-15 JP JP2005235281A patent/JP2007052484A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003264740A (en) * | 2002-03-08 | 2003-09-19 | Cad Center:Kk | Observation scope |
JP2004227332A (en) * | 2003-01-23 | 2004-08-12 | Hitachi Ltd | Information display method |
JP2005020559A (en) * | 2003-06-27 | 2005-01-20 | Univ Waseda | Three-dimensional video presentation apparatus |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008288922A (en) * | 2007-05-18 | 2008-11-27 | Olympus Imaging Corp | Camera |
JP2009212714A (en) * | 2008-03-03 | 2009-09-17 | Olympus Imaging Corp | Imaging apparatus, image reproducing unit, photographing program, image reproduction program, method of controlling photographing, and method of reproducing image |
JP2011229679A (en) * | 2010-04-27 | 2011-11-17 | Senyo Kogyo Kk | Ferris wheel |
JP2012147495A (en) * | 2012-04-23 | 2012-08-02 | Olympus Imaging Corp | Imaging apparatus, image reproducing apparatus, photographing program, image reproduction program, photographing controlling method, and image reproducing method |
JP2020514900A (en) * | 2017-03-06 | 2020-05-21 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | Mixed reality viewer system and method |
JP7257960B2 (en) | 2017-03-06 | 2023-04-14 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | Mixed reality viewer system and method |
JP2023082098A (en) * | 2018-03-26 | 2023-06-13 | ソニーグループ株式会社 | Information processing device and information processing method |
JP7438486B2 (en) | 2018-03-26 | 2024-02-27 | サターン ライセンシング エルエルシー | Information processing device, information processing method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9792954B2 (en) | Information processing apparatus and recording medium | |
US9858643B2 (en) | Image generating device, image generating method, and program | |
JP4072330B2 (en) | Display device and information processing method | |
US8564710B2 (en) | Photographing apparatus and photographing method for displaying information related to a subject | |
JP5406813B2 (en) | Panorama image display device and panorama image display method | |
US8994785B2 (en) | Method for generating video data and image photographing device thereof | |
US20150373414A1 (en) | Image processing apparatus, image processing method, and program | |
JP2001008232A (en) | Omnidirectional video output method and apparatus | |
JP5578011B2 (en) | Method and apparatus for superimposing a wide-angle image | |
JP2003264740A (en) | Observation scope | |
KR20190080779A (en) | Electronic apparatus and method for controlling the same | |
TW200829957A (en) | Display apparatus and display method | |
JP6332037B2 (en) | Image processing apparatus and method, and program | |
US11232636B2 (en) | Methods, devices, and systems for producing augmented reality | |
CN106296589B (en) | Panoramic image processing method and device | |
JP6126271B1 (en) | Method, program, and recording medium for providing virtual space | |
JP2007052484A (en) | Image processor, image processing method, program for image processing, and information recording medium | |
JP6390992B1 (en) | Street viewer system | |
JP6126272B1 (en) | Method, program, and recording medium for providing virtual space | |
CN106101576A (en) | Image pickup method, device and the mobile terminal of a kind of augmented reality photo | |
JP2010048851A (en) | Display apparatus and display method | |
KR20120074977A (en) | Educational materials and methods using augmented reality the performance of voice recognition and command | |
JP2017208808A (en) | Method of providing virtual space, program, and recording medium | |
JP7378510B2 (en) | street viewer system | |
KR100276433B1 (en) | Sightseeing Telescope System Using Augmented Reality and Its Operation Method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110118 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110705 |