JP6197405B2 - Information processing apparatus, information processing system, and information processing program - Google Patents

Information processing apparatus, information processing system, and information processing program Download PDF

Info

Publication number
JP6197405B2
JP6197405B2 JP2013136718A JP2013136718A JP6197405B2 JP 6197405 B2 JP6197405 B2 JP 6197405B2 JP 2013136718 A JP2013136718 A JP 2013136718A JP 2013136718 A JP2013136718 A JP 2013136718A JP 6197405 B2 JP6197405 B2 JP 6197405B2
Authority
JP
Japan
Prior art keywords
image
monitoring
display device
information processing
superimposed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013136718A
Other languages
Japanese (ja)
Other versions
JP2015011539A (en
Inventor
賢一 小澤
賢一 小澤
多聞 貞末
多聞 貞末
康宏 梶原
康宏 梶原
貴之 齋藤
貴之 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013136718A priority Critical patent/JP6197405B2/en
Publication of JP2015011539A publication Critical patent/JP2015011539A/en
Application granted granted Critical
Publication of JP6197405B2 publication Critical patent/JP6197405B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、情報処理システム、および情報処理プログラムに関する。   The present invention relates to an information processing apparatus, an information processing system, and an information processing program.

今日において、現実の環境から知覚に与えられる情報に、コンピュータ装置等で生成した情報を重ね合わせ、補足的な情報を与える拡張現実感(AR:Augmented Reality)と呼ばれる技術が知られている。この拡張現実感に関しては、例えば特許文献1(特開2007−228315号公報)に、建屋内における構造物の建設工事及び点検支援装置として、静止物の位置と画像の合成に関する基本的な技術が開示されている。   2. Description of the Related Art Today, a technique called augmented reality (AR) is known in which information generated by a computer device or the like is superimposed on information given to perception from an actual environment to give supplementary information. Regarding this augmented reality, for example, Patent Document 1 (Japanese Patent Laid-Open No. 2007-228315) discloses a basic technique relating to composition of a stationary object and an image as a construction construction and inspection support device for a structure in a building. It is disclosed.

拡張現実感を提供する場合、例えばヘッドマウントディスプレイ(HMD:Head Mounted Display)等が用いられる。この場合、動画撮像装置で撮像した現実空間の画像に、動画撮像装置の位置及び姿勢に応じて生成した仮想空間の画像を重畳してHMDに表示する。仮想空間の画像は、例えばコンピュータグラフィックスにより描画された仮想物体または文字情報等である。   When providing augmented reality, for example, a head mounted display (HMD) is used. In this case, the virtual space image generated in accordance with the position and orientation of the moving image capturing apparatus is superimposed on the real space image captured by the moving image capturing apparatus and displayed on the HMD. The virtual space image is, for example, a virtual object or character information drawn by computer graphics.

このような情報処理装置は、患者の体表面に体内の様子を重畳表示する手術支援に応用されている。また、情報処理装置は、市街地を撮像することで得られる現実空間の画像中に含まれる著名な建造物等の名称または案内を、仮想空間画像として重畳表示するナビゲーションシステムに応用されている。また、情報処理装置は、特許文献2(特開2004−145657号公報)に開示されているように、当時の建築物等の仮想空間を現実空間に重ね合わせて表示するバーチャル博物館システムにも応用されている。   Such an information processing apparatus is applied to surgical support for displaying a state of a body in a superimposed manner on a patient's body surface. In addition, the information processing apparatus is applied to a navigation system that superimposes and displays a name or guidance of a famous building or the like included in an image of a real space obtained by capturing an image of a city area as a virtual space image. In addition, as disclosed in Patent Document 2 (Japanese Patent Application Laid-Open No. 2004-145657), the information processing apparatus is also applied to a virtual museum system that displays a virtual space such as a building at the time superimposed on the real space. Has been.

また、情報処理装置は、特許文献3(特開2009−289035号公報)に開示されている、現実空間の中で移動する物体を認識し、この移動する物体に虚像を重ねてリアルタイムに表示する画像表示システムに応用されている。この画像表示システムは、例えば見学した遺跡に現存している礎石に対して、当時の建造物を画像合成する。また、画像表示システムは、周囲の観光客の画像に対して、当時の衣装を画像合成する。これにより、当時の建築物および当時の人々が行き交う様子等を仮想的に再現可能となっている。   Further, the information processing apparatus recognizes an object moving in the real space, which is disclosed in Patent Document 3 (Japanese Patent Laid-Open No. 2009-289035), and displays a virtual image on the moving object in real time. Applied to image display system. This image display system, for example, synthesizes the image of the building at that time against the foundation stones existing in the visited ruins. Further, the image display system synthesizes the costumes of the time with the images of the surrounding tourists. This makes it possible to virtually reproduce the buildings at the time and the appearance of people at the time.

しかし、このように特許文献1〜特許文献3等に応用されている従来の情報処理装置は、ユーザが現実に見えている監視対象物(視界に入っているもの)に対して虚像(付加情報)を重畳する技術である。このため、天井、壁、または他の建築物等の障害物、さらには距離等の影響で、現在の位置から見えない監視対象物に対しては、付加情報の重畳が困難となる問題があった。   However, the conventional information processing apparatus applied to Patent Literature 1 to Patent Literature 3 and the like in this way is a virtual image (additional information) with respect to a monitoring object (what is in the field of view) that the user actually sees. ). For this reason, there is a problem that it is difficult to superimpose additional information on an object that cannot be seen from the current position due to an obstacle such as a ceiling, a wall, or another building, and also a distance. It was.

本発明は、上述の課題に鑑みてなされたものであり、現在の位置から見えない監視対象物に対する付加情報を表示する情報処理装置、情報処理システム、および情報処理プログラムの提供を目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an information processing apparatus, an information processing system, and an information processing program that display additional information for a monitoring target that cannot be seen from the current position.

上述した課題を解決し、目的を達成するために、本発明は、画像表示装置の位置および方向に対応する監視対象物の監視対象画像を生成する対象画像生成手段と、画像表示装置の位置および方向に対応する、監視対象物の視認の障害となる障害物の障害物画像を生成する障害物画像生成手段と、画像表示装置の位置および方向に対応するように、障害物画像上に監視対象画像を視認可能となるように重畳すると共に、監視対象物に対応する付加情報を重畳して重畳画像を生成し、画像表示装置の位置から画像表示装置および監視対象物の相対距離が所定以下の距離となったことを検出した際に、重畳画像の生成を停止して前記付加情報のみを生成する重畳画像生成手段と、重畳画像、又は、付加情報のみを画像表示装置に送信する送信手段とを有する。 In order to solve the above-described problems and achieve the object, the present invention provides target image generation means for generating a monitoring target image of a monitoring target corresponding to the position and direction of the image display device, the position of the image display device, and Obstacle image generation means for generating an obstacle image of an obstacle that obstructs the visual recognition of the monitoring object corresponding to the direction, and the monitoring target on the obstacle image so as to correspond to the position and direction of the image display device The image is superimposed so that the image can be visually recognized, and additional information corresponding to the monitoring object is superimposed to generate a superimposed image . The relative distance between the image display device and the monitoring object from the position of the image display device is equal to or less than a predetermined value. when it is detected that a distance, and the superimposed image generating means for generating only the additional information to stop the generation of the superimposed image, the superimposed image, or a transmission means for transmitting only the image display device the additional information A.

本発明によれば、現在の位置から見えない監視対象物に対する付加情報を表示することができるという効果を奏する。   According to the present invention, it is possible to display additional information for a monitoring object that is not visible from the current position.

図1は、ユーザが希望する店舗である監視対象物、および監視対象物の前面に存在する他の店舗等の障害物を、斜め上から見ている様子を示す図である。FIG. 1 is a diagram illustrating a state in which an obstruction such as a monitored object that is a store desired by a user and other stores existing in front of the monitored object are viewed from diagonally above. 図2は、障害物の角部を正面とする視点から、ユーザが障害物を見ている様子を示す図である。FIG. 2 is a diagram illustrating a state where the user is looking at the obstacle from a viewpoint in which the corner portion of the obstacle is the front. 図3は、第1の実施の形態の情報処理システムの重畳画像の表示例を示す図である。FIG. 3 is a diagram illustrating a display example of a superimposed image of the information processing system according to the first embodiment. 図4は、第1の実施の形態の情報処理システムのシステム構成図である。FIG. 4 is a system configuration diagram of the information processing system according to the first embodiment. 図5は、実施の形態の情報処理システムの各部の処理を説明するためのタイムチャートである。FIG. 5 is a time chart for explaining processing of each unit of the information processing system according to the embodiment. 図6は、第1の実施の形態の情報処理システムの各部の処理を説明するための模式図である。FIG. 6 is a schematic diagram for explaining processing of each unit of the information processing system according to the first embodiment. 図7は、第1の実施の形態の情報処理システムに設けられている画像表示装置の動作を示すフローチャートである。FIG. 7 is a flowchart illustrating the operation of the image display apparatus provided in the information processing system according to the first embodiment. 図8は、第1の実施の形態の情報処理システムに設けられているサーバ装置の動作を示すフローチャートである。FIG. 8 is a flowchart illustrating the operation of the server device provided in the information processing system according to the first embodiment. 図9は、第1の実施の形態の情報処理システムに設けられている監視装置の動作を示すフローチャートである。FIG. 9 is a flowchart illustrating the operation of the monitoring device provided in the information processing system according to the first embodiment. 図10は、第2の実施の形態の情報処理システムのシステム構成図である。FIG. 10 is a system configuration diagram of an information processing system according to the second embodiment. 図11は、第2の実施の形態の情報処理システムの重畳画像の表示例を示す図である。FIG. 11 is a diagram illustrating a display example of a superimposed image of the information processing system according to the second embodiment. 図12は、第2の実施の形態の情報処理システムに設けられている画像表示装置の動作を示すフローチャートである。FIG. 12 is a flowchart illustrating the operation of the image display apparatus provided in the information processing system according to the second embodiment. 図13は、第2の実施の形態の情報処理システムに設けられているサーバ装置の動作を示すフローチャートである。FIG. 13 is a flowchart illustrating the operation of the server apparatus provided in the information processing system according to the second embodiment. 図14は、第2の実施の形態の情報処理システムに設けられている監視対象選択部の動作を示すフローチャートである。FIG. 14 is a flowchart illustrating the operation of the monitoring target selection unit provided in the information processing system according to the second embodiment. 図15は、第2の実施の形態の情報処理システムに設けられている監視装置の動作を示すフローチャートである。FIG. 15 is a flowchart illustrating the operation of the monitoring device provided in the information processing system according to the second embodiment. 図16は、第3の実施の形態の情報処理システムのシステム構成図である。FIG. 16 is a system configuration diagram of an information processing system according to the third embodiment. 図17は、監視対象物に対する相対距離と相対角度の関係を説明するための図である。FIG. 17 is a diagram for explaining the relationship between the relative distance and the relative angle with respect to the monitoring object. 図18は、第3の実施の形態の情報処理システムに設けられている画像表示装置の動作を示すフローチャートである。FIG. 18 is a flowchart illustrating the operation of the image display apparatus provided in the information processing system according to the third embodiment. 図19は、第3の実施の形態の情報処理システムに設けられているサーバ装置の動作を示すフローチャートである。FIG. 19 is a flowchart illustrating the operation of the server device provided in the information processing system according to the third embodiment. 図20は、第3の実施の形態の情報処理システムに設けられている監視装置の動作を示すフローチャートである。FIG. 20 is a flowchart illustrating the operation of the monitoring device provided in the information processing system according to the third embodiment.

以下に添付図面を参照して、情報処理装置、情報処理システム、および情報処理プログラムの実施の形態を詳細に説明する。   Hereinafter, embodiments of an information processing apparatus, an information processing system, and an information processing program will be described in detail with reference to the accompanying drawings.

(第1の実施の形態)
第1の実施の形態の情報処理システムは、現実空間には存在するが、障害物等の影響で現在の位置から見えない監視対象物1の画像に対して付加情報を付加して表示する。具体的には、例えばユーザが、複数の店舗が混在するデパートメントストアの建物の1階に居る状態において、気になる店舗は複数あるが、床、壁、および他の店舗が障害物となり、また、距離が遠いことにより、どの店舗も現在の位置からは視認できないとする。この場合、ユーザは、店舗を視認できない位置に居ることから、店舗の混雑度および商品の在庫等の店舗の現状を把握することは困難となる。
(First embodiment)
The information processing system according to the first embodiment adds and displays additional information to the image of the monitoring target 1 that exists in the real space but cannot be seen from the current position due to the influence of an obstacle or the like. Specifically, for example, in a state where the user is on the first floor of a department store building where a plurality of stores are mixed, there are a plurality of stores of interest, but the floor, walls, and other stores become obstacles, Further, it is assumed that no store can be visually recognized from the current position due to a long distance. In this case, since the user is in a position where the store cannot be visually recognized, it is difficult to grasp the current state of the store such as the degree of congestion of the store and the stock of the product.

このような状況において、第1の実施の形態の情報処理システムは、現在位置と希望する店舗との間に存在する障害物を仮想的に取り除くことで見える状態とした希望する店舗の画像を、携帯型のウェアラブルな表示装置に表示する。また、情報処理システムは、例えば現時点からの距離および方角を示す情報、店舗の現在の状況を示す情報、推薦品を示す情報等の付加情報を、店舗の画像に重畳して表示する。   In such a situation, the information processing system according to the first embodiment displays an image of a desired store that is made visible by virtually removing an obstacle existing between the current position and the desired store. Display on a portable wearable display. Further, the information processing system displays, for example, additional information such as information indicating the distance and direction from the current time, information indicating the current state of the store, information indicating recommended items, and the like superimposed on the image of the store.

すなわち、第1の実施の形態の情報処理システムは、サーバ装置、携帯型のウェアラブルな表示装置および判定装置を、ネットワークを介して相互に接続する。判定装置は、ユーザの現在位置から視認困難な監視対象物1を監視し、リアルタイムで監視対象物1の位置および混雑度等を判定して付加情報として提供する。また、サーバ装置は、監視対象物1との間の障害物を仮想的に取り除き、データベースに登録された監視対象物1のモデルに付加情報を重畳して、携帯型のウェアラブルな表示装置に送信する。   That is, the information processing system of the first embodiment connects a server device, a portable wearable display device, and a determination device to each other via a network. The determination device monitors the monitoring object 1 that is difficult to view from the current position of the user, determines the position and the degree of congestion of the monitoring object 1 in real time, and provides the additional information as additional information. In addition, the server device virtually removes an obstacle between the monitoring object 1 and superimposes additional information on the model of the monitoring object 1 registered in the database, and transmits it to the portable wearable display device. To do.

この第1の実施の形態の情報処理システムの場合、ある程度の方向がわかる精度で監視対象物1の画像および付加情報を表示すればよい。このため、一般的な拡張現実感(AR:Augmented Reality)の技術で求められる表示精度は、それほど必要ない。このため、ARマーカまたは建物の特徴点を検出するために必要な、ユーザが現在見ている光景を撮像する撮像部も不要とすることができる。   In the case of the information processing system according to the first embodiment, the image of the monitoring target 1 and the additional information may be displayed with an accuracy that allows a certain degree of direction to be understood. For this reason, the display accuracy required by a general augmented reality (AR) technology is not so necessary. For this reason, it is also possible to eliminate the need for an image capturing unit that captures a scene currently being viewed by the user, which is necessary for detecting the AR marker or the feature point of the building.

以下、第1の実施の形態の情報処理システムについて詳細に説明する。図1は、例えばユーザが希望する店舗である監視対象物1、および監視対象物1の前面に存在する他の店舗等の障害物2を、斜め上の視点Aから見ている様子を示している。また、図2は、障害物2の角部を正面とする視点Bから、ユーザが障害物2を見ている様子を示している。図1からわかるように、この場合、監視対象物1および障害物2は、略々同じ高さとなっている。また、障害物2に隠れて、円柱状の監視対象物1が存在している。また、この例において、ユーザが希望する店舗である監視対象物1は、付加情報の付加対象となっている。   Hereinafter, the information processing system according to the first embodiment will be described in detail. FIG. 1 shows a state in which, for example, a monitoring target 1 that is a store desired by the user and an obstacle 2 such as another store that exists in front of the monitoring target 1 are viewed from an oblique viewpoint A. Yes. FIG. 2 shows a situation where the user is viewing the obstacle 2 from the viewpoint B with the corner of the obstacle 2 as the front. As can be seen from FIG. 1, in this case, the monitored object 1 and the obstacle 2 are substantially the same height. Further, a cylindrical monitoring target 1 is present behind the obstacle 2. Moreover, in this example, the monitoring target object 1 which is a store desired by the user is an additional information addition target.

図2の視点Bの場合、ユーザと監視対象物1との間に、同じ高さの障害物2が存在し、ユーザから監視対象物1が見えない状況となる。監視対象物1が見えない状況としては、例えばショッピングセンターで、この場合の監視対象物1となる、希望する店舗が他の店舗および壁等の障害物を挟んだ先に存在する場合がある。また、この場合の監視対象物1となる、希望する店舗が、床という障害物を挟んで、現在位置に対応する階とは異なる階に存在する場合がある。さらに、自分の目線より高い石垣に囲まれた狭い路地を自転車で走行しており、数メートル先に十字路があるが、進行方向に対して垂直な方向を走る車や歩行者(=この場合の監視対象物1)が、石垣等の障害物で見えない場合がある。   In the case of the viewpoint B in FIG. 2, the obstacle 2 having the same height exists between the user and the monitoring target 1, and the monitoring target 1 cannot be seen from the user. As a situation in which the monitoring target 1 cannot be seen, for example, in a shopping center, there is a case where a desired store that becomes the monitoring target 1 in this case is present in front of another store and an obstacle such as a wall. In addition, there is a case where a desired store, which is the monitoring object 1 in this case, exists on a floor different from the floor corresponding to the current position with an obstacle called a floor interposed therebetween. In addition, we are riding a narrow alley surrounded by a stone wall higher than my line of sight, and there is a cross road several meters ahead, but a car or pedestrian running in a direction perpendicular to the direction of travel (= in this case) The monitored object 1) may not be visible due to obstacles such as stone walls.

このような場合に、実施の形態の情報処理システムは、例えば図3に示すように監視対象物1との間の障害物2を透視し、または、取り除き、障害物2の先の監視対象物1を表示する。また、情報処理システムは、監視対象物1に対応する文字および画像等の付加情報を監視対象物1に重畳させて表示する。これにより、ユーザの現在位置から視認困難な位置に存在する監視対象物1を視認可能とすると共に、監視対象物1の現状(付加情報)を把握可能とすることができる。このように、実施の形態の情報処理システムは、現在位置からは、視認困難な監視対象物1に対する情報の表示を可能とする。   In such a case, the information processing system of the embodiment sees or removes the obstacle 2 between the monitoring object 1 and the monitoring object ahead of the obstacle 2 as shown in FIG. 1 is displayed. In addition, the information processing system displays additional information such as characters and images corresponding to the monitoring target object 1 superimposed on the monitoring target object 1. Thereby, while being able to visually recognize the monitoring target object 1 which exists in the position where visual recognition is difficult from a user's present position, the present condition (additional information) of the monitoring target object 1 can be grasped | ascertained. As described above, the information processing system according to the embodiment enables display of information on the monitoring target 1 that is difficult to view from the current position.

図4に、第1の実施の形態の情報処理システムのシステム構成図を示す。図4に示すように、情報処理システムは、画像表示装置11および情報提供装置12を、例えば無線通信回線等のネットワーク(NW)13を介して相互に接続することで構成されている。   FIG. 4 shows a system configuration diagram of the information processing system according to the first embodiment. As shown in FIG. 4, the information processing system is configured by connecting an image display device 11 and an information providing device 12 to each other via a network (NW) 13 such as a wireless communication line.

情報提供装置12は、サーバ装置14、重畳画像データベース15、および監視装置16を有している。サーバ装置14は、重畳画像抽出部17、表示用画像送信部18、重畳画像調整部19、画像合成部20および付加情報受信部21を有している。重畳画像抽出部17は、対象画像生成手段の一例である。重畳画像調整部19は、障害物画像生成手段および重畳画像生成手段の一例である。表示用画像送信部18は、送信手段の一例である。重畳画像データベース15は、簡易3D(Three Dimensions)モデルデータ蓄積部22を有している。監視装置16は、CPU、ハードディスクドライブ、ROM、RAM等の記憶部を備える他、付加情報記憶部24、監視位置保持部25、付加情報送信部26、付加情報生成部27、対象物監視部28、相対位置計算部29、および測位データ受信部30を有している。   The information providing device 12 includes a server device 14, a superimposed image database 15, and a monitoring device 16. The server device 14 includes a superimposed image extraction unit 17, a display image transmission unit 18, a superimposed image adjustment unit 19, an image composition unit 20, and an additional information reception unit 21. The superimposed image extraction unit 17 is an example of a target image generation unit. The superimposed image adjusting unit 19 is an example of an obstacle image generating unit and a superimposed image generating unit. The display image transmission unit 18 is an example of a transmission unit. The superimposed image database 15 includes a simple 3D (Three Dimensions) model data storage unit 22. The monitoring device 16 includes a storage unit such as a CPU, a hard disk drive, a ROM, and a RAM, as well as an additional information storage unit 24, a monitoring position holding unit 25, an additional information transmission unit 26, an additional information generation unit 27, and an object monitoring unit 28. , A relative position calculator 29 and a positioning data receiver 30.

画像表示装置11は、付加情報を付加した画像を表示する。画像表示装置11は、位置・方向取得部31、測位データ送信部32、表示用画像受信部33、および画像出力部34等を有している。   The image display device 11 displays an image with additional information added. The image display device 11 includes a position / direction acquisition unit 31, a positioning data transmission unit 32, a display image reception unit 33, an image output unit 34, and the like.

なお、画像表示装置11、サーバ装置14、重畳画像データベース15、および監視装置16の各部は、後述する情報処理プログラム等によりソフトウェア的に実現してもよいし、全部または一部をハードウェアで実現してもよい。   Note that each unit of the image display device 11, the server device 14, the superimposed image database 15, and the monitoring device 16 may be realized by software by an information processing program or the like to be described later, or may be realized in whole or in part by hardware. May be.

画像表示装置11は、ユーザが携帯可能な大きさで、できればHMD(Head Mounted Display)や網膜操作ディスプレイ等のウェアラブルであることが望ましい。また、いわゆるタブレット端末装置、携帯ゲーム機等のように、表示部および通信機能を備える携帯型の端末装置でもよい。   It is desirable that the image display device 11 is of a size that can be carried by the user, and preferably wearable such as an HMD (Head Mounted Display) or a retina operation display. In addition, a portable terminal device having a display unit and a communication function may be used, such as a so-called tablet terminal device or a portable game machine.

位置・方向取得部31は、例えばGPSセンサ、および6軸のジャイロセンサを有しており、画像表示装置11の現在の位置と方向(=ユーザの現在位置と視線方向)を示す測位データを生成する。GPSは、「Global Positioning System」の略記である。測位データ送信部32は、位置・方向取得部31によって取得された測位データを、ネットワーク13を介して監視装置16にリアルタイムに送信する。表示用画像受信部33は、サーバ装置14によって生成された付加情報を含んだ重畳画像を受信する。   The position / direction acquisition unit 31 includes, for example, a GPS sensor and a six-axis gyro sensor, and generates positioning data indicating the current position and direction of the image display device 11 (= user's current position and line-of-sight direction). To do. GPS is an abbreviation for “Global Positioning System”. The positioning data transmission unit 32 transmits the positioning data acquired by the position / direction acquisition unit 31 to the monitoring device 16 in real time via the network 13. The display image receiving unit 33 receives a superimposed image including additional information generated by the server device 14.

画像出力部34は、表示用画像受信部33で受信した重畳画像をリアルタイムに表示する、例えば液晶ディスプレイ装置のような表示装置となっている。画像の表示は、基本的に置換合成でも透過合成でもよい。ただし、透過合成の場合は透過率0%で出力することを前提とする。置換合成は、実際の画像の一部を除去し、同じ位置に合成後の画像で置き換える合成方法である。透過合成は、実際の画像の一部をそのまま残し、合成後の画像を重ね合わせる合成方法である。透過合成の場合は、実際の画像の一部が、一定の比率(以下、「透過率」)で透けて見える表示法である。ここでいう、透過率が0%とは、「置換合成」と同義である。なお光学的手段を利用した画像表示装置では透過合成が前提となる。   The image output unit 34 is a display device such as a liquid crystal display device that displays the superimposed image received by the display image receiving unit 33 in real time. The display of the image may basically be permutation synthesis or transmission synthesis. However, in the case of transmission composition, it is assumed that output is performed with a transmittance of 0%. The replacement synthesis is a synthesis method in which a part of an actual image is removed and replaced with the synthesized image at the same position. The transparent composition is a composition method in which a part of an actual image is left as it is and the images after composition are superimposed. In the case of transmission composition, this is a display method in which a part of an actual image can be seen through at a constant ratio (hereinafter referred to as “transmittance”). Here, the transmittance of 0% is synonymous with “substitution synthesis”. An image display apparatus using optical means is premised on transmission composition.

監視装置16の測位データ受信部30は、画像表示装置11から送信される測位データを受信する。対象物監視部28は、ユーザの現在位置から視認は困難であるが、付加情報を表示したい監視対象物1を撮像しデジタルデータ化する。対象物監視部28としては、防犯用等に多数設置されている監視カメラ装置等を用いることができる。   The positioning data receiving unit 30 of the monitoring device 16 receives the positioning data transmitted from the image display device 11. Although the object monitoring unit 28 is difficult to visually recognize from the current position of the user, the object monitoring unit 28 images the monitoring object 1 for which additional information is to be displayed and converts it into digital data. As the object monitoring unit 28, a number of surveillance camera devices installed for crime prevention can be used.

監視位置保持部25は、監視対象物1に対する対象物監視部28の相対位置、角度、絶対位置情報を保持する。なお、一例ではあるが、相対位置、角度、絶対位置の各情報は、それぞれ固定値となっている。相対位置計算部29は、画像表示装置11から送信される測位データと、監視位置保持部25が保持している相対位置、角度、絶対位置の各情報より、監視対象物1からの相対位置と、画像表示装置11が監視対象物1の方向を向いているかを計算する。   The monitoring position holding unit 25 holds the relative position, angle, and absolute position information of the object monitoring unit 28 with respect to the monitoring object 1. In addition, although it is an example, each information of a relative position, an angle, and an absolute position is a fixed value, respectively. The relative position calculation unit 29 determines the relative position from the monitoring object 1 based on the positioning data transmitted from the image display device 11 and the relative position, angle, and absolute position information held by the monitoring position holding unit 25. Then, it is calculated whether the image display device 11 is facing the direction of the monitoring object 1.

付加情報生成部27は、リアルタイムの撮像情報や測位データ、予め設定したその他、推薦情報等を元にリアルタイムの混雑度や監視対象物1の方向や距離、監視対象物1の推薦情報の付加情報等を画像として生成する。付加情報記憶部24は、付加情報画像生成のために使用した付加情報を記憶する。付加情報送信部26は、生成された付加情報と計算された相対位置情報をサーバ装置14に送信する。   The additional information generation unit 27 is based on real-time imaging information and positioning data, preset other information such as recommendation information, real-time congestion degree, direction and distance of the monitoring target 1, and additional information on the monitoring target 1 recommendation information. Etc. are generated as an image. The additional information storage unit 24 stores additional information used for generating the additional information image. The additional information transmission unit 26 transmits the generated additional information and the calculated relative position information to the server device 14.

重畳画像データベース15の簡易3Dモデルデータ蓄積部22は、付加情報を提供したい監視対象物1の3Dモデルやその他文字、画像情報等を蓄積している。監視対象物1の3Dモデル等は、いつでも取り出し、編集可能となっている。   The simple 3D model data storage unit 22 of the superimposed image database 15 stores a 3D model of the monitoring target 1 for which additional information is to be provided, other characters, image information, and the like. The 3D model or the like of the monitoring object 1 can be taken out and edited at any time.

サーバ装置14の重畳画像抽出部17は、重畳画像データベース15から監視対象物1の3Dモデルを取得する。付加情報受信部21は、監視装置16から送信された付加情報および相対位置情報を受信して蓄積する。重畳画像調整部19は、監視装置16から受信した相対位置情報を元に、蓄積画像データベース15から抽出した3Dモデル(重畳画像)の角度をユーザからの視点に調整し、2次元画像に変換する。   The superimposed image extraction unit 17 of the server device 14 acquires a 3D model of the monitoring target 1 from the superimposed image database 15. The additional information receiving unit 21 receives and accumulates additional information and relative position information transmitted from the monitoring device 16. The superimposed image adjustment unit 19 adjusts the angle of the 3D model (superimposed image) extracted from the accumulated image database 15 based on the relative position information received from the monitoring device 16 and converts it into a two-dimensional image. .

画像合成部20は、デフォルトとして持っている監視対象物1との間の障害物2を仮想的に消去するための白塗り画像と、重畳画像調整部19にて調整された重畳画像と、監視装置16で生成された付加情報とを合成する。表示用画像送信部18は、画像表示装置11の測位データから画像表示装置11が監視対象物1の方向を向いているかという情報と、画像合成部20にて生成された重畳画像を送信する機能を持つ。第1の実施の形態の情報処理システムは、このような構成により、障害物2の影響で見えない監視対象物1の情報をユーザに提供する。   The image composition unit 20 has a white-painted image for virtually erasing the obstacle 2 between the monitoring object 1 and the superimposition image adjusted by the superimposition image adjustment unit 19, and the monitoring The additional information generated by the device 16 is combined. The display image transmission unit 18 transmits information indicating whether the image display device 11 is facing the monitoring target 1 from the positioning data of the image display device 11 and a superimposed image generated by the image composition unit 20. have. With such a configuration, the information processing system according to the first embodiment provides the user with information on the monitoring target 1 that cannot be seen due to the influence of the obstacle 2.

図5に、実施の形態の情報処理システムの各部の処理を説明するためのタイムチャートを示す。また、図6に、実施の形態の情報処理システムの各部の処理を説明するための模式図を示す。まず、図5のタイムチャートのステップS1では、画像表示装置11の位置・方向取得部31が、画像表示装置11の現在の位置や方向等をリアルタイムで計測して測位データを生成する。そして、図5および図6のステップS2において、測位データ送信部32が、監視装置16に測位データを送信する。   FIG. 5 shows a time chart for explaining processing of each part of the information processing system according to the embodiment. FIG. 6 is a schematic diagram for explaining processing of each unit of the information processing system according to the embodiment. First, in step S1 of the time chart of FIG. 5, the position / direction acquisition unit 31 of the image display device 11 measures the current position and direction of the image display device 11 in real time to generate positioning data. 5 and 6, the positioning data transmission unit 32 transmits the positioning data to the monitoring device 16.

監視装置16の測位データ受信部30は、ステップS3で測位データを受信する。監視装置16は、ステップS4において、対象物監視部28で撮像された監視対象物1の撮像画像の現在の状況を解析する。また、監視装置16は、ステップS5において、相対位置計算部29が、受信した測位データから、画像表示装置11と監視対象物1との相対位置を計算する。また、監視装置16は、ステップS6において、対象物監視部28で撮像された監視対象物1のリアルタイムの状況および推薦情報等の付加情報の画像を生成する。付加情報としては、一例として、図6に示すように画像表示装置11から監視対象物1までの距離(残り○m)、監視対象物1の現在の状況を示す情報(混雑度□%)、および監視対象物1の推薦情報(タイムセール中)が生成される。そして、図5および図6のステップS7において、このような付加情報が、相対位置計算部29で計算された相対位置情報と共にサーバ装置14に送信される。   The positioning data receiving unit 30 of the monitoring device 16 receives positioning data in step S3. In step S <b> 4, the monitoring device 16 analyzes the current state of the captured image of the monitoring target 1 captured by the target monitoring unit 28. In step S5, the monitoring device 16 calculates the relative position between the image display device 11 and the monitoring target 1 from the received positioning data by the relative position calculation unit 29. Moreover, the monitoring apparatus 16 produces | generates the image of the additional information, such as the real-time condition and recommendation information of the monitoring target object 1 imaged by the target object monitoring part 28 in step S6. As additional information, as an example, as shown in FIG. 6, the distance from the image display device 11 to the monitoring object 1 (remaining ○ m), information indicating the current state of the monitoring object 1 (congestion degree □%), And the recommendation information (during time sale) of the monitoring object 1 is generated. 5 and 6, such additional information is transmitted to the server device 14 together with the relative position information calculated by the relative position calculation unit 29.

サーバ装置14の付加情報受信部21は、ステップS8において、監視装置16から送信された付加情報および相対位置情報を受信する。図5および図6のステップS9では、重畳画像抽出部17が、重畳画像データベース15に予め登録されている監視対象物1の簡易3Dモデルデータを取得する。   The additional information receiving unit 21 of the server device 14 receives the additional information and the relative position information transmitted from the monitoring device 16 in step S8. 5 and 6, the superimposed image extraction unit 17 acquires simple 3D model data of the monitoring object 1 registered in advance in the superimposed image database 15.

サーバ装置14の重畳画像調整部19は、ステップS10において、監視装置16から付加情報と共に受信した相対位置情報で示されるユーザの視点の方向から、仮想世界において監視対象物1の3Dモデルを見たときの見え方を計算し、2D平面の画像に変換する。そして、重畳画像調整部19は、画像表示装置11の表示領域内における監視対象物1の2D画像の表示位置を調整する。なお、重畳画像調整部19は、画像表示装置11と監視対象物1との間の障害物2は透視でき、かつ、監視対象物1の簡易3Dモデルの見える大きさも一定という前提で、上述の表示位置の調整を行う。   In step S10, the superimposed image adjustment unit 19 of the server device 14 viewed the 3D model of the monitoring target 1 in the virtual world from the direction of the viewpoint of the user indicated by the relative position information received together with the additional information from the monitoring device 16. The appearance of the time is calculated and converted to a 2D plane image. Then, the superimposed image adjustment unit 19 adjusts the display position of the 2D image of the monitoring target 1 within the display area of the image display device 11. The superimposed image adjustment unit 19 is based on the premise that the obstacle 2 between the image display device 11 and the monitoring target 1 can be seen through and the size of the simple 3D model of the monitoring target 1 is constant. Adjust the display position.

次に、サーバ装置14の画像合成部20は、ステップS11において、予めデフォルトで持っている画面全体の背景になる白塗り画像と、2D平面画像に変換した監視対象物1の画像と、監視装置16から受信した付加情報とを、1画面の画像データとなるように合成処理して重畳画像データを生成する。サーバ装置14の表示用画像送信部18は、図5および図6のステップS12において、この重畳画像データを、無線通信網等のネットワーク13を介して画像表示装置11に送信する。   Next, in step S11, the image composition unit 20 of the server device 14 has a white-painted image as a background of the entire screen that is previously held as a default, an image of the monitoring object 1 converted into a 2D planar image, and a monitoring device. The additional information received from 16 is combined so as to be image data of one screen, and superimposed image data is generated. The display image transmission unit 18 of the server device 14 transmits the superimposed image data to the image display device 11 via the network 13 such as a wireless communication network in step S12 of FIG. 5 and FIG.

画像表示装置11の表示用画像受信部33は、ステップS13において、重畳画像データを受信する。そして、液晶ディスプレイ装置等の画像出力部34が、ステップS14において、受信した重畳画像データに対応する画像を表示画面に表示する。これにより、例えば図3または図6に示すように、障害物2が白塗り画像の背景となり、この障害物2が透けた状態で監視対象物1が明確に表示されると共に、監視対象物1に対応する付加情報が表示された画像が画像表示装置11に表示される。   The display image receiving unit 33 of the image display device 11 receives the superimposed image data in step S13. In step S14, the image output unit 34 such as a liquid crystal display device displays an image corresponding to the received superimposed image data on the display screen. Accordingly, for example, as shown in FIG. 3 or FIG. 6, the obstacle 2 becomes the background of the white-painted image, and the monitoring object 1 is clearly displayed in a state where the obstacle 2 is transparent, and the monitoring object 1 An image on which additional information corresponding to is displayed is displayed on the image display device 11.

図7は、上述の画像表示装置11の動作を示すフローチャートである。この図7のフローチャートに示す各処理を可能とする情報処理プログラムは、画像表示装置11内のROM等の記憶手段に記憶されている。画像表示装置11のCPUは、この情報処理プログラムに従って、以下の各処理を実行する。   FIG. 7 is a flowchart showing the operation of the image display device 11 described above. An information processing program that enables each process shown in the flowchart of FIG. 7 is stored in a storage unit such as a ROM in the image display device 11. The CPU of the image display device 11 executes the following processes according to the information processing program.

なお、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルで、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。DVDは、「Digital Versatile Disk」の略記である。   The information processing program may be configured to be provided by being recorded in a computer-readable recording medium such as a CD-ROM or a flexible disk (FD) in a file in an installable or executable format. . The information processing program may be configured to be recorded in a computer-readable recording medium such as a CD-R or a DVD in an installable or executable format. DVD is an abbreviation for “Digital Versatile Disk”.

さらに、情報処理プログラムを、インターネット等のネットワーク13に接続されたコンピュータ装置上に格納し、ネットワーク13経由でダウンロードさせて提供してもよい。また、情報処理プログラムを、インターネット等のネットワーク13経由で提供または配布するように構成してもよい。   Furthermore, the information processing program may be stored on a computer device connected to the network 13 such as the Internet and provided by being downloaded via the network 13. Further, the information processing program may be provided or distributed via the network 13 such as the Internet.

図7のフローチャートにおいて、画像表示装置11は、画像表示装置11のメイン電源がオンになると(ステップS21:Yes)、現在位置・方向の取得を行う(ステップS22)。次に、画像表示装置11は、取得した測位データを監視装置16へ送信する(ステップS23)。その後、画像表示装置11は、サーバ装置14から表示画像情報(重畳画像)を受信すると(ステップS24:Yes)、受け取った画像を出力部から出力する(ステップS25)。   In the flowchart of FIG. 7, when the main power supply of the image display apparatus 11 is turned on (step S21: Yes), the image display apparatus 11 acquires the current position and direction (step S22). Next, the image display device 11 transmits the acquired positioning data to the monitoring device 16 (step S23). Thereafter, when receiving the display image information (superimposed image) from the server device 14 (step S24: Yes), the image display device 11 outputs the received image from the output unit (step S25).

一方、画像表示装置11は、表示画像情報(重畳画像)を受信せず(ステップS24:No)、監視対象物フラグがONになった場合(ステップS27:Yes)、画像の更新はせずに、以前の画像をそのまま表示し続ける。なお、監視対象物フラグは、画像表示装置11が監視対象物1の方向を向いていると監視装置16で判断された場合にONとなるフラグである。   On the other hand, the image display device 11 does not receive the display image information (superimposed image) (step S24: No), and when the monitoring object flag is turned on (step S27: Yes), the image is not updated. , Continue to display the previous image as it is. The monitoring object flag is a flag that is turned on when the monitoring device 16 determines that the image display device 11 is facing the monitoring object 1.

これに対して、画像表示装置11が監視対象物1の方向を向いていないと監視装置16で判断され、監視対象物フラグがOFFになった場合(ステップS27:No)、重畳画像を表示する必要がなくなる。このため、画像表示装置11は、ユーザが現実にみている光景をそのまま透過画像としてみせるようにする(ステップS28)。画像表示装置11は、ステップS26において、画像表示装置11のメイン電源がオフされたものと判別されるまでの間(ステップS26:No)、上述の各ステップの処理を繰り返し実行する。   On the other hand, when the monitoring device 16 determines that the image display device 11 is not facing the direction of the monitoring object 1, and the monitoring object flag is turned off (step S27: No), a superimposed image is displayed. There is no need. For this reason, the image display apparatus 11 displays the scene that the user actually sees as a transparent image as it is (step S28). The image display device 11 repeatedly executes the processing of each step described above until it is determined in step S26 that the main power of the image display device 11 has been turned off (step S26: No).

図8は、上述のサーバ装置14の動作を示すフローチャートである。この図8のフローチャートに示す各処理を可能とする情報処理プログラムは、サーバ装置14内のROM等の記憶手段に記憶されている。サーバ装置14のCPUは、この情報処理プログラムに従って、以下の各処理を実行する。   FIG. 8 is a flowchart showing the operation of the server device 14 described above. An information processing program that enables each process shown in the flowchart of FIG. 8 is stored in a storage unit such as a ROM in the server device 14. The CPU of the server device 14 executes the following processes according to the information processing program.

なお、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルで、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   The information processing program may be configured to be provided by being recorded in a computer-readable recording medium such as a CD-ROM or a flexible disk (FD) in a file in an installable or executable format. . The information processing program may be configured to be recorded in a computer-readable recording medium such as a CD-R or a DVD in an installable or executable format.

さらに、情報処理プログラムを、インターネット等のネットワーク13に接続されたコンピュータ装置上に格納し、ネットワーク13経由でダウンロードさせて提供してもよい。また、情報処理プログラムを、インターネット等のネットワーク13経由で提供または配布するように構成してもよい。   Furthermore, the information processing program may be stored on a computer device connected to the network 13 such as the Internet and provided by being downloaded via the network 13. Further, the information processing program may be provided or distributed via the network 13 such as the Internet.

図8のフローチャートにおいて、サーバ装置14は、監視装置16で作成された付加情報画像を受信すると(ステップS31:Yes)、重畳画像データベース15より監視対象物1の簡易3Dモデルデータを取得する(ステップS32)。サーバ装置14は、監視装置16にて計算された相対位置情報の視点の方向から、仮想世界において監視対象物1の簡易3Dモデルを見たときの見え方を計算し(ステップS33)、2D画像中のどこに配置するかを調整する(ステップS34)。その後、作成された2D画像と付加情報と背景の白塗り画像を合成し(ステップS35)、その結果生成された重畳画像データを画像表示装置11へ送信する(ステップS36)。   In the flowchart of FIG. 8, when the server device 14 receives the additional information image created by the monitoring device 16 (step S31: Yes), the server device 14 acquires simple 3D model data of the monitoring object 1 from the superimposed image database 15 (step S31). S32). The server device 14 calculates the appearance when the simple 3D model of the monitoring target 1 is viewed in the virtual world from the viewpoint direction of the relative position information calculated by the monitoring device 16 (step S33). It adjusts where to arrange (step S34). Thereafter, the created 2D image, additional information, and white background image are combined (step S35), and the superimposed image data generated as a result is transmitted to the image display device 11 (step S36).

一方、監視装置16で作成された付加情報を受信せずに(ステップS31:No)、上述のフラグ情報のみを受信した場合(ステップS37:Yes)、受信したフラグ情報(監視対象物フラグ)を画像表示装置に送信する(ステップS38)。   On the other hand, when only the above-described flag information is received without receiving the additional information created by the monitoring device 16 (step S31: No), the received flag information (monitoring object flag) is displayed. The image is transmitted to the image display device (step S38).

図9は、上述の監視装置16の動作を示すフローチャートである。この図9のフローチャートに示す各処理を可能とする情報処理プログラムは、監視装置16内のROM等の記憶手段に記憶されている。監視装置16のCPUは、この情報処理プログラムに従って、以下の各処理を実行する。   FIG. 9 is a flowchart showing the operation of the monitoring device 16 described above. An information processing program that enables each process shown in the flowchart of FIG. 9 is stored in a storage unit such as a ROM in the monitoring device 16. The CPU of the monitoring device 16 executes the following processes according to this information processing program.

なお、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルで、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   The information processing program may be configured to be provided by being recorded in a computer-readable recording medium such as a CD-ROM or a flexible disk (FD) in a file in an installable or executable format. . The information processing program may be configured to be recorded in a computer-readable recording medium such as a CD-R or a DVD in an installable or executable format.

さらに、情報処理プログラムを、インターネット等のネットワーク13に接続されたコンピュータ装置上に格納し、ネットワーク13経由でダウンロードさせて提供してもよい。また、情報処理プログラムを、インターネット等のネットワーク13経由で提供または配布するように構成してもよい。   Furthermore, the information processing program may be stored on a computer device connected to the network 13 such as the Internet and provided by being downloaded via the network 13. Further, the information processing program may be provided or distributed via the network 13 such as the Internet.

図9のフローチャートにおいて、監視装置16は、メイン電源が投入されると(ステップS41:Yes)、監視対象物1の撮像を開始する(ステップS42)。監視装置16は、画像表示装置11より測位データを受信すると(ステップS43:Yes)、監視対象物1からの相対位置を計算する(ステップS44)。ここで画像表示装置11が監視対象物1の方向を向いてないと判断された場合(ステップS45:No)、監視装置16は、監視対象物フラグをオフにし(ステップS54)、サーバ装置14へフラグ情報を送信する(ステップS55)。   In the flowchart of FIG. 9, when the main power supply is turned on (step S41: Yes), the monitoring device 16 starts imaging the monitoring target 1 (step S42). When receiving the positioning data from the image display device 11 (step S43: Yes), the monitoring device 16 calculates the relative position from the monitoring target 1 (step S44). Here, when it is determined that the image display device 11 does not face the direction of the monitoring object 1 (step S45: No), the monitoring device 16 turns off the monitoring object flag (step S54) and goes to the server device 14. Flag information is transmitted (step S55).

これに対して、画像表示装置11が監視対象物1の方向を向いていると判断された場合(ステップS45:Yes)、監視装置16は、監視対象物フラグをオンにし(ステップS46)、撮像情報をデジタル化する(ステップS47)。   On the other hand, when it is determined that the image display device 11 is facing the direction of the monitoring object 1 (step S45: Yes), the monitoring device 16 turns on the monitoring object flag (step S46) and takes an image. Information is digitized (step S47).

次に、監視装置16は、監視対象物1の撮像データを解析し(ステップS48)、必要なリアルタイム情報を抽出して前回の抽出結果と比較する(ステップS49)。前回抽出した結果と状況(相対位置またはリアルタイム状況)が大きく変わった場合(ステップS50:Yes)、新しい付加情報を画像として生成し(ステップS51)、サーバ装置14へ送信する(ステップS52)。なお、前回抽出した結果とそれほど変わらない場合(ステップS50:No)、監視対象物フラグ情報(ON)のみをサーバ装置に送信する(ステップS55)。監視装置16は、ステップS53において、監視装置16のメイン電源がオフされたものと判別されるまでの間、上述の各ステップの処理を繰り返し実行する。   Next, the monitoring device 16 analyzes the imaging data of the monitoring target 1 (step S48), extracts necessary real-time information, and compares it with the previous extraction result (step S49). If the previously extracted result and the situation (relative position or real-time situation) have changed significantly (step S50: Yes), new additional information is generated as an image (step S51) and transmitted to the server device 14 (step S52). In addition, when it does not differ so much from the result extracted last time (step S50: No), only the monitoring object flag information (ON) is transmitted to the server device (step S55). The monitoring device 16 repeatedly executes the processing of each step described above until it is determined in step S53 that the main power supply of the monitoring device 16 has been turned off.

以上の説明から明らかなように、第1の実施の形態の情報処理システムは、現実空間としては存在するが、障害物2等の影響で現在の位置から見えない監視対象物1の画像に対して、直感的に理解可能な付加情報を付加して表示することができる。   As is clear from the above description, the information processing system according to the first embodiment exists as a real space, but for an image of the monitoring object 1 that cannot be seen from the current position due to the influence of the obstacle 2 or the like. Thus, additional information that can be intuitively understood can be added and displayed.

また、第1の実施の形態の情報処理システムは、現実には見えない対象(障害物や遠い場所にある)に対して付加情報を重畳できるため、一般的なAR技術等の重畳場所の精度は必要なく、ある程度の方向がわかる精度で重畳を行えばよい。このため、ARマーカや建物の特徴点を検出するために必要な現在ユーザが見ている光景を撮像する撮像部を不用とすることができる。   In addition, since the information processing system according to the first embodiment can superimpose additional information on a target that is not actually visible (in an obstacle or in a distant place), the accuracy of the superimposition place such as a general AR technique can be superimposed. Is not necessary, and it is sufficient to perform superposition with an accuracy in which a certain direction is known. For this reason, it is possible to eliminate the need for an imaging unit that captures a scene that is currently being viewed by the user, which is necessary for detecting an AR marker or a feature point of a building.

(第2の実施の形態)
次に、第2の実施の形態の情報処理システムの説明をする。第2の実施の形態の情報処理システムは、上述の第1の実施の形態の情報処理システムの構成に、以下の各部を加えた構成となっている。なお、以下の第2の実施の形態の情報処理システムの説明では、上述の第1の実施の形態の情報処理システムとの差異となる箇所の説明のみ行い、重複説明は省略する。
(Second Embodiment)
Next, an information processing system according to the second embodiment will be described. The information processing system according to the second embodiment is configured by adding the following units to the configuration of the information processing system according to the first embodiment described above. In the following description of the information processing system according to the second embodiment, only differences from the information processing system according to the first embodiment described above will be described, and redundant description will be omitted.

図10に、第2の実施の形態の情報処理システムのシステム構成図を示す。図10に示すように、第2の実施の形態の情報処理システムの画像表示装置11は、位置・方向取得部31〜画像出力部34に加え、撮像データ送信部41、実風景撮像部42、情報抽出対象選択部43、および拡大縮小調整部44を有している。   FIG. 10 illustrates a system configuration diagram of an information processing system according to the second embodiment. As illustrated in FIG. 10, the image display device 11 of the information processing system according to the second embodiment includes an imaging data transmission unit 41, an actual scene imaging unit 42, in addition to the position / direction acquisition unit 31 to the image output unit 34. An information extraction target selection unit 43 and an enlargement / reduction adjustment unit 44 are provided.

実風景撮像部42は、ユーザが、現在、見ている景色を撮像する。撮像データ送信部41は、実風景撮像部42で撮像された撮像データをサーバ装置14に送信する。情報抽出対象選択部43は、付加情報を抽出したい監視対象物1を切り替える。拡大縮小調整部44は、重畳するデータの表示の大きさを調整する。   The real landscape image capturing unit 42 captures a scene that the user is currently viewing. The imaging data transmission unit 41 transmits the imaging data captured by the real landscape imaging unit 42 to the server device 14. The information extraction target selection unit 43 switches the monitoring target 1 from which additional information is to be extracted. The enlargement / reduction adjustment unit 44 adjusts the display size of the superimposed data.

情報提供装置12は、サーバ装置14、重畳画像データベース15、第1の監視装置16(第1の実施の形態では監視装置16に相当)と共に、監視対象選択装置50、および第2、第3の監視装置52、53を有している。第2、第3の監視装置52、53は、それぞれ第1の監視装置16と同じ構成を有している。第1〜第3の監視装置16、52、53は、それぞれ異なる監視対象物を監視している。監視対象選択装置50は、ユーザにより選択された監視対象物を監視しているいずれかの監視装置16、52、53の出力を選択する。各監視装置16、52、53には、その監視装置が選択されたか否かを判定する監視対象判定部49が設けられている。   The information providing device 12 includes the server device 14, the superimposed image database 15, the first monitoring device 16 (corresponding to the monitoring device 16 in the first embodiment), the monitoring target selection device 50, and the second and third devices. Monitoring devices 52 and 53 are provided. The second and third monitoring devices 52 and 53 have the same configuration as that of the first monitoring device 16. The first to third monitoring devices 16, 52, and 53 monitor different monitoring objects. The monitoring target selection device 50 selects the output of any of the monitoring devices 16, 52, 53 that are monitoring the monitoring target selected by the user. Each monitoring device 16, 52, 53 is provided with a monitoring target determination unit 49 that determines whether or not the monitoring device has been selected.

重畳画像データベース15には、各監視対象物の簡易3Dモデルデータが蓄積された簡易3Dモデルデータ蓄積部22、およびユーザが選択した監視装置に対応する簡易3Dモデルデータを選択する重畳画像選択部48が設けられている。   In the superimposed image database 15, a simple 3D model data storage unit 22 in which simple 3D model data of each monitoring object is stored, and a superimposed image selection unit 48 that selects simple 3D model data corresponding to the monitoring device selected by the user. Is provided.

サーバ装置14は、データ受信部45、重畳画像の縮尺を調整する機能が追加された重畳画像調整部19を有している。また、サーバ装置14は、実風景画像から障害物の大きさを判定し、背景の白塗り画像範囲を計算する白塗り範囲計算部46、計算された大きさ、場所の白塗り画像を生成する白塗り画像生成部47を有する。   The server device 14 includes a data reception unit 45 and a superimposed image adjustment unit 19 to which a function for adjusting the scale of the superimposed image is added. Further, the server device 14 determines the size of the obstacle from the actual landscape image, and generates a white-painted image of the white-painted range calculation unit 46 that calculates the white-painted image range of the background and the calculated size and location. A white paint image generation unit 47 is provided.

なお、画像表示装置11、サーバ装置14、重畳画像データベース15、監視装置16、52、53、および監視対象選択部50の各部は、後述する情報処理プログラム等によりソフトウェア的に実現してもよいし、全部または一部をハードウェアで実現してもよい。   Each unit of the image display device 11, the server device 14, the superimposed image database 15, the monitoring devices 16, 52, 53, and the monitoring target selection unit 50 may be realized in software by an information processing program described later. , All or a part may be realized by hardware.

第2の実施の形態の情報処理システムの場合、これら各部を追加した構成とすることで、監視対象物(付加情報を得たい対象)をユーザが選択可能とすることができるうえ、重畳画像の縮尺比率も調整可能とすることができる。また、ユーザが携帯している画像表示装置11で撮像された実風景の画像を取得することで、ある範囲だけ障害物2を白塗りにし監視対象物を見せることが可能となる。上述の第1の実施の形態の場合、画像表示装置11の画面全体が白塗りとなるため、周囲の風景が見えないかたち(VRに近い光景)となる。この第2の実施の形態の情報処理システムの場合、現実に見えている風景の一部を塗りつぶして監視対象物を表示するかたち(AR)となる。   In the case of the information processing system according to the second embodiment, the configuration in which these units are added allows the user to select a monitoring target (a target for which additional information is to be obtained), and the superimposed image The scale ratio can also be adjustable. Further, by acquiring an image of a real landscape captured by the image display device 11 carried by the user, it is possible to whiten the obstacle 2 within a certain range and show the monitoring target. In the case of the first embodiment described above, the entire screen of the image display device 11 is painted white, so that the surrounding landscape cannot be seen (sight close to VR). In the case of the information processing system according to the second embodiment, a part of the scenery that is actually seen is painted out (AR) to display the monitoring object.

図2および図3を用いて説明したように、障害物2の角部を正面とする視点Bから監視対象物1を見た場合、画像表示装置11の画面全体に白塗り背景があり、この白塗り背景の上に、障害物2の先に存在する監視対象物1および付加情報が表示される。   As described with reference to FIGS. 2 and 3, when the monitoring target 1 is viewed from the viewpoint B with the corner of the obstacle 2 in front, the entire screen of the image display device 11 has a white background. On the white background, the monitoring object 1 and additional information existing ahead of the obstacle 2 are displayed.

これに対して、第2の実施の形態の情報処理システムの場合、画像表示装置11側でも実風景を撮像しているため、監視対象物を見せるには、どれくらいの範囲の障害物を見えなくすればよいかの検討がつく。このため、サーバ装置14側で、白塗り画像とする範囲を計算し、この計算結果に応じた白塗り画像の重畳画像を生成する。これにより、図11に示すように、障害物2の実風景画像の一部のみを消して、この実風景画像を消した箇所に、監視対象物1および付加情報を表示できる。   On the other hand, in the case of the information processing system according to the second embodiment, the image display apparatus 11 also captures a real landscape, so that the range of obstacles cannot be seen in order to show the monitored object. You can consider what to do. For this reason, the server device 14 calculates a range to be a white-painted image, and generates a superimposed image of the white-painted image according to the calculation result. Thereby, as shown in FIG. 11, only a part of the real scenery image of the obstacle 2 can be erased, and the monitoring object 1 and the additional information can be displayed at the place where the real scenery image is erased.

図12は、上述の画像表示装置11の動作を示すフローチャートである。この図12のフローチャートに示す各処理を可能とする情報処理プログラムは、画像表示装置11内のROM等の記憶手段に記憶されている。画像表示装置11のCPUは、この情報処理プログラムに従って、以下の各処理を実行する。   FIG. 12 is a flowchart showing the operation of the image display device 11 described above. An information processing program that enables each process shown in the flowchart of FIG. 12 is stored in a storage unit such as a ROM in the image display device 11. The CPU of the image display device 11 executes the following processes according to the information processing program.

なお、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルで、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。DVDは、「Digital Versatile Disk」の略記である。   The information processing program may be configured to be provided by being recorded in a computer-readable recording medium such as a CD-ROM or a flexible disk (FD) in a file in an installable or executable format. . The information processing program may be configured to be recorded in a computer-readable recording medium such as a CD-R or a DVD in an installable or executable format. DVD is an abbreviation for “Digital Versatile Disk”.

さらに、情報処理プログラムを、インターネット等のネットワーク13に接続されたコンピュータ装置上に格納し、ネットワーク13経由でダウンロードさせて提供してもよい。また、情報処理プログラムを、インターネット等のネットワーク13経由で提供または配布するように構成してもよい。   Furthermore, the information processing program may be stored on a computer device connected to the network 13 such as the Internet and provided by being downloaded via the network 13. Further, the information processing program may be provided or distributed via the network 13 such as the Internet.

図12のフローチャートにおいて、ステップS61〜ステップS65が、図7のフローチャートに対して新たに追加された処理である。第2の実施の形態の情報処理システムに設けられている画像表示装置11の場合、風景のリアルタイムな撮像開始後(ステップS61)、付加情報を得たい情報取得対象の選択と(ステップS62)、予め設定した監視対象物を表示する大きさの縮尺情報(拡大縮小データ)を取得する(ステップS63)。その後、測位データと情報取得対象情報を監視装置へ送信する(ステップS64)。また、画像表示装置11側のリアルタイムな実風景画像データと縮尺情報をサーバ装置14へ送信する(ステップS65)。   In the flowchart of FIG. 12, steps S61 to S65 are processes newly added to the flowchart of FIG. In the case of the image display device 11 provided in the information processing system according to the second embodiment, after starting real-time imaging of a landscape (step S61), selecting an information acquisition target to obtain additional information (step S62), Scale information (enlarged / reduced data) having a size for displaying the monitoring target set in advance is acquired (step S63). Thereafter, the positioning data and the information acquisition target information are transmitted to the monitoring device (step S64). Further, real-time actual scenery image data and scale information on the image display device 11 side are transmitted to the server device 14 (step S65).

図13は、上述のサーバ装置14の動作を示すフローチャートである。この図13のフローチャートに示す各処理を可能とする情報処理プログラムは、サーバ装置14内のROM等の記憶手段に記憶されている。サーバ装置14のCPUは、この情報処理プログラムに従って、以下の各処理を実行する。   FIG. 13 is a flowchart showing the operation of the server device 14 described above. An information processing program that enables each process shown in the flowchart of FIG. 13 is stored in a storage unit such as a ROM in the server device 14. The CPU of the server device 14 executes the following processes according to the information processing program.

なお、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルで、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   The information processing program may be configured to be provided by being recorded in a computer-readable recording medium such as a CD-ROM or a flexible disk (FD) in a file in an installable or executable format. . The information processing program may be configured to be recorded in a computer-readable recording medium such as a CD-R or a DVD in an installable or executable format.

さらに、情報処理プログラムを、インターネット等のネットワーク13に接続されたコンピュータ装置上に格納し、ネットワーク13経由でダウンロードさせて提供してもよい。また、情報処理プログラムを、インターネット等のネットワーク13経由で提供または配布するように構成してもよい。   Furthermore, the information processing program may be stored on a computer device connected to the network 13 such as the Internet and provided by being downloaded via the network 13. Further, the information processing program may be provided or distributed via the network 13 such as the Internet.

図13のフローチャートにおいて、ステップS71〜ステップS75が、図8のフローチャートに対して新たに追加された処理である。第2の実施の形態の情報処理システムに設けられているサーバ装置14の場合、画像表示装置11から取得した縮尺情報を元に、簡易3Dモデルの2D変換を行う前に、縮尺に応じた大きさにモデルを変換する(ステップS71およびステップS72)。   In the flowchart of FIG. 13, steps S71 to S75 are processes newly added to the flowchart of FIG. In the case of the server device 14 provided in the information processing system according to the second embodiment, the size corresponding to the scale before performing the 2D conversion of the simple 3D model based on the scale information acquired from the image display device 11. Then, the model is converted (step S71 and step S72).

また、第2の実施の形態の情報処理システムに設けられているサーバ装置14の場合、前回の画像から受信したリアルタイムな画像表示装置11側の実風景画像データ、またはいずれかの監視装置16、52、53から取得した付加情報が大幅に変わった場合に(ステップS73:Yes)、背景の白塗り範囲を再計算し(ステップS74)、この再計算した範囲の白塗り画像を再度、生成する(ステップS75)。   In the case of the server device 14 provided in the information processing system according to the second embodiment, real-time image data on the real-time image display device 11 side received from the previous image, or any monitoring device 16, When the additional information acquired from 52 and 53 has changed significantly (step S73: Yes), the white area of the background is recalculated (step S74), and the white area image of the recalculated area is generated again. (Step S75).

図14は、監視対象選択部50の動作を示すフローチャートである。この図14のフローチャートに示す各処理を可能とする情報処理プログラムは、監視対象選択部50内のROM等の記憶手段に記憶されている。監視対象選択部50のCPUは、この情報処理プログラムに従って、以下の各処理を実行する。   FIG. 14 is a flowchart illustrating the operation of the monitoring target selection unit 50. An information processing program that enables each process shown in the flowchart of FIG. 14 is stored in a storage unit such as a ROM in the monitoring target selection unit 50. The CPU of the monitoring target selection unit 50 executes the following processes according to the information processing program.

なお、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルで、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   The information processing program may be configured to be provided by being recorded in a computer-readable recording medium such as a CD-ROM or a flexible disk (FD) in a file in an installable or executable format. . The information processing program may be configured to be recorded in a computer-readable recording medium such as a CD-R or a DVD in an installable or executable format.

さらに、情報処理プログラムを、インターネット等のネットワーク13に接続されたコンピュータ装置上に格納し、ネットワーク13経由でダウンロードさせて提供してもよい。また、情報処理プログラムを、インターネット等のネットワーク13経由で提供または配布するように構成してもよい。   Furthermore, the information processing program may be stored on a computer device connected to the network 13 such as the Internet and provided by being downloaded via the network 13. Further, the information processing program may be provided or distributed via the network 13 such as the Internet.

第2の実施の形態の情報処理システムに設けられている監視対象選択部50は、複数の監視対象物を監視することで追加された機構である。監視対象選択部50は、画像表示装置11から監視選択対象の変更を通知する対象選択データを受信すると(ステップS81:Yes)、画像表示装置11からの測位データを供給する監視装置を切り替える(ステップS82)。そして、監視対象選択部50は、画像表示装置11からの測位データを、切り替え先となる監視装置に供給する(ステップS83)。   The monitoring object selection unit 50 provided in the information processing system according to the second embodiment is a mechanism added by monitoring a plurality of monitoring objects. When the monitoring target selection unit 50 receives target selection data notifying the change of the monitoring selection target from the image display device 11 (step S81: Yes), the monitoring target selection unit 50 switches the monitoring device that supplies the positioning data from the image display device 11 (step S81). S82). And the monitoring object selection part 50 supplies the positioning data from the image display apparatus 11 to the monitoring apparatus used as a switching destination (step S83).

図15は、上述の監視装置16、52、53の動作を示すフローチャートである。この図15のフローチャートに示す各処理を可能とする情報処理プログラムは、各監視装置16、52、53内のROM等の記憶手段に記憶されている。各監視装置16、52、53のCPUは、この情報処理プログラムに従って、以下の各処理を実行する。   FIG. 15 is a flowchart showing the operation of the monitoring devices 16, 52 and 53 described above. An information processing program that enables each process shown in the flowchart of FIG. 15 is stored in a storage unit such as a ROM in each of the monitoring devices 16, 52, and 53. The CPUs of the monitoring devices 16, 52, and 53 execute the following processes according to the information processing program.

なお、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルで、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   The information processing program may be configured to be provided by being recorded in a computer-readable recording medium such as a CD-ROM or a flexible disk (FD) in a file in an installable or executable format. . The information processing program may be configured to be recorded in a computer-readable recording medium such as a CD-R or a DVD in an installable or executable format.

さらに、情報処理プログラムを、インターネット等のネットワーク13に接続されたコンピュータ装置上に格納し、ネットワーク13経由でダウンロードさせて提供してもよい。また、情報処理プログラムを、インターネット等のネットワーク13経由で提供または配布するように構成してもよい。   Furthermore, the information processing program may be stored on a computer device connected to the network 13 such as the Internet and provided by being downloaded via the network 13. Further, the information processing program may be provided or distributed via the network 13 such as the Internet.

図15のフローチャートにおいて、ステップS91およびステップS92が、図9のフローチャートに対して新たに追加された処理である。第2の実施の形態の情報処理システムに設けられている監視装置16、52、53の場合、図10に示した監視対象判定部49で、それぞれ自機が監視対象として選択されているか否かを判別する。この監視対象判定部49により、自機が監視対象として選択されたものと判別した場合(ステップS91:Yes)、重畳画像データベース15側に、自機で監視している監視対象物の簡易3Dモデルデータの選択を指示する(ステップS92)。これにより、重畳画像データベース15から出力される簡易3Dモデルデータが一義的に決定されるため、サーバ装置14は、簡易3Dモデルデータの取得要求を行うだけで、現在、選択されている監視装置が監視している監視対象物の簡易3Dモデルデータを取得することができる。   In the flowchart of FIG. 15, steps S91 and S92 are processing newly added to the flowchart of FIG. In the case of the monitoring devices 16, 52, and 53 provided in the information processing system according to the second embodiment, whether or not the own device is selected as the monitoring target by the monitoring target determination unit 49 shown in FIG. Is determined. When the monitoring target determination unit 49 determines that the own device is selected as the monitoring target (step S91: Yes), the simplified 3D model of the monitoring target monitored by the own device is displayed on the superimposed image database 15 side. Data selection is instructed (step S92). Thereby, since the simple 3D model data output from the superimposed image database 15 is uniquely determined, the server device 14 simply requests acquisition of the simple 3D model data, and the currently selected monitoring device is Simple 3D model data of the monitored object being monitored can be acquired.

以上の説明から明らかなように、第2の実施の形態の情報処理システムは、それぞれ異なる監視対象物を監視する複数の監視装置16、52、53を設けることで、所望の監視装置に自由に切り替えて、ユーザが希望する監視対象物の付加情報を得ることができる。また、画像表示装置11側で重畳画像の縮尺を調整し、サーバ装置14が、画像表示装置11側で調整された縮尺の重畳画像を生成して、画像表示装置11に送信する。これにより、画像表示装置11に表示される重畳画像の縮尺比率を調整可能とすることができる。   As is apparent from the above description, the information processing system according to the second embodiment is provided with a plurality of monitoring devices 16, 52, and 53 that monitor different monitoring objects, so that a desired monitoring device can be freely set. By switching, additional information of the monitoring target desired by the user can be obtained. Further, the scale of the superimposed image is adjusted on the image display device 11 side, and the server device 14 generates a scaled superimposed image adjusted on the image display device 11 side and transmits it to the image display device 11. Thereby, the scale ratio of the superimposed image displayed on the image display device 11 can be adjusted.

また、画像表示装置11の表示画面全体ではなく、障害物2の実風景画像を部分的に白塗り画像とし、この白塗り画像の部分に、重畳画像を表示する。これにより、実風景画像と重畳画像との融合を可能とすることができる他、上述の第1の実施の形態と同様の効果を得ることができる。   In addition, the actual scenery image of the obstacle 2 is partially made a white-painted image, not the entire display screen of the image display device 11, and the superimposed image is displayed on the white-painted image. As a result, the real scenery image and the superimposed image can be merged, and the same effect as in the first embodiment can be obtained.

(第3の実施の形態)
次に、第3の実施の形態の情報処理システムの説明をする。この第3の実施の形態の情報処理システムは、上述の第2の実施の形態の情報処理システムの構成に加えて、画像表示装置11が、以下の各部を有する。すなわち、画像表示装置11は、ユーザが実際に見ている光景において一番近くにある障害物2との相対距離を検出する障害物相対距離検出部61を有する。また、画像表示装置11は、障害物相対距離検出部61の値が一定以下の距離になった場合に、表示中の付加情報重畳画像から、通常の実風景画像に自動的に切り替え、ユーザが障害物2に接触する不都合を防止するための出力画像切り替え部62を有する。
(Third embodiment)
Next, an information processing system according to the third embodiment will be described. In the information processing system according to the third embodiment, in addition to the configuration of the information processing system according to the second embodiment described above, the image display device 11 includes the following units. That is, the image display device 11 includes an obstacle relative distance detection unit 61 that detects a relative distance to the obstacle 2 that is closest to the scene that the user actually sees. In addition, when the value of the obstacle relative distance detection unit 61 becomes a certain distance or less, the image display device 11 automatically switches from the additional information superimposed image being displayed to a normal actual landscape image, and the user An output image switching unit 62 for preventing inconvenience of touching the obstacle 2 is provided.

各監視装置16、52、53は、現実の世界においてユーザから監視対象物が見える範囲を示す数値情報が各監視対象物毎に予め記憶してある対象物検出範囲記憶部65を有する。また、各監視装置16、52、53は、ユーザ(画像表示装置)がその範囲に入ったと判断された場合に、サーバ装置14から画像表示装置11側に送信される重畳画像が付加情報のみとなるように制御を行う対象物検出部66を有する。   Each monitoring device 16, 52, 53 has an object detection range storage unit 65 in which numerical information indicating a range in which a monitoring object can be seen by the user in the real world is stored in advance for each monitoring object. Each of the monitoring devices 16, 52, and 53 determines that the superimposed image transmitted from the server device 14 to the image display device 11 side is only the additional information when it is determined that the user (image display device) has entered the range. It has the target object detection part 66 which controls so that it may become.

サーバ装置14は、付加情報の付加対象となっている監視対象物との距離に応じて、表示する重畳画像の更新頻度を変化させる更新頻度調整部64を有する。   The server device 14 includes an update frequency adjustment unit 64 that changes the update frequency of the superimposed image to be displayed in accordance with the distance to the monitoring target that is an addition target of the additional information.

なお、画像表示装置11、サーバ装置14、重畳画像データベース15、監視装置16、52、53、および監視対象選択部50の各部は、後述する情報処理プログラム等によりソフトウェア的に実現してもよいし、全部または一部をハードウェアで実現してもよい。   Each unit of the image display device 11, the server device 14, the superimposed image database 15, the monitoring devices 16, 52, 53, and the monitoring target selection unit 50 may be realized in software by an information processing program described later. , All or a part may be realized by hardware.

図17は、監視対象物1とユーザ(画像表示装置11)との間の距離に応じた、監視対象物1の見え方の違いを説明するための図である。図17において、ユーザの現在位置が、位置Dから位置Cに移動した場合、位置Cおよび位置Dは、監視対象物1から遠い距離にあるため、監視対象物1とユーザの相対角度も、それほど大きくは変わらない。すなわち、監視対象物1と位置Cに位置するユーザの相対角度θCと、監視対象物1と位置Dに位置するユーザの相対角度θDとの角度差θC−θDは小さい。このため、監視対象物1の見え方も、位置Cと位置Dとでは、それほど変わらない。   FIG. 17 is a diagram for explaining the difference in the appearance of the monitoring target 1 according to the distance between the monitoring target 1 and the user (image display device 11). In FIG. 17, when the current position of the user moves from position D to position C, since the position C and position D are far from the monitoring object 1, the relative angle between the monitoring object 1 and the user is not much. It does not change greatly. That is, the angle difference θC−θD between the relative angle θC of the user positioned at the position C with the monitoring object 1 and the relative angle θD of the user positioned at the position D with the monitoring object 1 is small. For this reason, the appearance of the monitoring object 1 does not change so much between the position C and the position D.

しかし、図17において、ユーザの現在位置が、位置Bから位置Aに移動した場合、位置Aおよび位置Bは、監視対象物1から近い距離にあるため、監視対象物1とユーザの相対角度も大きくなる。すなわち、監視対象物1と位置Aに位置するユーザの相対角度θAと、監視対象物1と位置Bに位置するユーザの相対角度θBとの角度差θA−θBは大きくなる。このため、監視対象物1の見え方も、位置Aと位置Bとでは、大きく変化する。   However, in FIG. 17, when the current position of the user moves from position B to position A, the position A and position B are close to the monitoring object 1, so the relative angle between the monitoring object 1 and the user is also growing. That is, the angle difference θA−θB between the relative angle θA of the user located at the position A with the monitoring object 1 and the relative angle θB of the user located at the position B with the monitoring object 1 becomes large. For this reason, the appearance of the monitoring object 1 also varies greatly between the position A and the position B.

この第3の実施の形態の情報処理システムは、監視対象物1およびユーザの相対角度、または相対距離に応じて、重畳画像の更新頻度を調整する。また、第3の実施の形態の情報処理システムは、監視対象物1およびユーザの距離が所定の距離以下となった場合に、画像表示装置11に表示する画像を重畳画像から実風景画像に切り替え、監視対象物1にユーザが接触する不都合を防止する。   The information processing system according to the third embodiment adjusts the update frequency of the superimposed image according to the relative angle or the relative distance between the monitoring object 1 and the user. The information processing system according to the third embodiment switches the image to be displayed on the image display device 11 from the superimposed image to the actual landscape image when the distance between the monitoring target 1 and the user is equal to or less than a predetermined distance. The inconvenience of the user coming into contact with the monitoring object 1 is prevented.

図18は、上述の画像表示装置11の動作を示すフローチャートである。この図18のフローチャートに示す各処理を可能とする情報処理プログラムは、画像表示装置11内のROM等の記憶手段に記憶されている。画像表示装置11のCPUは、この情報処理プログラムに従って、以下の各処理を実行する。   FIG. 18 is a flowchart showing the operation of the image display device 11 described above. An information processing program that enables each process shown in the flowchart of FIG. 18 is stored in a storage unit such as a ROM in the image display device 11. The CPU of the image display device 11 executes the following processes according to the information processing program.

なお、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルで、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。DVDは、「Digital Versatile Disk」の略記である。   The information processing program may be configured to be provided by being recorded in a computer-readable recording medium such as a CD-ROM or a flexible disk (FD) in a file in an installable or executable format. . The information processing program may be configured to be recorded in a computer-readable recording medium such as a CD-R or a DVD in an installable or executable format. DVD is an abbreviation for “Digital Versatile Disk”.

さらに、情報処理プログラムを、インターネット等のネットワーク13に接続されたコンピュータ装置上に格納し、ネットワーク13経由でダウンロードさせて提供してもよい。また、情報処理プログラムを、インターネット等のネットワーク13経由で提供または配布するように構成してもよい。   Furthermore, the information processing program may be stored on a computer device connected to the network 13 such as the Internet and provided by being downloaded via the network 13. Further, the information processing program may be provided or distributed via the network 13 such as the Internet.

図18のフローチャートにおいて、ステップS101〜ステップS107が、図12のフローチャートに対して新たに追加された処理である。画像表示装置11は、画像表示装置11の位置および方向(測位データ)と共に、目の前の障害物2との相対距離を検出する(ステップS101)。障害物2との相対距離が一定以下だった場合(ステップS102:Yes)、障害物フラグをONにし(ステップS105)、現在、選択されている監視装置に障害物フラグを送信する(ステップS106)。そして、出力画像切り替え部62が、それまで表示していた重畳画像を、実風景撮像部42で撮像された実風景画像(透過画像)に切り替える(ステップS107)。これにより、ユーザが障害物2に近づいていることを、的確に認知させることができる。   In the flowchart of FIG. 18, steps S101 to S107 are processes newly added to the flowchart of FIG. The image display device 11 detects the relative distance from the obstacle 2 in front of the eyes together with the position and direction (positioning data) of the image display device 11 (step S101). If the relative distance to the obstacle 2 is equal to or less than a certain value (step S102: Yes), the obstacle flag is turned on (step S105), and the obstacle flag is transmitted to the currently selected monitoring device (step S106). . Then, the output image switching unit 62 switches the superimposed image that has been displayed so far to the actual landscape image (transparent image) captured by the actual landscape imaging unit 42 (step S107). Thereby, it can be made to recognize exactly that the user is approaching the obstacle 2. FIG.

一方、障害物2との相対距離が一定以下だった場合(ステップS102:No)、画像表示装置11は、障害物フラグをOFFにし(ステップS103)、測位データ、対象選択データと共に障害物フラグ情報を、現在、選択されている監視装置へ送信する(ステップS104)。   On the other hand, when the relative distance to the obstacle 2 is equal to or less than a certain value (step S102: No), the image display device 11 turns off the obstacle flag (step S103), and the obstacle flag information together with the positioning data and the target selection data. Is transmitted to the currently selected monitoring device (step S104).

図19は、上述のサーバ装置14の動作を示すフローチャートである。この図19のフローチャートに示す各処理を可能とする情報処理プログラムは、サーバ装置14内のROM等の記憶手段に記憶されている。サーバ装置14のCPUは、この情報処理プログラムに従って、以下の各処理を実行する。   FIG. 19 is a flowchart showing the operation of the server device 14 described above. An information processing program that enables each process shown in the flowchart of FIG. 19 is stored in a storage unit such as a ROM in the server device 14. The CPU of the server device 14 executes the following processes according to the information processing program.

なお、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルで、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   The information processing program may be configured to be provided by being recorded in a computer-readable recording medium such as a CD-ROM or a flexible disk (FD) in a file in an installable or executable format. . The information processing program may be configured to be recorded in a computer-readable recording medium such as a CD-R or a DVD in an installable or executable format.

さらに、情報処理プログラムを、インターネット等のネットワーク13に接続されたコンピュータ装置上に格納し、ネットワーク13経由でダウンロードさせて提供してもよい。また、情報処理プログラムを、インターネット等のネットワーク13経由で提供または配布するように構成してもよい。   Furthermore, the information processing program may be stored on a computer device connected to the network 13 such as the Internet and provided by being downloaded via the network 13. Further, the information processing program may be provided or distributed via the network 13 such as the Internet.

図19のフローチャートにおいて、ステップS111〜ステップS113が、図13のフローチャートに対して新たに追加された処理である。この第3の実施の形態の情報処理システムの場合、ユーザが監視対象物1を直接見える範囲に存在するか否かを示す対象物検出フラグが、現在、選択中の監視装置から送信される。具体的には、ユーザが監視対象物1を直接見える範囲に存在する場合、ONとされた対象物検出フラグが送信され、ユーザが監視対象物1を直接見える範囲に存在しない場合、OFFとされた対象物検出フラグが送信される。   In the flowchart of FIG. 19, steps S111 to S113 are processes newly added to the flowchart of FIG. In the case of the information processing system according to the third embodiment, an object detection flag indicating whether or not the user exists in a range where the user can directly view the monitoring object 1 is transmitted from the currently selected monitoring apparatus. Specifically, when the user exists in the range where the monitoring target 1 can be directly seen, the target detection flag turned ON is transmitted, and when the user does not exist within the range where the monitoring target 1 can be seen directly, it is turned OFF. The detected object detection flag is transmitted.

対象物検出フラグがONの場合(ステップS111:Yes)、ユーザが監視対象物1が直接見える範囲に存在することを意味する。そして、この場合、無理に簡易3Dモデルを表示せず、監視対象物1そのものを見せればよい。このため、サーバ装置14は、現在選択中の監視装置で生成された付加情報のみを画像表示装置11側に送信する(ステップS113)。   When the object detection flag is ON (step S111: Yes), it means that the user exists in a range where the monitoring object 1 can be directly seen. In this case, it is only necessary to show the monitoring object 1 itself without forcibly displaying the simple 3D model. Therefore, the server device 14 transmits only the additional information generated by the currently selected monitoring device to the image display device 11 side (step S113).

また、サーバ装置14は、画像表示装置11の測位結果(相対距離、相対角度)と、前回、重畳画像を画像表示装置11側に送信したときの相対距離および相対角度とを比較する。この比較結果が所定の閾値以下であった場合(ステップS112:Yes)、画像表示装置11側で表示している重畳画像も変更する必要がないため、ステップS31に処理を戻す。また、比較結果が所定の閾値を越える場合(ステップS112:No)、上述のように計算した範囲が白塗りとされた実風景画像に付加情報を重畳した重畳画像を生成し、これを画像表示装置11に送信する。これにより、監視対象物1に対する相対距離および相対角度に対応する重畳画像が画像表示装置11に表示される。   Further, the server device 14 compares the positioning result (relative distance and relative angle) of the image display device 11 with the relative distance and relative angle when the superimposed image was transmitted to the image display device 11 side last time. If the comparison result is equal to or smaller than the predetermined threshold (step S112: Yes), the superimposed image displayed on the image display device 11 side does not need to be changed, and the process returns to step S31. If the comparison result exceeds a predetermined threshold value (step S112: No), a superimposed image is generated by superimposing additional information on the actual landscape image in which the range calculated as described above is painted white, and this is displayed as an image. Transmit to device 11. As a result, a superimposed image corresponding to the relative distance and relative angle with respect to the monitoring object 1 is displayed on the image display device 11.

図20は、上述の監視装置16、52、53の動作を示すフローチャートである。この図20のフローチャートに示す各処理を可能とする情報処理プログラムは、各監視装置16、52、53内のROM等の記憶手段に記憶されている。各監視装置16、52、53のCPUは、この情報処理プログラムに従って、以下の各処理を実行する。   FIG. 20 is a flowchart showing the operation of the monitoring devices 16, 52, 53 described above. An information processing program that enables each process shown in the flowchart of FIG. 20 is stored in a storage unit such as a ROM in each of the monitoring devices 16, 52, and 53. The CPUs of the monitoring devices 16, 52, and 53 execute the following processes according to the information processing program.

なお、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルで、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   The information processing program may be configured to be provided by being recorded in a computer-readable recording medium such as a CD-ROM or a flexible disk (FD) in a file in an installable or executable format. . The information processing program may be configured to be recorded in a computer-readable recording medium such as a CD-R or a DVD in an installable or executable format.

さらに、情報処理プログラムを、インターネット等のネットワーク13に接続されたコンピュータ装置上に格納し、ネットワーク13経由でダウンロードさせて提供してもよい。また、情報処理プログラムを、インターネット等のネットワーク13経由で提供または配布するように構成してもよい。   Furthermore, the information processing program may be stored on a computer device connected to the network 13 such as the Internet and provided by being downloaded via the network 13. Further, the information processing program may be provided or distributed via the network 13 such as the Internet.

図20のフローチャートにおいて、ステップS121〜ステップS125が、図15のフローチャートに対して新たに追加された処理である。第3の実施の形態の情報処理システムに設けられている監視装置16、52、53は、画像表示装置11と障害物2との相対距離が一定以下であることを示すONの障害物フラグを受信した場合(ステップS121:Yes)、これは、以下のことを意味する。すなわち、この場合、画像表示装置11側では、重畳画像から実風景画像に表示画像の切り替えを行う(図18のステップS107参照)。このため、サーバ装置14側で重畳画像を生成する必要がないため、サーバ装置14側に障害物フラグを送信する(ステップS122)。これにより、画像表示装置11と障害物2との相対距離が一定以下となった際に、サーバ装置14が画像表示装置11側で表示されることのない重畳画像を生成し続ける不都合を防止することができる。   In the flowchart of FIG. 20, steps S121 to S125 are processes newly added to the flowchart of FIG. The monitoring devices 16, 52, 53 provided in the information processing system according to the third embodiment display an ON obstacle flag indicating that the relative distance between the image display device 11 and the obstacle 2 is less than a certain value. When received (step S121: Yes), this means the following. That is, in this case, on the image display apparatus 11 side, the display image is switched from the superimposed image to the real landscape image (see step S107 in FIG. 18). For this reason, since it is not necessary to generate a superimposed image on the server device 14 side, an obstacle flag is transmitted to the server device 14 side (step S122). Thereby, when the relative distance between the image display device 11 and the obstacle 2 becomes a certain distance or less, the server device 14 prevents the inconvenience of continuing to generate a superimposed image that is not displayed on the image display device 11 side. be able to.

また、監視装置16、52、53は、監視対象物1が見える範囲に画像表示装置11が存在していることが、監視装置の計算結果から検出された場合(ステップS123:Yes)、対象物検出範囲フラグをONに切り替える(ステップS124)。そして、監視装置16、52、53は、ONとした対象物検出範囲フラグを、付加情報と共にサーバ装置14へ情報を送信する(ステップS52)。なお、監視装置16、52、53は、監視対象物1が見える範囲に画像表示装置11が存在していないことが、監視装置の計算結果から検出された場合(ステップS123:No)、対象物検出範囲フラグをOFFに切り替える(ステップS125)。そして、監視装置16、52、53は、OFFとした対象物検出範囲フラグを、付加情報と共にサーバ装置14へ情報を送信する(ステップS52)。   In addition, when the monitoring devices 16, 52, 53 detect from the calculation result of the monitoring device that the image display device 11 is present in the range where the monitoring target 1 can be seen (step S123: Yes), the target The detection range flag is switched to ON (step S124). Then, the monitoring devices 16, 52, and 53 transmit the information on the object detection range flag that is turned ON to the server device 14 together with the additional information (step S52). When the monitoring device 16, 52, 53 detects from the calculation result of the monitoring device that the image display device 11 does not exist in the range where the monitoring target object 1 is visible (step S123: No), the target device The detection range flag is switched to OFF (step S125). And the monitoring apparatuses 16, 52, and 53 transmit information to the server apparatus 14 together with the additional information about the object detection range flag that is set to OFF (step S52).

以上の説明から明らかなように、第3の実施の形態の情報処理システムは、ユーザが、障害物2に接近した際に、画像表示装置11で表示している画像を重畳画像から実風景画像に切り替える。これにより、ユーザが、必要以上に障害物2に近づいて、障害物2に接触する不都合を防止することができ、ユーザの安全性向上を図ることができる。また、仮想世界と現実世界とのスムーズな切り替えを可能とすることができる。また、重畳画像の更新頻度が調整可能であるため、通信データ効率のパフォーマンスの向上を図ることができる。   As is apparent from the above description, the information processing system according to the third embodiment is configured such that when the user approaches the obstacle 2, the image displayed on the image display device 11 is changed from the superimposed image to the actual scenery image. Switch to. As a result, it is possible to prevent the user from approaching the obstacle 2 more than necessary and coming into contact with the obstacle 2, thereby improving the user's safety. In addition, it is possible to smoothly switch between the virtual world and the real world. In addition, since the update frequency of the superimposed image can be adjusted, it is possible to improve the performance of communication data efficiency.

上述の各実施の形態は、例として提供したものであり、本発明の範囲を限定することは意図していない。この新規な各実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。各実施の形態および各実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   The above-described embodiments are provided as examples, and are not intended to limit the scope of the present invention. Each of the novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. Each embodiment and modifications of each embodiment are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 監視対象物
2 障害物
11 画像表示装置
12 情報提供装置
13 ネットワーク
14 サーバ装置
15 重畳画像データベース
16 監視装置(第1の監視装置)
17 重畳画像抽出部
18 表示用画像送信部
19 重畳画像調整部
20 画像合成部
21 付加情報受信部
22 簡易3Dモデルデータ蓄積部
24 付加情報記憶部
25 監視位置保持部
26 付加情報送信部
27 付加情報生成部
28 対象物監視装置
29 相対位置計算部
30 測位データ受信部
31 位置・方向取得部
32 測位データ送信部
33 表示用画像受信部
34 画像出力部
41 撮像データ送信部
42 実風景撮像部
43 情報抽出対象選択部
44 拡大縮小調整部
45 データ受信部
46 白塗り範囲計算部
47 白塗り画像生成部
48 重畳画像選択部
49 監視対象判定部
50 監視対象選択部
52 第2の監視装置
53 第3の監視装置
61 障害物相対距離検出部
62 出力画像切り替え部
64 更新頻度調整部
65 対象物検出範囲記憶部
66 対象物検出部
DESCRIPTION OF SYMBOLS 1 Monitoring object 2 Obstacle 11 Image display apparatus 12 Information provision apparatus 13 Network 14 Server apparatus 15 Superimposed image database 16 Monitoring apparatus (1st monitoring apparatus)
DESCRIPTION OF SYMBOLS 17 Superimposed image extraction part 18 Display image transmission part 19 Superimposed image adjustment part 20 Image composition part 21 Additional information receiving part 22 Simple 3D model data storage part 24 Additional information storage part 25 Monitoring position holding part 26 Additional information transmission part 27 Additional information Generation unit 28 Object monitoring device 29 Relative position calculation unit 30 Positioning data reception unit 31 Position / direction acquisition unit 32 Positioning data transmission unit 33 Display image reception unit 34 Image output unit 41 Imaging data transmission unit 42 Real scene imaging unit 43 Information Extraction target selection unit 44 Enlargement / reduction adjustment unit 45 Data reception unit 46 White area calculation unit 47 White image generation unit 48 Superimposed image selection unit 49 Monitoring target determination unit 50 Monitoring target selection unit 52 Second monitoring device 53 Third Monitoring device 61 Obstacle relative distance detection unit 62 Output image switching unit 64 Update frequency adjustment unit 65 Object detection range Storage unit 66 object detection unit

特開2007−228315号公報JP 2007-228315 A 特開2004−145657号公報JP 2004-145657 A 特開2009−289035号公報JP 2009-289035 A

Claims (7)

画像表示装置の位置および方向に対応する監視対象物の監視対象画像を生成する対象画像生成手段と、
前記画像表示装置の位置および方向に対応する、前記監視対象物の視認の障害となる障害物の障害物画像を生成する障害物画像生成手段と、
前記画像表示装置の位置および方向に対応するように、前記障害物画像上に前記監視対象画像を視認可能となるように重畳すると共に、前記監視対象物に対応する付加情報を重畳して重畳画像を生成し、前記画像表示装置の位置から前記画像表示装置および前記監視対象物の相対距離が所定以下の距離となったことを検出した際に、前記重畳画像の生成を停止して前記付加情報のみを生成する重畳画像生成手段と、
前記重畳画像、又は、前記付加情報のみを前記画像表示装置に送信する送信手段と
を有する情報処理装置。
Target image generating means for generating a monitoring target image of the monitoring target corresponding to the position and direction of the image display device;
Obstacle image generation means for generating an obstacle image corresponding to the position and direction of the image display device, the obstacle being an obstacle to visual recognition of the monitored object;
The superimposed image is superimposed on the obstacle image so as to be visible on the obstacle image so as to correspond to the position and direction of the image display device, and is superimposed with additional information corresponding to the monitored object. And when the relative distance between the image display device and the monitoring object is a predetermined distance or less from the position of the image display device, the generation of the superimposed image is stopped and the additional information is Superimposing image generation means for generating only ,
An information processing apparatus comprising: a transmission unit configured to transmit only the superimposed image or the additional information to the image display apparatus.
前記対象画像生成手段は、複数の監視対象物のうち、前記画像表示装置を介して指定された監視対象物の前記監視対象画像を生成し、
前記重畳画像生成手段は、前記画像表示装置を介して指定された監視対象物に対応する付加情報を重畳した前記重畳画像を生成すること
を特徴とする請求項1に記載の情報処理装置。
The target image generation means generates the monitoring target image of a monitoring target specified through the image display device among a plurality of monitoring targets,
The information processing apparatus according to claim 1, wherein the superimposed image generating unit generates the superimposed image in which additional information corresponding to a monitoring target specified via the image display device is superimposed.
前記監視対象画像を表示する大きさを調整するための拡大縮小調整手段と、
前記障害物画像の縮尺を調整する縮尺調整手段と、をさらに備えたこと
を特徴とする請求項1または請求項2に記載の情報処理装置。
Enlargement / reduction adjustment means for adjusting the size of displaying the monitoring target image;
The information processing apparatus according to claim 1, further comprising: a scale adjustment unit that adjusts a scale of the obstacle image.
前記重畳画像生成手段は、前記画像表示装置側で撮像された実風景画像内の前記障害物に、前記監視対象画像の表示に適した大きさの表示領域を生成し、前記表示領域に前記監視対象画像を重畳すること
を特徴とする請求項1から請求項3のうち、いずれか一項に記載の情報処理装置。
The superimposed image generation unit generates a display area having a size suitable for displaying the monitoring target image on the obstacle in the real landscape image captured on the image display device side, and the monitoring area includes the monitoring area. The information processing apparatus according to any one of claims 1 to 3, wherein the target image is superimposed.
前記重畳画像生成手段は、前記画像表示装置および前記監視対象物の相対距離に応じた頻度で前記重畳画像を生成すること
を特徴とする請求項1から請求項4のうち、いずれか一項に記載の情報処理装置。
The superimposed image generating means, among of claims 1 to 4, characterized in that to generate the superimposed image at a frequency corresponding to the relative distance of the image display device and the object to be monitored, in any one The information processing apparatus described.
位置および方向を示す情報を送信し、受信した重畳画像を表示すると共に、実風景画像を撮像する実風景撮像手段により、監視対象物との間の相対距離が、一定の距離以下となった際に、それまで表示していた前記重畳画像を前記実風景画像に切り替えて表示する画像表示装置と、
監視対象物の監視対象画像を用いて、前記画像表示装置から受信した位置および方向を示す情報に対応する前記監視対象物の監視対象画像を生成する対象画像生成手段と、前記画像表示装置の位置および方向に対応する、前記監視対象物の視認の障害となる障害物の障害物画像を生成する障害物画像生成手段と、前記画像表示装置の位置および方向に対応するように、前記障害物画像上に前記監視対象画像を視認可能となるように重畳すると共に、前記監視対象物に対応する付加情報を重畳して前記重畳画像を生成する重畳画像生成手段と、前記重畳画像を前記画像表示装置に送信する送信手段とを備えた情報処理装置
を有する情報処理システム。
When information indicating the position and direction is transmitted, the received superimposed image is displayed , and the relative distance to the monitoring object is less than a certain distance by the real landscape imaging means for capturing the real landscape image In addition, an image display device that displays the superimposed image that has been displayed so far by switching to the real landscape image ;
Target image generation means for generating a monitoring target image of the monitoring target corresponding to information indicating the position and direction received from the image display device using the monitoring target image of the monitoring target, and the position of the image display device Obstacle image generation means for generating an obstacle image of an obstacle that is an obstacle to the visual recognition of the monitoring object, and the obstacle image so as to correspond to the position and direction of the image display device A superimposed image generating unit that superimposes the monitoring target image so as to be visible and superimposes additional information corresponding to the monitoring target to generate the superimposed image, and displays the superimposed image on the image display device. An information processing system comprising: an information processing device including a transmission unit that transmits the information to the computer.
コンピュータを、
画像表示装置の位置および方向に対応する監視対象物の監視対象画像を生成する対象画像生成手段と、
前記画像表示装置の位置および方向に対応する、前記監視対象物の視認の障害となる障害物の障害物画像を生成する障害物画像生成手段と、
前記画像表示装置の位置および方向に対応するように、前記障害物画像上に前記監視対象画像を視認可能となるように重畳すると共に、前記監視対象物に対応する付加情報を重畳して重畳画像を生成し、前記画像表示装置の位置から前記画像表示装置および前記監視対象物の相対距離が所定以下の距離となったことを検出した際に、前記重畳画像の生成を停止して前記付加情報のみを生成する重畳画像生成手段と、
前記重畳画像、又は、前記付加情報のみを前記画像表示装置に送信する送信手段として機能させること
を特徴とする情報処理プログラム。
Computer
Target image generating means for generating a monitoring target image of the monitoring target corresponding to the position and direction of the image display device;
Obstacle image generation means for generating an obstacle image corresponding to the position and direction of the image display device, the obstacle being an obstacle to visual recognition of the monitored object;
The superimposed image is superimposed on the obstacle image so as to be visible on the obstacle image so as to correspond to the position and direction of the image display device, and is superimposed with additional information corresponding to the monitored object. And when the relative distance between the image display device and the monitoring object is a predetermined distance or less from the position of the image display device, the generation of the superimposed image is stopped and the additional information is Superimposing image generation means for generating only ,
An information processing program that functions as a transmission unit that transmits only the superimposed image or the additional information to the image display device.
JP2013136718A 2013-06-28 2013-06-28 Information processing apparatus, information processing system, and information processing program Expired - Fee Related JP6197405B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013136718A JP6197405B2 (en) 2013-06-28 2013-06-28 Information processing apparatus, information processing system, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013136718A JP6197405B2 (en) 2013-06-28 2013-06-28 Information processing apparatus, information processing system, and information processing program

Publications (2)

Publication Number Publication Date
JP2015011539A JP2015011539A (en) 2015-01-19
JP6197405B2 true JP6197405B2 (en) 2017-09-20

Family

ID=52304646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013136718A Expired - Fee Related JP6197405B2 (en) 2013-06-28 2013-06-28 Information processing apparatus, information processing system, and information processing program

Country Status (1)

Country Link
JP (1) JP6197405B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6695529B1 (en) * 2019-07-11 2020-05-20 株式会社ネクスコ・エンジニアリング北海道 Projection system, projection device, projection method and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132068A (en) * 2001-10-22 2003-05-09 Nec Corp Navigation system and navigation terminal
JP5669438B2 (en) * 2010-05-20 2015-02-12 株式会社パスコ Object management image generation apparatus and object management image generation program
JP5682060B2 (en) * 2010-12-20 2015-03-11 国際航業株式会社 Image composition apparatus, image composition program, and image composition system

Also Published As

Publication number Publication date
JP2015011539A (en) 2015-01-19

Similar Documents

Publication Publication Date Title
KR20210154814A (en) Head-mounted display with pass-through imaging
US10013795B2 (en) Operation support method, operation support program, and operation support system
KR101646503B1 (en) Device, system and method for informing about 3D obstacle or information for blind person
US11228737B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
US11865448B2 (en) Information processing apparatus and user guide presentation method
JP2018501684A (en) Display system for remote control of work equipment
JP2008205914A (en) Image processor
JP7322713B2 (en) Information processing device, information processing method, and program
JP4348468B2 (en) Image generation method
WO2019142560A1 (en) Information processing device for guiding gaze
EP3254121B1 (en) Center of gravity shifting force device
JP2008145364A (en) Route guiding device
JP6197405B2 (en) Information processing apparatus, information processing system, and information processing program
WO2012131862A1 (en) Image-processing device, method, and program
WO2022176450A1 (en) Information processing device, information processing method, and program
GB2582106A (en) Display device and display device control method
JP2007218655A (en) Navigation device
US20220244726A1 (en) Information processing apparatus, information processing method, and program
JP2015162886A (en) obstacle monitoring system and program
JP6433015B2 (en) Navigation device and navigation method
WO2022172335A1 (en) Virtual guide display device, virtual guide display system, and virtual guide display method
JP7419424B2 (en) Image processing device, image processing method, and program
KR102094772B1 (en) Method and server for controlling video
JP2018163123A (en) Terminal device, head-mounted display device, code display method, route guidance method, and computer program
JP2019004272A (en) Video transceiving system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170807

R151 Written notification of patent or utility model registration

Ref document number: 6197405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees