JP6248732B2 - Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program - Google Patents

Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program Download PDF

Info

Publication number
JP6248732B2
JP6248732B2 JP2014058661A JP2014058661A JP6248732B2 JP 6248732 B2 JP6248732 B2 JP 6248732B2 JP 2014058661 A JP2014058661 A JP 2014058661A JP 2014058661 A JP2014058661 A JP 2014058661A JP 6248732 B2 JP6248732 B2 JP 6248732B2
Authority
JP
Japan
Prior art keywords
augmented reality
image
information
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014058661A
Other languages
Japanese (ja)
Other versions
JP2015184777A (en
Inventor
高橋 健一
健一 高橋
南 猛
猛 南
敦史 田村
敦史 田村
松原 賢士
賢士 松原
小澤 開拓
開拓 小澤
陽介 谷口
陽介 谷口
義明 澁田
義明 澁田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2014058661A priority Critical patent/JP6248732B2/en
Publication of JP2015184777A publication Critical patent/JP2015184777A/en
Application granted granted Critical
Publication of JP6248732B2 publication Critical patent/JP6248732B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

この発明は、拡張現実表示装置、拡張現実表示システム、拡張現実表示方法および拡張現実表示プログラムに関し、特に、被写体に関連する情報を表示する拡張現実表示装置、その拡張現実表示装置を含む拡張現実表示システム、その拡張現実表示装置で実行される拡張現実表示方法および拡張現実表示プログラムに関する。   The present invention relates to an augmented reality display device, an augmented reality display system, an augmented reality display method, and an augmented reality display program. In particular, the present invention relates to an augmented reality display device that displays information related to a subject, and an augmented reality display including the augmented reality display device. The present invention relates to an augmented reality display method and an augmented reality display program executed by the system, the augmented reality display device.

近年、拡張現実の技術が開発されている。例えば、特開平9−33271号公報には、カメラあるいはカメラ一体型VTR装置等の撮像手段と、該撮像手段により撮影した映像やデータを表示する表示手段と、各時刻の地球上における前記撮像手段の位置と方向を衛星測位により検出する検出手段と、地図データを記憶した記憶手段と、前記表示手段に表示された物体のうち所定の物体の地球上における3次元位置座標と当該物体の名称等の属性データを前記記憶手段から読み出し,当該3次元位置座標を前記表示手段における2次元位置座標に変換し,前記表示手段における前記2次元位置座標に前記属性データを表示する制御手段とを具備したことを特徴とする撮像装置が記載されている。   In recent years, augmented reality technology has been developed. For example, Japanese Patent Laid-Open No. 9-33271 discloses imaging means such as a camera or a camera-integrated VTR device, display means for displaying video and data taken by the imaging means, and the imaging means on the earth at each time. Detection means for detecting the position and direction of the object by satellite positioning, storage means for storing map data, three-dimensional position coordinates on the earth of a predetermined object among the objects displayed on the display means, the name of the object, etc. Control means for reading the attribute data from the storage means, converting the three-dimensional position coordinates into two-dimensional position coordinates on the display means, and displaying the attribute data on the two-dimensional position coordinates on the display means An imaging apparatus characterized by this is described.

しかしながら、従来の撮像装置においては、所定の物体の地球上における3次元位置座標を、その物体に関連して記憶しておかなければならない。また、3次元位置座標を表示手段における二次元位置座標に変換しなければならず、処理の負荷が大きいといった問題がある。
特開平9−33271号公報
However, in a conventional imaging apparatus, the three-dimensional position coordinates of a predetermined object on the earth must be stored in association with the object. Further, there is a problem that the processing load is heavy because the three-dimensional position coordinates must be converted into the two-dimensional position coordinates on the display means.
JP-A-9-33271

この発明は上述した問題点を解決するためになされたもので、この発明の目的の1つは、所定の被写体を撮像した時点で、所定の処理を実行することが可能な拡張現実表示装置を提供することである。   The present invention has been made to solve the above-described problems, and one of the objects of the present invention is to provide an augmented reality display device capable of executing a predetermined process when a predetermined subject is imaged. Is to provide.

この発明の他の目的は、任意のユーザーにより登録された関連情報を被写体と関連付けて表示することが可能な拡張現実表示システムを提供することである。   Another object of the present invention is to provide an augmented reality display system capable of displaying related information registered by an arbitrary user in association with a subject.

この発明のさらに他の目的は、所定の被写体を撮像した時点で、所定の処理を実行することが可能な拡張現実表示方法を提供することである。   Still another object of the present invention is to provide an augmented reality display method capable of executing a predetermined process when a predetermined subject is imaged.

この発明のさらに他の目的は、所定の被写体を撮像した時点で、所定の処理を実行することが可能な拡張現実表示プログラムを提供することである。   Still another object of the present invention is to provide an augmented reality display program capable of executing a predetermined process when a predetermined subject is imaged.

上述した目的を達成するためにこの発明のある局面によれば、拡張現実表示装置は、被写体を撮像し、第1の画像を出力する撮像手段と、取得された第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報を取得する拡張現実情報取得手段と、拡張現実情報は、第2の画像に加えて、第2の画像中の被写体に対して相対的な位置で定まる表示領域を示す領域情報と、被写体に関連する関連情報とを含み、第1の画像中の被写体に対する相対位置が、第2の画像中の被写体と表示領域との相対位置と同じ関係となる現実表示領域を決定する現実表示領域決定手段と、決定された現実表示領域に拡張現実情報に含まれる関連情報を表示する表示制御手段と、第2の画像と第1の画像とで異なる相違部分を抽出する相違部分抽出手段と、相違部分抽出手段により相違部分が抽出される場合、予め定められた処理を実行する処理実行手段と、を備える。   In order to achieve the above object, according to an aspect of the present invention, an augmented reality display device captures an object and outputs a first image; and an object in the acquired first image; Augmented reality information acquisition means for acquiring augmented reality information including a second image having the same subject, and augmented reality information is relative to the subject in the second image in addition to the second image. Including region information indicating the display region determined by the position and related information related to the subject, the relative position with respect to the subject in the first image being the same as the relative position between the subject and the display region in the second image The actual display area determining means for determining the actual display area, the display control means for displaying the related information included in the augmented reality information in the determined actual display area, and the second image and the first image are different. Different part extraction to extract different parts And means, if different part by different part extraction unit is extracted, and the process execution means for executing predetermined processing, the.

この局面に従えば、被写体を撮像した第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報が取得され、第1の画像中の被写体に対する相対位置が、第2の画像中の被写体と表示領域との相対位置と同じ関係となる現実表示領域が決定され、現実表示領域に関連情報が表示される。このため、被写体を撮像した第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報によって、第1の画像中の被写体に関連付けられた関連情報が、第1の画像中の被写体に対して定められた相対的な位置に、表示される。その結果、撮像した画像中の被写体に関連する情報を、その被写体に対して予め定められた位置に表示することができる。また、第2の画像と第1の画像とで異なる相違部分が抽出される場合、予め定められた処理を実行するので、所定の被写体を撮像した時点で、所定の処理を実行することが可能な拡張現実表示装置を提供することができる。   According to this aspect, augmented reality information including a second image having the same subject as the subject in the first image obtained by capturing the subject is acquired, and the relative position with respect to the subject in the first image is the second position. A real display area having the same relationship as the relative position between the subject in the image and the display area is determined, and related information is displayed in the real display area. For this reason, the related information associated with the subject in the first image is obtained from the augmented reality information including the second image having the same subject as the subject in the first image obtained by capturing the subject. It is displayed at a relative position determined with respect to the inside subject. As a result, information related to the subject in the captured image can be displayed at a predetermined position with respect to the subject. In addition, when different portions are extracted between the second image and the first image, a predetermined process is executed, so that the predetermined process can be executed when a predetermined subject is imaged. An augmented reality display device can be provided.

好ましくは、処理実行手段は、拡張現実情報の第2の画像を第1の画像で更新する更新制御手段を含む。   Preferably, the process execution unit includes an update control unit that updates the second image of the augmented reality information with the first image.

この局面に従えば、所定の被写体を撮像した時点で、拡張現実情報に含まれる第2の画像が撮像して得られる第1の画像で更新されるので、被写体とは異なる部分、例えば、背景等が変化した後に、拡張現実情報に含まれる画像を最新の状態に更新することができる。   According to this aspect, when a predetermined subject is imaged, the second image included in the augmented reality information is updated with the first image obtained by imaging, so that a portion different from the subject, for example, the background Etc., the image included in the augmented reality information can be updated to the latest state.

好ましくは、処理実行手段は、第2の画像と第1の画像とが異なることをユーザーに通知する通知手段を含む。   Preferably, the process execution unit includes a notification unit that notifies the user that the second image is different from the first image.

この局面に従えば、被写体とは異なる部分、例えば、背景等が変化したことをユーザーに通知することができる。また、拡張現実情報に含まれる画像が最新の状態に更新されることをユーザーに通知することができる。   According to this aspect, it is possible to notify the user that a portion different from the subject, for example, the background or the like has changed. Further, it is possible to notify the user that the image included in the augmented reality information is updated to the latest state.

好ましくは、相違部分抽出手段は、撮像手段が被写体を撮像して出力する第1の画像の一部を、取得された拡張現実情報に含まれる第2の画像の少なくとも一部と比較する比較手段を含む。   Preferably, the different portion extraction unit compares the part of the first image output by the imaging unit by imaging the subject with at least a part of the second image included in the acquired augmented reality information. including.

この局面に従えば、第1の画像の一部を、拡張現実情報に含まれる第2の画像の少なくとも一部と比較するので、第1の画像および第2の画像それぞれの全体が一致しなくても、被写体が同一か否かを判断することができる。   According to this aspect, since a part of the first image is compared with at least a part of the second image included in the augmented reality information, the entire first image and the second image do not match each other. However, it can be determined whether or not the subject is the same.

好ましくは、相違部分抽出手段は、第1の画像を複数の部分画像に分割する分割手段と、複数の部分画像それぞれを第2の画像の一部と比較する比較手段と、複数の部分画像のうち第2の画像の一部と類似する複数の部分画像に囲まれた部分画像であって、第2の画像の一部と類似しない部分画像を相違部分に決定する相違部分決定手段と、を含む。   Preferably, the different portion extraction unit includes a dividing unit that divides the first image into a plurality of partial images, a comparison unit that compares each of the plurality of partial images with a part of the second image, and a plurality of partial images. A different portion determining means for determining, as a different portion, a partial image surrounded by a plurality of partial images similar to a part of the second image and not similar to a part of the second image; Including.

この局面に従えば、第1の画像を分割した複数の部分画像それぞれを第2の画像の一部と比較し、複数の部分画像のうち第2の画像の一部と類似する複数の部分画像に囲まれた部分画像であって、第2の画像の一部と類似しない部分画像を相違部分に決定する。このため、第1の画像と第2の画像とが、被写体が同一であるが、全体として異なることを判別することができる。   According to this aspect, each of the plurality of partial images obtained by dividing the first image is compared with a part of the second image, and a plurality of partial images similar to a part of the second image among the plurality of partial images. A partial image that is surrounded by and is not similar to a part of the second image is determined as a different part. Therefore, it can be determined that the first image and the second image have the same subject but are different as a whole.

好ましくは、拡張現実情報は、地理的な位置を示す位置情報を、さらに含み、拡張現実表示装置が現実に存在する地理的な位置を現在位置として取得する位置取得手段をさらに備え、拡張現実情報取得手段は、取得された現在位置に基づいて取得された現在位置から所定の範囲内の地理的な位置に関連付けられた拡張現実情報を取得する位置基準取得手段をさらに含む。   Preferably, the augmented reality information further includes position information indicating a geographical position, and the augmented reality display device further includes position acquisition means for acquiring a geographical position where the augmented reality display device actually exists as a current position, and the augmented reality information The acquisition means further includes a position reference acquisition means for acquiring augmented reality information associated with a geographical position within a predetermined range from the current position acquired based on the acquired current position.

この局面に従えば、第2の画像中の被写体の地理的な位置が、被写体を撮像する時点における地理的な位置から所定の範囲に存在する拡張現実情報を取得するので、拡張現実情報の取得が容易となる。   According to this aspect, the augmented reality information is acquired because the geographic position of the subject in the second image acquires the augmented reality information existing within a predetermined range from the geographic position at the time of capturing the subject. Becomes easy.

好ましくは、拡張現実情報取得手段は、位置取得手段により現在位置が取得できない場合、撮像手段が出力する第1の画像に基づいて拡張現実情報を取得する。   Preferably, the augmented reality information acquisition unit acquires the augmented reality information based on the first image output by the imaging unit when the current position cannot be acquired by the position acquisition unit.

この局面に従えば、現在位置が取得できない場合であっても、拡張現実情報を取得することができる。   According to this aspect, augmented reality information can be acquired even when the current position cannot be acquired.

好ましくは、画像を表示する表示手段をさらに備え、表示制御手段は、拡張現実情報に含まれる関連情報を第1の画像に重畳した合成画像を生成する合成画像生成手段を含み、生成された合成画像を表示手段に表示する。   Preferably, the image processing apparatus further includes display means for displaying an image, and the display control means includes composite image generation means for generating a composite image in which related information included in the augmented reality information is superimposed on the first image. The image is displayed on the display means.

この局面に従えば、第1の画像に関連情報を重畳した合成画像が生成され、合成画像が表示される。このため、第1の画像中で被写体に関連情報を関連付けることができる。   According to this aspect, a composite image in which related information is superimposed on the first image is generated, and the composite image is displayed. Therefore, related information can be associated with the subject in the first image.

好ましくは、撮像手段の光軸を基準に定まる位置に配置され、透過型の表示手段をさらに備え、現実表示領域決定手段は、撮像手段が出力する第1の画像に基づいて、表示手段の表示面中で現実表示領域を決定し、表示制御手段は、拡張現実情報に含まれる関連情報を、表示手段の表示面中の現実形態表示領域に表示する。   Preferably, the display unit is further provided with a transmissive display unit arranged at a position determined with reference to the optical axis of the imaging unit, and the actual display area determination unit displays the display unit based on the first image output by the imaging unit. The real display area is determined in the plane, and the display control means displays the related information included in the augmented reality information in the real form display area in the display plane of the display means.

この局面に従えば、被写体を撮像した第1の画像に基づいて、表示手段の表示面中で現実表示領域が決定され、関連情報が、表示手段の表示面中の現実表示領域に表示する。このため、ユーザーが表示手段を透過して視認する被写体に関連付けて関連情報を表示することができる。   According to this aspect, the real display area is determined in the display surface of the display unit based on the first image obtained by imaging the subject, and the related information is displayed in the real display area in the display surface of the display unit. For this reason, related information can be displayed in association with the subject that the user sees through the display means.

好ましくは、拡張現実情報を記憶するサーバーと通信可能な通信制御手段を、さらに備え、拡張現実情報取得手段は、サーバーから拡張現実情報を取得する。   Preferably, communication control means capable of communicating with a server storing augmented reality information is further provided, and the augmented reality information acquisition means acquires augmented reality information from the server.

この局面に従えば、拡張現実情報を記憶するサーバーから拡張現実情報を取得するので、拡張現実表示装置のユーザーとは別のユーザーにより登録された関連情報を表示することができる。   If this aspect is followed, since augmented reality information is acquired from the server which stores augmented reality information, the related information registered by the user different from the user of an augmented reality display apparatus can be displayed.

この発明の他の局面によれば、拡張現実表示システムは、上述した拡張現実表示装置と、サーバーと通信可能な基本情報登録装置および拡張現実情報登録装置とを備えた拡張現実表示システムであって、基本情報登録装置は、被写体を撮像し、画像を出力する基本撮像手段と、基本情報登録装置が現実に存在する地理的な位置を現在位置として取得する基本位置取得手段と、基本撮像手段が被写体を撮像して出力する画像を第2の画像とし、当該第2の画像と基本位置取得手段により取得された現在位置とを含む基本情報をサーバーに登録する基本情報登録手段を、備え、拡張現実情報登録装置は、地理的な位置の指定を受け付ける位置受付手段と、受け付けられた地理的な位置が所定の範囲内となる位置情報を含む基本情報をサーバーから取得する基本情報取得手段と、取得された基本情報に含まれる第2の画像を表示する生成側表示手段と、第2の画像中の表示領域の指定を受け付ける表示領域受付手段と、関連情報を取得する関連情報取得手段と、取得された関連情報と、表示領域受付手段により受け付けられた表示領域を示す領域情報とを基本情報に追加した拡張現実情報を生成する拡張現実情報生成手段と、サーバーに生成された拡張現実情報を登録する登録手段と、を備える。   According to another aspect of the present invention, an augmented reality display system is an augmented reality display system including the above-described augmented reality display device, and a basic information registration device and an augmented reality information registration device that can communicate with a server. The basic information registration device includes a basic imaging unit that images a subject and outputs an image, a basic position acquisition unit that acquires a geographical position where the basic information registration device actually exists, and a basic imaging unit. A basic information registration unit for registering basic information including the second image and the current position acquired by the basic position acquisition unit in the server, and an image to be captured and output as a second image; The real information registration device includes a position receiving unit that receives designation of a geographical position, and basic information including position information in which the received geographical position is within a predetermined range from a server. Obtaining basic information acquisition means, generation-side display means for displaying a second image included in the acquired basic information, display area reception means for receiving designation of a display area in the second image, and acquisition of related information The augmented reality information generating means for generating augmented reality information by adding the related information acquisition means, the acquired related information, and the area information indicating the display area received by the display area accepting means to the basic information, and the server Registration means for registering the generated augmented reality information.

この局面に従えば、基本情報登録装置によって基本情報が登録され、拡張現実情報登録装置によって基本情報に関連情報と領域情報とを追加した拡張現実情報が登録される。このため、拡張現実表示装置のユーザー本人または、そのユーザーとは別のユーザーにより登録された関連情報を表示することができる。その結果、任意のユーザーにより登録された関連情報を被写体と関連付けて表示することが可能な拡張現実表示システムを提供することができる。   According to this aspect, the basic information is registered by the basic information registration device, and the augmented reality information in which the related information and the region information are added to the basic information is registered by the augmented reality information registration device. Therefore, it is possible to display related information registered by the user of the augmented reality display device or a user other than the user. As a result, it is possible to provide an augmented reality display system that can display related information registered by an arbitrary user in association with a subject.

好ましくは、拡張現実情報登録装置は、原稿を光学的に読み取って電子データに変換した画像データを出力する原稿読取手段をさらに備え、関連情報取得手段は、原稿読取装置が出力する画像データを関連情報として取得する。   Preferably, the augmented reality information registration apparatus further includes a document reading unit that optically reads a document and outputs image data converted into electronic data, and the related information acquisition unit relates image data output by the document reading device. Obtain as information.

この局面に従えば、原稿を読み取った画像データを関連情報とすることができる。   According to this aspect, image data obtained by reading a document can be used as related information.

好ましくは、拡張現実情報登録装置は、データを記憶するデータ記憶手段をさらに備え、関連情報取得手段は、データ記憶手段に記憶されたデータのうちからユーザーにより指定されたデータを関連情報として取得する。   Preferably, the augmented reality information registration device further includes data storage means for storing data, and the related information acquisition means acquires data specified by the user from the data stored in the data storage means as related information. .

この局面に従えば、ユーザーにより指定されたデータを関連情報とすることができる。   According to this aspect, data specified by the user can be used as related information.

この発明のさらに他の局面によれば、拡張現実表示方法は、被写体を撮像した第1の画像を取得する撮像ステップと、取得された第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報を取得する拡張現実情報取得ステップと、拡張現実情報は、第2の画像に加えて、第2の画像中の被写体に対して相対的な位置で定まる表示領域を示す領域情報と、被写体に関連する関連情報とを含み、第1の画像中の被写体に対する相対位置が、第2の画像中の被写体と表示領域との相対位置と同じ関係となる現実表示領域を決定する現実表示領域決定ステップと、決定された現実表示領域に拡張現実情報に含まれる関連情報を表示する表示制御ステップと、第2の画像と第1の画像とで異なる相違部分を抽出する相違部分抽出ステップと、相違部分抽出ステップにおいて相違部分が抽出される場合、予め定められた処理を実行する処理実行ステップと、を含む。   According to still another aspect of the present invention, an augmented reality display method includes an imaging step of acquiring a first image obtained by imaging a subject, and a second subject having the same subject as the subject in the acquired first image. The augmented reality information acquisition step for acquiring augmented reality information including the image of the image and the augmented reality information indicate a display area determined at a position relative to the subject in the second image in addition to the second image. A real display area is determined that includes area information and related information related to the subject, and whose relative position to the subject in the first image is the same as the relative position of the subject and the display region in the second image. A real display area determining step, a display control step for displaying related information included in the augmented reality information in the determined real display area, and a different part for extracting a different part between the second image and the first image Extraction step Including a flop, when the different part in different part extraction step is extracted, and the process execution step of executing predetermined processing, the.

この局面に従えば、所定の被写体を撮像した時点で、所定の処理を実行することが可能な拡張現実表示方法を提供することができる。   According to this aspect, it is possible to provide an augmented reality display method capable of executing a predetermined process when a predetermined subject is imaged.

この発明のさらに他の局面によれば、拡張現実表示プログラムは、被写体を撮像した第1の画像を取得する撮像ステップと、取得された第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報を取得する拡張現実情報取得ステップと、拡張現実情報は、第2の画像に加えて、第2の画像中の被写体に対して相対的な位置で定まる表示領域を示す領域情報と、被写体に関連する関連情報とを含み、第1の画像中の被写体に対する相対位置が、第2の画像中の被写体と表示領域との相対位置と同じ関係となる現実表示領域を決定する現実表示領域決定ステップと、決定された現実表示領域に拡張現実情報に含まれる関連情報を表示する表示制御ステップと、第2の画像と第1の画像とで異なる相違部分を抽出する相違部分抽出ステップと、相違部分抽出ステップにおいて相違部分が抽出される場合、予め定められた処理を実行する処理実行ステップと、をコンピューターに実行させる。   According to still another aspect of the present invention, the augmented reality display program obtains a first image obtained by imaging a subject, and a second subject having the same subject as the subject in the obtained first image. The augmented reality information acquisition step for acquiring augmented reality information including the image of the image and the augmented reality information indicate a display area determined at a position relative to the subject in the second image in addition to the second image. A real display area is determined that includes area information and related information related to the subject, and whose relative position to the subject in the first image is the same as the relative position of the subject and the display region in the second image. A real display area determining step, a display control step for displaying related information included in the augmented reality information in the determined real display area, and a different part for extracting a different part between the second image and the first image Extraction Steps and, when a different part in different part extraction step is extracted, to execute a process executing step of executing predetermined processing, to the computer.

この局面に従えば、所定の被写体を撮像した時点で、所定の処理を実行することが可能な拡張現実表示プログラムを提供することができる。   According to this aspect, it is possible to provide an augmented reality display program capable of executing a predetermined process when a predetermined subject is imaged.

本発明の実施の形態における拡張現実表示システムの全体概要の一例を示す図である。It is a figure which shows an example of the whole outline | summary of the augmented reality display system in embodiment of this invention. 本実施の形態におけるMFPの外観を示す斜視図である。1 is a perspective view showing an external appearance of an MFP in the present embodiment. 本実施の形態におけるMFPのハードウェア構成の一例を示すブロック図である。2 is a block diagram illustrating an example of a hardware configuration of an MFP according to the present embodiment. FIG. 本実施の形態における携帯情報装置のハードウェア構成の概要の一例を示すブロック図である。It is a block diagram which shows an example of the outline | summary of the hardware constitutions of the portable information device in this Embodiment. 本実施の形態におけるHMDのハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of HMD in this Embodiment. 本実施の形態におけるサーバーのハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the server in this Embodiment. 拡張現実情報のフォーマットの一例を示す図である。It is a figure which shows an example of the format of augmented reality information. 拡張現実表示装置として機能する携帯情報装置が備えるCPUの機能の概要の一例を示すブロック図である。It is a block diagram which shows an example of the outline | summary of the function of CPU with which the portable information device which functions as an augmented reality display apparatus is provided. 相違部分抽出部の詳細な機能の一例を示すブロック図である。It is a block diagram which shows an example of the detailed function of a different part extraction part. 背景画像の一例を示す図である。It is a figure which shows an example of a background image. 撮像画像の一例を示す図である。It is a figure which shows an example of a captured image. 合成画像の一例を示す図である。It is a figure which shows an example of a synthesized image. 基本情報のフォーマットの一例を示す図である。It is a figure which shows an example of the format of basic information. 基本情報登録装置として機能する携帯情報装置200が備えるCPU201の機能の一例を示すブロック図である。It is a block diagram which shows an example of the function of CPU201 with which the portable information device 200 which functions as a basic information registration apparatus is provided. 拡張現実情報登録装置として機能するMFPが備えるCPUの機能の一例を示すブロック図である。It is a block diagram which shows an example of the function of CPU with which MFP which functions as an augmented reality information registration apparatus is provided. サーバーが備えるCPUが有する機能の一例を示すブロック図である。It is a block diagram which shows an example of the function which CPU with which a server is provided has. 基本情報登録処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a basic information registration process. 拡張現実情報登録処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an augmented reality information registration process. 拡張現実情報管理処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an augmented reality information management process. 拡張現実表示処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an augmented reality display process. 相違部分判断処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a different part judgment process.

以下、本発明の実施の形態について図面を参照して説明する。以下の説明では同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<第1の実施の形態>
図1は、本発明の実施の形態における拡張現実表示システムの全体概要の一例を示す図である。図1を参照して、拡張現実表示システム1は、それぞれがネットワーク2に接続された無線局3と、MFP(Multi Function Peripheral)100と、携帯情報装置200,200A,200Bと、パーソナルコンピューター(以下「PC」という)300と、ヘッドマウントディスプレイ(以下、「HMD」という)400と、サーバー500と、を含む。
<First Embodiment>
FIG. 1 is a diagram showing an example of an overall outline of an augmented reality display system according to an embodiment of the present invention. Referring to FIG. 1, an augmented reality display system 1 includes a wireless station 3, an MFP (Multi Function Peripheral) 100, portable information devices 200, 200 </ b> A, 200 </ b> B, and a personal computer (hereinafter referred to as a “computer”). 3, a head mounted display (hereinafter referred to as “HMD”) 400, and a server 500.

MFP100は、画像処理装置として機能し、原稿を読み取るための原稿読取機能、画像データに基づいて紙などの記録媒体に画像を形成するための画像形成機能およびファクシミリデータを送受信するファクシミリ送受信機能を備えている。なお、第1の実施の形態においては画像処理装置の一例として、MFP100を例に説明するが、MFP100に代えて、画像を処理する機能を備えた装置であれば、例えば、PC300、サーバー500等であってもよい。   MFP 100 functions as an image processing apparatus, and includes a document reading function for reading a document, an image forming function for forming an image on a recording medium such as paper based on image data, and a facsimile transmission / reception function for transmitting / receiving facsimile data. ing. In the first embodiment, the MFP 100 will be described as an example of an image processing apparatus. However, if the apparatus has a function of processing an image instead of the MFP 100, for example, a PC 300, a server 500, or the like. It may be.

PC300は、一般的なコンピューターである。PC300は、MFP100を制御するためのプリンタドライバプログラムがインストールされている。   The PC 300 is a general computer. The PC 300 is installed with a printer driver program for controlling the MFP 100.

携帯情報装置200,200A,200Bは、情報処理装置の一例である。携帯情報装置200,200A,200Bは、PDA(Personal Digital Assistants)、スマートフォンなど、ユーザーに携帯して使用され、データを記憶する機能、無線LAN機能を備えている。また、携帯情報装置200,200A,200Bは、PC300と同様に、アプリケーションプログラムをインストールすることが可能である。携帯情報装置200,200A,200Bのハードウェア構成および機能は同じなので、ここでは、特に言及しない限り携帯情報装置200を例に説明する。   The portable information devices 200, 200A, and 200B are examples of information processing devices. The portable information devices 200, 200A, and 200B are used by being carried by users, such as PDAs (Personal Digital Assistants) and smartphones, and have a function of storing data and a wireless LAN function. In addition, portable information devices 200, 200A, and 200B can install application programs in the same manner as PC 300. Since the portable information devices 200, 200A, and 200B have the same hardware configuration and functions, the portable information device 200 will be described as an example here unless otherwise specified.

HMD400は、メガネの形状をしており、ユーザーにより装着されて使用される。HMF400は、被写体を撮像する撮像機能、メガネのレンズ部分に画像を表示する表示機能、無線LAN機能を備えている。HMD400を装着するユーザーは、レンズを通して被写体を視認すると同時に、レンズに表示された画像を視認することができる。   The HMD 400 has a shape of glasses and is used by being worn by a user. The HMF 400 has an imaging function for imaging a subject, a display function for displaying an image on the lens portion of the glasses, and a wireless LAN function. A user wearing the HMD 400 can visually recognize the subject through the lens and at the same time visually recognize the image displayed on the lens.

ネットワーク2は、ローカルエリアネットワーク(LAN)であり、接続形態は有線または無線を問わない。またネットワーク2は、LANに限らず、公衆交換電話網(Public Switched Telephone Networks)を用いたネットワーク等であってもよい。さらに、ネットワーク2は、インターネットなどのワイドエリアネットワーク(WAN)に接続されている。   The network 2 is a local area network (LAN), and the connection form may be wired or wireless. Further, the network 2 is not limited to a LAN, and may be a network using a public switched telephone network (Public Switched Telephone Networks). Furthermore, the network 2 is connected to a wide area network (WAN) such as the Internet.

MFP100は、ネットワーク2を介して、無線局3、PC300、およびサーバー500と、データの送受信が可能である。無線局3は、ネットワーク2の中継装置であり、無線LAN通信機能を備えた携帯情報装置200,200A,200BおよびHMD400と通信して、携帯情報装置200,200A,200BおよびHMD400をネットワーク2に接続する。このため、携帯情報装置200,200A,200BおよびHMD400各々は、無線局3およびネットワーク2を介してMFP100、PC300、サーバー500とデータの送受信が可能である。   The MFP 100 can transmit and receive data to and from the wireless station 3, the PC 300, and the server 500 via the network 2. The wireless station 3 is a relay device of the network 2 and communicates with the portable information devices 200, 200A, 200B and the HMD 400 having a wireless LAN communication function to connect the portable information devices 200, 200A, 200B and the HMD 400 to the network 2. To do. Therefore, each of portable information devices 200, 200 </ b> A, 200 </ b> B and HMD 400 can send and receive data to / from MFP 100, PC 300, and server 500 via wireless station 3 and network 2.

図2は、本実施の形態におけるMFPの外観を示す斜視図である。図3は、本実施の形態におけるMFPのハードウェア構成の一例を示すブロック図である。図2および図3を参照して、MFP100は、メイン回路110と、原稿を読み取るための原稿読取部130と、原稿を原稿読取部130に搬送するための自動原稿搬送装置120と、原稿読取部130が原稿を読み取って出力する画像データに基づいて用紙等に画像を形成するための画像形成部140と、画像形成部140に用紙を供給するための給紙部150と、画像が形成された用紙を処理する後処理部155と、ユーザーインターフェースとしての操作パネル160とを含む。   FIG. 2 is a perspective view showing an appearance of the MFP according to the present embodiment. FIG. 3 is a block diagram illustrating an example of the hardware configuration of the MFP according to the present embodiment. 2 and 3, MFP 100 includes a main circuit 110, a document reading unit 130 for reading a document, an automatic document transport device 120 for transporting a document to document reading unit 130, and a document reading unit. An image is formed by an image forming unit 140 for forming an image on a sheet or the like based on image data output by the manuscript 130 reading and outputting a document, a paper feeding unit 150 for supplying the image to the image forming unit 140, and an image. A post-processing unit 155 that processes paper and an operation panel 160 as a user interface are included.

後処理部155は、画像形成部140により画像が形成された1以上の用紙を並び替えて排紙するソート処理、パンチ穴加工するパンチ処理、ステープル針を打ち込むステープル処理を実行する。   The post-processing unit 155 executes a sorting process for sorting and discharging one or more sheets on which images are formed by the image forming unit 140, a punching process for punch hole processing, and a staple process for driving staple needles.

メイン回路110は、CPU111と、通信インターフェース(I/F)部112と、ROM113と、RAM114と、大容量記憶装置としてのハードディスクドライブ(HDD)115と、ファクシミリ部116と、CD−ROM118が装着される外部記憶装置117と、を含む。CPU111は、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150および操作パネル160と接続され、MFP100の全体を制御する。   The main circuit 110 includes a CPU 111, a communication interface (I / F) unit 112, a ROM 113, a RAM 114, a hard disk drive (HDD) 115 as a mass storage device, a facsimile unit 116, and a CD-ROM 118. External storage device 117. CPU 111 is connected to automatic document feeder 120, document reading unit 130, image forming unit 140, sheet feeding unit 150, and operation panel 160, and controls the entire MFP 100.

ROM113は、CPU111が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。RAM114は、CPU111がプログラムを実行する際の作業領域として用いられる。また、RAM114は、原稿読取部130から連続的に送られてくる読取データ(画像データ)を一時的に記憶する。   The ROM 113 stores a program executed by the CPU 111 or data necessary for executing the program. The RAM 114 is used as a work area when the CPU 111 executes a program. The RAM 114 temporarily stores read data (image data) continuously sent from the document reading unit 130.

操作パネル160は、MFP100の上面に設けられ、表示部161と操作部163とを含む。表示部161は、液晶表示装置(LCD)、有機ELD(Electro−Luminescence Display)等の表示装置であり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。操作部163は、複数のキーからなるハードキー部167を備え、キーに対応するユーザーの操作による各種の指示、文字、数字などのデータの入力を受け付ける。操作部163は、表示部161上に設けられたタッチパネルを165さらに含む。   Operation panel 160 is provided on the upper surface of MFP 100 and includes a display unit 161 and an operation unit 163. The display unit 161 is a display device such as a liquid crystal display (LCD) or an organic ELD (Electro-Luminescence Display), and displays an instruction menu for the user, information about acquired image data, and the like. The operation unit 163 includes a hard key unit 167 including a plurality of keys, and accepts input of various instructions, data such as characters and numbers by user operations corresponding to the keys. The operation unit 163 further includes a touch panel 165 provided on the display unit 161.

通信I/F部112は、MFP100をネットワーク2に接続するためのインターフェースである。CPU111は、通信I/F部112を介して、携帯情報装置200,200A,200B、PC300、HMD400、およびサーバー500との間で通信し、データを送受信する。また、通信I/F部112は、ネットワーク2を介してインターネットに接続されたコンピューターと通信が可能である。   Communication I / F unit 112 is an interface for connecting MFP 100 to network 2. CPU 111 communicates with portable information devices 200, 200 </ b> A, 200 </ b> B, PC 300, HMD 400, and server 500 via communication I / F unit 112 to transmit / receive data. The communication I / F unit 112 can communicate with a computer connected to the Internet via the network 2.

ファクシミリ部116は、公衆交換電話網(PSTN)に接続され、PSTNにファクシミリデータを送信する、またはPSTNからファクシミリデータを受信する。ファクシミリ部116は、受信したファクシミリデータを、HDD115に記憶する、または画像形成部140に出力する。画像形成部140は、ファクシミリ部116により受信されたファクシミリデータを用紙にプリントする。また、ファクシミリ部116は、HDD115に記憶されたデータをファクシミリデータに変換して、PSTNに接続されたファクシミリ装置に送信する。   The facsimile unit 116 is connected to the public switched telephone network (PSTN) and transmits facsimile data to the PSTN or receives facsimile data from the PSTN. The facsimile unit 116 stores the received facsimile data in the HDD 115 or outputs it to the image forming unit 140. The image forming unit 140 prints the facsimile data received by the facsimile unit 116 on a sheet. Further, the facsimile unit 116 converts the data stored in the HDD 115 into facsimile data, and transmits the facsimile data to a facsimile machine connected to the PSTN.

外部記憶装置117は、CD−ROM(Compact Disk ROM)118が装着される。CPU111は、外部記憶装置117を介してCD−ROM118にアクセス可能である。CPU111は、外部記憶装置117に装着されたCD−ROM118に記録されたプログラムをRAM114にロードして実行する。なお、CPU111が実行するプログラムを記憶する媒体としては、CD−ROM118に限られず、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード、光カード、マスクROM、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)などの半導体メモリーであってもよい。   The external storage device 117 is loaded with a CD-ROM (Compact Disk ROM) 118. The CPU 111 can access the CD-ROM 118 via the external storage device 117. The CPU 111 loads the program recorded on the CD-ROM 118 attached to the external storage device 117 to the RAM 114 and executes it. The medium for storing the program executed by the CPU 111 is not limited to the CD-ROM 118, but an optical disc (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile Disc)), IC card, optical card, It may be a semiconductor memory such as a mask ROM, EPROM (Erasable Programmable ROM), or EEPROM (Electrically EPROM).

また、CPU111が実行するプログラムは、CD−ROM118に記録されたプログラムに限られず、HDD115に記憶されたプログラムをRAM114にロードして実行するようにしてもよい。この場合、ネットワーク2に接続された他のコンピューターが、MFP100のHDD115に記憶されたプログラムを書換える、または、新たなプログラムを追加して書き込むようにしてもよい。さらに、MFP100が、ネットワーク2に接続された他のコンピューターからプログラムをダウンロードして、そのプログラムをHDD115に記憶するようにしてもよい。ここでいうプログラムは、CPU111が直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   Further, the program executed by the CPU 111 is not limited to the program recorded on the CD-ROM 118, and the program stored in the HDD 115 may be loaded into the RAM 114 and executed. In this case, another computer connected to the network 2 may rewrite the program stored in the HDD 115 of the MFP 100, or may write a new program. Further, MFP 100 may download a program from another computer connected to network 2 and store the program in HDD 115. The program here includes not only a program directly executable by the CPU 111 but also a source program, a compressed program, an encrypted program, and the like.

拡張現実表示システム1において、MFP100、携帯情報装置200,200A,200B、PC300、HDM400、サーバー500間で、データが送受信される。データを送受信するプロトコルは、受信側の装置において送信元を特定することができれば、任意のプロトコルを用いることが可能である。データを送受信するプロトコルは、例えばHTTP(HyperText Transfer Protocol)、FTP(File Transfer Protocol)およびSMPT(Simple Mail Transfer Protocol)、POP(Post Office Protocol)等が用いられる。   In the augmented reality display system 1, data is transmitted and received between the MFP 100, the portable information devices 200, 200 </ b> A, 200 </ b> B, the PC 300, the HDM 400, and the server 500. As a protocol for transmitting and receiving data, any protocol can be used as long as the transmission source can be specified in the receiving apparatus. As a protocol for transmitting and receiving data, for example, HTTP (Hyper Text Transfer Protocol), FTP (File Transfer Protocol), SMPT (Simple Mail Transfer Protocol), POP (Post Office Protocol), and the like are used.

図4は、本実施の形態における携帯情報装置のハードウェア構成の概要の一例を示すブロック図である。図4を参照して、携帯情報装置200は、携帯情報装置200の全体を制御するためのCPU201と、カメラ202と、データを不揮発的に記憶するフラッシュメモリー203と、通話部205と接続された無線通信部204と、情報を表示する表示部206と、ユーザーの操作を受け付ける操作部207と、無線LANI/F208と、位置検出部209と、方位検出部210と、外部記憶装置211と、を含む。   FIG. 4 is a block diagram illustrating an example of an outline of a hardware configuration of the portable information device according to the present embodiment. Referring to FIG. 4, portable information device 200 is connected to CPU 201 for controlling overall portable information device 200, camera 202, flash memory 203 for storing data in a nonvolatile manner, and call unit 205. A wireless communication unit 204; a display unit 206 that displays information; an operation unit 207 that accepts user operations; a wireless LAN I / F 208; a position detection unit 209; an orientation detection unit 210; and an external storage device 211. Including.

無線通信部204は、電話通信網に接続された携帯電話用基地局と無線通信する。無線通信部204は、携帯情報装置200を電話通信網に接続し、通話部205を用いた通話を可能とする。無線通信部204は、携帯電話用基地局から受信した無線信号を復調した音声信号を復号して通話部205に出力する。また、無線通信部204は、通話部205から入力される音声を符号化し、携帯電話用基地局に送信する。通話部205は、マイクおよびスピーカを備え、無線通信部204から入力される音声をスピーカから出力し、マイクから入力される音声を無線通信部204に出力する。さらに、無線通信部204は、CPU201により制御され、携帯情報装置200を電子メールサーバーに接続し、電子メールを送受信する。   The wireless communication unit 204 performs wireless communication with a mobile phone base station connected to a telephone communication network. The wireless communication unit 204 connects the portable information device 200 to a telephone communication network and enables a call using the call unit 205. The radio communication unit 204 decodes a voice signal obtained by demodulating the radio signal received from the mobile phone base station and outputs the decoded signal to the call unit 205. Further, the wireless communication unit 204 encodes the voice input from the call unit 205 and transmits it to the mobile phone base station. The call unit 205 includes a microphone and a speaker, outputs the voice input from the wireless communication unit 204 from the speaker, and outputs the voice input from the microphone to the wireless communication unit 204. Further, the wireless communication unit 204 is controlled by the CPU 201, connects the portable information device 200 to an electronic mail server, and transmits and receives electronic mail.

カメラ202は、レンズおよび光電変換素子を備え、レンズで集光した光を光電変換素子に結像し、光電変換素子は受光した光を光電変換して画像データをCPU201に出力する。光電変換素子は、CMOS(Complementary Metal Oxide Semiconductor)センサー、CCD(Charge Coupled Device)センサー等である。   The camera 202 includes a lens and a photoelectric conversion element. The light focused by the lens is imaged on the photoelectric conversion element. The photoelectric conversion element photoelectrically converts the received light and outputs image data to the CPU 201. The photoelectric conversion element is a CMOS (Complementary Metal Oxide Semiconductor) sensor, a CCD (Charge Coupled Device) sensor, or the like.

表示部206は、液晶表示装置(LCD)、有機ELD等の表示装置であり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。操作部207は、複数のキーを備え、キーに対応するユーザーの操作による各種の指示、文字、数字などのデータの入力を受け付ける。   The display unit 206 is a display device such as a liquid crystal display (LCD) or an organic ELD, and displays an instruction menu for a user, information about acquired image data, and the like. The operation unit 207 includes a plurality of keys, and accepts input of various instructions, data such as characters and numbers by user operations corresponding to the keys.

無線LANI/F208は、無線局3と通信し、携帯情報装置200をネットワーク3に接続するためのインターフェースである。携帯情報装置200に、HMD200、サーバー500、MFP100、PC300それぞれのIP(Internet Protocol)アドレスを登録しておくことにより、携帯情報装置200は、HMD400、サーバー500、MFP100、PC300と通信することができ、データの送受信が可能となる。なお、本実施の形態においては、携帯情報装置200が無線LANI/F208を用いて、MFP100、PC300、HMD400、サーバー500と通信する場合を例に説明するが、他の通信方法を用いて通信するようにしてもよい。具体的には、携帯情報装置200、MFP100、PC300、HMD400、サーバー500が、例えばBluetooth(登録商標)等の近距離無線装置を搭載する場合には、携帯情報装置200が、MFP100、PC300、HMD400、サーバー500のいずれかと、1対1で通信するようにしてもよい。また、携帯情報装置200を、MFP100、PC300、HMD400、サーバー500のいずれかと、例えばUSB(Universal Serial Bus)ケーブル等の有線で接続するようにし、携帯情報装置200が、MFP100、PC300、HMD400、サーバー500のいずれかと、1対1で通信するようにしてもよい。   The wireless LAN I / F 208 is an interface for communicating with the wireless station 3 and connecting the portable information device 200 to the network 3. By registering the IP (Internet Protocol) addresses of HMD 200, server 500, MFP 100, and PC 300 in portable information device 200, portable information device 200 can communicate with HMD 400, server 500, MFP 100, and PC 300. Data transmission / reception becomes possible. In this embodiment, a case where portable information device 200 communicates with MFP 100, PC 300, HMD 400, and server 500 using wireless LAN I / F 208 will be described as an example, but communication is performed using another communication method. You may do it. Specifically, when portable information device 200, MFP 100, PC 300, HMD 400, and server 500 are equipped with a short-range wireless device such as Bluetooth (registered trademark), for example, portable information device 200 is MFP 100, PC 300, HMD 400. , One-to-one communication with any of the servers 500 may be performed. In addition, the portable information device 200 is connected to any one of the MFP 100, the PC 300, the HMD 400, and the server 500 by a wire such as a USB (Universal Serial Bus) cable, and the portable information device 200 is connected to the MFP 100, the PC 300, the HMD 400, the server. You may make it communicate with either of 500 one to one.

フラッシュメモリー203は、CPU201が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。CPU201は、フラッシュメモリー203に記録されたプログラムを、CPU201が備えるRAMにロードして実行する。   The flash memory 203 stores a program executed by the CPU 201 or data necessary for executing the program. The CPU 201 loads a program recorded in the flash memory 203 to a RAM included in the CPU 201 and executes it.

位置検出部209は、携帯情報装置200の現在位置を検出する。具体的には、位置検出部209は、全地球測位システム(Global Positioning System)受信機であり、複数のGPS衛星からの電波を受信することにより、現在位置を測定する。位置検出部209は、測定した現在位置を示す値、たとえば、緯度と経度とをCPU201に出力する。   The position detection unit 209 detects the current position of the portable information device 200. Specifically, the position detection unit 209 is a global positioning system receiver, and measures the current position by receiving radio waves from a plurality of GPS satellites. The position detection unit 209 outputs a value indicating the measured current position, for example, latitude and longitude to the CPU 201.

方位検出部210は、携帯情報装置200のカメラ202が向く方向の方位を検出する。具体的には、方位検出部210は、地磁気を計測する地磁気センサーである。方位検出部210は、検出した方位をCPU201に出力する。方位検出部210は、カメラ202の撮像方向、換言すれば、カメラ202のレンズの光軸が向く方向を検出可能なように携帯情報装置200に設置される。なお、方位検出部210は、地磁気センサーに限らず、ジャイロセンサー等を用いるようにしてもよい。   The direction detection unit 210 detects the direction in which the camera 202 of the portable information device 200 faces. Specifically, the orientation detection unit 210 is a geomagnetic sensor that measures geomagnetism. The direction detection unit 210 outputs the detected direction to the CPU 201. The direction detection unit 210 is installed in the portable information device 200 so as to be able to detect the imaging direction of the camera 202, in other words, the direction in which the optical axis of the lens of the camera 202 faces. The direction detection unit 210 is not limited to a geomagnetic sensor, and a gyro sensor or the like may be used.

外部記憶装置211は、携帯情報装置200に着脱自在であり、遠隔操作プログラムを記憶したCD−ROM211Aが装着可能である。CPU201は、外部記憶装置211を介してCD−ROM211Aにアクセス可能である。CPU201は、外部記憶装置211に装着されたCD−ROM211Aに記録された遠隔操作プログラムを、CPU201が備えるRAMにロードして実行することが可能である。   The external storage device 211 is detachable from the portable information device 200, and a CD-ROM 211A storing a remote operation program can be attached thereto. The CPU 201 can access the CD-ROM 211A via the external storage device 211. The CPU 201 can load a remote operation program recorded on the CD-ROM 211A attached to the external storage device 211 into a RAM included in the CPU 201 and execute it.

なお、CPU201が実行するプログラムとして、フラッシュメモリー203またはCD−ROM211Aに記録されたプログラムについて説明したが、ネットワーク2に接続された他のコンピューターが、フラッシュメモリー203に記憶されたプログラムを書換えたプログラム、または、追加して書き込んだ新たなプログラムであってもよい。さらに、携帯情報装置200が、ネットワーク2に接続された他のコンピューターからダウンロードしたプログラムでもよい。ここでいうプログラムは、CPU201が直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   Note that the program recorded in the flash memory 203 or the CD-ROM 211A has been described as a program executed by the CPU 201, but a program in which another computer connected to the network 2 rewrites the program stored in the flash memory 203, Alternatively, it may be a new program written additionally. Further, the portable information device 200 may be a program downloaded from another computer connected to the network 2. The program here includes not only a program directly executable by the CPU 201 but also a source program, a compressed program, an encrypted program, and the like.

なお、CPU201が実行するプログラムを記憶する媒体としては、CD−ROM211Aに限られず、光ディスク(MO/MD/DVD)、ICカード、光カード、マスクROM、EPROM、EEPROMなどの半導体メモリーであってもよい。   The medium for storing the program executed by the CPU 201 is not limited to the CD-ROM 211A, and may be a semiconductor memory such as an optical disk (MO / MD / DVD), an IC card, an optical card, a mask ROM, an EPROM, or an EEPROM. Good.

図5は、本実施の形態におけるHMDのハードウェア構成の一例を示すブロック図である。図5を参照して、本実施の形態におけるHMD400は、HMD400の全体を制御するためのCPU401と、カメラ402と、データを不揮発的に記憶するフラッシュメモリー403と、情報を表示する表示部404と、無線LANI/F405と、を含む。   FIG. 5 is a block diagram showing an example of the hardware configuration of the HMD in the present embodiment. Referring to FIG. 5, HMD 400 in the present embodiment includes a CPU 401 for controlling the entire HMD 400, a camera 402, a flash memory 403 for storing data in a nonvolatile manner, and a display unit 404 for displaying information. And wireless LAN I / F 405.

カメラ402は、レンズおよび光電変換素子を備え、レンズで集光した光を光電変換素子に結像し、光電変換素子は受光した光を光電変換して画像データをCPU401に出力する。光電変換素子は、CMOS(Complementary Metal Oxide Semiconductor)センサー、CCD(Charge Coupled Device)センサー等である。   The camera 402 includes a lens and a photoelectric conversion element. The light focused by the lens is imaged on the photoelectric conversion element. The photoelectric conversion element photoelectrically converts the received light and outputs image data to the CPU 401. The photoelectric conversion element is a CMOS (Complementary Metal Oxide Semiconductor) sensor, a CCD (Charge Coupled Device) sensor, or the like.

表示部404は、透明な部材からなる液晶表示装置(LCD)であり、HMD400のレンズ部分に埋め込まれている。表示部404の表示面は、カメラ402の光軸を基準に定まる位置に配置される。具体的には、カメラ402の撮像範囲は、ユーザーがHMD400を装着した場合における視界と同じに設定される。このため、カメラ404において撮像して得られる画像は、ユーザーが実際に見る視界内の画像と同じになる。このため、カメラ402が出力する画像からユーザーの視界内の位置を特定することができる。表示部404の表示面は、レンズ部分においてユーザーがHMD400を装着した場合における視界と同じに設定される。このため、ユーザーの視界内の任意の位置に画像を表示することができる。   The display unit 404 is a liquid crystal display (LCD) made of a transparent member, and is embedded in the lens portion of the HMD 400. The display surface of the display unit 404 is arranged at a position determined with reference to the optical axis of the camera 402. Specifically, the imaging range of the camera 402 is set to be the same as the field of view when the user wears the HMD 400. For this reason, the image obtained by imaging with the camera 404 is the same as the image in the field of view actually viewed by the user. For this reason, the position in the user's field of view can be specified from the image output by the camera 402. The display surface of the display unit 404 is set to be the same as the field of view when the user wears the HMD 400 in the lens portion. For this reason, an image can be displayed at an arbitrary position in the user's field of view.

無線LANI/F405は、無線局3と通信し、HMD400をネットワーク2に接続するためのインターフェースである。フラッシュメモリー403に、サーバー500のIP(Internet Protocol)アドレスを登録しておくことにより、HMD400は、サーバー500と通信することができ、データの送受信が可能となる。なお、本実施の形態においては、HMD400が無線LANI/F405を用いて、サーバー500と通信する場合を例に説明するが、他の通信方法を用いて通信するようにしてもよい。具体的には、HMD400およびサーバー500が、例えばBluetooth(登録商標)等の近距離無線装置を搭載する場合には、HMD400が、サーバー500と、1対1で通信するようにしてもよい。   The wireless LAN I / F 405 is an interface for communicating with the wireless station 3 and connecting the HMD 400 to the network 2. By registering the IP (Internet Protocol) address of the server 500 in the flash memory 403, the HMD 400 can communicate with the server 500 and transmit / receive data. In this embodiment, the case where the HMD 400 communicates with the server 500 using the wireless LAN I / F 405 will be described as an example, but communication may be performed using another communication method. Specifically, when the HMD 400 and the server 500 are mounted with a short-range wireless device such as Bluetooth (registered trademark), for example, the HMD 400 may communicate with the server 500 on a one-to-one basis.

フラッシュメモリー403は、CPU401が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。CPU401は、フラッシュメモリー403に記録されたプログラムを、CPU401が備えるRAMにロードして実行する。   The flash memory 403 stores a program executed by the CPU 401 or data necessary for executing the program. The CPU 401 loads the program recorded in the flash memory 403 to the RAM provided in the CPU 401 and executes it.

図6は、本実施の形態におけるサーバーのハードウェア構成の一例を示すブロック図である。図6を参照して、サーバー500は、サーバー500の全体を制御するためのCPU501と、CPU501が実行するためのプログラムを記憶するROM502と、CPU501の作業領域として使用されるRAM503と、データを不揮発的に記憶するHDD504と、CPU501をネットワーク2に接続する通信部505と、情報を表示する表示部506と、ユーザーの操作の入力を受け付ける操作部507と、を含む。   FIG. 6 is a block diagram illustrating an example of a hardware configuration of the server according to the present embodiment. Referring to FIG. 6, server 500 has a CPU 501 for controlling server 500 as a whole, ROM 502 for storing a program to be executed by CPU 501, RAM 503 used as a work area for CPU 501, and non-volatile storage of data. HDD 504 for storing information, a communication unit 505 for connecting CPU 501 to network 2, a display unit 506 for displaying information, and an operation unit 507 for receiving an input of a user operation.

本実施の形態における拡張現実表示システム1においては、サーバー500に拡張現実情報を記憶し、拡張現実表示装置として機能する携帯情報装置200が、サーバー500から拡張現実情報をダウンロードして、表示する。   In the augmented reality display system 1 according to the present embodiment, the augmented reality information is stored in the server 500, and the portable information device 200 functioning as the augmented reality display device downloads the augmented reality information from the server 500 and displays it.

図7は、拡張現実情報のフォーマットの一例を示す図である。図7を参照して、拡張現実情報は、位置情報の項目と、コンテンツの項目と、関連情報の項目と、領域情報の項目と、を含む。位置情報の項目には、地理的な位置を示す位置情報が設定される。コンテンツの項目には、コンテンツが設定される。ここでは、コンテンツを、位置情報の項目に設定された位置情報で特定される位置で被写体を撮像した撮像画像を背景画像として設定される場合を例に説明する。関連情報の項目は、コンテンツ中のオブジェクトに関連する関連情報が設定される。ここでは、コンテンツの項目に設定された背景画像中の被写体に関連する情報が設定される。領域情報の項目は、コンテンツ中のオブジェクトに対して相対位置で定まる表示領域を示す領域情報が設定される。ここでは、コンテンツの項目に設定された背景画像中の被写体に対して相対的な位置で定める領域の位置を示す領域情報が設定される。   FIG. 7 is a diagram illustrating an example of a format of augmented reality information. Referring to FIG. 7, the augmented reality information includes a position information item, a content item, a related information item, and a region information item. In the position information item, position information indicating a geographical position is set. Content is set in the content item. Here, an example will be described in which content is set as a background image, which is a captured image obtained by capturing a subject at a position specified by position information set in the position information item. In the related information item, related information related to the object in the content is set. Here, information related to the subject in the background image set in the content item is set. In the area information item, area information indicating a display area determined by a relative position with respect to an object in the content is set. Here, area information indicating the position of the area defined by the relative position with respect to the subject in the background image set in the content item is set.

拡張現実情報をサーバー500に記憶させる方法の具体例は後述するが、サーバー500には、予め拡張現実情報が記憶されている。ここでは、会議室Aにおいて、ホワイトボードを撮像する際に、その撮像時の会議室Aの位置を示す位置情報が位置情報の項目に設定され、ホワイトボードを被写体にして撮像された撮像画像がコンテンツの項目に設定され、会議の資料である画像が関連情報の項目に設定され、撮像画像中に被写体として含まれるホワイトボードの描画面の全体を含む領域が領域情報の項目に設定された拡張現実情報がサーバー500に登録されている場合を例に説明する。   Although a specific example of the method for storing the augmented reality information in the server 500 will be described later, the augmented reality information is stored in the server 500 in advance. Here, when the whiteboard is imaged in the conference room A, the position information indicating the position of the conference room A at the time of imaging is set in the position information item, and the captured image captured using the whiteboard as a subject is displayed. An extension that is set as a content item, an image that is a meeting material is set as a related information item, and an area that includes the entire drawing surface of the whiteboard included as a subject in the captured image is set as an area information item A case where real information is registered in the server 500 will be described as an example.

図8は、拡張現実表示装置として機能する携帯情報装置200が備えるCPUの機能の概要の一例を示すブロック図である。図8に示す機能は、拡張現実表示装置として機能する携帯情報装置200が備えるCPU201が、フラッシュメモリー203に記憶された拡張現実表示プログラムを実行することにより、CPU201に形成される機能である。図8を参照して、CPU201は、撮像制御部251と、携帯情報装置200の現在の地理的な位置を取得する位置取得部253と、サーバー500から拡張現実情報を取得する拡張現実情報取得部255と、表示部161を制御する表示制御部257と、相違部分抽出部271と、処理実行部273と、を含む。   FIG. 8 is a block diagram illustrating an example of an overview of the functions of the CPU provided in the portable information device 200 that functions as an augmented reality display device. The functions shown in FIG. 8 are functions formed in the CPU 201 when the CPU 201 included in the portable information device 200 functioning as an augmented reality display device executes the augmented reality display program stored in the flash memory 203. Referring to FIG. 8, the CPU 201 includes an imaging control unit 251, a position acquisition unit 253 that acquires the current geographical position of the portable information device 200, and an augmented reality information acquisition unit that acquires augmented reality information from the server 500. 255, a display control unit 257 that controls the display unit 161, a different part extraction unit 271, and a process execution unit 273.

撮像制御部251は、カメラ202を制御する撮像制御部259を含む。撮像制御部259は、カメラ202を制御し、カメラ202が被写体を撮像して出力する撮像画像を取得し、取得された撮像画像を、表示制御部257、拡張現実情報取得部255および相違部分抽出部271に出力する。表示制御部257は、撮像制御部259から撮像画像が入力されることに応じて、表示部206を制御し、撮像画像を表示部206に表示させる。   The imaging control unit 251 includes an imaging control unit 259 that controls the camera 202. The imaging control unit 259 controls the camera 202, acquires a captured image output by the camera 202 imaging a subject, and extracts the acquired captured image from the display control unit 257, the augmented reality information acquisition unit 255, and the difference portion extraction. Output to the unit 271. The display control unit 257 controls the display unit 206 in response to the captured image input from the imaging control unit 259 and causes the display unit 206 to display the captured image.

位置取得部253は、位置検出部209を制御し、位置検出部209に現在位置を測定させ、位置検出部209が出力する現在位置を示す位置情報を取得する。位置取得部253は、取得された位置情報を拡張現実情報取得部255に出力する。   The position acquisition unit 253 controls the position detection unit 209, causes the position detection unit 209 to measure the current position, and acquires position information indicating the current position output by the position detection unit 209. The position acquisition unit 253 outputs the acquired position information to the augmented reality information acquisition unit 255.

拡張現実情報取得部255は、サーバー500から拡張現実情報を取得する。拡張現実情報取得部255は、位置基準取得部261と、被写体基準取得部263と、を含む。位置基準取得部261は、位置取得部253から入力される位置情報を含む拡張現実情報送信要求を、無線LANI/F208を介して、サーバー500に送信する。携帯情報装置200のフラッシュメモリー203に、サーバー500のIPアドレスを予め記憶しておけばよい。拡張現実情報送信要求を受信するサーバー500の動作の詳細は後述するが、拡張現実情報送信要求に含まれる位置情報で特定される位置から所定の範囲内に存在する位置を示す位置情報を含む拡張現実情報を抽出し、抽出された1以上の拡張現実情報を返信する。拡張現実情報取得部255は、無線LANI/F408がサーバー500から1以上の拡張現実情報を受信すると、1以上の拡張現実情報を被写体基準取得部263に出力する。   The augmented reality information acquisition unit 255 acquires augmented reality information from the server 500. The augmented reality information acquisition unit 255 includes a position reference acquisition unit 261 and a subject reference acquisition unit 263. The position reference acquisition unit 261 transmits an augmented reality information transmission request including the position information input from the position acquisition unit 253 to the server 500 via the wireless LAN I / F 208. The IP address of server 500 may be stored in advance in flash memory 203 of portable information device 200. Although details of the operation of the server 500 that receives the augmented reality information transmission request will be described later, the extended information including the position information indicating the position existing within a predetermined range from the position specified by the position information included in the augmented reality information transmission request. Real information is extracted, and one or more extracted augmented reality information is returned. When the wireless LAN I / F 408 receives one or more augmented reality information from the server 500, the augmented reality information acquisition unit 255 outputs the one or more augmented reality information to the subject reference acquisition unit 263.

被写体基準取得部263は、撮像制御部259から撮像画像が入力され、位置基準取得部261から1以上の拡張現実情報が入力される。被写体基準取得部263は、位置基準取得部261から入力される1以上の拡張現実情報のうちから、撮像制御部259から入力される撮像画像と被写体が同一の背景画像を含む拡張現実情報を抽出する。被写体基準取得部263は、撮像画像と拡張現実情報のコンテンツの項目に設定された背景画像とのそれぞれから特徴的な形状を抽出し、撮像画像の特徴的な形状と同一または相似の形状が背景画像の特徴的な形状に含まれていれば、その拡張現実情報を、撮像画像と被写体が同一の背景画像を含む拡張現実情報に決定する。被写体基準取得部263は、撮像制御部259から入力される撮像画像と被写体が同一の背景画像を含む拡張現実情報を表示制御部257および相違部分抽出部271に出力する。被写体基準取得部263は、位置基準取得部261から入力される1以上の拡張現実情報のうちに、撮像画像と被写体が同一の背景画像を含む拡張現実情報が存在しない場合は、表示制御部257および相違部分抽出部271に拡張現実情報を出力しない。   The subject reference acquisition unit 263 receives a captured image from the imaging control unit 259 and receives one or more augmented reality information from the position reference acquisition unit 261. The subject reference acquisition unit 263 extracts, from one or more augmented reality information input from the position reference acquisition unit 261, augmented reality information including a background image in which the subject is the same as the captured image input from the imaging control unit 259. To do. The subject reference acquisition unit 263 extracts a characteristic shape from each of the captured image and the background image set in the content item of the augmented reality information, and the same or similar shape as the characteristic shape of the captured image is the background. If it is included in the characteristic shape of the image, the augmented reality information is determined to be augmented reality information including a background image having the same subject as the captured image. The subject reference acquisition unit 263 outputs augmented reality information including a background image having the same subject as the captured image input from the imaging control unit 259 to the display control unit 257 and the different portion extraction unit 271. The subject reference acquisition unit 263 displays the display control unit 257 when there is no augmented reality information including a background image in which the captured image and the subject are the same among the one or more augmented reality information input from the position reference acquisition unit 261. And the augmented reality information is not output to the different part extraction unit 271.

例えば、画像を2値化した2値化画像または画像を微分したエッジ画像を生成することにより、画像中に含まれる被写体の輪郭を抽出することができる。抽出された輪郭の形状を特徴的な形状として抽出すればよい。特徴的な形状が同一か否かは、サイズが異なる場合があるので、相似の場合を含む。エッジ画像は、隣接する画素間で濃度の差が所定のしきい値以上の画素の値を「1」とし、所定のしきい値より小さい画素の値を「0」とした画像である。例えば、背景画像および撮像画像に被写体としてホワイトボードを含む場合には、それぞれの画像は、ホワイトボードの輪郭を特徴的な形状として含む。   For example, by generating a binarized image obtained by binarizing the image or an edge image obtained by differentiating the image, the contour of the subject included in the image can be extracted. What is necessary is just to extract the shape of the extracted outline as a characteristic shape. Whether the characteristic shapes are the same or not includes a similar case because the sizes may be different. The edge image is an image in which the value of a pixel whose density difference between adjacent pixels is equal to or greater than a predetermined threshold is “1” and the value of a pixel smaller than the predetermined threshold is “0”. For example, when the background image and the captured image include a whiteboard as a subject, each image includes the outline of the whiteboard as a characteristic shape.

なお、位置検出部209が現在位置を測定できない場合、位置取得部253は位置情報を取得することができない。この場合には、位置基準取得部261は、サーバー500からそれに記憶されている拡張現実情報の全てを受信し、被写体基準取得部263に出力する。また、被写体基準取得部263が撮像制御部259から入力される撮像画像を含む拡張現実情報送信要求を、無線LANI/F208を介して、サーバー500に送信し、サーバー500が、拡張現実情報送信要求に含まれる撮像画像と被写体が同一の拡張現実情報を抽出し、返信するようにしてもよい。この場合には、被写体基準取得部263は、サーバー500から返信される拡張現実情報を受信し、表示制御部257に出力する。   Note that if the position detection unit 209 cannot measure the current position, the position acquisition unit 253 cannot acquire position information. In this case, the position reference acquisition unit 261 receives all the augmented reality information stored therein from the server 500 and outputs it to the subject reference acquisition unit 263. In addition, the object reference acquisition unit 263 transmits an augmented reality information transmission request including the captured image input from the imaging control unit 259 to the server 500 via the wireless LAN I / F 208, and the server 500 transmits the augmented reality information transmission request. The augmented reality information in which the captured image and the subject included in the image are the same may be extracted and returned. In this case, the subject reference acquisition unit 263 receives the augmented reality information returned from the server 500 and outputs it to the display control unit 257.

表示制御部257は、撮像制御部259から撮像画像が入力されることに応じて、撮像画像を表示部206に表示する。表示制御部257は、拡張現実情報取得部255から拡張現実情報が入力される場合、拡張現実情報に含まれる関連情報の項目に設定された関連情報を表示部206に表示する。   The display control unit 257 displays the captured image on the display unit 206 in response to the input of the captured image from the imaging control unit 259. When the augmented reality information is input from the augmented reality information acquisition unit 255, the display control unit 257 displays the related information set in the related information item included in the augmented reality information on the display unit 206.

表示制御部257は、現実表示領域決定部258を含む。現実表示領域決定部258は、拡張現実情報の領域情報の項目に設定された領域情報に基づいて、拡張現実情報のコンテンツの項目に設定された背景画像中の被写体に対する相対位置を特定し、撮像画像中の被写体を基準にして、特定された相対位置に存在する領域を現実表示領域に決定する。また、現実表示領域決定部258は、撮像画像中で関連情報を表示するための現実表示領域を後述する更新制御部277に出力する。   The display control unit 257 includes a real display area determination unit 258. Based on the area information set in the area information item of the augmented reality information, the reality display area determining unit 258 specifies the relative position with respect to the subject in the background image set in the content item of the augmented reality information, and performs imaging. An area present at the specified relative position is determined as a real display area with reference to the subject in the image. In addition, the real display area determination unit 258 outputs a real display area for displaying related information in the captured image to the update control unit 277 described later.

表示制御部257は、撮像画像中で決定された現実表示領域に拡張現実情報の関連情報の項目に設定された関連情報を表示する。具体的には、表示制御部257は、撮像画像中で、現実表示領域に、関連情報の画像を合成した合成画像を生成し、生成された合成画像を表示部206に表示する。   The display control unit 257 displays related information set in the related information item of the augmented reality information in the actual display area determined in the captured image. Specifically, the display control unit 257 generates a composite image obtained by combining the images of the related information in the actual display area in the captured image, and displays the generated composite image on the display unit 206.

なお、現実表示領域決定部258は、拡張現実情報に含まれるコンテンツの項目に設定された背景画像中で、領域情報の項目に設定された領域情報で特定される領域を特定し、撮像画像中で、背景画像中で特定された領域と類似する領域を、関連情報を表示するための領域に決定するようにしてもよい。   The real display area determination unit 258 specifies an area specified by the area information set in the area information item in the background image set in the content item included in the augmented reality information, and includes the captured image in the captured image. Thus, an area similar to the area specified in the background image may be determined as an area for displaying related information.

ここで、ユーザーが会議室Aにおいて携帯情報装置200のカメラ202で、ホワイトボードを被写体にして撮像する場合、会議室Aの位置を示す位置情報が位置情報の項目に設定され、ホワイトボードを被写体にして撮像された背景画像がコンテンツの項目に設定され、会議の資料である画像が関連情報に設定され、背景画像中のホワイトボードの描画面の全体を含む表示領域が領域情報の項目に設定された拡張現実情報がサーバー500から受信される場合を例に説明する。この場合、撮像画像中のホワイトボードの描画面に関連情報である会議の資料の画像を合成した合成画像を表示部206に表示する。実際には、ホワイトボードの描画面には文字などが記載されていなくても、また、画像が投影されていなくても、携帯情報装置200の表示部206には、撮像画像中のホワイトボードの描画面の領域に会議の資料の画像を合成した合成画像が表示される。   Here, when the user captures an image using the camera 202 of the portable information device 200 in the conference room A with the whiteboard as the subject, the location information indicating the location of the conference room A is set in the location information item, and the whiteboard is the subject. The background image captured in this way is set as the content item, the image that is the conference material is set as the related information, and the display area including the entire drawing surface of the whiteboard in the background image is set as the area information item A case where the augmented reality information is received from the server 500 will be described as an example. In this case, a synthesized image obtained by synthesizing the image of the conference material as related information on the drawing surface of the whiteboard in the captured image is displayed on the display unit 206. Actually, even if no character or the like is written on the drawing surface of the whiteboard or an image is not projected, the display unit 206 of the portable information device 200 displays the whiteboard in the captured image. A composite image obtained by combining the images of the conference materials is displayed in the drawing surface area.

相違部分抽出部271は、撮像制御部251から撮像画像が入力され、拡張現実情報取得部255から拡張現実情報が入力される。相違部分抽出部271は、拡張現実情報に含まれる背景画像と撮像画像とが部分的に相違するか否かを判断する。相違部分抽出部271は、背景画像と撮像画像とが部分的に相違すると判断する場合、処理実行部273に撮像画像と拡張現実情報とを含む更新指示を出力する。   The different portion extraction unit 271 receives a captured image from the imaging control unit 251 and receives augmented reality information from the augmented reality information acquisition unit 255. The different part extraction unit 271 determines whether or not the background image and the captured image included in the augmented reality information are partially different. When determining that the background image and the captured image are partially different, the different portion extraction unit 271 outputs an update instruction including the captured image and the augmented reality information to the process execution unit 273.

処理実行部273は、相違部分抽出部271から更新指示が入力される場合、予め定められた処理を実行する。処理実行部273は、通知部275と、更新制御部277と、を含む。通知部275は、相違部分抽出部271から更新指示が入力されることに応じて、ユーザーに、拡張現実情報を更新する必要があることを通知する。例えば、「この画像で拡張現実情報を更新しますか?」のメッセージを表示部206に表示されている画像に重畳して表示する。通知部275は、ユーザーが操作部207に拡張現実情報を更新する指示を入力すれば、撮像画像と拡張現実情報とを含む更新指示を更新制御部277に出力する。   When the update instruction is input from the different part extraction unit 271, the process execution unit 273 executes a predetermined process. The process execution unit 273 includes a notification unit 275 and an update control unit 277. The notification unit 275 notifies the user that the augmented reality information needs to be updated in response to the update instruction input from the different part extraction unit 271. For example, a message “Do you want to update augmented reality information with this image?” Is displayed superimposed on the image displayed on the display unit 206. When the user inputs an instruction to update augmented reality information to the operation unit 207, the notification unit 275 outputs an update instruction including the captured image and the augmented reality information to the update control unit 277.

更新制御部277は、通知部275から撮像画像と拡張現実情報とを含む更新指示が入力され、表示制御部257から撮像画像中で関連情報を表示する領域が入力される。更新制御部277は、拡張現実情報のコンテンツの項目を撮像画像で更新し、拡張現実情報の領域情報の項目を現実表示領域に更新し、更新後の拡張現実情報を含む拡張現実情報更新要求を無線LANI/F208を介して、サーバー500に送信する。   The update control unit 277 receives an update instruction including a captured image and augmented reality information from the notification unit 275, and receives an area for displaying related information in the captured image from the display control unit 257. The update control unit 277 updates the content item of the augmented reality information with the captured image, updates the area information item of the augmented reality information to the actual display region, and issues an augmented reality information update request including the augmented reality information after the update. The data is transmitted to the server 500 via the wireless LAN I / F 208.

図9は、相違部分抽出部271の詳細な機能の一例を示すブロック図である。図9を参照して、相違部分抽出部271は、分割部281と、比較部283と、相違部分決定部285と、を含む。   FIG. 9 is a block diagram illustrating an example of detailed functions of the different portion extraction unit 271. Referring to FIG. 9, different portion extraction unit 271 includes a division unit 281, a comparison unit 283, and a different portion determination unit 285.

分割部281は、撮像制御部259から入力される撮像画像を複数の部分画像に分割する。分割数は限定するものではないが、例えば、縦および横それぞれで複数に等分するのが好ましい。   The dividing unit 281 divides the captured image input from the imaging control unit 259 into a plurality of partial images. Although the number of divisions is not limited, for example, it is preferable to divide into a plurality of equal parts in the vertical and horizontal directions.

比較部283は、複数の部分画像ごとに、拡張現実情報のコンテンツの項目に設定された背景画像の少なくとも一部と比較する。比較部283は、部分画像と背景画像の少なくとも一部を、パターンマッチングすることにより、比較する。比較部283は、部分画像が背景画像の少なくとも一部と類似または同一であれば、その部分画像を類似部分に決定し、類似部分を識別するための部分画像番号を相違部分決定部285に出力し、背景画像が部分画像と同一または類似の部分を含まなければ、非類似部分に決定し、非類似部分の部分画像番号を相違部分決定部285に出力する。   The comparison unit 283 compares, for each of the plurality of partial images, at least a part of the background image set in the content item of the augmented reality information. The comparison unit 283 compares at least a part of the partial image and the background image by pattern matching. If the partial image is similar or identical to at least a part of the background image, the comparison unit 283 determines the partial image as a similar portion and outputs a partial image number for identifying the similar portion to the different portion determination unit 285. If the background image does not include the same or similar portion as the partial image, the background image is determined as a dissimilar portion, and the partial image number of the dissimilar portion is output to the different portion determining unit 285.

相違部分決定部285は、複数の部分画像のうちに類似部分に囲まれる非類似部分が存在する場合に、非類似部分を相違部分に決定する。相違部分決定部285は、相違部分を決定する場合、通知部275に通知指示を出力する。   The different part determination unit 285 determines a dissimilar part as a different part when there is a dissimilar part surrounded by the similar part in the plurality of partial images. The different part determination unit 285 outputs a notification instruction to the notification unit 275 when determining the different part.

図10は、背景画像の一例を示す図である。図10に示す背景画像は、サーバー500に登録された拡張現実情報のコンテンツの項目に設定された背景画像を示し、会議室Aにおいて、ホワイトボードを被写体として撮像した背景画像である。図10を参照して、背景画像600は、ホワイトボード601、時計603、MFP605を被写体として含む。ホワイトボード601は、描画面601を含む。   FIG. 10 is a diagram illustrating an example of a background image. The background image shown in FIG. 10 is a background image set in the item of augmented reality information content registered in the server 500, and is a background image captured in the conference room A using a whiteboard as a subject. Referring to FIG. 10, background image 600 includes white board 601, clock 603, and MFP 605 as subjects. The white board 601 includes a drawing surface 601.

図11は、撮像画像の一例を示す図である。図11に示す撮像画像は、会議室Aにおいて携帯情報装置200でホワイトボード601を被写体として撮像して得られる画像である。図11を参照して、撮像画像700は、ホワイトボード601、時計603、MFP605およびポスター607を被写体として含む。ホワイトボード601は、描画面601を含む。   FIG. 11 is a diagram illustrating an example of a captured image. The captured image shown in FIG. 11 is an image obtained by capturing an image of the whiteboard 601 as a subject in the portable information device 200 in the conference room A. Referring to FIG. 11, captured image 700 includes white board 601, clock 603, MFP 605, and poster 607 as subjects. The white board 601 includes a drawing surface 601.

図11に示す撮像画像は、会議室Aにおいて撮像して得られる画像であり、撮像した位置が、会議室Aである。また、撮像画像700は、被写体としてホワイトボード601を含む。   The captured image shown in FIG. 11 is an image obtained by capturing in the conference room A, and the captured position is the conference room A. The captured image 700 includes a whiteboard 601 as a subject.

図12は、合成画像の一例を示す図である。図12に示す合成画像は、携帯情報装置200において、図11に示す撮像画像が取得され、図10に示す背景画像を含む拡張現実情報がサーバー500から取得された場合に生成され、表示部206に表示される合成画像を示す。図12を参照して、図11に示した撮像画像中のホワイトボード601の描画面601Aの領域に関連情報610を含む。   FIG. 12 is a diagram illustrating an example of a composite image. The composite image illustrated in FIG. 12 is generated when the captured image illustrated in FIG. 11 is acquired in the portable information device 200 and the augmented reality information including the background image illustrated in FIG. Shows the composite image displayed. Referring to FIG. 12, related information 610 is included in the area of drawing surface 601A of whiteboard 601 in the captured image shown in FIG.

このように、携帯情報装置200を携帯するユーザーが、会議室Aにおいてホワイトボード601を被写体として撮像すると、図10に示した背景画像600を含む拡張現実情報をサーバー500から取得し、図12に示す合成画像を携帯情報装置200の表示部206に表示する。このため、実際には、ホワイトボード601の描画面601Aに何も描画されていなくても、予め準備した拡張現実情報の関連情報の項目に設定された関連情報の画像を描画面601Aに合成した合成画像が、携帯情報装置200の表示部206に表示させることができる。   As described above, when the user carrying the portable information device 200 images the whiteboard 601 as a subject in the conference room A, the augmented reality information including the background image 600 shown in FIG. 10 is acquired from the server 500, and FIG. The composite image shown is displayed on the display unit 206 of the portable information device 200. Therefore, actually, even if nothing is drawn on the drawing surface 601A of the whiteboard 601, an image of related information set in the related information item of the augmented reality information prepared in advance is synthesized on the drawing surface 601A. The composite image can be displayed on the display unit 206 of the portable information device 200.

また、背景画像700は、被写体としてポスター607を含むが、撮像画像600は、それを含まない。このため、サーバー500から取得された拡張現実情報のコンテンツの項目に設定された背景画像が、図11に示した撮像画像700で更新され、領域情報の項目に設定された表示領域が、撮像画像700における描画面601Aの領域を示す領域情報で更新され、更新された拡張現実情報がサーバー500に登録される。したがって、サーバー500に登録された拡張現実情報において、コンテンツの項目に設定された背景画像を撮像した時点と、その場所の状態が変化した場合であっても、背景画像が、状態が変化した後に撮像された撮像画像で更新されるので、サーバー500に登録された拡張現実情報を、最新の状態に維持することができる。   The background image 700 includes a poster 607 as a subject, but the captured image 600 does not include it. Therefore, the background image set in the augmented reality information content item acquired from the server 500 is updated in the captured image 700 shown in FIG. 11, and the display region set in the region information item is captured image. 700 is updated with area information indicating the area of the drawing surface 601A in 700, and the updated augmented reality information is registered in the server 500. Therefore, in the augmented reality information registered in the server 500, even when the background image set in the content item is captured and the state of the place changes, the background image changes after the state changes. Since the captured image is updated with the captured image, the augmented reality information registered in the server 500 can be maintained in the latest state.

サーバー500に拡張現実情報を登録する方法には、種々の方法があるが、ここでは、携帯情報装置200が拡張現実情報の一部である基本情報をサーバー500に登録し、MFP100がその基本情報を用いて拡張現実情報をサーバー500に登録する場合を例に説明する。なお、この場合、携帯情報装置200は、基本情報をサーバー500に登録する基本情報登録装置として機能し、MFP100は、拡張現実情報をサーバー500に登録する拡張現実情報登録装置として機能する。   There are various methods for registering augmented reality information in the server 500. Here, the portable information device 200 registers basic information, which is a part of augmented reality information, in the server 500, and the MFP 100 stores the basic information. A case where the augmented reality information is registered in the server 500 using the above will be described as an example. In this case, portable information device 200 functions as a basic information registration device that registers basic information in server 500, and MFP 100 functions as an augmented reality information registration device that registers augmented reality information in server 500.

図13は、基本情報のフォーマットの一例を示す図である。図13を参照して、基本情報は、拡張現実情報の一部である位置情報の項目と、コンテンツの項目と、を含む。   FIG. 13 is a diagram illustrating an example of a format of basic information. Referring to FIG. 13, the basic information includes an item of position information that is a part of augmented reality information and an item of content.

図14は、基本情報登録装置として機能する携帯情報装置200が備えるCPU201の機能の一例を示すブロック図である。図14に示す機能は、基本情報登録装置として機能する携帯情報装置200が備えるCPU201が、フラッシュメモリー203に記憶された基本情報登録プログラムを実行することにより、CPU201に形成される機能である。なお、図8に示した機能と同じ機能には同じ符号を付し、重複する説明は繰り返さない。   FIG. 14 is a block diagram illustrating an example of a function of the CPU 201 included in the portable information device 200 that functions as a basic information registration device. The functions shown in FIG. 14 are functions formed in the CPU 201 when the CPU 201 included in the portable information device 200 functioning as a basic information registration device executes a basic information registration program stored in the flash memory 203. In addition, the same code | symbol is attached | subjected to the same function as the function shown in FIG. 8, and the overlapping description is not repeated.

図14を参照して、基本情報登録装置として機能する携帯情報装置200が備えるCPU201は、位置取得部253と、撮像制御部251、基本情報登録部287と、を含む。撮像制御部251は、カメラ202が被写体を撮像して出力する撮像画像を取得し、取得された撮像画像を、基本情報登録部287に出力する。位置取得部253は、カメラ202が被写体を撮像した時点に位置検出部209が出力する現在位置を示す位置情報を取得し、取得された位置情報を基本情報登録部287に出力する。   Referring to FIG. 14, CPU 201 included in portable information device 200 that functions as a basic information registration device includes a position acquisition unit 253, an imaging control unit 251, and a basic information registration unit 287. The imaging control unit 251 acquires a captured image that the camera 202 captures and outputs a subject, and outputs the acquired captured image to the basic information registration unit 287. The position acquisition unit 253 acquires position information indicating the current position output by the position detection unit 209 when the camera 202 images the subject, and outputs the acquired position information to the basic information registration unit 287.

基本情報登録部287は、位置取得部253から入力される位置情報を位置情報の項目に設定し。撮像制御部259から入力される撮像画像をコンテンツの項目に設定することにより基本情報を生成し、生成された基本情報を含む基本情報登録要求を、無線LANI/F208を介して、サーバー500に送信する。   The basic information registration unit 287 sets the position information input from the position acquisition unit 253 in the item of position information. Basic information is generated by setting a captured image input from the imaging control unit 259 as a content item, and a basic information registration request including the generated basic information is transmitted to the server 500 via the wireless LAN I / F 208. To do.

例えば、ユーザーが携帯情報装置200を携帯し、会議室Aで、会議室Aに存在するホワイトボードを被写体として撮像すれば、会議室Aの位置情報とを含む基本情報と、そのホワイトボードを被写体とした撮像画像と、がサーバー500に登録される。   For example, if a user carries the portable information device 200 and images a whiteboard existing in the conference room A as a subject in the conference room A, the basic information including the location information of the conference room A and the whiteboard as the subject And the captured image are registered in the server 500.

図15は、拡張現実情報登録装置として機能するMFPが備えるCPUの機能の一例を示すブロック図である。図15に示す機能は、拡張現実情報登録装置として機能するMFP100が備えるCPU111が、ROM113、HDD115、CD−ROM118に記憶された拡張現実情報登録プログラムを実行することにより、CPU111に形成される機能である。図15を参照して、CPU111は、生成側コンテンツ取得部51と、領域決定部53と、関連情報取得部55と、拡張現実情報生成部57と、登録部59と、を含む。   FIG. 15 is a block diagram illustrating an example of functions of a CPU provided in an MFP that functions as an augmented reality information registration apparatus. The functions shown in FIG. 15 are functions formed in the CPU 111 when the CPU 111 provided in the MFP 100 functioning as an augmented reality information registration apparatus executes the augmented reality information registration program stored in the ROM 113, the HDD 115, and the CD-ROM 118. is there. Referring to FIG. 15, CPU 111 includes a generation content acquisition unit 51, a region determination unit 53, a related information acquisition unit 55, an augmented reality information generation unit 57, and a registration unit 59.

生成側コンテンツ取得部51は、位置受付部61と、基本情報取得部63と、を含む。
位置受付部61は、ユーザーにより指示される地理的な位置を受け付ける。位置受付部61は、表示部161に二次元の地図を表示し、表示された地図でユーザーにより指示された位置を、受け付ける。例えば、表示された地図で、会議室Aの場所が指示されると、会議室Aの地理的な位置を受け付ける。位置受付部61は、受け付けられた地理的な位置を示す位置情報を基本情報取得部63に出力する。会議室Aの地理的な位置を示す位置情報は、会議室Aの緯度と経度とで示される。
The generation-side content acquisition unit 51 includes a position reception unit 61 and a basic information acquisition unit 63.
The position receiving unit 61 receives a geographical position designated by the user. The position receiving unit 61 displays a two-dimensional map on the display unit 161 and receives a position indicated by the user on the displayed map. For example, when the location of the conference room A is indicated on the displayed map, the geographical position of the conference room A is received. The position reception unit 61 outputs position information indicating the received geographical position to the basic information acquisition unit 63. The position information indicating the geographical position of the conference room A is indicated by the latitude and longitude of the conference room A.

基本情報取得部63は、位置受付部61から位置情報が入力されることに応じて、サーバー500から基本情報を取得し、取得された基本情報を領域決定部53および拡張現実情報生成部57に出力する。基本情報取得部63は、位置受付部61から入力される位置情報を含む基本情報送信要求を、無線LANI/F208を介して、サーバー500に送信する。基本情報送信要求を受信するサーバー500の詳細は後述するが、登録されている基本情報のうち、基本情報送信要求に含まれる位置情報で特定される位置から所定の範囲内の位置を示す位置情報を含む基本情報を返信する。基本情報取得部63は、無線LANI/F208がサーバー500から受信する基本情報を取得する。例えば、ユーザーが会議室Aの場を指示する場合、会議室Aの地理的な位置を示す位置情報を含み、ホワイトボードを被写体として撮像された背景画像を含む基本情報を取得する。   The basic information acquisition unit 63 acquires basic information from the server 500 in response to position information input from the position reception unit 61, and sends the acquired basic information to the region determination unit 53 and the augmented reality information generation unit 57. Output. The basic information acquisition unit 63 transmits a basic information transmission request including the position information input from the position reception unit 61 to the server 500 via the wireless LAN I / F 208. The details of the server 500 that receives the basic information transmission request will be described later. Among the registered basic information, position information indicating a position within a predetermined range from the position specified by the position information included in the basic information transmission request. Reply with basic information including. The basic information acquisition unit 63 acquires basic information that the wireless LAN I / F 208 receives from the server 500. For example, when the user instructs the meeting room A, the basic information including the position information indicating the geographical position of the meeting room A and including the background image captured using the whiteboard as a subject is acquired.

領域決定部53は、生成側コンテンツ表示部65と、表示領域受付部67と、プレビュー部69と、を含む。生成側コンテンツ表示部65は、基本情報取得部63から基本情報が入力されることに応じて、基本情報のコンテンツの項目に設定された背景画像を表示部161に表示する。ここでは、ユーザーが地図中で会議室Aの場所を指示し、ホワイトボードを被写体として撮像された背景画像が表示部161に表示される場合を例に説明する。生成側コンテンツ表示部65は、背景画像を表示領域受付部67およびプレビュー部69に出力する。   The region determination unit 53 includes a generation-side content display unit 65, a display region reception unit 67, and a preview unit 69. The generation-side content display unit 65 displays the background image set in the content item of the basic information on the display unit 161 in response to the input of the basic information from the basic information acquisition unit 63. Here, a case will be described as an example where the user instructs the location of the conference room A on the map, and a background image captured using the whiteboard as a subject is displayed on the display unit 161. The generation-side content display unit 65 outputs the background image to the display area receiving unit 67 and the preview unit 69.

表示領域受付部67は、ユーザーにより指示される表示領域を受け付ける。表示領域は、背景画像中の領域である。表示領域受付部67は、ユーザーが操作部163を操作して、表示部161に表示された背景画像中の一部を指示すれば、ユーザーにより指示された領域を、表示領域として受け付ける。表示領域は、例えば、点であってもよいし、任意の形状で囲まれた領域であってもよい。ここでは、表示領域を矩形の領域としている。表示領域は、後述する関連情報を表示するための領域である。関連情報は、背景画像中に含まれる被写体に関連する情報である。このため、表示領域は、背景画像中に含まれる被写体を含む領域、または、背景画像中に含まれる被写体から所定の範囲内にある領域である。このため、ユーザーが背景画像内の被写体の一部を指示すれば、被写体を含む矩形の領域を表示領域として受け付けるようにしてもよい。表示領域受付部67は、受け付けられた表示領域を、プレビュー部69および拡張現実情報生成部57に出力する。表示領域は、例えば、背景画像中の矩形の領域とする場合、矩形の領域の2つの対角の頂点の座標とすればよい。   The display area receiving unit 67 receives a display area specified by the user. The display area is an area in the background image. If the user operates the operation unit 163 to point to a part of the background image displayed on the display unit 161, the display region receiving unit 67 receives the region designated by the user as the display region. The display area may be, for example, a point or an area surrounded by an arbitrary shape. Here, the display area is a rectangular area. The display area is an area for displaying related information described later. The related information is information related to the subject included in the background image. Therefore, the display area is an area including the subject included in the background image, or an area within a predetermined range from the subject included in the background image. For this reason, if the user indicates a part of the subject in the background image, a rectangular region including the subject may be accepted as the display region. The display area receiving unit 67 outputs the received display area to the preview unit 69 and the augmented reality information generating unit 57. For example, when the display area is a rectangular area in the background image, the coordinates of the two diagonal vertices of the rectangular area may be used.

プレビュー部69は、生成側コンテンツ表示部65から背景画像が入力され、表示領域受付部67から表示領域が入力され、次に説明する関連情報取得部55から関連情報が入力される。プレビュー部69は、背景画像の表示領域に、関連情報の画像を合成した合成画像を生成し、生成された合成画像を表示部161に表示する。ユーザーは、背景画像に重畳して表示される関連情報を見ることで、背景画像中で関連情報が表示される位置を確認することができる。関連情報が表示される位置を、変更する場合には、操作部163を操作して、表示領域を変更する指示を入力すればよい。これにより、表示領域受付部67によって、変更後の表示領域が受け付けられる。   The preview unit 69 receives a background image from the generation-side content display unit 65, receives a display area from the display region receiving unit 67, and receives related information from the related information acquisition unit 55 described below. The preview unit 69 generates a composite image obtained by combining the related information image in the display area of the background image, and displays the generated composite image on the display unit 161. The user can confirm the position where the related information is displayed in the background image by looking at the related information displayed superimposed on the background image. In order to change the position where the related information is displayed, the operation unit 163 may be operated to input an instruction to change the display area. Thereby, the display area receiving unit 67 receives the changed display area.

関連情報取得部55は、関連情報を取得し、取得された関連情報をプレビュー部69および拡張現実情報生成部57に出力する。関連情報は、ユーザーにより定められた情報であり、文字、記号、図形または写真、またはそれらの組み合わせである。   The related information acquisition unit 55 acquires the related information and outputs the acquired related information to the preview unit 69 and the augmented reality information generation unit 57. The related information is information determined by the user, and is a character, a symbol, a graphic or a photograph, or a combination thereof.

関連情報取得部55は、入力受付部71と、原稿読取制御部73と、データ取得部75と、を含む。入力受付部71は、ユーザーが操作部163に入力する文字または記号を関連情報として受け付ける。原稿読取制御部73は、原稿読取部130が原稿を読み取って出力する画像を関連情報として受け付ける。データ取得部75は、HDD115に記憶されたデータのうちユーザーにより指定されたデータを関連情報として受け付ける。HDD115に記憶されるデータは、別のコンピューターで作成された文書または図形等のデータ、デジタルカメラで撮像して得られる写真等のデータ、インターネットに接続されたサーバーからダウンロードされたデータを含む。ここでは、ユーザーが、会議で使用するために発表用のデータの画像が形成された用紙を原稿とし、原稿読取部130に読み取らせ、原稿読取部130が出力する画像を関連情報とする場合を例に説明する。   The related information acquisition unit 55 includes an input reception unit 71, a document reading control unit 73, and a data acquisition unit 75. The input receiving unit 71 receives characters or symbols that the user inputs to the operation unit 163 as related information. The document reading control unit 73 receives, as related information, an image output by the document reading unit 130 reading a document. The data acquisition unit 75 receives data specified by the user among the data stored in the HDD 115 as related information. The data stored in the HDD 115 includes data such as a document or a graphic created by another computer, data such as a photograph obtained by imaging with a digital camera, and data downloaded from a server connected to the Internet. Here, a case where a user uses a sheet on which an image of data for presentation is formed for use in a conference as a document, causes the document reading unit 130 to read the image, and uses an image output from the document reading unit 130 as related information. Explained as an example.

拡張現実情報生成部57は、基本情報取得部63から基本情報が入力され、表示領域受付部67から表示領域が入力され、関連情報取得部55から関連情報が入力される。拡張現実情報生成部57は、基本情報に含まれる位置情報を位置情報の項目に設定し、基本情報に含まれる背景画像をコンテンツの項目に設定し、関連情報取得部55から入力される関連情報を関連情報の項目に設定し、表示領域受付部67から入力される領域情報を領域情報の項目に設定した拡張現実情報を生成する。拡張現実情報生成部57は、生成された拡張現実情報を含む拡張現実情報登録要求を、無線LANI/F208を介してサーバー500に送信する。   The augmented reality information generation unit 57 receives basic information from the basic information acquisition unit 63, receives a display area from the display area reception unit 67, and receives related information from the related information acquisition unit 55. The augmented reality information generation unit 57 sets the position information included in the basic information in the item of position information, sets the background image included in the basic information as the item of content, and the related information input from the related information acquisition unit 55 Is set in the related information item, and the augmented reality information is generated by setting the region information input from the display region receiving unit 67 as the region information item. The augmented reality information generation unit 57 transmits an augmented reality information registration request including the generated augmented reality information to the server 500 via the wireless LAN I / F 208.

図16は、サーバーが備えるCPUが有する機能の一例を示すブロック図である。図16に示す機能は、サーバー500が備えるCPU501が、ROM502またはHDD504に記憶された拡張現実情報管理プログラムを実行することにより、CPU501に形成される機能である。図16を参照して、CPU501は、基本情報登録要求受信部551と、基本情報登録部553と、基本情報送信要求受信部555と、基本情報抽出部557と、基本情報送信部559と、拡張現実情報登録要求受信部561と、拡張現実情報登録部563と、拡張現実情報送信要求受信部565と、拡張現実情報抽出部567と、拡張現実情報送信部569と、拡張現実情報更新要求受信部571と、拡張現実情報更新部573と、
を含む。
FIG. 16 is a block diagram illustrating an example of functions of a CPU included in the server. The functions illustrated in FIG. 16 are functions formed in the CPU 501 when the CPU 501 included in the server 500 executes the augmented reality information management program stored in the ROM 502 or the HDD 504. Referring to FIG. 16, CPU 501 includes basic information registration request receiving unit 551, basic information registering unit 553, basic information transmission request receiving unit 555, basic information extracting unit 557, basic information transmitting unit 559, extended Reality information registration request reception unit 561, augmented reality information registration unit 563, augmented reality information transmission request reception unit 565, augmented reality information extraction unit 567, augmented reality information transmission unit 569, and augmented reality information update request reception unit 571, augmented reality information update unit 573,
including.

基本情報登録要求受信部551は、通信部505が基本情報登録装置として機能する携帯情報装置200が送信する基本情報登録要求を受信することに応じて、基本情報登録要求に含まれる基本情報を基本情報登録部553に出力する。基本情報登録部553は、基本情報をHDD504に記憶することにより基本情報を登録する。   The basic information registration request receiving unit 551 receives the basic information included in the basic information registration request in response to the communication unit 505 receiving the basic information registration request transmitted from the portable information device 200 that functions as the basic information registration device. The information is output to the information registration unit 553. The basic information registration unit 553 registers the basic information by storing the basic information in the HDD 504.

基本情報送信要求受信部555は、通信部505が拡張現実情報登録装置として機能するMFP100が送信する基本情報送信要求を受信することに応じて、基本情報送信要求に含まれる位置情報を基本情報抽出部557に出力する。基本情報抽出部557は、位置情報が入力されることに応じて、HDD504に記憶されている基本情報のうちから、基本情報送信要求に含まれる位置情報から所定の範囲内の位置を示す位置情報を含む基本情報を抽出する。基本情報抽出部557は、抽出された基本情報を基本情報送信部559に出力する。基本情報送信部559は、基本情報抽出部557によって抽出された基本情報を、基本情報送信要求を送信してきたMFP100に、通信部505を介して送信する。   Basic information transmission request receiving unit 555 extracts basic information from the location information included in the basic information transmission request in response to communication unit 505 receiving a basic information transmission request transmitted by MFP 100 functioning as an augmented reality information registration device. Output to the unit 557. The basic information extracting unit 557 indicates position information indicating a position within a predetermined range from the position information included in the basic information transmission request from the basic information stored in the HDD 504 in response to the input of the position information. Basic information including is extracted. The basic information extraction unit 557 outputs the extracted basic information to the basic information transmission unit 559. Basic information transmission unit 559 transmits the basic information extracted by basic information extraction unit 557 to MFP 100 that has transmitted the basic information transmission request via communication unit 505.

拡張現実情報登録要求受信部561は、通信部505が拡張現実情報登録装置として機能するMFP100が送信する拡張現実情報登録要求を受信することに応じて、拡張現実情報登録要求に含まれる拡張現実情報を拡張現実情報登録部563に出力する。拡張現実情報登録部563は、拡張現実情報をHDD504に記憶することにより拡張現実情報を登録する。   The augmented reality information registration request reception unit 561 receives the augmented reality information registration request included in the augmented reality information registration request when the communication unit 505 receives the augmented reality information registration request transmitted by the MFP 100 functioning as an augmented reality information registration device. Is output to the augmented reality information registration unit 563. The augmented reality information registration unit 563 registers the augmented reality information by storing the augmented reality information in the HDD 504.

拡張現実情報送信要求受信部565は、通信部505が拡張現実表示装置として機能する携帯情報装置200が送信する拡張現実情報送信要求を受信することに応じて、拡張現実情報送信要求に含まれる位置情報を拡張現実情報抽出部567に出力する。拡張現実情報抽出部567は、位置情報が入力されることに応じて、HDD504に記憶されている拡張現実情報のうちから、拡張現実情報送信要求に含まれる位置情報から所定の範囲内の位置を示す位置情報を含む拡張現実情報を抽出する。拡張現実情報抽出部567は、抽出された拡張現実情報を拡張現実情報送信部569に出力する。拡張現実情報送信部569は、拡張現実情報抽出部567によって抽出された拡張現実情報を、拡張現実情報送信要求を送信してきた携帯情報装置200に、通信部505を介して送信する。   The augmented reality information transmission request receiving unit 565 is a position included in the augmented reality information transmission request when the communication unit 505 receives the augmented reality information transmission request transmitted by the portable information device 200 functioning as an augmented reality display device. The information is output to the augmented reality information extraction unit 567. The augmented reality information extraction unit 567 selects a position within a predetermined range from the position information included in the augmented reality information transmission request from the augmented reality information stored in the HDD 504 in response to the input of the position information. Augmented reality information including the position information shown is extracted. The augmented reality information extraction unit 567 outputs the extracted augmented reality information to the augmented reality information transmission unit 569. The augmented reality information transmission unit 569 transmits the augmented reality information extracted by the augmented reality information extraction unit 567 to the portable information device 200 that has transmitted the augmented reality information transmission request via the communication unit 505.

拡張現実情報更新要求受信部571は、通信部505が拡張現実表示装置として機能する携帯情報装置200が送信する拡張現実情報更新要求を受信することに応じて、HDD504に記憶されている拡張現実情報のうち拡張現実情報更新要求に含まれる拡張現現実情報と位置情報および関連情報が同じ拡張現実情報を、拡張現実情報更新要求に含まれる拡張現現実情報で更新する。具体的には、HDD504に記憶されている拡張現実情報のうち拡張現実情報更新要求に含まれる拡張現現実情報と位置情報および関連情報が同じ拡張現実情報を、拡張現実情報更新要求に含まれる拡張現現実情報で更新する。   The augmented reality information update request receiving unit 571 receives the augmented reality information update request transmitted from the portable information device 200 that functions as the augmented reality display device by the communication unit 505, and stores the augmented reality information stored in the HDD 504. Among them, the augmented reality information having the same position information and related information as the augmented reality information included in the augmented reality information update request is updated with the augmented reality information included in the augmented reality information update request. Specifically, of the augmented reality information stored in the HDD 504, augmented reality information having the same position information and related information as the augmented reality information included in the augmented reality information update request is included in the augmented reality information update request. Update with current reality information.

図17は、基本情報登録処理の流れの一例を示すフローチャートである。基本情報登録処理は、基本情報登録装置として機能する携帯情報装置200が備えるCPU201が、フラッシュメモリー203に記憶された基本情報登録プログラムを実行することにより、CPU201により実行される処理である。図17を参照して、CPU201は、カメラ202を制御して被写体を撮像する(ステップS01)。ユーザーが操作部207の備えるシャッターキーを指示すれば、CPU201はカメラ202に被写体を撮像させる。次のステップS02においては、カメラ202が出力する撮像画像を取得し、処理をステップS03に進める。ステップS03においては、カメラ202が被写体を撮像した時点に位置検出部209が出力する現在位置を示す位置情報を取得する。   FIG. 17 is a flowchart illustrating an example of the flow of basic information registration processing. The basic information registration process is a process executed by the CPU 201 when the CPU 201 included in the portable information device 200 functioning as a basic information registration device executes a basic information registration program stored in the flash memory 203. With reference to FIG. 17, the CPU 201 controls the camera 202 to image a subject (step S01). When the user indicates a shutter key provided in the operation unit 207, the CPU 201 causes the camera 202 to image the subject. In the next step S02, a captured image output by the camera 202 is acquired, and the process proceeds to step S03. In step S03, position information indicating the current position output by the position detection unit 209 at the time when the camera 202 images the subject is acquired.

そして、基本情報を生成する(ステップS04)。ステップS02において取得された撮像画像を基本情報のコンテンツの項目に設定し、ステップS03において取得された位置情報を位置情報の項目に設定することにより、基本情報を生成する。   Then, basic information is generated (step S04). The basic information is generated by setting the captured image acquired in step S02 as a content item of basic information and setting the positional information acquired in step S03 as a positional information item.

次のステップS05においては、生成された基本情報をサーバー500に登録する。具体的には、基本情報を含む基本情報登録要求を、無線LANI/F208を介してサーバー500に送信する。   In the next step S05, the generated basic information is registered in the server 500. Specifically, a basic information registration request including basic information is transmitted to the server 500 via the wireless LAN I / F 208.

例えば、ユーザーが携帯情報装置200を携帯し、会議室Aで、会議室Aに存在するホワイトボードを被写体として撮像すれば、そのホワイトボードを被写体とした撮像画像と、会議室Aの位置情報とを含む基本情報がサーバー500に登録される。   For example, if the user carries the portable information device 200 and takes an image of a whiteboard existing in the conference room A as a subject in the conference room A, the captured image using the whiteboard as a subject, the position information of the conference room A, Is registered in the server 500.

図18は、拡張現実情報登録処理の流れの一例を示すフローチャートである。拡張現実情報登録処理は、拡張現実情報登録装置として機能するMFP100が備えるCPU111が、ROM113、HDD115、CD−ROM118に記憶された拡張現実情報登録プログラムを実行することにより、CPU111により実行される処理である。図18を参照して、CPU111は、表示部161に二次元の地図を表示する(ステップS11)。インターネットに接続されたコンピューターからダウンロードした地図を表示する。また、HDD115に予め地図を記憶している場合には、その地図を表示するようにしてもよい。   FIG. 18 is a flowchart illustrating an example of the flow of the augmented reality information registration process. The augmented reality information registration process is a process executed by the CPU 111 when the CPU 111 included in the MFP 100 functioning as an augmented reality information registration apparatus executes the augmented reality information registration program stored in the ROM 113, the HDD 115, and the CD-ROM 118. is there. With reference to FIG. 18, the CPU 111 displays a two-dimensional map on the display unit 161 (step S <b> 11). Display a map downloaded from a computer connected to the Internet. Further, when a map is stored in advance in the HDD 115, the map may be displayed.

次のステップS12においては、位置の指定を受け付ける。位置を受け付けるまで待機状態となり(ステップS12でNO)、位置を受け付けると(ステップS12でYES)、処理をステップS13に進める。地図中でユーザーが操作部163を用いて指示する位置を、受け付ける。   In the next step S12, designation of the position is accepted. The process waits until a position is accepted (NO in step S12). If a position is accepted (YES in step S12), the process proceeds to step S13. A position indicated by the user using the operation unit 163 in the map is received.

ステップS13においては、受け付けられた位置を示す位置情報を取得し、処理をステップS14に進める。ここでは、表示された地図中で、会議室Aの場所が指示される場合を例に説明する。この場合、会議室Aの地理的な位置を示す位置情報として、会議室Aの緯度と経度とを取得する。   In step S13, position information indicating the accepted position is acquired, and the process proceeds to step S14. Here, a case where the location of the conference room A is instructed in the displayed map will be described as an example. In this case, the latitude and longitude of the meeting room A are acquired as position information indicating the geographical position of the meeting room A.

ステップS14においては、ステップS13において取得された位置情報に対応する基本情報を取得する。具体的には、位置情報を含む基本情報送信要求を、通信I/F部112を介してサーバー500に送信する。基本情報送信要求を受信するサーバー500においては、サーバー500に登録されている基本情報のうち、基本情報送信要求に含まれる位置情報で特定される位置から所定の範囲内の位置を示す位置情報を含む基本情報を返信する。次のステップS15においては、無線LANI/F208がサーバー500から受信する基本情報を取得する。例えば、基本情報登録装置として機能する携帯情報装置200によってサーバー500に登録された基本情報であって、会議室Aの地理的な位置を示す位置情報を含み、ホワイトボードを被写体として撮像された背景画像を含む基本情報を取得する。   In step S14, basic information corresponding to the position information acquired in step S13 is acquired. Specifically, a basic information transmission request including position information is transmitted to server 500 via communication I / F unit 112. In the server 500 that receives the basic information transmission request, among the basic information registered in the server 500, position information indicating a position within a predetermined range from the position specified by the position information included in the basic information transmission request. Reply with basic information including. In the next step S <b> 15, basic information received by the wireless LAN I / F 208 from the server 500 is acquired. For example, the basic information registered in the server 500 by the portable information device 200 functioning as a basic information registration device, including location information indicating the geographical location of the conference room A, and a background imaged using a whiteboard as a subject Get basic information including images.

ステップS16においては、基本情報のコンテンツの項目に設定された背景画像を表示部161に表示する。これにより、ホワイトボードを被写体として撮像された背景画像が表示部161に表示される。そして、ユーザーにより指示される表示領域を受け付ける(ステップS17)。表示領域は、背景画像中の領域である。ユーザーが操作部163を操作して、表示部161に表示された背景画像中の一部を指示すれば、ユーザーにより指示された領域を、表示領域として受け付ける。表示領域は、点であってもよいし、任意の形状で囲まれた領域であってもよい。ここでは、表示領域を矩形の領域としている。ユーザーが背景画像内の被写体の一部を指示すれば、被写体を含む矩形の領域を表示領域として受け付けるようにしてもよい。   In step S16, the background image set in the content item of the basic information is displayed on the display unit 161. As a result, a background image captured using the whiteboard as a subject is displayed on the display unit 161. Then, the display area designated by the user is received (step S17). The display area is an area in the background image. If the user operates the operation unit 163 to point to a part of the background image displayed on the display unit 161, the region designated by the user is accepted as the display region. The display area may be a point or an area surrounded by an arbitrary shape. Here, the display area is a rectangular area. If the user indicates a part of the subject in the background image, a rectangular area including the subject may be accepted as the display area.

ステップS18においては、原稿読取指示を受け付けたか否かを判断する。操作部163が、ユーザーにより入力される原稿読取指示を検出すると、原稿読取指示を受け付ける。原稿読取指示を受け付けたならば処理をステップS19に進めるが、そうでなければ処理をステップS21に進める。ステップS19においては、原稿読取部130に原稿を読み取らせる。そして、原稿を読み取って得られる画像を関連情報に設定し(ステップS20、処理をステップS25に進める。   In step S18, it is determined whether a document reading instruction has been accepted. When operation unit 163 detects a document reading instruction input by the user, it accepts the document reading instruction. If a document reading instruction is accepted, the process proceeds to step S19. If not, the process proceeds to step S21. In step S19, the original reading unit 130 is caused to read the original. Then, the image obtained by reading the document is set as related information (step S20, the process proceeds to step S25).

ステップS21においては、文字が入力されたか否かを判断する。操作部163が、ユーザーにより入力される文字を検出すると、文字が入力されたと判断する。文字が入力されたならば処理をステップS22に進めるが、そうでなければ処理をステップS23に進める。ステップS22においては、操作部163が検出する文字列を関連情報に設定し、処理をステップS25に進める。   In step S21, it is determined whether or not a character has been input. When operation unit 163 detects a character input by the user, it determines that a character has been input. If a character has been input, the process proceeds to step S22; otherwise, the process proceeds to step S23. In step S22, the character string detected by the operation unit 163 is set as related information, and the process proceeds to step S25.

ステップS23においては、データの指定を受け付けたか否かを判断する。操作部163が、ユーザーにより入力されるデータを指定する操作を検出すると、データの指定を受け付ける。データの指定を受け付けたならば処理をステップS24に進めるが、そうでなければ処理をステップS19に戻す。ステップS24においては、HDD115に記憶されたデータのうちユーザーにより指定されたデータを関連情報偽ってし、処理をステップS25に進める。HDD115に記憶されるデータは、別のコンピューターで作成された文書または図形等のデータ、デジタルカメラで撮像して得られる写真等のデータ、インターネットに接続されたサーバーからダウンロードされたデータを含む。ここでは、ユーザーが、会議で使用するために発表用のデータの画像が形成された用紙を原稿とし、原稿読取部130に読み取らせ、原稿読取部130が出力する画像を関連情報とする場合を例に説明する。   In step S23, it is determined whether designation of data has been accepted. When the operation unit 163 detects an operation for designating data input by the user, the data designation is accepted. If the designation of data is accepted, the process proceeds to step S24. If not, the process returns to step S19. In step S24, the data specified by the user among the data stored in HDD 115 is false, and the process proceeds to step S25. The data stored in the HDD 115 includes data such as a document or a graphic created by another computer, data such as a photograph obtained by imaging with a digital camera, and data downloaded from a server connected to the Internet. Here, a case where a user uses a sheet on which an image of data for presentation is formed for use in a conference as a document, causes the document reading unit 130 to read the image, and uses an image output from the document reading unit 130 as related information. Explained as an example.

ステップS25においては、関連情報をプレビュー表示する。具体的には、ステップS16において表示部161に表示された背景画像中のステップS17において受け付けられた表示領域に、ステップS20、ステップS22およびステップS24のいずれかで設定された関連情報の画像を表示する。ステップS26においては、ユーザーによる許可を受け付けたか否かを判断する。許可を受け付けたならば(ステップS26でYES)、処理をステップS28に進めるが、そうでなければ(ステップS26でNO)、処理をステップS27に進める。ステップS27においては、表示領域の修正を受け付け、処理をステップS25に戻す。処理がステップS27からステップS25に進む場合、ステップS25においては、ステップS27において修正された後の表示領域に、関連情報の画像を表示する。   In step S25, the related information is displayed as a preview. Specifically, the image of the related information set in any of step S20, step S22, and step S24 is displayed in the display area accepted in step S17 in the background image displayed on display unit 161 in step S16. To do. In step S26, it is determined whether or not permission from the user has been accepted. If permission is accepted (YES in step S26), the process proceeds to step S28; otherwise (NO in step S26), the process proceeds to step S27. In step S27, the correction of the display area is accepted, and the process returns to step S25. When the process proceeds from step S27 to step S25, in step S25, an image of related information is displayed in the display area after being corrected in step S27.

ステップS28においては、拡張現実情報を生成し、処理をステップS29に進める。ステップS14において取得された基本情報に含まれる位置情報および背景画像それぞれを位置情報の項目およびコンテンツの項目に設定し、ステップS20、ステップS22およびステップS24のずれかで設定された関連情報を関連情報の項目に設定し、ステップS17において受け付けられた表示領域を領域情報の項目に設定することによって、拡張現実情報を生成する。   In step S28, augmented reality information is generated, and the process proceeds to step S29. Each of the position information and the background image included in the basic information acquired in step S14 is set in the position information item and the content item, and the related information set by the shift between step S20, step S22 and step S24 is related information. The augmented reality information is generated by setting the display area received in step S17 as the area information item.

次のステップS29においては、生成された拡張現実情報をサーバー500に登録し、処理を終了する。具体的には、拡張現実情報を含む拡張現実情報登録要求を、無線LANI/F208を介してサーバー500に送信する。   In the next step S29, the generated augmented reality information is registered in the server 500, and the process ends. Specifically, an augmented reality information registration request including augmented reality information is transmitted to the server 500 via the wireless LAN I / F 208.

図19は、拡張現実情報管理処理の流れの一例を示すフローチャートである。拡張現実情報管理処理は、サーバー500が備えるCPU501が、ROM502またはHDD504に記憶された拡張現実情報管理プログラムを実行することにより、CPU501により実行される処理である。図19を参照して、CPU501は、基本情報登録要求を受信したか否かを判断する(ステップS71)。通信部505が基本情報登録装置として機能する携帯情報装置200から基本情報登録要求を受信したならば処理をステップS72に進めるが、そうでなければ処理をステップS73に進める。ステップS72においては、受信された基本情報登録要求に含まれる基本情報をHDD504に記憶することにより基本情報を登録し、処理をステップS73に進める。   FIG. 19 is a flowchart illustrating an example of the flow of the augmented reality information management process. The augmented reality information management process is a process executed by the CPU 501 by the CPU 501 included in the server 500 executing the augmented reality information management program stored in the ROM 502 or the HDD 504. Referring to FIG. 19, CPU 501 determines whether or not a basic information registration request has been received (step S71). If communication unit 505 receives a basic information registration request from portable information device 200 functioning as a basic information registration device, the process proceeds to step S72; otherwise, the process proceeds to step S73. In step S72, the basic information included in the received basic information registration request is stored in HDD 504 to register the basic information, and the process proceeds to step S73.

ステップS73においては、基本情報送信要求を受信したか否かを判断する。通信部505が拡張現実情報生成装置として機能するMFP100から基本情報送信要求を受信したならば処理をステップS74に進めるが、そうでなければ処理をステップS77に進める。ステップS74においては、受信された基本情報送信要求に含まれる位置情報を取得する。そして、HDD504に記憶されている基本情報のうちから、取得された位置情報で定まる位置から所定の範囲内の位置を示す位置情報を含む基本情報を抽出する(ステップS75)。ステップS76においては、抽出された基本情報を基本情報送信要求を送信してきたMFP100に、通信部505を介して送信し、処理をステップS77に進める。   In step S73, it is determined whether a basic information transmission request has been received. If communication unit 505 receives a basic information transmission request from MFP 100 functioning as an augmented reality information generation device, the process proceeds to step S74; otherwise, the process proceeds to step S77. In step S74, position information included in the received basic information transmission request is acquired. Then, basic information including position information indicating a position within a predetermined range from the position determined by the acquired position information is extracted from the basic information stored in the HDD 504 (step S75). In step S76, the extracted basic information is transmitted to MFP 100 that has transmitted the basic information transmission request via communication unit 505, and the process proceeds to step S77.

ステップS77においては、拡張現実情報登録要求を受信したか否かを判断する。通信部505が拡張現実情報生成装置として機能するMFP100から拡張現実情報登録要求を受信したならば処理をステップS78に進めるが、そうでなければ処理をステップS79に進める。ステップS78においては、受信された拡張現実情報登録要求に含まれる拡張現実情報をHDD504に記憶することにより拡張現実情報を登録し、処理をステップS79に進める。   In step S77, it is determined whether an augmented reality information registration request is received. If communication unit 505 receives an augmented reality information registration request from MFP 100 functioning as an augmented reality information generation device, the process proceeds to step S78; otherwise, the process proceeds to step S79. In step S78, augmented reality information is registered by storing augmented reality information included in the received augmented reality information registration request in HDD 504, and the process proceeds to step S79.

ステップS79においては、拡張現実情報送信要求を受信したか否かを判断する。通信部505が拡張現実表示装置として機能する携帯情報装置200から拡張現実情報送信要求を受信したならば処理をステップS80に進めるが、そうでなければ処理をステップS83に進める。   In step S79, it is determined whether an augmented reality information transmission request is received. If communication unit 505 receives an augmented reality information transmission request from portable information device 200 functioning as an augmented reality display device, the process proceeds to step S80; otherwise, the process proceeds to step S83.

ステップS80においては、受信された拡張現実情報送信要求に含まれる拡張現実情報の位置情報の項目に設定された位置情報を取得する。そして、HDD504に記憶されている拡張現実情報のうちから、取得された位置情報で定まる位置から所定の範囲内の位置を示す位置情報を含む拡張現実情報を抽出する(ステップS81)。   In step S80, the position information set in the item of position information of the augmented reality information included in the received augmented reality information transmission request is acquired. Then, the augmented reality information including the position information indicating the position within a predetermined range from the position determined by the acquired position information is extracted from the augmented reality information stored in the HDD 504 (step S81).

次のステップS82においては、抽出された拡張現実情報を拡張現実情報送信要求を送信してきた携帯情報装置200に、通信部505を介して送信し、処理をステップS83に進める。   In the next step S82, the extracted augmented reality information is transmitted to the portable information device 200 that has transmitted the augmented reality information transmission request via the communication unit 505, and the process proceeds to step S83.

ステップS83においては、拡張現実情報更新要求を受信したか否かを判断する。通信部505が拡張現実表示装置として機能する携帯情報装置200から拡張現実情報更新要求を受信したならば処理をステップS84に進めるが、そうでなければ処理を終了する。ステップS84においては、拡張現実情報更新要求で特定される拡張現実情報を更新し、処理を終了する。具体的には、HDD504に記憶されている拡張現実情報のうち拡張現実情報更新要求に含まれる拡張現現実情報と位置情報および関連情報が同じ拡張現実情報を、拡張現実情報更新要求に含まれる拡張現現実情報で更新する。   In step S83, it is determined whether an augmented reality information update request has been received. If communication unit 505 receives an augmented reality information update request from portable information device 200 functioning as an augmented reality display device, the process proceeds to step S84. If not, the process ends. In step S84, the augmented reality information specified by the augmented reality information update request is updated, and the process ends. Specifically, of the augmented reality information stored in the HDD 504, augmented reality information having the same position information and related information as the augmented reality information included in the augmented reality information update request is included in the augmented reality information update request. Update with current reality information.

図20は、拡張現実表示処理の流れの一例を示すフローチャートである。拡張現実表示処理は、携帯情報装置200が備えるCPU201が、フラッシュメモリー203に記憶された拡張現実表示プログラムを実行することにより、CPU201により実行される処理である。図20を参照して、CPU201は、カメラ202を制御して被写体を撮像する(ステップS31)。ユーザーが操作部207の備えるシャッターキーを指示すれば、CPU201はカメラ202に被写体を撮像させる。被写体を撮像するまで待機状態となり(ステップS31でNO)、被写体を撮像したならば(ステップS31でYES)、処理をステップS32に進める。ステップS32においては、カメラ202が出力する撮像画像を取得し、処理をステップS33に進める。ステップS33においては、撮像方向を取得する。方位検出部210を制御して、方位検出部210にカメラ202の撮像方向を検出させる。次のステップS34においては、位置検出部209を制御して、カメラ202が被写体を撮像した時点に位置検出部209が出力する現在位置を示す位置情報を取得する。   FIG. 20 is a flowchart illustrating an example of the flow of the augmented reality display process. The augmented reality display process is a process executed by the CPU 201 when the CPU 201 included in the portable information device 200 executes the augmented reality display program stored in the flash memory 203. Referring to FIG. 20, the CPU 201 controls the camera 202 to image a subject (step S31). When the user indicates a shutter key provided in the operation unit 207, the CPU 201 causes the camera 202 to image the subject. The process waits until the subject is imaged (NO in step S31). If the subject is imaged (YES in step S31), the process proceeds to step S32. In step S32, a captured image output by camera 202 is acquired, and the process proceeds to step S33. In step S33, the imaging direction is acquired. The direction detection unit 210 is controlled to cause the direction detection unit 210 to detect the imaging direction of the camera 202. In the next step S34, the position detection unit 209 is controlled to acquire position information indicating the current position output by the position detection unit 209 when the camera 202 images the subject.

そして、拡張現実情報を取得する(ステップS35)。ステップS34において取得された位置情報を含む拡張現実情報送信要求を、無線LANI/F208を介してサーバー500に送信し、サーバー500が返信する拡張現実情報を取得する。   And augmented reality information is acquired (step S35). The augmented reality information transmission request including the position information acquired in step S34 is transmitted to the server 500 via the wireless LAN I / F 208, and the augmented reality information returned by the server 500 is acquired.

なお、拡張現実情報送信要求に、現在位置を示す位置情報に加えてカメラ202の撮像方向を含めるようにし、サーバー500において、現在位置および取得された方位で定まる範囲内の位置を示す位置情報が定められた拡張現実情報を抽出するようにしてもよい。カメラ202の撮像方向は、方位検出部210を制御し、方位検出部210にカメラ202の撮像方向を検出させ、方位検出部210がカメラ202が撮像した時点で出力する方位を取得する。また、ステップS35において複数の拡張現実情報を取得する場合、複数の拡張現実情報を取得した後に、携帯情報装置200のカメラ202の撮像方向を変更することによって、ステップS35において取得された複数の拡張現実情報のうちから、現在位置および取得された方位で定まる範囲内の位置を示す位置情報が定められた拡張現実情報を抽出するようにしてもよい。   The augmented reality information transmission request includes the imaging direction of the camera 202 in addition to the position information indicating the current position. In the server 500, the position information indicating the position within the range determined by the current position and the acquired orientation is obtained. The specified augmented reality information may be extracted. The imaging direction of the camera 202 controls the azimuth detection unit 210, causes the azimuth detection unit 210 to detect the imaging direction of the camera 202, and acquires the azimuth output when the azimuth detection unit 210 images the camera 202. When acquiring a plurality of augmented reality information in step S35, the plurality of augmented reality information acquired in step S35 is obtained by changing the imaging direction of the camera 202 of the portable information device 200 after acquiring the plurality of augmented reality information. Augmented reality information in which position information indicating a position within a range determined by the current position and the acquired orientation is determined may be extracted from the actual information.

次のステップS36においては、ステップS31において撮像され、ステップS32において取得された撮像画像の被写体と、拡張現実情報に含まれる背景画像の被写体とが一致するか否かを判断する。撮像画像と背景画像とのそれぞれから特徴的な形状を抽出し、撮像画像の特徴的な形状と同一または相似の形状が背景画像の特徴的な形状に含まれていれば、撮像画像と拡張現実情報の被写体が同一と判断する。例えば、画像を2値化した2値化画像または画像を微分したエッジ画像を生成することにより、画像中に含まれる被写体の輪郭を抽出することができる。抽出された輪郭の形状を特徴的な形状として抽出すればよい。特徴的な形状が同一か否かは、サイズが異なる場合があるので、相似の場合を含む。   In the next step S36, it is determined whether or not the subject of the captured image captured in step S31 and acquired in step S32 matches the subject of the background image included in the augmented reality information. If a characteristic shape is extracted from each of the captured image and the background image and the same or similar shape as the characteristic shape of the captured image is included in the characteristic shape of the background image, the captured image and the augmented reality It is determined that the information subject is the same. For example, by generating a binarized image obtained by binarizing the image or an edge image obtained by differentiating the image, the contour of the subject included in the image can be extracted. What is necessary is just to extract the shape of the extracted outline as a characteristic shape. Whether the characteristic shapes are the same or not includes a similar case because the sizes may be different.

ステップS36において、被写体を同一と判断する場合は処理をステップS37に進め、そうでなければ処理をステップS44に進める。ステップS44においては、撮像画像を表示部161に表示し、処理をステップS43に進める。   If it is determined in step S36 that the subject is the same, the process proceeds to step S37; otherwise, the process proceeds to step S44. In step S44, the captured image is displayed on display 161, and the process proceeds to step S43.

ステップS37においては、撮像画像中の現実表示領域を特定する。具体的には、拡張現実情報の領域情報の項目に設定された領域情報に基づいて、拡張現実情報のコンテンツの項目に設定された背景画像中の被写体に対する相対位置を特定し、撮像画像中の被写体を基準にして、特定された相対位置に存在する領域を現実表示領域に決定する。   In step S37, the actual display area in the captured image is specified. Specifically, based on the area information set in the area information item of augmented reality information, the relative position with respect to the subject in the background image set in the content item of augmented reality information is specified, and An area present at the specified relative position is determined as an actual display area with reference to the subject.

次のステップS38においては、撮像画像に、特定された撮像画像中の現実表示領域に関連情報の画像を合成した合成画像を生成する。次のステップS39においては、表示部161に、生成された合成画像を表示し、処理をステップS40に進める。   In the next step S38, a synthesized image is generated by synthesizing the captured image with the related information image in the actual display area in the identified captured image. In the next step S39, the generated composite image is displayed on the display unit 161, and the process proceeds to step S40.

ステップS40においては、相違部分判断処理を実行する。相違部分判断処理の詳細は後述するが、撮像画像と背景画像とで相違する部分が存在するか否かを判断する処理である。次のステップS41においては、相違部分判断処理の結果によって処理を分岐させる。相違部分が存在すると判断された場合には処理をステップS42に進めるが、そうでなければ処理をステップS43に進める。   In step S40, a different portion determination process is executed. Although the details of the different part determination process will be described later, it is a process of determining whether or not there is a different part between the captured image and the background image. In the next step S41, the process is branched depending on the result of the different portion determination process. If it is determined that a different part exists, the process proceeds to step S42; otherwise, the process proceeds to step S43.

ステップS42においては、拡張現実情報を更新し、処理をステップS43に進める。具体的には、ステップS35において取得された拡張現実情報のコンテンツの項目を、ステップS32において取得された撮像画像で更新し、領域情報の項目をステップS37において特定された現実表示領域で更新し、更新後の拡張現実情報を含む拡張現実情報更新要求を無線LANI/F208を介して、サーバー500に送信する。   In step S42, the augmented reality information is updated, and the process proceeds to step S43. Specifically, the content item of augmented reality information acquired in step S35 is updated with the captured image acquired in step S32, and the item of region information is updated with the actual display region specified in step S37. An augmented reality information update request including the augmented reality information after update is transmitted to the server 500 via the wireless LAN I / F 208.

ステップS43においては、拡張現実表示処理を終了する指示を受け付けたか否かを判断する。終了指示を受け付けたならば処理を終了するが、そうでなければ処理をステップS31に戻す。   In step S43, it is determined whether an instruction to end the augmented reality display process has been received. If an end instruction is accepted, the process ends. If not, the process returns to step S31.

また、ステップS36において、被写体が同一と判断される拡張現実情報が複数存在する場合は、ステップS37において、複数の拡張現実情報それぞれの関連情報の画像を、合成した合成画像を表示し、ユーザーが複数の関連情報の画像のうちから選択する場合に、選択された1つの関連情報の画像のみを合成した合成画像を表示するようにすればよい。また、ステップS42においては、複数の拡張現実情報それぞれに対する拡張現実情報更新要求を、サーバー500に送信するようにすればよい。   If there are a plurality of augmented reality information in which the subject is determined to be the same in step S36, in step S37, a composite image obtained by synthesizing the related information images of the plurality of augmented reality information is displayed. When selecting from a plurality of related information images, a combined image obtained by combining only the selected one related information image may be displayed. In step S42, an augmented reality information update request for each of the plurality of augmented reality information may be transmitted to the server 500.

図21は、相違部分判断処理の流れの一例を示すフローチャートである。相違部分判断処理は、図20のステップS40で実行される処理である。図21を参照して、CPU201は、撮像画像を複数の部分画像に分割する(ステップS51)。分割数は限定するものではないが、縦および横それぞれで複数に等分するのが好ましい。   FIG. 21 is a flowchart illustrating an example of the flow of the different portion determination process. The different portion determination process is a process executed in step S40 of FIG. Referring to FIG. 21, CPU 201 divides the captured image into a plurality of partial images (step S51). The number of divisions is not limited, but it is preferable to divide the number into a plurality of equal parts in the vertical and horizontal directions.

そして、複数の部分画像の1つを処理対象に選択する(ステップS52)。次のステップS53においては、処理対象の部分画像を背景画像の少なくとも一部と比較する。例えば、部分画像と背景画像の少なくとも一部を、パターンマッチングすることにより、比較する。そして、比較の結果によって処理を分岐させる(ステップS54)。背景画像が部分画像と同一または類似する部分を含む場合、処理をステップS55に進めるが、そうでなければ処理をステップS56に進める。ステップS55においては、処理対象の部分画像に「類似」を設定し、処理をステップS57に進め、ステップS56においては、処理対象の部分画像に「非類似」を設定し、処理をステップS57に進める。ステップS57においては、処理対象に選択されていない部分画像が存在するか否かを判断する。未処理の部分画像が存在すれば処理をステップS52に戻すが、そうでなければ処理をステップS58に進める。以下、「類似」に設定された部分画像を類似部分といい、「非類似」に設定された部分画像を非類似部分という。   Then, one of the plurality of partial images is selected as a processing target (step S52). In the next step S53, the partial image to be processed is compared with at least a part of the background image. For example, at least a part of the partial image and the background image are compared by pattern matching. Then, the process branches depending on the comparison result (step S54). If the background image includes the same or similar part as the partial image, the process proceeds to step S55; otherwise, the process proceeds to step S56. In step S55, “similar” is set for the partial image to be processed, and the process proceeds to step S57. In step S56, “not similar” is set for the partial image to be processed, and the process proceeds to step S57. . In step S57, it is determined whether there is a partial image that is not selected as a processing target. If there is an unprocessed partial image, the process returns to step S52; otherwise, the process proceeds to step S58. Hereinafter, a partial image set to “similar” is referred to as a similar portion, and a partial image set to “dissimilar” is referred to as a dissimilar portion.

ステップS58においては、相違部分が存在するか否かを判断する。具体的には、複数の部分画像のうちに類似部分に囲まれる非類似部分が存在する場合に、その非類似部分を相違部分と判断する。相違部分が存在すると判断する場合は処理をS59に進め、そうでなければ処理をステップS60に進める。ステップS59においては、相違部分有に決定し、処理を拡張現実表示処理に戻し、ステップS60においては、相違部分無しに決定し、処理を拡張現実表示処理に戻す。   In step S58, it is determined whether there is a different portion. Specifically, when a dissimilar part surrounded by a similar part exists in a plurality of partial images, the dissimilar part is determined as a different part. If it is determined that a different portion exists, the process proceeds to S59; otherwise, the process proceeds to step S60. In step S59, it is determined that there is a different part, and the process returns to the augmented reality display process. In step S60, it is determined that there is no different part, and the process returns to the augmented reality display process.

<変形例>
上述した実施の形態においては、拡張現実表示装置の一例として携帯情報装置200を例に説明したが、HMD400を拡張現実表示装置として機能させるようにしてもよい。この場合、HMD400が備えるCPU401は、図8に示した携帯情報装置200が備えるCPU201が有する機能と同様の機能を有するが、表示制御部257が異なる。
<Modification>
In the embodiment described above, the portable information device 200 has been described as an example of the augmented reality display device. However, the HMD 400 may function as the augmented reality display device. In this case, the CPU 401 included in the HMD 400 has the same function as that of the CPU 201 included in the portable information device 200 illustrated in FIG. 8, but the display control unit 257 is different.

HMD400が備えるCPU401が有する表示制御部257は、撮像制御部259から撮像画像が入力されることに応じて、撮像画像を表示部206に表示することなく、拡張現実情報取得部255から入力される拡張現実情報に基づいて、拡張現実情報に含まれる関連情報の項目に設定された関連情報を表示部404に表示する。HMD400を装着するユーザーは、撮像画像と同じ画像を、表示部404の表示面を通して実際に見ている。このため、現実表示領域決定部258によって撮像画像中で決定された現実表示領域に対応する領域を表示部404の表示面中で特定し、表示部404の表示面中で特定した領域に関連情報の画像を表示する。   The display control unit 257 included in the CPU 401 of the HMD 400 is input from the augmented reality information acquisition unit 255 without displaying the captured image on the display unit 206 in response to the input of the captured image from the imaging control unit 259. Based on the augmented reality information, the related information set in the related information item included in the augmented reality information is displayed on the display unit 404. The user wearing the HMD 400 actually sees the same image as the captured image through the display surface of the display unit 404. Therefore, an area corresponding to the actual display area determined in the captured image by the actual display area determining unit 258 is specified on the display surface of the display unit 404, and the related information is stored in the area specified on the display surface of the display unit 404. The image of is displayed.

ここで、HMD400を装着するユーザーが、会議室Aにおいてホワイトボードを目視すれば、ホワイトボードがカメラ402の被写体となる。この場合、会議室Aの位置を示す位置情報が位置情報の項目に設定され、ホワイトボードを被写体にして撮像された背景画像がコンテンツの項目に設定され、会議の資料である画像が関連情報に設定され、背景画像中のホワイトボードの描画面の全体を含む領域が領域情報の項目に設定された拡張現実情報がサーバー500から受信される。そして、表示部404に関連情報である会議の資料の画像が表示されると、ユーザーは、表示部404の表示面を透過して見るホワイトボードの描画面に、表示部404の表示面に表示された会議の資料の画像を見ることになる。   Here, if the user wearing the HMD 400 views the white board in the conference room A, the white board becomes the subject of the camera 402. In this case, position information indicating the position of the conference room A is set in the position information item, a background image captured using the whiteboard as a subject is set in the content item, and an image that is a meeting material is related information. The augmented reality information that is set and the area including the entire drawing surface of the whiteboard in the background image is set in the area information item is received from the server 500. When the image of the conference material, which is related information, is displayed on the display unit 404, the user displays the image on the display surface of the display unit 404 on the drawing surface of the whiteboard that is seen through the display surface of the display unit 404. You will see an image of the meeting material.

また、変形例においては、HMD400が備えるCPU401は、図20に示した拡張現実表示処理を実行するが、ステップS38、ステップS39およびステップS41が異なる。HMD400が備えるCPU401は、ステップS38において、合成画像を生成することなく、ステップS37において特定された撮像画像中の現実表示領域に対応する表示部404の表示面中の領域を特定する。そして、次のステップS39において、特定された表示部404の表示面中の領域に、関連情報の画像を表示し、処理をステップS40に進める。また、ステップS44においては、何も表示することなく、処理をステップS40に進める。   In the modification, the CPU 401 provided in the HMD 400 executes the augmented reality display process shown in FIG. 20, but steps S38, S39, and S41 are different. In step S38, the CPU 401 included in the HMD 400 specifies an area on the display surface of the display unit 404 corresponding to the actual display area in the captured image specified in step S37 without generating a composite image. Then, in the next step S39, an image of related information is displayed in the area in the display surface of the specified display unit 404, and the process proceeds to step S40. In step S44, the process proceeds to step S40 without displaying anything.

以上説明したように、本実施の形態における携帯情報装置200は、拡張現実表示装置として機能し、被写体を撮像して得られる撮像画像(第1の画像)中の被写体と同一の被写体を有する背景画像(第2の画像)を含む拡張現実情報を、サーバー500から取得し、撮像画像中の被写体に対する相対位置が、背景画像中の被写体と表示領域との相対位置と同じ関係となる現実表示領域を決定し、現実表示領域に関連情報を表示する。このため、拡張現実情報によって撮像画像中の被写体に関連付けられた関連情報を、撮像画像中の被写体に対して定められた相対的な位置に、表示するので、撮像画像中の被写体に関連する情報を、その被写体に対して予め定められた位置に表示することができる。   As described above, portable information device 200 according to the present embodiment functions as an augmented reality display device, and has a background that has the same subject as the subject in the captured image (first image) obtained by capturing the subject. Augmented reality information including the image (second image) is acquired from the server 500, and the relative display position of the subject in the captured image is the same as the relative position of the subject in the background image and the display area. And the related information is displayed in the actual display area. For this reason, since the related information related to the subject in the captured image by the augmented reality information is displayed at the relative position determined with respect to the subject in the captured image, information related to the subject in the captured image is displayed. Can be displayed at a predetermined position with respect to the subject.

また、背景画像と撮像画像とで異なる相違部分を抽出する場合、拡張現実情報の背景画像を撮像画像で更新するので、ユーザーに通知するので、撮像画像中で被写体とは異なる部分、例えば、背景等が変化した後に、拡張現実情報に含まれる画像を最新の状態に更新することができる。   In addition, when a different portion that is different between the background image and the captured image is extracted, the background image of the augmented reality information is updated with the captured image, so that the user is notified. Etc., the image included in the augmented reality information can be updated to the latest state.

また、背景画像と撮像画像とで異なる相違部分を抽出する場合、ユーザーに通知するので、被写体とは異なる部分、例えば、背景等が変化したことをユーザーに通知することができる。また、拡張現実情報に含まれる画像が最新の状態に更新されることをユーザーに通知することができる。   Further, when a different portion that is different between the background image and the captured image is extracted, the user is notified, so that the user can be notified that a portion different from the subject, for example, the background or the like has changed. Further, it is possible to notify the user that the image included in the augmented reality information is updated to the latest state.

さらに、撮像画像(第1の画像)の一部を、拡張現実情報に含まれる背景画像(第2の画像)の少なくとも一部と比較することによって、背景画像と撮像画像とで異なる相違部分を抽出するので、撮像画像および背景画像それぞれの全体が一致しなくても、被写体が同一か否かを判断することができる。   Further, by comparing a part of the captured image (first image) with at least a part of the background image (second image) included in the augmented reality information, a different part that differs between the background image and the captured image is obtained. Since extraction is performed, it is possible to determine whether or not the subject is the same even if the entire captured image and background image do not match.

さらに、撮像画像を分割した複数の部分画像それぞれを背景画像の一部と比較し、複数の部分画像のうち背景画像の一部と類似する複数の部分画像に囲まれた部分画像であって、背景画像の一部と類似しない部分画像を相違部分に決定するので、撮像画像と背景画像とが、被写体が同一であるが、全体として異なることを判別することができる。   Further, each of the plurality of partial images obtained by dividing the captured image is compared with a part of the background image, and is a partial image surrounded by a plurality of partial images similar to a part of the background image among the plurality of partial images, Since a partial image that is not similar to a part of the background image is determined as a different portion, it can be determined that the captured image and the background image are the same subject but different as a whole.

さらに、背景画像中の被写体の地理的な位置が、被写体を撮像する時点における地理的な位置から所定の範囲に存在する拡張現実情報を取得するので、複数の拡張現実情報のうちから処理対象となる拡張現実情報を絞り込むことができ、背景画像中の被写体と同一の被写体を有する背景画像を含む拡張現実情報の取得が容易となる。   Furthermore, since the augmented reality information in which the geographical position of the subject in the background image exists within a predetermined range from the geographical position at the time of capturing the subject is acquired, the processing target is selected from a plurality of augmented reality information. The augmented reality information can be narrowed down, and the augmented reality information including the background image having the same subject as the subject in the background image can be easily obtained.

また、現在位置が取得できない場合であっても、撮像画像中の被写体と、背景画像中の被写体とを比較すれば、複数の拡張現実情報のうちから背景画像中の被写体と同一の被写体を有する背景画像を含む拡張現実情報を抽出することができる。このため、携帯情報装置が、GPS衛星からの信号を受信できない場所に位置する場合であっても、拡張現実情報を取得することができる。   Even when the current position cannot be obtained, if the subject in the captured image is compared with the subject in the background image, the subject in the background image is the same as the subject in the background image from among a plurality of augmented reality information. Augmented reality information including a background image can be extracted. For this reason, even if it is a case where a portable information device is located in the place which cannot receive the signal from a GPS satellite, augmented reality information can be acquired.

また、撮像画像に関連情報を重畳した合成画像を生成し、表示するので、撮像画像中で被写体に関連情報を関連付けることができる。   In addition, since the composite image in which the related information is superimposed on the captured image is generated and displayed, the related information can be associated with the subject in the captured image.

また、HMD400が拡張現実表示装置として機能する場合、カメラ402で被写体を撮像した撮像画像(第1の画像)に基づいて、表示部404の表示面中で現実表示領域が決定され、関連情報を、表示部404の表示面中の現実表示領域に表示するので、ユーザーが表示部404の表示面を透過して視認する被写体に関連付けて関連情報を表示することができる。   When the HMD 400 functions as an augmented reality display device, a real display area is determined on the display surface of the display unit 404 based on a captured image (first image) obtained by capturing an image of the subject with the camera 402, and related information is displayed. Since the information is displayed in the actual display area in the display surface of the display unit 404, the related information can be displayed in association with the subject that the user sees through the display surface of the display unit 404.

さらに、本実施の形態におけるサーバー500は、拡張現実情報を記憶し、拡張現実表示装置として機能する携帯情報装置200は、サーバー500から拡張現実情報を取得する。このため、携帯情報装置200のユーザーは、そのユーザーとは別のユーザーによりサーバー500に登録された拡張現実情報に含まれる関連情報を閲覧することができる。   Further, the server 500 in the present embodiment stores augmented reality information, and the portable information device 200 functioning as an augmented reality display device acquires the augmented reality information from the server 500. For this reason, the user of the portable information device 200 can browse related information included in the augmented reality information registered in the server 500 by a user different from the user.

また、本実施の形態における拡張現実表示システム1においては、基本情報登録装置として機能する携帯情報装置200によって基本情報がサーバー500に登録され、拡張現実情報登録装置として機能するMFP100によって基本情報に関連情報と領域情報とを追加した拡張現実情報が登録される。このため、拡張現実表示装置として機能する携帯情報装置200は、それを使用するユーザー本人または、そのユーザーとは別のユーザーがMFP100を操作して登録した関連情報を、表示することができる。したがって、任意のユーザーにより登録された関連情報を被写体と関連付けて表示することができる。   In the augmented reality display system 1 according to the present embodiment, basic information is registered in the server 500 by the portable information device 200 that functions as a basic information registration device, and the basic information is related to the basic information by the MFP 100 that functions as an augmented reality information registration device. Augmented reality information in which information and area information are added is registered. For this reason, portable information device 200 that functions as an augmented reality display device can display related information registered by operating MFP 100 by the user who uses it or a user other than the user. Therefore, related information registered by an arbitrary user can be displayed in association with the subject.

MFP100は、原稿読取部130が原稿を読み取った画像データを関連情報とした拡張現実情報を登録することができる。   The MFP 100 can register augmented reality information using image data read by the document reading unit 130 as related information.

さらに、MFP100は、HDD115に記憶されたデータまたはネットワーク2に接続されたコンピューターに記憶されたデータのうちからユーザーにより指定されたデータを関連情報とした拡張現実情報を登録することができる。   Further, the MFP 100 can register augmented reality information using data specified by the user from among data stored in the HDD 115 or data stored in a computer connected to the network 2.

なお、上述した実施の形態においては、拡張現実情報表示装置の一例として携帯情報装置200を例に説明したが、図20および図21に示した拡張現実表示処理を携帯情報装置200に実行させる拡張現実情報表示方法、またはその拡張現実情報表示方法を携帯情報装置200が備えるCPU201に実行させる拡張現実情報表示プログラムとして、発明を特定することができるのは言うまでもない。   In the above-described embodiment, the portable information device 200 is described as an example of the augmented reality information display device. However, the augmented reality display process illustrated in FIGS. 20 and 21 is performed by the portable information device 200. It goes without saying that the invention can be specified as an augmented reality information display program that causes the CPU 201 of the portable information device 200 to execute the actual information display method or the augmented reality information display method.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 拡張現実表示システム、2 ネットワーク、3 無線局、100 MFP、200,200A,200B 携帯情報装置、300 PC、400 HMD、500 サーバー、110 メイン回路、111 CPU、112 通信I/F部、113 ROM、114 RAM、115 HDD115 ファクシミリ部、117 外部記憶装置、118 CD−ROM、120 自動原稿搬送装置、130 原稿読取部、140 画像形成部、150 給紙部、155 後処理部、160 操作パネル、161 表示部、163 操作部、201 CPU、202 カメラ、203 フラッシュメモリー、204 無線通信部、205 通話部、206 表示部、207 操作部、208 無線LANI/F、209 位置検出部、210 方位検出部、211 外部記憶装置、401 CPU、402 カメラ、403 フラッシュメモリー、404 表示部、405 無線LANI/F、501 CPU、502 ROM、503 RAM、504 HDD、505 通信部、506 表示部、507 操作部、51 生成側コンテンツ取得部、53 領域決定部、55 関連情報取得部、57 拡張現実情報生成部、59 登録部、61 位置受付部、63 基本情報取得部、65 生成側コンテンツ表示部、67 表示領域受付部、69 プレビュー部、71 入力受付部、73 原稿読取制御部、75 データ取得部、251 撮像制御部、253 位置取得部、255 拡張現実情報取得部、257 表示制御部、258 現実表示領域決定部、259 撮像制御部、261 位置基準取得部、263 被写体基準取得部、271 相違部分抽出部、273 処理実行部、275 通知部、277 更新制御部、281 分割部、283 比較部、285 相違部分決定部、287 基本情報登録部、551 基本情報登録要求受信部、553 基本情報登録部、555 基本情報送信要求受信部、557 基本情報抽出部、559 基本情報送信部、561 拡張現実情報登録要求受信部、563 拡張現実情報登録部、565 拡張現実情報送信要求受信部、567 拡張現実情報抽出部、569 拡張現実情報送信部。

1 augmented reality display system, 2 network, 3 wireless station, 100 MFP, 200, 200A, 200B portable information device, 300 PC, 400 HMD, 500 server, 110 main circuit, 111 CPU, 112 communication I / F unit, 113 ROM 114 RAM, 115 HDD 115 Facsimile unit, 117 External storage device, 118 CD-ROM, 120 Automatic document feeder, 130 Document reading unit, 140 Image forming unit, 150 Paper feed unit, 155 Post-processing unit, 160 Operation panel, 161 Display unit, 163 operation unit, 201 CPU, 202 camera, 203 flash memory, 204 wireless communication unit, 205 call unit, 206 display unit, 207 operation unit, 208 wireless LAN I / F, 209 position detection unit, 210 direction detection unit, 211 External storage device, 401 CPU , 402 Camera, 403 Flash memory, 404 Display unit, 405 Wireless LAN I / F, 501 CPU, 502 ROM, 503 RAM, 504 HDD, 505 Communication unit, 506 Display unit, 507 Operation unit, 51 Production-side content acquisition unit, 53 Area determination unit, 55 related information acquisition unit, 57 augmented reality information generation unit, 59 registration unit, 61 position reception unit, 63 basic information acquisition unit, 65 generation content display unit, 67 display region reception unit, 69 preview unit, 71 Input receiving unit, 73 Document reading control unit, 75 Data acquisition unit, 251 Imaging control unit, 253 Position acquisition unit, 255 Augmented reality information acquisition unit, 257 Display control unit, 258 Reality display area determination unit, 259 Imaging control unit, 261 Position reference acquisition unit, 263 subject reference acquisition unit, 271 different part extraction unit, 273 process execution unit, 275 notification unit, 277 update control unit, 281 division unit, 283 comparison unit, 285 different part determination unit, 287 basic information registration unit, 551 basic information registration request reception unit, 553 basic information registration unit, 555 basic information transmission request reception unit 557 Basic information extraction unit, 559 Basic information transmission unit, 561 Augmented reality information registration request reception unit, 563 Augmented reality information registration unit, 565 Augmented reality information transmission request reception unit, 567 Augmented reality information extraction unit, 568 Augmented reality information transmission Department.

Claims (15)

被写体を撮像し、第1の画像を出力する撮像手段と、
前記取得された第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報を取得する拡張現実情報取得手段と、
前記拡張現実情報は、前記第2の画像に加えて、前記第2の画像中の被写体に対して相対的な位置で定まる表示領域を示す領域情報と、前記被写体に関連する関連情報とを含み、
前記第1の画像中の被写体に対する相対位置が、前記第2の画像中の被写体と前記表示領域との相対位置と同じ関係となる現実表示領域を決定する現実表示領域決定手段と、
前記決定された現実表示領域に前記拡張現実情報に含まれる前記関連情報を表示する表示制御手段と、
前記第2の画像と前記第1の画像とで異なる相違部分を抽出する相違部分抽出手段と、
前記相違部分抽出手段により相違部分が抽出される場合、予め定められた処理を実行する処理実行手段と、を備えた拡張現実表示装置。
Imaging means for imaging a subject and outputting a first image;
Augmented reality information obtaining means for obtaining augmented reality information including a second image having the same subject as the subject in the obtained first image;
The augmented reality information includes, in addition to the second image, region information indicating a display region determined at a position relative to the subject in the second image, and related information related to the subject. ,
A real display area determining means for determining a real display area whose relative position with respect to the subject in the first image is the same as the relative position between the subject in the second image and the display area;
Display control means for displaying the related information included in the augmented reality information in the determined reality display area;
A different part extracting means for extracting different parts different between the second image and the first image;
An augmented reality display device comprising: a process execution unit that executes a predetermined process when a different part is extracted by the different part extraction unit.
前記処理実行手段は、前記拡張現実情報の前記第2の画像を前記第1の画像で更新する更新制御手段を含む、請求項1に記載の拡張現実表示装置。   The augmented reality display device according to claim 1, wherein the processing execution unit includes an update control unit that updates the second image of the augmented reality information with the first image. 前記処理実行手段は、前記第2の画像と前記第1の画像とが異なることをユーザーに通知する通知手段を含む、請求項1または2に記載の拡張現実表示装置。   The augmented reality display device according to claim 1, wherein the processing execution unit includes a notification unit that notifies a user that the second image is different from the first image. 前記相違部分抽出手段は、前記撮像手段が被写体を撮像して出力する第1の画像の一部を、前記取得された拡張現実情報に含まれる第2の画像の少なくとも一部と比較する比較手段を含む、請求項1〜3のいずれかに記載の拡張現実表示装置。   The difference portion extraction means is a comparison means for comparing a part of the first image output by the imaging means picking up the subject with at least a part of the second image included in the acquired augmented reality information. The augmented reality display device according to claim 1, comprising: 前記相違部分抽出手段は、前記第1の画像を複数の部分画像に分割する分割手段と、
前記複数の部分画像それぞれを前記第2の画像の一部と比較する比較手段と、
前記複数の部分画像のうち前記第2の画像の一部と類似する複数の部分画像に囲まれた部分画像であって、前記第2の画像の一部と類似しない部分画像を相違部分に決定する相違部分決定手段と、を含む、請求項4に記載の拡張現実表示装置。
The different part extracting means includes a dividing means for dividing the first image into a plurality of partial images;
Comparing means for comparing each of the plurality of partial images with a portion of the second image;
Of the plurality of partial images, a partial image surrounded by a plurality of partial images similar to a part of the second image and a partial image not similar to a part of the second image is determined as a different part. The augmented reality display device according to claim 4, further comprising: a different-part determining unit.
前記拡張現実情報は、地理的な位置を示す位置情報を、さらに含み、
前記拡張現実表示装置が現実に存在する地理的な位置を現在位置として取得する位置取得手段をさらに備え、
前記拡張現実情報取得手段は、前記取得された現在位置に基づいて前記取得された現在位置から所定の範囲内の地理的な位置に関連付けられた拡張現実情報を取得する位置基準取得手段をさらに含む、請求項1〜5のいずれかに記載の拡張現実表示装置。
The augmented reality information further includes position information indicating a geographical position,
The augmented reality display device further includes position acquisition means for acquiring a geographical position where the augmented reality display device actually exists as a current position,
The augmented reality information acquisition means further includes a position reference acquisition means for acquiring augmented reality information associated with a geographical position within a predetermined range from the acquired current position based on the acquired current position. An augmented reality display device according to any one of claims 1 to 5.
前記拡張現実情報取得手段は、前記位置取得手段により現在位置が取得できない場合、前記撮像手段が出力する第1の画像に基づいて前記拡張現実情報を取得する、請求項6に記載の拡張現実表示装置。   The augmented reality display according to claim 6, wherein the augmented reality information acquiring unit acquires the augmented reality information based on a first image output from the imaging unit when the current position cannot be acquired by the position acquiring unit. apparatus. 画像を表示する表示手段をさらに備え、
前記表示制御手段は、前記拡張現実情報に含まれる前記関連情報を前記第1の画像に重畳した合成画像を生成する合成画像生成手段を含み、
前記生成された合成画像を前記表示手段に表示する、請求項1〜7のいずれかに記載の拡張現実表示装置。
It further comprises display means for displaying an image,
The display control means includes composite image generation means for generating a composite image in which the related information included in the augmented reality information is superimposed on the first image,
The augmented reality display device according to claim 1, wherein the generated composite image is displayed on the display unit.
前記撮像手段の光軸を基準に定まる位置に配置され、透過型の表示手段をさらに備え、
前記現実表示領域決定手段は、前記撮像手段が出力する前記第1の画像に基づいて、表示手段の表示面中で現実表示領域を決定し、
前記表示制御手段は、前記拡張現実情報に含まれる関連情報を、前記表示手段の表示面中の現実形態表示領域に表示する、請求項1〜7のいずれかに記載の拡張現実表示装置。
Arranged at a position determined with reference to the optical axis of the imaging means, further comprising a transmissive display means,
The actual display area determining means determines the actual display area on the display surface of the display means based on the first image output by the imaging means,
The augmented reality display device according to any one of claims 1 to 7, wherein the display control means displays related information included in the augmented reality information in an actual form display area in a display surface of the display means.
前記拡張現実情報を記憶するサーバーと通信可能な通信制御手段を、さらに備え、
前記拡張現実情報取得手段は、前記サーバーから前記拡張現実情報を取得する、請求項1〜9のいずれかに記載の拡張現実表示装置。
A communication control means capable of communicating with the server storing the augmented reality information;
The augmented reality display device according to claim 1, wherein the augmented reality information acquisition unit acquires the augmented reality information from the server.
請求項10に記載の拡張現実表示装置と、前記サーバーと通信可能な基本情報登録装置および拡張現実情報登録装置とを備えた拡張現実表示システムであって、
前記基本情報登録装置は、被写体を撮像し、画像を出力する基本撮像手段と、
前記基本情報登録装置が現実に存在する地理的な位置を現在位置として取得する基本位置取得手段と、
前記基本撮像手段が被写体を撮像して出力する画像を第2の画像とし、当該第2の画像と前記基本位置取得手段により取得された現在位置とを含む基本情報を前記サーバーに登録する基本情報登録手段を、備え、
前記拡張現実情報登録装置は、地理的な位置の指定を受け付ける位置受付手段と、
前記受け付けられた地理的な位置が所定の範囲内となる位置情報を含む基本情報を前記サーバーから取得する基本情報取得手段と、
前記取得された基本情報に含まれる第2の画像を表示する生成側表示手段と、
前記第2の画像中の表示領域の指定を受け付ける表示領域受付手段と、
関連情報を取得する関連情報取得手段と、
前記取得された関連情報と、前記表示領域受付手段により受け付けられた表示領域を示す領域情報とを前記基本情報に追加した拡張現実情報を生成する拡張現実情報生成手段と、
前記サーバーに前記生成された拡張現実情報を登録する登録手段と、を備えた拡張現実表示システム。
An augmented reality display system comprising the augmented reality display device according to claim 10 and a basic information registration device and an augmented reality information registration device capable of communicating with the server,
The basic information registration device includes a basic imaging unit that images a subject and outputs an image;
Basic position acquisition means for acquiring the geographical position where the basic information registration device actually exists as a current position;
The basic information for registering basic information including the second image and the current position acquired by the basic position acquisition unit in the server is an image output by the basic imaging unit imaging the subject. A registration means,
The augmented reality information registration device includes a position receiving unit that receives designation of a geographical position;
Basic information acquisition means for acquiring, from the server, basic information including position information in which the received geographical position is within a predetermined range;
Generation-side display means for displaying a second image included in the acquired basic information;
Display area accepting means for accepting designation of a display area in the second image;
Related information acquisition means for acquiring related information;
Augmented reality information generating means for generating augmented reality information in which the acquired related information and area information indicating the display area received by the display area receiving means are added to the basic information;
An augmented reality display system comprising: registration means for registering the generated augmented reality information in the server.
前記拡張現実情報登録装置は、原稿を光学的に読み取って電子データに変換した画像データを出力する原稿読取手段をさらに備え、
前記関連情報取得手段は、前記原稿読取手段が出力する画像データを前記関連情報として取得する、請求項11に記載の拡張現実表示システム。
The augmented reality information registration device further includes document reading means for outputting image data obtained by optically reading a document and converting it into electronic data,
The augmented reality display system according to claim 11, wherein the related information acquisition unit acquires image data output from the document reading unit as the related information.
前記拡張現実情報登録装置は、データを記憶するデータ記憶手段をさらに備え、
前記関連情報取得手段は、前記データ記憶手段に記憶されたデータのうちからユーザーにより指定されたデータを前記関連情報として取得する、請求項11または12に記載の拡張現実表示システム。
The augmented reality information registration device further includes data storage means for storing data,
The augmented reality display system according to claim 11 or 12, wherein the related information acquisition unit acquires data specified by a user from the data stored in the data storage unit as the related information.
被写体を撮像した第1の画像を取得する撮像ステップと、
前記取得された第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報を取得する拡張現実情報取得ステップと、
前記拡張現実情報は、前記第2の画像に加えて、前記第2の画像中の被写体に対して相対的な位置で定まる表示領域を示す領域情報と、前記被写体に関連する関連情報とを含み、
前記第1の画像中の被写体に対する相対位置が、前記第2の画像中の被写体と前記表示領域との相対位置と同じ関係となる現実表示領域を決定する現実表示領域決定ステップと、
前記決定された現実表示領域に前記拡張現実情報に含まれる前記関連情報を表示する表示制御ステップと、
前記第2の画像と前記第1の画像とで異なる相違部分を抽出する相違部分抽出ステップと、
前記相違部分抽出ステップにおいて相違部分が抽出される場合、予め定められた処理を実行する処理実行ステップと、を含む拡張現実表示方法。
An imaging step of acquiring a first image obtained by imaging a subject;
An augmented reality information acquisition step of acquiring augmented reality information including a second image having the same subject as the subject in the acquired first image;
The augmented reality information includes, in addition to the second image, region information indicating a display region determined at a position relative to the subject in the second image, and related information related to the subject. ,
A real display area determining step for determining a real display area in which a relative position with respect to a subject in the first image is the same as a relative position between the subject in the second image and the display area;
A display control step of displaying the related information included in the augmented reality information in the determined reality display area;
A different part extraction step of extracting different parts different between the second image and the first image;
An augmented reality display method comprising: a process execution step of executing a predetermined process when a different part is extracted in the different part extraction step.
被写体を撮像した第1の画像を取得する撮像ステップと、
前記取得された第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報を取得する拡張現実情報取得ステップと、
前記拡張現実情報は、前記第2の画像に加えて、前記第2の画像中の被写体に対して相対的な位置で定まる表示領域を示す領域情報と、前記被写体に関連する関連情報とを含み、
前記第1の画像中の被写体に対する相対位置が、前記第2の画像中の被写体と前記表示領域との相対位置と同じ関係となる現実表示領域を決定する現実表示領域決定ステップと、
前記決定された現実表示領域に前記拡張現実情報に含まれる前記関連情報を表示する表示制御ステップと、
前記第2の画像と前記第1の画像とで異なる相違部分を抽出する相違部分抽出ステップと、
前記相違部分抽出ステップにおいて相違部分が抽出される場合、予め定められた処理を実行する処理実行ステップと、をコンピューターに実行させる拡張現実表示プログラム。
An imaging step of acquiring a first image obtained by imaging a subject;
An augmented reality information acquisition step of acquiring augmented reality information including a second image having the same subject as the subject in the acquired first image;
The augmented reality information includes, in addition to the second image, region information indicating a display region determined at a position relative to the subject in the second image, and related information related to the subject. ,
A real display area determining step for determining a real display area in which a relative position with respect to a subject in the first image is the same as a relative position between the subject in the second image and the display area;
A display control step of displaying the related information included in the augmented reality information in the determined reality display area;
A different part extraction step of extracting different parts different between the second image and the first image;
An augmented reality display program for causing a computer to execute a process execution step of executing a predetermined process when a different part is extracted in the different part extraction step.
JP2014058661A 2014-03-20 2014-03-20 Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program Active JP6248732B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014058661A JP6248732B2 (en) 2014-03-20 2014-03-20 Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014058661A JP6248732B2 (en) 2014-03-20 2014-03-20 Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program

Publications (2)

Publication Number Publication Date
JP2015184777A JP2015184777A (en) 2015-10-22
JP6248732B2 true JP6248732B2 (en) 2017-12-20

Family

ID=54351277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014058661A Active JP6248732B2 (en) 2014-03-20 2014-03-20 Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program

Country Status (1)

Country Link
JP (1) JP6248732B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3437555B2 (en) * 2001-03-06 2003-08-18 キヤノン株式会社 Specific point detection method and device
JP5446700B2 (en) * 2009-10-06 2014-03-19 ソニー株式会社 Information processing apparatus, information processing method, and program
US9013550B2 (en) * 2010-09-09 2015-04-21 Qualcomm Incorporated Online reference generation and tracking for multi-user augmented reality
JP2013214158A (en) * 2012-03-30 2013-10-17 Ntt Comware Corp Display image retrieval device, display control system, display control method, and program

Also Published As

Publication number Publication date
JP2015184777A (en) 2015-10-22

Similar Documents

Publication Publication Date Title
US10593014B2 (en) Image processing apparatus, image processing system, image capturing system, image processing method
JP2015184778A (en) Augmented reality display system, augmented reality information generation device, augmented reality display device, server, augmented reality information generation program, augmented reality display program, and data structure of augmented reality information
US11393070B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP5438376B2 (en) Imaging apparatus and control method thereof
JP5920057B2 (en) Transmission device, image sharing system, transmission method, and program
US10937134B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP6721004B2 (en) Image management system and image management method
US9258440B2 (en) Image forming apparatus, remote operation device, remote control method, remote operation method, non-transitory computer-readable recording medium encoded with remote control program, and non-transitory computer-readable recording medium encoded with remote operation program for performing remote operation
US20180124310A1 (en) Image management system, image management method and recording medium
JP2014038429A (en) Image processor, image processing method and image processing program
JP5532037B2 (en) Cooperation system, portable information device, cooperation method, and cooperation program
CN108920113A (en) Video frame images Method of printing, device and computer readable storage medium
JP6268904B2 (en) Image processing apparatus, image processing method, and image processing program
JP6011117B2 (en) Reception device, image sharing system, reception method, and program
JP6304300B2 (en) Transmitting apparatus, communication method, program, and receiving apparatus
US9854132B2 (en) Image processing apparatus, data registration method, and data registration program
JP2018026642A (en) Image management system, image communication system, image management method, and program
JP6248732B2 (en) Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program
JP2005039702A (en) Information terminal, data transmission method, and data transmission program
JP6268950B2 (en) Image processing system, image processing apparatus, image processing method, and image processing program
JP5942637B2 (en) Additional information management system, image sharing system, additional information management method, and program
JP5994615B2 (en) Remote control system, portable information device, remote control method, and remote control program
JP2016081312A (en) Image processing system and interlocking modification method
JP6508288B2 (en) SYSTEM, IMAGE SHARING SYSTEM, COMMUNICATION METHOD, AND PROGRAM
JP6233451B2 (en) Image sharing system, communication method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171106

R150 Certificate of patent or registration of utility model

Ref document number: 6248732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150