JP6248732B2 - Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program - Google Patents
Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program Download PDFInfo
- Publication number
- JP6248732B2 JP6248732B2 JP2014058661A JP2014058661A JP6248732B2 JP 6248732 B2 JP6248732 B2 JP 6248732B2 JP 2014058661 A JP2014058661 A JP 2014058661A JP 2014058661 A JP2014058661 A JP 2014058661A JP 6248732 B2 JP6248732 B2 JP 6248732B2
- Authority
- JP
- Japan
- Prior art keywords
- augmented reality
- image
- information
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
この発明は、拡張現実表示装置、拡張現実表示システム、拡張現実表示方法および拡張現実表示プログラムに関し、特に、被写体に関連する情報を表示する拡張現実表示装置、その拡張現実表示装置を含む拡張現実表示システム、その拡張現実表示装置で実行される拡張現実表示方法および拡張現実表示プログラムに関する。 The present invention relates to an augmented reality display device, an augmented reality display system, an augmented reality display method, and an augmented reality display program. In particular, the present invention relates to an augmented reality display device that displays information related to a subject, and an augmented reality display including the augmented reality display device. The present invention relates to an augmented reality display method and an augmented reality display program executed by the system, the augmented reality display device.
近年、拡張現実の技術が開発されている。例えば、特開平9−33271号公報には、カメラあるいはカメラ一体型VTR装置等の撮像手段と、該撮像手段により撮影した映像やデータを表示する表示手段と、各時刻の地球上における前記撮像手段の位置と方向を衛星測位により検出する検出手段と、地図データを記憶した記憶手段と、前記表示手段に表示された物体のうち所定の物体の地球上における3次元位置座標と当該物体の名称等の属性データを前記記憶手段から読み出し,当該3次元位置座標を前記表示手段における2次元位置座標に変換し,前記表示手段における前記2次元位置座標に前記属性データを表示する制御手段とを具備したことを特徴とする撮像装置が記載されている。 In recent years, augmented reality technology has been developed. For example, Japanese Patent Laid-Open No. 9-33271 discloses imaging means such as a camera or a camera-integrated VTR device, display means for displaying video and data taken by the imaging means, and the imaging means on the earth at each time. Detection means for detecting the position and direction of the object by satellite positioning, storage means for storing map data, three-dimensional position coordinates on the earth of a predetermined object among the objects displayed on the display means, the name of the object, etc. Control means for reading the attribute data from the storage means, converting the three-dimensional position coordinates into two-dimensional position coordinates on the display means, and displaying the attribute data on the two-dimensional position coordinates on the display means An imaging apparatus characterized by this is described.
しかしながら、従来の撮像装置においては、所定の物体の地球上における3次元位置座標を、その物体に関連して記憶しておかなければならない。また、3次元位置座標を表示手段における二次元位置座標に変換しなければならず、処理の負荷が大きいといった問題がある。
この発明は上述した問題点を解決するためになされたもので、この発明の目的の1つは、所定の被写体を撮像した時点で、所定の処理を実行することが可能な拡張現実表示装置を提供することである。 The present invention has been made to solve the above-described problems, and one of the objects of the present invention is to provide an augmented reality display device capable of executing a predetermined process when a predetermined subject is imaged. Is to provide.
この発明の他の目的は、任意のユーザーにより登録された関連情報を被写体と関連付けて表示することが可能な拡張現実表示システムを提供することである。 Another object of the present invention is to provide an augmented reality display system capable of displaying related information registered by an arbitrary user in association with a subject.
この発明のさらに他の目的は、所定の被写体を撮像した時点で、所定の処理を実行することが可能な拡張現実表示方法を提供することである。 Still another object of the present invention is to provide an augmented reality display method capable of executing a predetermined process when a predetermined subject is imaged.
この発明のさらに他の目的は、所定の被写体を撮像した時点で、所定の処理を実行することが可能な拡張現実表示プログラムを提供することである。 Still another object of the present invention is to provide an augmented reality display program capable of executing a predetermined process when a predetermined subject is imaged.
上述した目的を達成するためにこの発明のある局面によれば、拡張現実表示装置は、被写体を撮像し、第1の画像を出力する撮像手段と、取得された第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報を取得する拡張現実情報取得手段と、拡張現実情報は、第2の画像に加えて、第2の画像中の被写体に対して相対的な位置で定まる表示領域を示す領域情報と、被写体に関連する関連情報とを含み、第1の画像中の被写体に対する相対位置が、第2の画像中の被写体と表示領域との相対位置と同じ関係となる現実表示領域を決定する現実表示領域決定手段と、決定された現実表示領域に拡張現実情報に含まれる関連情報を表示する表示制御手段と、第2の画像と第1の画像とで異なる相違部分を抽出する相違部分抽出手段と、相違部分抽出手段により相違部分が抽出される場合、予め定められた処理を実行する処理実行手段と、を備える。 In order to achieve the above object, according to an aspect of the present invention, an augmented reality display device captures an object and outputs a first image; and an object in the acquired first image; Augmented reality information acquisition means for acquiring augmented reality information including a second image having the same subject, and augmented reality information is relative to the subject in the second image in addition to the second image. Including region information indicating the display region determined by the position and related information related to the subject, the relative position with respect to the subject in the first image being the same as the relative position between the subject and the display region in the second image The actual display area determining means for determining the actual display area, the display control means for displaying the related information included in the augmented reality information in the determined actual display area, and the second image and the first image are different. Different part extraction to extract different parts And means, if different part by different part extraction unit is extracted, and the process execution means for executing predetermined processing, the.
この局面に従えば、被写体を撮像した第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報が取得され、第1の画像中の被写体に対する相対位置が、第2の画像中の被写体と表示領域との相対位置と同じ関係となる現実表示領域が決定され、現実表示領域に関連情報が表示される。このため、被写体を撮像した第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報によって、第1の画像中の被写体に関連付けられた関連情報が、第1の画像中の被写体に対して定められた相対的な位置に、表示される。その結果、撮像した画像中の被写体に関連する情報を、その被写体に対して予め定められた位置に表示することができる。また、第2の画像と第1の画像とで異なる相違部分が抽出される場合、予め定められた処理を実行するので、所定の被写体を撮像した時点で、所定の処理を実行することが可能な拡張現実表示装置を提供することができる。 According to this aspect, augmented reality information including a second image having the same subject as the subject in the first image obtained by capturing the subject is acquired, and the relative position with respect to the subject in the first image is the second position. A real display area having the same relationship as the relative position between the subject in the image and the display area is determined, and related information is displayed in the real display area. For this reason, the related information associated with the subject in the first image is obtained from the augmented reality information including the second image having the same subject as the subject in the first image obtained by capturing the subject. It is displayed at a relative position determined with respect to the inside subject. As a result, information related to the subject in the captured image can be displayed at a predetermined position with respect to the subject. In addition, when different portions are extracted between the second image and the first image, a predetermined process is executed, so that the predetermined process can be executed when a predetermined subject is imaged. An augmented reality display device can be provided.
好ましくは、処理実行手段は、拡張現実情報の第2の画像を第1の画像で更新する更新制御手段を含む。 Preferably, the process execution unit includes an update control unit that updates the second image of the augmented reality information with the first image.
この局面に従えば、所定の被写体を撮像した時点で、拡張現実情報に含まれる第2の画像が撮像して得られる第1の画像で更新されるので、被写体とは異なる部分、例えば、背景等が変化した後に、拡張現実情報に含まれる画像を最新の状態に更新することができる。 According to this aspect, when a predetermined subject is imaged, the second image included in the augmented reality information is updated with the first image obtained by imaging, so that a portion different from the subject, for example, the background Etc., the image included in the augmented reality information can be updated to the latest state.
好ましくは、処理実行手段は、第2の画像と第1の画像とが異なることをユーザーに通知する通知手段を含む。 Preferably, the process execution unit includes a notification unit that notifies the user that the second image is different from the first image.
この局面に従えば、被写体とは異なる部分、例えば、背景等が変化したことをユーザーに通知することができる。また、拡張現実情報に含まれる画像が最新の状態に更新されることをユーザーに通知することができる。 According to this aspect, it is possible to notify the user that a portion different from the subject, for example, the background or the like has changed. Further, it is possible to notify the user that the image included in the augmented reality information is updated to the latest state.
好ましくは、相違部分抽出手段は、撮像手段が被写体を撮像して出力する第1の画像の一部を、取得された拡張現実情報に含まれる第2の画像の少なくとも一部と比較する比較手段を含む。 Preferably, the different portion extraction unit compares the part of the first image output by the imaging unit by imaging the subject with at least a part of the second image included in the acquired augmented reality information. including.
この局面に従えば、第1の画像の一部を、拡張現実情報に含まれる第2の画像の少なくとも一部と比較するので、第1の画像および第2の画像それぞれの全体が一致しなくても、被写体が同一か否かを判断することができる。 According to this aspect, since a part of the first image is compared with at least a part of the second image included in the augmented reality information, the entire first image and the second image do not match each other. However, it can be determined whether or not the subject is the same.
好ましくは、相違部分抽出手段は、第1の画像を複数の部分画像に分割する分割手段と、複数の部分画像それぞれを第2の画像の一部と比較する比較手段と、複数の部分画像のうち第2の画像の一部と類似する複数の部分画像に囲まれた部分画像であって、第2の画像の一部と類似しない部分画像を相違部分に決定する相違部分決定手段と、を含む。 Preferably, the different portion extraction unit includes a dividing unit that divides the first image into a plurality of partial images, a comparison unit that compares each of the plurality of partial images with a part of the second image, and a plurality of partial images. A different portion determining means for determining, as a different portion, a partial image surrounded by a plurality of partial images similar to a part of the second image and not similar to a part of the second image; Including.
この局面に従えば、第1の画像を分割した複数の部分画像それぞれを第2の画像の一部と比較し、複数の部分画像のうち第2の画像の一部と類似する複数の部分画像に囲まれた部分画像であって、第2の画像の一部と類似しない部分画像を相違部分に決定する。このため、第1の画像と第2の画像とが、被写体が同一であるが、全体として異なることを判別することができる。 According to this aspect, each of the plurality of partial images obtained by dividing the first image is compared with a part of the second image, and a plurality of partial images similar to a part of the second image among the plurality of partial images. A partial image that is surrounded by and is not similar to a part of the second image is determined as a different part. Therefore, it can be determined that the first image and the second image have the same subject but are different as a whole.
好ましくは、拡張現実情報は、地理的な位置を示す位置情報を、さらに含み、拡張現実表示装置が現実に存在する地理的な位置を現在位置として取得する位置取得手段をさらに備え、拡張現実情報取得手段は、取得された現在位置に基づいて取得された現在位置から所定の範囲内の地理的な位置に関連付けられた拡張現実情報を取得する位置基準取得手段をさらに含む。 Preferably, the augmented reality information further includes position information indicating a geographical position, and the augmented reality display device further includes position acquisition means for acquiring a geographical position where the augmented reality display device actually exists as a current position, and the augmented reality information The acquisition means further includes a position reference acquisition means for acquiring augmented reality information associated with a geographical position within a predetermined range from the current position acquired based on the acquired current position.
この局面に従えば、第2の画像中の被写体の地理的な位置が、被写体を撮像する時点における地理的な位置から所定の範囲に存在する拡張現実情報を取得するので、拡張現実情報の取得が容易となる。 According to this aspect, the augmented reality information is acquired because the geographic position of the subject in the second image acquires the augmented reality information existing within a predetermined range from the geographic position at the time of capturing the subject. Becomes easy.
好ましくは、拡張現実情報取得手段は、位置取得手段により現在位置が取得できない場合、撮像手段が出力する第1の画像に基づいて拡張現実情報を取得する。 Preferably, the augmented reality information acquisition unit acquires the augmented reality information based on the first image output by the imaging unit when the current position cannot be acquired by the position acquisition unit.
この局面に従えば、現在位置が取得できない場合であっても、拡張現実情報を取得することができる。 According to this aspect, augmented reality information can be acquired even when the current position cannot be acquired.
好ましくは、画像を表示する表示手段をさらに備え、表示制御手段は、拡張現実情報に含まれる関連情報を第1の画像に重畳した合成画像を生成する合成画像生成手段を含み、生成された合成画像を表示手段に表示する。 Preferably, the image processing apparatus further includes display means for displaying an image, and the display control means includes composite image generation means for generating a composite image in which related information included in the augmented reality information is superimposed on the first image. The image is displayed on the display means.
この局面に従えば、第1の画像に関連情報を重畳した合成画像が生成され、合成画像が表示される。このため、第1の画像中で被写体に関連情報を関連付けることができる。 According to this aspect, a composite image in which related information is superimposed on the first image is generated, and the composite image is displayed. Therefore, related information can be associated with the subject in the first image.
好ましくは、撮像手段の光軸を基準に定まる位置に配置され、透過型の表示手段をさらに備え、現実表示領域決定手段は、撮像手段が出力する第1の画像に基づいて、表示手段の表示面中で現実表示領域を決定し、表示制御手段は、拡張現実情報に含まれる関連情報を、表示手段の表示面中の現実形態表示領域に表示する。 Preferably, the display unit is further provided with a transmissive display unit arranged at a position determined with reference to the optical axis of the imaging unit, and the actual display area determination unit displays the display unit based on the first image output by the imaging unit. The real display area is determined in the plane, and the display control means displays the related information included in the augmented reality information in the real form display area in the display plane of the display means.
この局面に従えば、被写体を撮像した第1の画像に基づいて、表示手段の表示面中で現実表示領域が決定され、関連情報が、表示手段の表示面中の現実表示領域に表示する。このため、ユーザーが表示手段を透過して視認する被写体に関連付けて関連情報を表示することができる。 According to this aspect, the real display area is determined in the display surface of the display unit based on the first image obtained by imaging the subject, and the related information is displayed in the real display area in the display surface of the display unit. For this reason, related information can be displayed in association with the subject that the user sees through the display means.
好ましくは、拡張現実情報を記憶するサーバーと通信可能な通信制御手段を、さらに備え、拡張現実情報取得手段は、サーバーから拡張現実情報を取得する。 Preferably, communication control means capable of communicating with a server storing augmented reality information is further provided, and the augmented reality information acquisition means acquires augmented reality information from the server.
この局面に従えば、拡張現実情報を記憶するサーバーから拡張現実情報を取得するので、拡張現実表示装置のユーザーとは別のユーザーにより登録された関連情報を表示することができる。 If this aspect is followed, since augmented reality information is acquired from the server which stores augmented reality information, the related information registered by the user different from the user of an augmented reality display apparatus can be displayed.
この発明の他の局面によれば、拡張現実表示システムは、上述した拡張現実表示装置と、サーバーと通信可能な基本情報登録装置および拡張現実情報登録装置とを備えた拡張現実表示システムであって、基本情報登録装置は、被写体を撮像し、画像を出力する基本撮像手段と、基本情報登録装置が現実に存在する地理的な位置を現在位置として取得する基本位置取得手段と、基本撮像手段が被写体を撮像して出力する画像を第2の画像とし、当該第2の画像と基本位置取得手段により取得された現在位置とを含む基本情報をサーバーに登録する基本情報登録手段を、備え、拡張現実情報登録装置は、地理的な位置の指定を受け付ける位置受付手段と、受け付けられた地理的な位置が所定の範囲内となる位置情報を含む基本情報をサーバーから取得する基本情報取得手段と、取得された基本情報に含まれる第2の画像を表示する生成側表示手段と、第2の画像中の表示領域の指定を受け付ける表示領域受付手段と、関連情報を取得する関連情報取得手段と、取得された関連情報と、表示領域受付手段により受け付けられた表示領域を示す領域情報とを基本情報に追加した拡張現実情報を生成する拡張現実情報生成手段と、サーバーに生成された拡張現実情報を登録する登録手段と、を備える。 According to another aspect of the present invention, an augmented reality display system is an augmented reality display system including the above-described augmented reality display device, and a basic information registration device and an augmented reality information registration device that can communicate with a server. The basic information registration device includes a basic imaging unit that images a subject and outputs an image, a basic position acquisition unit that acquires a geographical position where the basic information registration device actually exists, and a basic imaging unit. A basic information registration unit for registering basic information including the second image and the current position acquired by the basic position acquisition unit in the server, and an image to be captured and output as a second image; The real information registration device includes a position receiving unit that receives designation of a geographical position, and basic information including position information in which the received geographical position is within a predetermined range from a server. Obtaining basic information acquisition means, generation-side display means for displaying a second image included in the acquired basic information, display area reception means for receiving designation of a display area in the second image, and acquisition of related information The augmented reality information generating means for generating augmented reality information by adding the related information acquisition means, the acquired related information, and the area information indicating the display area received by the display area accepting means to the basic information, and the server Registration means for registering the generated augmented reality information.
この局面に従えば、基本情報登録装置によって基本情報が登録され、拡張現実情報登録装置によって基本情報に関連情報と領域情報とを追加した拡張現実情報が登録される。このため、拡張現実表示装置のユーザー本人または、そのユーザーとは別のユーザーにより登録された関連情報を表示することができる。その結果、任意のユーザーにより登録された関連情報を被写体と関連付けて表示することが可能な拡張現実表示システムを提供することができる。 According to this aspect, the basic information is registered by the basic information registration device, and the augmented reality information in which the related information and the region information are added to the basic information is registered by the augmented reality information registration device. Therefore, it is possible to display related information registered by the user of the augmented reality display device or a user other than the user. As a result, it is possible to provide an augmented reality display system that can display related information registered by an arbitrary user in association with a subject.
好ましくは、拡張現実情報登録装置は、原稿を光学的に読み取って電子データに変換した画像データを出力する原稿読取手段をさらに備え、関連情報取得手段は、原稿読取装置が出力する画像データを関連情報として取得する。 Preferably, the augmented reality information registration apparatus further includes a document reading unit that optically reads a document and outputs image data converted into electronic data, and the related information acquisition unit relates image data output by the document reading device. Obtain as information.
この局面に従えば、原稿を読み取った画像データを関連情報とすることができる。 According to this aspect, image data obtained by reading a document can be used as related information.
好ましくは、拡張現実情報登録装置は、データを記憶するデータ記憶手段をさらに備え、関連情報取得手段は、データ記憶手段に記憶されたデータのうちからユーザーにより指定されたデータを関連情報として取得する。 Preferably, the augmented reality information registration device further includes data storage means for storing data, and the related information acquisition means acquires data specified by the user from the data stored in the data storage means as related information. .
この局面に従えば、ユーザーにより指定されたデータを関連情報とすることができる。 According to this aspect, data specified by the user can be used as related information.
この発明のさらに他の局面によれば、拡張現実表示方法は、被写体を撮像した第1の画像を取得する撮像ステップと、取得された第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報を取得する拡張現実情報取得ステップと、拡張現実情報は、第2の画像に加えて、第2の画像中の被写体に対して相対的な位置で定まる表示領域を示す領域情報と、被写体に関連する関連情報とを含み、第1の画像中の被写体に対する相対位置が、第2の画像中の被写体と表示領域との相対位置と同じ関係となる現実表示領域を決定する現実表示領域決定ステップと、決定された現実表示領域に拡張現実情報に含まれる関連情報を表示する表示制御ステップと、第2の画像と第1の画像とで異なる相違部分を抽出する相違部分抽出ステップと、相違部分抽出ステップにおいて相違部分が抽出される場合、予め定められた処理を実行する処理実行ステップと、を含む。 According to still another aspect of the present invention, an augmented reality display method includes an imaging step of acquiring a first image obtained by imaging a subject, and a second subject having the same subject as the subject in the acquired first image. The augmented reality information acquisition step for acquiring augmented reality information including the image of the image and the augmented reality information indicate a display area determined at a position relative to the subject in the second image in addition to the second image. A real display area is determined that includes area information and related information related to the subject, and whose relative position to the subject in the first image is the same as the relative position of the subject and the display region in the second image. A real display area determining step, a display control step for displaying related information included in the augmented reality information in the determined real display area, and a different part for extracting a different part between the second image and the first image Extraction step Including a flop, when the different part in different part extraction step is extracted, and the process execution step of executing predetermined processing, the.
この局面に従えば、所定の被写体を撮像した時点で、所定の処理を実行することが可能な拡張現実表示方法を提供することができる。 According to this aspect, it is possible to provide an augmented reality display method capable of executing a predetermined process when a predetermined subject is imaged.
この発明のさらに他の局面によれば、拡張現実表示プログラムは、被写体を撮像した第1の画像を取得する撮像ステップと、取得された第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報を取得する拡張現実情報取得ステップと、拡張現実情報は、第2の画像に加えて、第2の画像中の被写体に対して相対的な位置で定まる表示領域を示す領域情報と、被写体に関連する関連情報とを含み、第1の画像中の被写体に対する相対位置が、第2の画像中の被写体と表示領域との相対位置と同じ関係となる現実表示領域を決定する現実表示領域決定ステップと、決定された現実表示領域に拡張現実情報に含まれる関連情報を表示する表示制御ステップと、第2の画像と第1の画像とで異なる相違部分を抽出する相違部分抽出ステップと、相違部分抽出ステップにおいて相違部分が抽出される場合、予め定められた処理を実行する処理実行ステップと、をコンピューターに実行させる。 According to still another aspect of the present invention, the augmented reality display program obtains a first image obtained by imaging a subject, and a second subject having the same subject as the subject in the obtained first image. The augmented reality information acquisition step for acquiring augmented reality information including the image of the image and the augmented reality information indicate a display area determined at a position relative to the subject in the second image in addition to the second image. A real display area is determined that includes area information and related information related to the subject, and whose relative position to the subject in the first image is the same as the relative position of the subject and the display region in the second image. A real display area determining step, a display control step for displaying related information included in the augmented reality information in the determined real display area, and a different part for extracting a different part between the second image and the first image Extraction Steps and, when a different part in different part extraction step is extracted, to execute a process executing step of executing predetermined processing, to the computer.
この局面に従えば、所定の被写体を撮像した時点で、所定の処理を実行することが可能な拡張現実表示プログラムを提供することができる。 According to this aspect, it is possible to provide an augmented reality display program capable of executing a predetermined process when a predetermined subject is imaged.
以下、本発明の実施の形態について図面を参照して説明する。以下の説明では同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<第1の実施の形態>
図1は、本発明の実施の形態における拡張現実表示システムの全体概要の一例を示す図である。図1を参照して、拡張現実表示システム1は、それぞれがネットワーク2に接続された無線局3と、MFP(Multi Function Peripheral)100と、携帯情報装置200,200A,200Bと、パーソナルコンピューター(以下「PC」という)300と、ヘッドマウントディスプレイ(以下、「HMD」という)400と、サーバー500と、を含む。
<First Embodiment>
FIG. 1 is a diagram showing an example of an overall outline of an augmented reality display system according to an embodiment of the present invention. Referring to FIG. 1, an augmented
MFP100は、画像処理装置として機能し、原稿を読み取るための原稿読取機能、画像データに基づいて紙などの記録媒体に画像を形成するための画像形成機能およびファクシミリデータを送受信するファクシミリ送受信機能を備えている。なお、第1の実施の形態においては画像処理装置の一例として、MFP100を例に説明するが、MFP100に代えて、画像を処理する機能を備えた装置であれば、例えば、PC300、サーバー500等であってもよい。
PC300は、一般的なコンピューターである。PC300は、MFP100を制御するためのプリンタドライバプログラムがインストールされている。
The
携帯情報装置200,200A,200Bは、情報処理装置の一例である。携帯情報装置200,200A,200Bは、PDA(Personal Digital Assistants)、スマートフォンなど、ユーザーに携帯して使用され、データを記憶する機能、無線LAN機能を備えている。また、携帯情報装置200,200A,200Bは、PC300と同様に、アプリケーションプログラムをインストールすることが可能である。携帯情報装置200,200A,200Bのハードウェア構成および機能は同じなので、ここでは、特に言及しない限り携帯情報装置200を例に説明する。
The
HMD400は、メガネの形状をしており、ユーザーにより装着されて使用される。HMF400は、被写体を撮像する撮像機能、メガネのレンズ部分に画像を表示する表示機能、無線LAN機能を備えている。HMD400を装着するユーザーは、レンズを通して被写体を視認すると同時に、レンズに表示された画像を視認することができる。
The
ネットワーク2は、ローカルエリアネットワーク(LAN)であり、接続形態は有線または無線を問わない。またネットワーク2は、LANに限らず、公衆交換電話網(Public Switched Telephone Networks)を用いたネットワーク等であってもよい。さらに、ネットワーク2は、インターネットなどのワイドエリアネットワーク(WAN)に接続されている。
The
MFP100は、ネットワーク2を介して、無線局3、PC300、およびサーバー500と、データの送受信が可能である。無線局3は、ネットワーク2の中継装置であり、無線LAN通信機能を備えた携帯情報装置200,200A,200BおよびHMD400と通信して、携帯情報装置200,200A,200BおよびHMD400をネットワーク2に接続する。このため、携帯情報装置200,200A,200BおよびHMD400各々は、無線局3およびネットワーク2を介してMFP100、PC300、サーバー500とデータの送受信が可能である。
The
図2は、本実施の形態におけるMFPの外観を示す斜視図である。図3は、本実施の形態におけるMFPのハードウェア構成の一例を示すブロック図である。図2および図3を参照して、MFP100は、メイン回路110と、原稿を読み取るための原稿読取部130と、原稿を原稿読取部130に搬送するための自動原稿搬送装置120と、原稿読取部130が原稿を読み取って出力する画像データに基づいて用紙等に画像を形成するための画像形成部140と、画像形成部140に用紙を供給するための給紙部150と、画像が形成された用紙を処理する後処理部155と、ユーザーインターフェースとしての操作パネル160とを含む。
FIG. 2 is a perspective view showing an appearance of the MFP according to the present embodiment. FIG. 3 is a block diagram illustrating an example of the hardware configuration of the MFP according to the present embodiment. 2 and 3,
後処理部155は、画像形成部140により画像が形成された1以上の用紙を並び替えて排紙するソート処理、パンチ穴加工するパンチ処理、ステープル針を打ち込むステープル処理を実行する。
The
メイン回路110は、CPU111と、通信インターフェース(I/F)部112と、ROM113と、RAM114と、大容量記憶装置としてのハードディスクドライブ(HDD)115と、ファクシミリ部116と、CD−ROM118が装着される外部記憶装置117と、を含む。CPU111は、自動原稿搬送装置120、原稿読取部130、画像形成部140、給紙部150および操作パネル160と接続され、MFP100の全体を制御する。
The
ROM113は、CPU111が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。RAM114は、CPU111がプログラムを実行する際の作業領域として用いられる。また、RAM114は、原稿読取部130から連続的に送られてくる読取データ(画像データ)を一時的に記憶する。
The
操作パネル160は、MFP100の上面に設けられ、表示部161と操作部163とを含む。表示部161は、液晶表示装置(LCD)、有機ELD(Electro−Luminescence Display)等の表示装置であり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。操作部163は、複数のキーからなるハードキー部167を備え、キーに対応するユーザーの操作による各種の指示、文字、数字などのデータの入力を受け付ける。操作部163は、表示部161上に設けられたタッチパネルを165さらに含む。
通信I/F部112は、MFP100をネットワーク2に接続するためのインターフェースである。CPU111は、通信I/F部112を介して、携帯情報装置200,200A,200B、PC300、HMD400、およびサーバー500との間で通信し、データを送受信する。また、通信I/F部112は、ネットワーク2を介してインターネットに接続されたコンピューターと通信が可能である。
Communication I /
ファクシミリ部116は、公衆交換電話網(PSTN)に接続され、PSTNにファクシミリデータを送信する、またはPSTNからファクシミリデータを受信する。ファクシミリ部116は、受信したファクシミリデータを、HDD115に記憶する、または画像形成部140に出力する。画像形成部140は、ファクシミリ部116により受信されたファクシミリデータを用紙にプリントする。また、ファクシミリ部116は、HDD115に記憶されたデータをファクシミリデータに変換して、PSTNに接続されたファクシミリ装置に送信する。
The
外部記憶装置117は、CD−ROM(Compact Disk ROM)118が装着される。CPU111は、外部記憶装置117を介してCD−ROM118にアクセス可能である。CPU111は、外部記憶装置117に装着されたCD−ROM118に記録されたプログラムをRAM114にロードして実行する。なお、CPU111が実行するプログラムを記憶する媒体としては、CD−ROM118に限られず、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード、光カード、マスクROM、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)などの半導体メモリーであってもよい。
The
また、CPU111が実行するプログラムは、CD−ROM118に記録されたプログラムに限られず、HDD115に記憶されたプログラムをRAM114にロードして実行するようにしてもよい。この場合、ネットワーク2に接続された他のコンピューターが、MFP100のHDD115に記憶されたプログラムを書換える、または、新たなプログラムを追加して書き込むようにしてもよい。さらに、MFP100が、ネットワーク2に接続された他のコンピューターからプログラムをダウンロードして、そのプログラムをHDD115に記憶するようにしてもよい。ここでいうプログラムは、CPU111が直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
Further, the program executed by the
拡張現実表示システム1において、MFP100、携帯情報装置200,200A,200B、PC300、HDM400、サーバー500間で、データが送受信される。データを送受信するプロトコルは、受信側の装置において送信元を特定することができれば、任意のプロトコルを用いることが可能である。データを送受信するプロトコルは、例えばHTTP(HyperText Transfer Protocol)、FTP(File Transfer Protocol)およびSMPT(Simple Mail Transfer Protocol)、POP(Post Office Protocol)等が用いられる。
In the augmented
図4は、本実施の形態における携帯情報装置のハードウェア構成の概要の一例を示すブロック図である。図4を参照して、携帯情報装置200は、携帯情報装置200の全体を制御するためのCPU201と、カメラ202と、データを不揮発的に記憶するフラッシュメモリー203と、通話部205と接続された無線通信部204と、情報を表示する表示部206と、ユーザーの操作を受け付ける操作部207と、無線LANI/F208と、位置検出部209と、方位検出部210と、外部記憶装置211と、を含む。
FIG. 4 is a block diagram illustrating an example of an outline of a hardware configuration of the portable information device according to the present embodiment. Referring to FIG. 4,
無線通信部204は、電話通信網に接続された携帯電話用基地局と無線通信する。無線通信部204は、携帯情報装置200を電話通信網に接続し、通話部205を用いた通話を可能とする。無線通信部204は、携帯電話用基地局から受信した無線信号を復調した音声信号を復号して通話部205に出力する。また、無線通信部204は、通話部205から入力される音声を符号化し、携帯電話用基地局に送信する。通話部205は、マイクおよびスピーカを備え、無線通信部204から入力される音声をスピーカから出力し、マイクから入力される音声を無線通信部204に出力する。さらに、無線通信部204は、CPU201により制御され、携帯情報装置200を電子メールサーバーに接続し、電子メールを送受信する。
The
カメラ202は、レンズおよび光電変換素子を備え、レンズで集光した光を光電変換素子に結像し、光電変換素子は受光した光を光電変換して画像データをCPU201に出力する。光電変換素子は、CMOS(Complementary Metal Oxide Semiconductor)センサー、CCD(Charge Coupled Device)センサー等である。
The
表示部206は、液晶表示装置(LCD)、有機ELD等の表示装置であり、ユーザーに対する指示メニューや取得した画像データに関する情報等を表示する。操作部207は、複数のキーを備え、キーに対応するユーザーの操作による各種の指示、文字、数字などのデータの入力を受け付ける。
The
無線LANI/F208は、無線局3と通信し、携帯情報装置200をネットワーク3に接続するためのインターフェースである。携帯情報装置200に、HMD200、サーバー500、MFP100、PC300それぞれのIP(Internet Protocol)アドレスを登録しておくことにより、携帯情報装置200は、HMD400、サーバー500、MFP100、PC300と通信することができ、データの送受信が可能となる。なお、本実施の形態においては、携帯情報装置200が無線LANI/F208を用いて、MFP100、PC300、HMD400、サーバー500と通信する場合を例に説明するが、他の通信方法を用いて通信するようにしてもよい。具体的には、携帯情報装置200、MFP100、PC300、HMD400、サーバー500が、例えばBluetooth(登録商標)等の近距離無線装置を搭載する場合には、携帯情報装置200が、MFP100、PC300、HMD400、サーバー500のいずれかと、1対1で通信するようにしてもよい。また、携帯情報装置200を、MFP100、PC300、HMD400、サーバー500のいずれかと、例えばUSB(Universal Serial Bus)ケーブル等の有線で接続するようにし、携帯情報装置200が、MFP100、PC300、HMD400、サーバー500のいずれかと、1対1で通信するようにしてもよい。
The wireless LAN I /
フラッシュメモリー203は、CPU201が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。CPU201は、フラッシュメモリー203に記録されたプログラムを、CPU201が備えるRAMにロードして実行する。
The
位置検出部209は、携帯情報装置200の現在位置を検出する。具体的には、位置検出部209は、全地球測位システム(Global Positioning System)受信機であり、複数のGPS衛星からの電波を受信することにより、現在位置を測定する。位置検出部209は、測定した現在位置を示す値、たとえば、緯度と経度とをCPU201に出力する。
The
方位検出部210は、携帯情報装置200のカメラ202が向く方向の方位を検出する。具体的には、方位検出部210は、地磁気を計測する地磁気センサーである。方位検出部210は、検出した方位をCPU201に出力する。方位検出部210は、カメラ202の撮像方向、換言すれば、カメラ202のレンズの光軸が向く方向を検出可能なように携帯情報装置200に設置される。なお、方位検出部210は、地磁気センサーに限らず、ジャイロセンサー等を用いるようにしてもよい。
The
外部記憶装置211は、携帯情報装置200に着脱自在であり、遠隔操作プログラムを記憶したCD−ROM211Aが装着可能である。CPU201は、外部記憶装置211を介してCD−ROM211Aにアクセス可能である。CPU201は、外部記憶装置211に装着されたCD−ROM211Aに記録された遠隔操作プログラムを、CPU201が備えるRAMにロードして実行することが可能である。
The
なお、CPU201が実行するプログラムとして、フラッシュメモリー203またはCD−ROM211Aに記録されたプログラムについて説明したが、ネットワーク2に接続された他のコンピューターが、フラッシュメモリー203に記憶されたプログラムを書換えたプログラム、または、追加して書き込んだ新たなプログラムであってもよい。さらに、携帯情報装置200が、ネットワーク2に接続された他のコンピューターからダウンロードしたプログラムでもよい。ここでいうプログラムは、CPU201が直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
Note that the program recorded in the
なお、CPU201が実行するプログラムを記憶する媒体としては、CD−ROM211Aに限られず、光ディスク(MO/MD/DVD)、ICカード、光カード、マスクROM、EPROM、EEPROMなどの半導体メモリーであってもよい。
The medium for storing the program executed by the
図5は、本実施の形態におけるHMDのハードウェア構成の一例を示すブロック図である。図5を参照して、本実施の形態におけるHMD400は、HMD400の全体を制御するためのCPU401と、カメラ402と、データを不揮発的に記憶するフラッシュメモリー403と、情報を表示する表示部404と、無線LANI/F405と、を含む。
FIG. 5 is a block diagram showing an example of the hardware configuration of the HMD in the present embodiment. Referring to FIG. 5,
カメラ402は、レンズおよび光電変換素子を備え、レンズで集光した光を光電変換素子に結像し、光電変換素子は受光した光を光電変換して画像データをCPU401に出力する。光電変換素子は、CMOS(Complementary Metal Oxide Semiconductor)センサー、CCD(Charge Coupled Device)センサー等である。
The
表示部404は、透明な部材からなる液晶表示装置(LCD)であり、HMD400のレンズ部分に埋め込まれている。表示部404の表示面は、カメラ402の光軸を基準に定まる位置に配置される。具体的には、カメラ402の撮像範囲は、ユーザーがHMD400を装着した場合における視界と同じに設定される。このため、カメラ404において撮像して得られる画像は、ユーザーが実際に見る視界内の画像と同じになる。このため、カメラ402が出力する画像からユーザーの視界内の位置を特定することができる。表示部404の表示面は、レンズ部分においてユーザーがHMD400を装着した場合における視界と同じに設定される。このため、ユーザーの視界内の任意の位置に画像を表示することができる。
The
無線LANI/F405は、無線局3と通信し、HMD400をネットワーク2に接続するためのインターフェースである。フラッシュメモリー403に、サーバー500のIP(Internet Protocol)アドレスを登録しておくことにより、HMD400は、サーバー500と通信することができ、データの送受信が可能となる。なお、本実施の形態においては、HMD400が無線LANI/F405を用いて、サーバー500と通信する場合を例に説明するが、他の通信方法を用いて通信するようにしてもよい。具体的には、HMD400およびサーバー500が、例えばBluetooth(登録商標)等の近距離無線装置を搭載する場合には、HMD400が、サーバー500と、1対1で通信するようにしてもよい。
The wireless LAN I /
フラッシュメモリー403は、CPU401が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。CPU401は、フラッシュメモリー403に記録されたプログラムを、CPU401が備えるRAMにロードして実行する。
The
図6は、本実施の形態におけるサーバーのハードウェア構成の一例を示すブロック図である。図6を参照して、サーバー500は、サーバー500の全体を制御するためのCPU501と、CPU501が実行するためのプログラムを記憶するROM502と、CPU501の作業領域として使用されるRAM503と、データを不揮発的に記憶するHDD504と、CPU501をネットワーク2に接続する通信部505と、情報を表示する表示部506と、ユーザーの操作の入力を受け付ける操作部507と、を含む。
FIG. 6 is a block diagram illustrating an example of a hardware configuration of the server according to the present embodiment. Referring to FIG. 6,
本実施の形態における拡張現実表示システム1においては、サーバー500に拡張現実情報を記憶し、拡張現実表示装置として機能する携帯情報装置200が、サーバー500から拡張現実情報をダウンロードして、表示する。
In the augmented
図7は、拡張現実情報のフォーマットの一例を示す図である。図7を参照して、拡張現実情報は、位置情報の項目と、コンテンツの項目と、関連情報の項目と、領域情報の項目と、を含む。位置情報の項目には、地理的な位置を示す位置情報が設定される。コンテンツの項目には、コンテンツが設定される。ここでは、コンテンツを、位置情報の項目に設定された位置情報で特定される位置で被写体を撮像した撮像画像を背景画像として設定される場合を例に説明する。関連情報の項目は、コンテンツ中のオブジェクトに関連する関連情報が設定される。ここでは、コンテンツの項目に設定された背景画像中の被写体に関連する情報が設定される。領域情報の項目は、コンテンツ中のオブジェクトに対して相対位置で定まる表示領域を示す領域情報が設定される。ここでは、コンテンツの項目に設定された背景画像中の被写体に対して相対的な位置で定める領域の位置を示す領域情報が設定される。 FIG. 7 is a diagram illustrating an example of a format of augmented reality information. Referring to FIG. 7, the augmented reality information includes a position information item, a content item, a related information item, and a region information item. In the position information item, position information indicating a geographical position is set. Content is set in the content item. Here, an example will be described in which content is set as a background image, which is a captured image obtained by capturing a subject at a position specified by position information set in the position information item. In the related information item, related information related to the object in the content is set. Here, information related to the subject in the background image set in the content item is set. In the area information item, area information indicating a display area determined by a relative position with respect to an object in the content is set. Here, area information indicating the position of the area defined by the relative position with respect to the subject in the background image set in the content item is set.
拡張現実情報をサーバー500に記憶させる方法の具体例は後述するが、サーバー500には、予め拡張現実情報が記憶されている。ここでは、会議室Aにおいて、ホワイトボードを撮像する際に、その撮像時の会議室Aの位置を示す位置情報が位置情報の項目に設定され、ホワイトボードを被写体にして撮像された撮像画像がコンテンツの項目に設定され、会議の資料である画像が関連情報の項目に設定され、撮像画像中に被写体として含まれるホワイトボードの描画面の全体を含む領域が領域情報の項目に設定された拡張現実情報がサーバー500に登録されている場合を例に説明する。
Although a specific example of the method for storing the augmented reality information in the
図8は、拡張現実表示装置として機能する携帯情報装置200が備えるCPUの機能の概要の一例を示すブロック図である。図8に示す機能は、拡張現実表示装置として機能する携帯情報装置200が備えるCPU201が、フラッシュメモリー203に記憶された拡張現実表示プログラムを実行することにより、CPU201に形成される機能である。図8を参照して、CPU201は、撮像制御部251と、携帯情報装置200の現在の地理的な位置を取得する位置取得部253と、サーバー500から拡張現実情報を取得する拡張現実情報取得部255と、表示部161を制御する表示制御部257と、相違部分抽出部271と、処理実行部273と、を含む。
FIG. 8 is a block diagram illustrating an example of an overview of the functions of the CPU provided in the
撮像制御部251は、カメラ202を制御する撮像制御部259を含む。撮像制御部259は、カメラ202を制御し、カメラ202が被写体を撮像して出力する撮像画像を取得し、取得された撮像画像を、表示制御部257、拡張現実情報取得部255および相違部分抽出部271に出力する。表示制御部257は、撮像制御部259から撮像画像が入力されることに応じて、表示部206を制御し、撮像画像を表示部206に表示させる。
The
位置取得部253は、位置検出部209を制御し、位置検出部209に現在位置を測定させ、位置検出部209が出力する現在位置を示す位置情報を取得する。位置取得部253は、取得された位置情報を拡張現実情報取得部255に出力する。
The
拡張現実情報取得部255は、サーバー500から拡張現実情報を取得する。拡張現実情報取得部255は、位置基準取得部261と、被写体基準取得部263と、を含む。位置基準取得部261は、位置取得部253から入力される位置情報を含む拡張現実情報送信要求を、無線LANI/F208を介して、サーバー500に送信する。携帯情報装置200のフラッシュメモリー203に、サーバー500のIPアドレスを予め記憶しておけばよい。拡張現実情報送信要求を受信するサーバー500の動作の詳細は後述するが、拡張現実情報送信要求に含まれる位置情報で特定される位置から所定の範囲内に存在する位置を示す位置情報を含む拡張現実情報を抽出し、抽出された1以上の拡張現実情報を返信する。拡張現実情報取得部255は、無線LANI/F408がサーバー500から1以上の拡張現実情報を受信すると、1以上の拡張現実情報を被写体基準取得部263に出力する。
The augmented reality
被写体基準取得部263は、撮像制御部259から撮像画像が入力され、位置基準取得部261から1以上の拡張現実情報が入力される。被写体基準取得部263は、位置基準取得部261から入力される1以上の拡張現実情報のうちから、撮像制御部259から入力される撮像画像と被写体が同一の背景画像を含む拡張現実情報を抽出する。被写体基準取得部263は、撮像画像と拡張現実情報のコンテンツの項目に設定された背景画像とのそれぞれから特徴的な形状を抽出し、撮像画像の特徴的な形状と同一または相似の形状が背景画像の特徴的な形状に含まれていれば、その拡張現実情報を、撮像画像と被写体が同一の背景画像を含む拡張現実情報に決定する。被写体基準取得部263は、撮像制御部259から入力される撮像画像と被写体が同一の背景画像を含む拡張現実情報を表示制御部257および相違部分抽出部271に出力する。被写体基準取得部263は、位置基準取得部261から入力される1以上の拡張現実情報のうちに、撮像画像と被写体が同一の背景画像を含む拡張現実情報が存在しない場合は、表示制御部257および相違部分抽出部271に拡張現実情報を出力しない。
The subject
例えば、画像を2値化した2値化画像または画像を微分したエッジ画像を生成することにより、画像中に含まれる被写体の輪郭を抽出することができる。抽出された輪郭の形状を特徴的な形状として抽出すればよい。特徴的な形状が同一か否かは、サイズが異なる場合があるので、相似の場合を含む。エッジ画像は、隣接する画素間で濃度の差が所定のしきい値以上の画素の値を「1」とし、所定のしきい値より小さい画素の値を「0」とした画像である。例えば、背景画像および撮像画像に被写体としてホワイトボードを含む場合には、それぞれの画像は、ホワイトボードの輪郭を特徴的な形状として含む。 For example, by generating a binarized image obtained by binarizing the image or an edge image obtained by differentiating the image, the contour of the subject included in the image can be extracted. What is necessary is just to extract the shape of the extracted outline as a characteristic shape. Whether the characteristic shapes are the same or not includes a similar case because the sizes may be different. The edge image is an image in which the value of a pixel whose density difference between adjacent pixels is equal to or greater than a predetermined threshold is “1” and the value of a pixel smaller than the predetermined threshold is “0”. For example, when the background image and the captured image include a whiteboard as a subject, each image includes the outline of the whiteboard as a characteristic shape.
なお、位置検出部209が現在位置を測定できない場合、位置取得部253は位置情報を取得することができない。この場合には、位置基準取得部261は、サーバー500からそれに記憶されている拡張現実情報の全てを受信し、被写体基準取得部263に出力する。また、被写体基準取得部263が撮像制御部259から入力される撮像画像を含む拡張現実情報送信要求を、無線LANI/F208を介して、サーバー500に送信し、サーバー500が、拡張現実情報送信要求に含まれる撮像画像と被写体が同一の拡張現実情報を抽出し、返信するようにしてもよい。この場合には、被写体基準取得部263は、サーバー500から返信される拡張現実情報を受信し、表示制御部257に出力する。
Note that if the
表示制御部257は、撮像制御部259から撮像画像が入力されることに応じて、撮像画像を表示部206に表示する。表示制御部257は、拡張現実情報取得部255から拡張現実情報が入力される場合、拡張現実情報に含まれる関連情報の項目に設定された関連情報を表示部206に表示する。
The
表示制御部257は、現実表示領域決定部258を含む。現実表示領域決定部258は、拡張現実情報の領域情報の項目に設定された領域情報に基づいて、拡張現実情報のコンテンツの項目に設定された背景画像中の被写体に対する相対位置を特定し、撮像画像中の被写体を基準にして、特定された相対位置に存在する領域を現実表示領域に決定する。また、現実表示領域決定部258は、撮像画像中で関連情報を表示するための現実表示領域を後述する更新制御部277に出力する。
The
表示制御部257は、撮像画像中で決定された現実表示領域に拡張現実情報の関連情報の項目に設定された関連情報を表示する。具体的には、表示制御部257は、撮像画像中で、現実表示領域に、関連情報の画像を合成した合成画像を生成し、生成された合成画像を表示部206に表示する。
The
なお、現実表示領域決定部258は、拡張現実情報に含まれるコンテンツの項目に設定された背景画像中で、領域情報の項目に設定された領域情報で特定される領域を特定し、撮像画像中で、背景画像中で特定された領域と類似する領域を、関連情報を表示するための領域に決定するようにしてもよい。 The real display area determination unit 258 specifies an area specified by the area information set in the area information item in the background image set in the content item included in the augmented reality information, and includes the captured image in the captured image. Thus, an area similar to the area specified in the background image may be determined as an area for displaying related information.
ここで、ユーザーが会議室Aにおいて携帯情報装置200のカメラ202で、ホワイトボードを被写体にして撮像する場合、会議室Aの位置を示す位置情報が位置情報の項目に設定され、ホワイトボードを被写体にして撮像された背景画像がコンテンツの項目に設定され、会議の資料である画像が関連情報に設定され、背景画像中のホワイトボードの描画面の全体を含む表示領域が領域情報の項目に設定された拡張現実情報がサーバー500から受信される場合を例に説明する。この場合、撮像画像中のホワイトボードの描画面に関連情報である会議の資料の画像を合成した合成画像を表示部206に表示する。実際には、ホワイトボードの描画面には文字などが記載されていなくても、また、画像が投影されていなくても、携帯情報装置200の表示部206には、撮像画像中のホワイトボードの描画面の領域に会議の資料の画像を合成した合成画像が表示される。
Here, when the user captures an image using the
相違部分抽出部271は、撮像制御部251から撮像画像が入力され、拡張現実情報取得部255から拡張現実情報が入力される。相違部分抽出部271は、拡張現実情報に含まれる背景画像と撮像画像とが部分的に相違するか否かを判断する。相違部分抽出部271は、背景画像と撮像画像とが部分的に相違すると判断する場合、処理実行部273に撮像画像と拡張現実情報とを含む更新指示を出力する。
The different
処理実行部273は、相違部分抽出部271から更新指示が入力される場合、予め定められた処理を実行する。処理実行部273は、通知部275と、更新制御部277と、を含む。通知部275は、相違部分抽出部271から更新指示が入力されることに応じて、ユーザーに、拡張現実情報を更新する必要があることを通知する。例えば、「この画像で拡張現実情報を更新しますか?」のメッセージを表示部206に表示されている画像に重畳して表示する。通知部275は、ユーザーが操作部207に拡張現実情報を更新する指示を入力すれば、撮像画像と拡張現実情報とを含む更新指示を更新制御部277に出力する。
When the update instruction is input from the different
更新制御部277は、通知部275から撮像画像と拡張現実情報とを含む更新指示が入力され、表示制御部257から撮像画像中で関連情報を表示する領域が入力される。更新制御部277は、拡張現実情報のコンテンツの項目を撮像画像で更新し、拡張現実情報の領域情報の項目を現実表示領域に更新し、更新後の拡張現実情報を含む拡張現実情報更新要求を無線LANI/F208を介して、サーバー500に送信する。
The
図9は、相違部分抽出部271の詳細な機能の一例を示すブロック図である。図9を参照して、相違部分抽出部271は、分割部281と、比較部283と、相違部分決定部285と、を含む。
FIG. 9 is a block diagram illustrating an example of detailed functions of the different
分割部281は、撮像制御部259から入力される撮像画像を複数の部分画像に分割する。分割数は限定するものではないが、例えば、縦および横それぞれで複数に等分するのが好ましい。
The dividing
比較部283は、複数の部分画像ごとに、拡張現実情報のコンテンツの項目に設定された背景画像の少なくとも一部と比較する。比較部283は、部分画像と背景画像の少なくとも一部を、パターンマッチングすることにより、比較する。比較部283は、部分画像が背景画像の少なくとも一部と類似または同一であれば、その部分画像を類似部分に決定し、類似部分を識別するための部分画像番号を相違部分決定部285に出力し、背景画像が部分画像と同一または類似の部分を含まなければ、非類似部分に決定し、非類似部分の部分画像番号を相違部分決定部285に出力する。
The
相違部分決定部285は、複数の部分画像のうちに類似部分に囲まれる非類似部分が存在する場合に、非類似部分を相違部分に決定する。相違部分決定部285は、相違部分を決定する場合、通知部275に通知指示を出力する。
The different
図10は、背景画像の一例を示す図である。図10に示す背景画像は、サーバー500に登録された拡張現実情報のコンテンツの項目に設定された背景画像を示し、会議室Aにおいて、ホワイトボードを被写体として撮像した背景画像である。図10を参照して、背景画像600は、ホワイトボード601、時計603、MFP605を被写体として含む。ホワイトボード601は、描画面601を含む。
FIG. 10 is a diagram illustrating an example of a background image. The background image shown in FIG. 10 is a background image set in the item of augmented reality information content registered in the
図11は、撮像画像の一例を示す図である。図11に示す撮像画像は、会議室Aにおいて携帯情報装置200でホワイトボード601を被写体として撮像して得られる画像である。図11を参照して、撮像画像700は、ホワイトボード601、時計603、MFP605およびポスター607を被写体として含む。ホワイトボード601は、描画面601を含む。
FIG. 11 is a diagram illustrating an example of a captured image. The captured image shown in FIG. 11 is an image obtained by capturing an image of the
図11に示す撮像画像は、会議室Aにおいて撮像して得られる画像であり、撮像した位置が、会議室Aである。また、撮像画像700は、被写体としてホワイトボード601を含む。
The captured image shown in FIG. 11 is an image obtained by capturing in the conference room A, and the captured position is the conference room A. The captured
図12は、合成画像の一例を示す図である。図12に示す合成画像は、携帯情報装置200において、図11に示す撮像画像が取得され、図10に示す背景画像を含む拡張現実情報がサーバー500から取得された場合に生成され、表示部206に表示される合成画像を示す。図12を参照して、図11に示した撮像画像中のホワイトボード601の描画面601Aの領域に関連情報610を含む。
FIG. 12 is a diagram illustrating an example of a composite image. The composite image illustrated in FIG. 12 is generated when the captured image illustrated in FIG. 11 is acquired in the
このように、携帯情報装置200を携帯するユーザーが、会議室Aにおいてホワイトボード601を被写体として撮像すると、図10に示した背景画像600を含む拡張現実情報をサーバー500から取得し、図12に示す合成画像を携帯情報装置200の表示部206に表示する。このため、実際には、ホワイトボード601の描画面601Aに何も描画されていなくても、予め準備した拡張現実情報の関連情報の項目に設定された関連情報の画像を描画面601Aに合成した合成画像が、携帯情報装置200の表示部206に表示させることができる。
As described above, when the user carrying the
また、背景画像700は、被写体としてポスター607を含むが、撮像画像600は、それを含まない。このため、サーバー500から取得された拡張現実情報のコンテンツの項目に設定された背景画像が、図11に示した撮像画像700で更新され、領域情報の項目に設定された表示領域が、撮像画像700における描画面601Aの領域を示す領域情報で更新され、更新された拡張現実情報がサーバー500に登録される。したがって、サーバー500に登録された拡張現実情報において、コンテンツの項目に設定された背景画像を撮像した時点と、その場所の状態が変化した場合であっても、背景画像が、状態が変化した後に撮像された撮像画像で更新されるので、サーバー500に登録された拡張現実情報を、最新の状態に維持することができる。
The
サーバー500に拡張現実情報を登録する方法には、種々の方法があるが、ここでは、携帯情報装置200が拡張現実情報の一部である基本情報をサーバー500に登録し、MFP100がその基本情報を用いて拡張現実情報をサーバー500に登録する場合を例に説明する。なお、この場合、携帯情報装置200は、基本情報をサーバー500に登録する基本情報登録装置として機能し、MFP100は、拡張現実情報をサーバー500に登録する拡張現実情報登録装置として機能する。
There are various methods for registering augmented reality information in the
図13は、基本情報のフォーマットの一例を示す図である。図13を参照して、基本情報は、拡張現実情報の一部である位置情報の項目と、コンテンツの項目と、を含む。 FIG. 13 is a diagram illustrating an example of a format of basic information. Referring to FIG. 13, the basic information includes an item of position information that is a part of augmented reality information and an item of content.
図14は、基本情報登録装置として機能する携帯情報装置200が備えるCPU201の機能の一例を示すブロック図である。図14に示す機能は、基本情報登録装置として機能する携帯情報装置200が備えるCPU201が、フラッシュメモリー203に記憶された基本情報登録プログラムを実行することにより、CPU201に形成される機能である。なお、図8に示した機能と同じ機能には同じ符号を付し、重複する説明は繰り返さない。
FIG. 14 is a block diagram illustrating an example of a function of the
図14を参照して、基本情報登録装置として機能する携帯情報装置200が備えるCPU201は、位置取得部253と、撮像制御部251、基本情報登録部287と、を含む。撮像制御部251は、カメラ202が被写体を撮像して出力する撮像画像を取得し、取得された撮像画像を、基本情報登録部287に出力する。位置取得部253は、カメラ202が被写体を撮像した時点に位置検出部209が出力する現在位置を示す位置情報を取得し、取得された位置情報を基本情報登録部287に出力する。
Referring to FIG. 14,
基本情報登録部287は、位置取得部253から入力される位置情報を位置情報の項目に設定し。撮像制御部259から入力される撮像画像をコンテンツの項目に設定することにより基本情報を生成し、生成された基本情報を含む基本情報登録要求を、無線LANI/F208を介して、サーバー500に送信する。
The basic
例えば、ユーザーが携帯情報装置200を携帯し、会議室Aで、会議室Aに存在するホワイトボードを被写体として撮像すれば、会議室Aの位置情報とを含む基本情報と、そのホワイトボードを被写体とした撮像画像と、がサーバー500に登録される。
For example, if a user carries the
図15は、拡張現実情報登録装置として機能するMFPが備えるCPUの機能の一例を示すブロック図である。図15に示す機能は、拡張現実情報登録装置として機能するMFP100が備えるCPU111が、ROM113、HDD115、CD−ROM118に記憶された拡張現実情報登録プログラムを実行することにより、CPU111に形成される機能である。図15を参照して、CPU111は、生成側コンテンツ取得部51と、領域決定部53と、関連情報取得部55と、拡張現実情報生成部57と、登録部59と、を含む。
FIG. 15 is a block diagram illustrating an example of functions of a CPU provided in an MFP that functions as an augmented reality information registration apparatus. The functions shown in FIG. 15 are functions formed in the
生成側コンテンツ取得部51は、位置受付部61と、基本情報取得部63と、を含む。
位置受付部61は、ユーザーにより指示される地理的な位置を受け付ける。位置受付部61は、表示部161に二次元の地図を表示し、表示された地図でユーザーにより指示された位置を、受け付ける。例えば、表示された地図で、会議室Aの場所が指示されると、会議室Aの地理的な位置を受け付ける。位置受付部61は、受け付けられた地理的な位置を示す位置情報を基本情報取得部63に出力する。会議室Aの地理的な位置を示す位置情報は、会議室Aの緯度と経度とで示される。
The generation-side
The
基本情報取得部63は、位置受付部61から位置情報が入力されることに応じて、サーバー500から基本情報を取得し、取得された基本情報を領域決定部53および拡張現実情報生成部57に出力する。基本情報取得部63は、位置受付部61から入力される位置情報を含む基本情報送信要求を、無線LANI/F208を介して、サーバー500に送信する。基本情報送信要求を受信するサーバー500の詳細は後述するが、登録されている基本情報のうち、基本情報送信要求に含まれる位置情報で特定される位置から所定の範囲内の位置を示す位置情報を含む基本情報を返信する。基本情報取得部63は、無線LANI/F208がサーバー500から受信する基本情報を取得する。例えば、ユーザーが会議室Aの場を指示する場合、会議室Aの地理的な位置を示す位置情報を含み、ホワイトボードを被写体として撮像された背景画像を含む基本情報を取得する。
The basic
領域決定部53は、生成側コンテンツ表示部65と、表示領域受付部67と、プレビュー部69と、を含む。生成側コンテンツ表示部65は、基本情報取得部63から基本情報が入力されることに応じて、基本情報のコンテンツの項目に設定された背景画像を表示部161に表示する。ここでは、ユーザーが地図中で会議室Aの場所を指示し、ホワイトボードを被写体として撮像された背景画像が表示部161に表示される場合を例に説明する。生成側コンテンツ表示部65は、背景画像を表示領域受付部67およびプレビュー部69に出力する。
The
表示領域受付部67は、ユーザーにより指示される表示領域を受け付ける。表示領域は、背景画像中の領域である。表示領域受付部67は、ユーザーが操作部163を操作して、表示部161に表示された背景画像中の一部を指示すれば、ユーザーにより指示された領域を、表示領域として受け付ける。表示領域は、例えば、点であってもよいし、任意の形状で囲まれた領域であってもよい。ここでは、表示領域を矩形の領域としている。表示領域は、後述する関連情報を表示するための領域である。関連情報は、背景画像中に含まれる被写体に関連する情報である。このため、表示領域は、背景画像中に含まれる被写体を含む領域、または、背景画像中に含まれる被写体から所定の範囲内にある領域である。このため、ユーザーが背景画像内の被写体の一部を指示すれば、被写体を含む矩形の領域を表示領域として受け付けるようにしてもよい。表示領域受付部67は、受け付けられた表示領域を、プレビュー部69および拡張現実情報生成部57に出力する。表示領域は、例えば、背景画像中の矩形の領域とする場合、矩形の領域の2つの対角の頂点の座標とすればよい。
The display
プレビュー部69は、生成側コンテンツ表示部65から背景画像が入力され、表示領域受付部67から表示領域が入力され、次に説明する関連情報取得部55から関連情報が入力される。プレビュー部69は、背景画像の表示領域に、関連情報の画像を合成した合成画像を生成し、生成された合成画像を表示部161に表示する。ユーザーは、背景画像に重畳して表示される関連情報を見ることで、背景画像中で関連情報が表示される位置を確認することができる。関連情報が表示される位置を、変更する場合には、操作部163を操作して、表示領域を変更する指示を入力すればよい。これにより、表示領域受付部67によって、変更後の表示領域が受け付けられる。
The
関連情報取得部55は、関連情報を取得し、取得された関連情報をプレビュー部69および拡張現実情報生成部57に出力する。関連情報は、ユーザーにより定められた情報であり、文字、記号、図形または写真、またはそれらの組み合わせである。
The related
関連情報取得部55は、入力受付部71と、原稿読取制御部73と、データ取得部75と、を含む。入力受付部71は、ユーザーが操作部163に入力する文字または記号を関連情報として受け付ける。原稿読取制御部73は、原稿読取部130が原稿を読み取って出力する画像を関連情報として受け付ける。データ取得部75は、HDD115に記憶されたデータのうちユーザーにより指定されたデータを関連情報として受け付ける。HDD115に記憶されるデータは、別のコンピューターで作成された文書または図形等のデータ、デジタルカメラで撮像して得られる写真等のデータ、インターネットに接続されたサーバーからダウンロードされたデータを含む。ここでは、ユーザーが、会議で使用するために発表用のデータの画像が形成された用紙を原稿とし、原稿読取部130に読み取らせ、原稿読取部130が出力する画像を関連情報とする場合を例に説明する。
The related
拡張現実情報生成部57は、基本情報取得部63から基本情報が入力され、表示領域受付部67から表示領域が入力され、関連情報取得部55から関連情報が入力される。拡張現実情報生成部57は、基本情報に含まれる位置情報を位置情報の項目に設定し、基本情報に含まれる背景画像をコンテンツの項目に設定し、関連情報取得部55から入力される関連情報を関連情報の項目に設定し、表示領域受付部67から入力される領域情報を領域情報の項目に設定した拡張現実情報を生成する。拡張現実情報生成部57は、生成された拡張現実情報を含む拡張現実情報登録要求を、無線LANI/F208を介してサーバー500に送信する。
The augmented reality
図16は、サーバーが備えるCPUが有する機能の一例を示すブロック図である。図16に示す機能は、サーバー500が備えるCPU501が、ROM502またはHDD504に記憶された拡張現実情報管理プログラムを実行することにより、CPU501に形成される機能である。図16を参照して、CPU501は、基本情報登録要求受信部551と、基本情報登録部553と、基本情報送信要求受信部555と、基本情報抽出部557と、基本情報送信部559と、拡張現実情報登録要求受信部561と、拡張現実情報登録部563と、拡張現実情報送信要求受信部565と、拡張現実情報抽出部567と、拡張現実情報送信部569と、拡張現実情報更新要求受信部571と、拡張現実情報更新部573と、
を含む。
FIG. 16 is a block diagram illustrating an example of functions of a CPU included in the server. The functions illustrated in FIG. 16 are functions formed in the
including.
基本情報登録要求受信部551は、通信部505が基本情報登録装置として機能する携帯情報装置200が送信する基本情報登録要求を受信することに応じて、基本情報登録要求に含まれる基本情報を基本情報登録部553に出力する。基本情報登録部553は、基本情報をHDD504に記憶することにより基本情報を登録する。
The basic information registration
基本情報送信要求受信部555は、通信部505が拡張現実情報登録装置として機能するMFP100が送信する基本情報送信要求を受信することに応じて、基本情報送信要求に含まれる位置情報を基本情報抽出部557に出力する。基本情報抽出部557は、位置情報が入力されることに応じて、HDD504に記憶されている基本情報のうちから、基本情報送信要求に含まれる位置情報から所定の範囲内の位置を示す位置情報を含む基本情報を抽出する。基本情報抽出部557は、抽出された基本情報を基本情報送信部559に出力する。基本情報送信部559は、基本情報抽出部557によって抽出された基本情報を、基本情報送信要求を送信してきたMFP100に、通信部505を介して送信する。
Basic information transmission
拡張現実情報登録要求受信部561は、通信部505が拡張現実情報登録装置として機能するMFP100が送信する拡張現実情報登録要求を受信することに応じて、拡張現実情報登録要求に含まれる拡張現実情報を拡張現実情報登録部563に出力する。拡張現実情報登録部563は、拡張現実情報をHDD504に記憶することにより拡張現実情報を登録する。
The augmented reality information registration
拡張現実情報送信要求受信部565は、通信部505が拡張現実表示装置として機能する携帯情報装置200が送信する拡張現実情報送信要求を受信することに応じて、拡張現実情報送信要求に含まれる位置情報を拡張現実情報抽出部567に出力する。拡張現実情報抽出部567は、位置情報が入力されることに応じて、HDD504に記憶されている拡張現実情報のうちから、拡張現実情報送信要求に含まれる位置情報から所定の範囲内の位置を示す位置情報を含む拡張現実情報を抽出する。拡張現実情報抽出部567は、抽出された拡張現実情報を拡張現実情報送信部569に出力する。拡張現実情報送信部569は、拡張現実情報抽出部567によって抽出された拡張現実情報を、拡張現実情報送信要求を送信してきた携帯情報装置200に、通信部505を介して送信する。
The augmented reality information transmission
拡張現実情報更新要求受信部571は、通信部505が拡張現実表示装置として機能する携帯情報装置200が送信する拡張現実情報更新要求を受信することに応じて、HDD504に記憶されている拡張現実情報のうち拡張現実情報更新要求に含まれる拡張現現実情報と位置情報および関連情報が同じ拡張現実情報を、拡張現実情報更新要求に含まれる拡張現現実情報で更新する。具体的には、HDD504に記憶されている拡張現実情報のうち拡張現実情報更新要求に含まれる拡張現現実情報と位置情報および関連情報が同じ拡張現実情報を、拡張現実情報更新要求に含まれる拡張現現実情報で更新する。
The augmented reality information update
図17は、基本情報登録処理の流れの一例を示すフローチャートである。基本情報登録処理は、基本情報登録装置として機能する携帯情報装置200が備えるCPU201が、フラッシュメモリー203に記憶された基本情報登録プログラムを実行することにより、CPU201により実行される処理である。図17を参照して、CPU201は、カメラ202を制御して被写体を撮像する(ステップS01)。ユーザーが操作部207の備えるシャッターキーを指示すれば、CPU201はカメラ202に被写体を撮像させる。次のステップS02においては、カメラ202が出力する撮像画像を取得し、処理をステップS03に進める。ステップS03においては、カメラ202が被写体を撮像した時点に位置検出部209が出力する現在位置を示す位置情報を取得する。
FIG. 17 is a flowchart illustrating an example of the flow of basic information registration processing. The basic information registration process is a process executed by the
そして、基本情報を生成する(ステップS04)。ステップS02において取得された撮像画像を基本情報のコンテンツの項目に設定し、ステップS03において取得された位置情報を位置情報の項目に設定することにより、基本情報を生成する。 Then, basic information is generated (step S04). The basic information is generated by setting the captured image acquired in step S02 as a content item of basic information and setting the positional information acquired in step S03 as a positional information item.
次のステップS05においては、生成された基本情報をサーバー500に登録する。具体的には、基本情報を含む基本情報登録要求を、無線LANI/F208を介してサーバー500に送信する。
In the next step S05, the generated basic information is registered in the
例えば、ユーザーが携帯情報装置200を携帯し、会議室Aで、会議室Aに存在するホワイトボードを被写体として撮像すれば、そのホワイトボードを被写体とした撮像画像と、会議室Aの位置情報とを含む基本情報がサーバー500に登録される。
For example, if the user carries the
図18は、拡張現実情報登録処理の流れの一例を示すフローチャートである。拡張現実情報登録処理は、拡張現実情報登録装置として機能するMFP100が備えるCPU111が、ROM113、HDD115、CD−ROM118に記憶された拡張現実情報登録プログラムを実行することにより、CPU111により実行される処理である。図18を参照して、CPU111は、表示部161に二次元の地図を表示する(ステップS11)。インターネットに接続されたコンピューターからダウンロードした地図を表示する。また、HDD115に予め地図を記憶している場合には、その地図を表示するようにしてもよい。
FIG. 18 is a flowchart illustrating an example of the flow of the augmented reality information registration process. The augmented reality information registration process is a process executed by the
次のステップS12においては、位置の指定を受け付ける。位置を受け付けるまで待機状態となり(ステップS12でNO)、位置を受け付けると(ステップS12でYES)、処理をステップS13に進める。地図中でユーザーが操作部163を用いて指示する位置を、受け付ける。
In the next step S12, designation of the position is accepted. The process waits until a position is accepted (NO in step S12). If a position is accepted (YES in step S12), the process proceeds to step S13. A position indicated by the user using the
ステップS13においては、受け付けられた位置を示す位置情報を取得し、処理をステップS14に進める。ここでは、表示された地図中で、会議室Aの場所が指示される場合を例に説明する。この場合、会議室Aの地理的な位置を示す位置情報として、会議室Aの緯度と経度とを取得する。 In step S13, position information indicating the accepted position is acquired, and the process proceeds to step S14. Here, a case where the location of the conference room A is instructed in the displayed map will be described as an example. In this case, the latitude and longitude of the meeting room A are acquired as position information indicating the geographical position of the meeting room A.
ステップS14においては、ステップS13において取得された位置情報に対応する基本情報を取得する。具体的には、位置情報を含む基本情報送信要求を、通信I/F部112を介してサーバー500に送信する。基本情報送信要求を受信するサーバー500においては、サーバー500に登録されている基本情報のうち、基本情報送信要求に含まれる位置情報で特定される位置から所定の範囲内の位置を示す位置情報を含む基本情報を返信する。次のステップS15においては、無線LANI/F208がサーバー500から受信する基本情報を取得する。例えば、基本情報登録装置として機能する携帯情報装置200によってサーバー500に登録された基本情報であって、会議室Aの地理的な位置を示す位置情報を含み、ホワイトボードを被写体として撮像された背景画像を含む基本情報を取得する。
In step S14, basic information corresponding to the position information acquired in step S13 is acquired. Specifically, a basic information transmission request including position information is transmitted to
ステップS16においては、基本情報のコンテンツの項目に設定された背景画像を表示部161に表示する。これにより、ホワイトボードを被写体として撮像された背景画像が表示部161に表示される。そして、ユーザーにより指示される表示領域を受け付ける(ステップS17)。表示領域は、背景画像中の領域である。ユーザーが操作部163を操作して、表示部161に表示された背景画像中の一部を指示すれば、ユーザーにより指示された領域を、表示領域として受け付ける。表示領域は、点であってもよいし、任意の形状で囲まれた領域であってもよい。ここでは、表示領域を矩形の領域としている。ユーザーが背景画像内の被写体の一部を指示すれば、被写体を含む矩形の領域を表示領域として受け付けるようにしてもよい。
In step S16, the background image set in the content item of the basic information is displayed on the
ステップS18においては、原稿読取指示を受け付けたか否かを判断する。操作部163が、ユーザーにより入力される原稿読取指示を検出すると、原稿読取指示を受け付ける。原稿読取指示を受け付けたならば処理をステップS19に進めるが、そうでなければ処理をステップS21に進める。ステップS19においては、原稿読取部130に原稿を読み取らせる。そして、原稿を読み取って得られる画像を関連情報に設定し(ステップS20、処理をステップS25に進める。
In step S18, it is determined whether a document reading instruction has been accepted. When
ステップS21においては、文字が入力されたか否かを判断する。操作部163が、ユーザーにより入力される文字を検出すると、文字が入力されたと判断する。文字が入力されたならば処理をステップS22に進めるが、そうでなければ処理をステップS23に進める。ステップS22においては、操作部163が検出する文字列を関連情報に設定し、処理をステップS25に進める。
In step S21, it is determined whether or not a character has been input. When
ステップS23においては、データの指定を受け付けたか否かを判断する。操作部163が、ユーザーにより入力されるデータを指定する操作を検出すると、データの指定を受け付ける。データの指定を受け付けたならば処理をステップS24に進めるが、そうでなければ処理をステップS19に戻す。ステップS24においては、HDD115に記憶されたデータのうちユーザーにより指定されたデータを関連情報偽ってし、処理をステップS25に進める。HDD115に記憶されるデータは、別のコンピューターで作成された文書または図形等のデータ、デジタルカメラで撮像して得られる写真等のデータ、インターネットに接続されたサーバーからダウンロードされたデータを含む。ここでは、ユーザーが、会議で使用するために発表用のデータの画像が形成された用紙を原稿とし、原稿読取部130に読み取らせ、原稿読取部130が出力する画像を関連情報とする場合を例に説明する。
In step S23, it is determined whether designation of data has been accepted. When the
ステップS25においては、関連情報をプレビュー表示する。具体的には、ステップS16において表示部161に表示された背景画像中のステップS17において受け付けられた表示領域に、ステップS20、ステップS22およびステップS24のいずれかで設定された関連情報の画像を表示する。ステップS26においては、ユーザーによる許可を受け付けたか否かを判断する。許可を受け付けたならば(ステップS26でYES)、処理をステップS28に進めるが、そうでなければ(ステップS26でNO)、処理をステップS27に進める。ステップS27においては、表示領域の修正を受け付け、処理をステップS25に戻す。処理がステップS27からステップS25に進む場合、ステップS25においては、ステップS27において修正された後の表示領域に、関連情報の画像を表示する。
In step S25, the related information is displayed as a preview. Specifically, the image of the related information set in any of step S20, step S22, and step S24 is displayed in the display area accepted in step S17 in the background image displayed on
ステップS28においては、拡張現実情報を生成し、処理をステップS29に進める。ステップS14において取得された基本情報に含まれる位置情報および背景画像それぞれを位置情報の項目およびコンテンツの項目に設定し、ステップS20、ステップS22およびステップS24のずれかで設定された関連情報を関連情報の項目に設定し、ステップS17において受け付けられた表示領域を領域情報の項目に設定することによって、拡張現実情報を生成する。 In step S28, augmented reality information is generated, and the process proceeds to step S29. Each of the position information and the background image included in the basic information acquired in step S14 is set in the position information item and the content item, and the related information set by the shift between step S20, step S22 and step S24 is related information. The augmented reality information is generated by setting the display area received in step S17 as the area information item.
次のステップS29においては、生成された拡張現実情報をサーバー500に登録し、処理を終了する。具体的には、拡張現実情報を含む拡張現実情報登録要求を、無線LANI/F208を介してサーバー500に送信する。
In the next step S29, the generated augmented reality information is registered in the
図19は、拡張現実情報管理処理の流れの一例を示すフローチャートである。拡張現実情報管理処理は、サーバー500が備えるCPU501が、ROM502またはHDD504に記憶された拡張現実情報管理プログラムを実行することにより、CPU501により実行される処理である。図19を参照して、CPU501は、基本情報登録要求を受信したか否かを判断する(ステップS71)。通信部505が基本情報登録装置として機能する携帯情報装置200から基本情報登録要求を受信したならば処理をステップS72に進めるが、そうでなければ処理をステップS73に進める。ステップS72においては、受信された基本情報登録要求に含まれる基本情報をHDD504に記憶することにより基本情報を登録し、処理をステップS73に進める。
FIG. 19 is a flowchart illustrating an example of the flow of the augmented reality information management process. The augmented reality information management process is a process executed by the
ステップS73においては、基本情報送信要求を受信したか否かを判断する。通信部505が拡張現実情報生成装置として機能するMFP100から基本情報送信要求を受信したならば処理をステップS74に進めるが、そうでなければ処理をステップS77に進める。ステップS74においては、受信された基本情報送信要求に含まれる位置情報を取得する。そして、HDD504に記憶されている基本情報のうちから、取得された位置情報で定まる位置から所定の範囲内の位置を示す位置情報を含む基本情報を抽出する(ステップS75)。ステップS76においては、抽出された基本情報を基本情報送信要求を送信してきたMFP100に、通信部505を介して送信し、処理をステップS77に進める。
In step S73, it is determined whether a basic information transmission request has been received. If
ステップS77においては、拡張現実情報登録要求を受信したか否かを判断する。通信部505が拡張現実情報生成装置として機能するMFP100から拡張現実情報登録要求を受信したならば処理をステップS78に進めるが、そうでなければ処理をステップS79に進める。ステップS78においては、受信された拡張現実情報登録要求に含まれる拡張現実情報をHDD504に記憶することにより拡張現実情報を登録し、処理をステップS79に進める。
In step S77, it is determined whether an augmented reality information registration request is received. If
ステップS79においては、拡張現実情報送信要求を受信したか否かを判断する。通信部505が拡張現実表示装置として機能する携帯情報装置200から拡張現実情報送信要求を受信したならば処理をステップS80に進めるが、そうでなければ処理をステップS83に進める。
In step S79, it is determined whether an augmented reality information transmission request is received. If
ステップS80においては、受信された拡張現実情報送信要求に含まれる拡張現実情報の位置情報の項目に設定された位置情報を取得する。そして、HDD504に記憶されている拡張現実情報のうちから、取得された位置情報で定まる位置から所定の範囲内の位置を示す位置情報を含む拡張現実情報を抽出する(ステップS81)。 In step S80, the position information set in the item of position information of the augmented reality information included in the received augmented reality information transmission request is acquired. Then, the augmented reality information including the position information indicating the position within a predetermined range from the position determined by the acquired position information is extracted from the augmented reality information stored in the HDD 504 (step S81).
次のステップS82においては、抽出された拡張現実情報を拡張現実情報送信要求を送信してきた携帯情報装置200に、通信部505を介して送信し、処理をステップS83に進める。
In the next step S82, the extracted augmented reality information is transmitted to the
ステップS83においては、拡張現実情報更新要求を受信したか否かを判断する。通信部505が拡張現実表示装置として機能する携帯情報装置200から拡張現実情報更新要求を受信したならば処理をステップS84に進めるが、そうでなければ処理を終了する。ステップS84においては、拡張現実情報更新要求で特定される拡張現実情報を更新し、処理を終了する。具体的には、HDD504に記憶されている拡張現実情報のうち拡張現実情報更新要求に含まれる拡張現現実情報と位置情報および関連情報が同じ拡張現実情報を、拡張現実情報更新要求に含まれる拡張現現実情報で更新する。
In step S83, it is determined whether an augmented reality information update request has been received. If
図20は、拡張現実表示処理の流れの一例を示すフローチャートである。拡張現実表示処理は、携帯情報装置200が備えるCPU201が、フラッシュメモリー203に記憶された拡張現実表示プログラムを実行することにより、CPU201により実行される処理である。図20を参照して、CPU201は、カメラ202を制御して被写体を撮像する(ステップS31)。ユーザーが操作部207の備えるシャッターキーを指示すれば、CPU201はカメラ202に被写体を撮像させる。被写体を撮像するまで待機状態となり(ステップS31でNO)、被写体を撮像したならば(ステップS31でYES)、処理をステップS32に進める。ステップS32においては、カメラ202が出力する撮像画像を取得し、処理をステップS33に進める。ステップS33においては、撮像方向を取得する。方位検出部210を制御して、方位検出部210にカメラ202の撮像方向を検出させる。次のステップS34においては、位置検出部209を制御して、カメラ202が被写体を撮像した時点に位置検出部209が出力する現在位置を示す位置情報を取得する。
FIG. 20 is a flowchart illustrating an example of the flow of the augmented reality display process. The augmented reality display process is a process executed by the
そして、拡張現実情報を取得する(ステップS35)。ステップS34において取得された位置情報を含む拡張現実情報送信要求を、無線LANI/F208を介してサーバー500に送信し、サーバー500が返信する拡張現実情報を取得する。
And augmented reality information is acquired (step S35). The augmented reality information transmission request including the position information acquired in step S34 is transmitted to the
なお、拡張現実情報送信要求に、現在位置を示す位置情報に加えてカメラ202の撮像方向を含めるようにし、サーバー500において、現在位置および取得された方位で定まる範囲内の位置を示す位置情報が定められた拡張現実情報を抽出するようにしてもよい。カメラ202の撮像方向は、方位検出部210を制御し、方位検出部210にカメラ202の撮像方向を検出させ、方位検出部210がカメラ202が撮像した時点で出力する方位を取得する。また、ステップS35において複数の拡張現実情報を取得する場合、複数の拡張現実情報を取得した後に、携帯情報装置200のカメラ202の撮像方向を変更することによって、ステップS35において取得された複数の拡張現実情報のうちから、現在位置および取得された方位で定まる範囲内の位置を示す位置情報が定められた拡張現実情報を抽出するようにしてもよい。
The augmented reality information transmission request includes the imaging direction of the
次のステップS36においては、ステップS31において撮像され、ステップS32において取得された撮像画像の被写体と、拡張現実情報に含まれる背景画像の被写体とが一致するか否かを判断する。撮像画像と背景画像とのそれぞれから特徴的な形状を抽出し、撮像画像の特徴的な形状と同一または相似の形状が背景画像の特徴的な形状に含まれていれば、撮像画像と拡張現実情報の被写体が同一と判断する。例えば、画像を2値化した2値化画像または画像を微分したエッジ画像を生成することにより、画像中に含まれる被写体の輪郭を抽出することができる。抽出された輪郭の形状を特徴的な形状として抽出すればよい。特徴的な形状が同一か否かは、サイズが異なる場合があるので、相似の場合を含む。 In the next step S36, it is determined whether or not the subject of the captured image captured in step S31 and acquired in step S32 matches the subject of the background image included in the augmented reality information. If a characteristic shape is extracted from each of the captured image and the background image and the same or similar shape as the characteristic shape of the captured image is included in the characteristic shape of the background image, the captured image and the augmented reality It is determined that the information subject is the same. For example, by generating a binarized image obtained by binarizing the image or an edge image obtained by differentiating the image, the contour of the subject included in the image can be extracted. What is necessary is just to extract the shape of the extracted outline as a characteristic shape. Whether the characteristic shapes are the same or not includes a similar case because the sizes may be different.
ステップS36において、被写体を同一と判断する場合は処理をステップS37に進め、そうでなければ処理をステップS44に進める。ステップS44においては、撮像画像を表示部161に表示し、処理をステップS43に進める。
If it is determined in step S36 that the subject is the same, the process proceeds to step S37; otherwise, the process proceeds to step S44. In step S44, the captured image is displayed on
ステップS37においては、撮像画像中の現実表示領域を特定する。具体的には、拡張現実情報の領域情報の項目に設定された領域情報に基づいて、拡張現実情報のコンテンツの項目に設定された背景画像中の被写体に対する相対位置を特定し、撮像画像中の被写体を基準にして、特定された相対位置に存在する領域を現実表示領域に決定する。 In step S37, the actual display area in the captured image is specified. Specifically, based on the area information set in the area information item of augmented reality information, the relative position with respect to the subject in the background image set in the content item of augmented reality information is specified, and An area present at the specified relative position is determined as an actual display area with reference to the subject.
次のステップS38においては、撮像画像に、特定された撮像画像中の現実表示領域に関連情報の画像を合成した合成画像を生成する。次のステップS39においては、表示部161に、生成された合成画像を表示し、処理をステップS40に進める。
In the next step S38, a synthesized image is generated by synthesizing the captured image with the related information image in the actual display area in the identified captured image. In the next step S39, the generated composite image is displayed on the
ステップS40においては、相違部分判断処理を実行する。相違部分判断処理の詳細は後述するが、撮像画像と背景画像とで相違する部分が存在するか否かを判断する処理である。次のステップS41においては、相違部分判断処理の結果によって処理を分岐させる。相違部分が存在すると判断された場合には処理をステップS42に進めるが、そうでなければ処理をステップS43に進める。 In step S40, a different portion determination process is executed. Although the details of the different part determination process will be described later, it is a process of determining whether or not there is a different part between the captured image and the background image. In the next step S41, the process is branched depending on the result of the different portion determination process. If it is determined that a different part exists, the process proceeds to step S42; otherwise, the process proceeds to step S43.
ステップS42においては、拡張現実情報を更新し、処理をステップS43に進める。具体的には、ステップS35において取得された拡張現実情報のコンテンツの項目を、ステップS32において取得された撮像画像で更新し、領域情報の項目をステップS37において特定された現実表示領域で更新し、更新後の拡張現実情報を含む拡張現実情報更新要求を無線LANI/F208を介して、サーバー500に送信する。
In step S42, the augmented reality information is updated, and the process proceeds to step S43. Specifically, the content item of augmented reality information acquired in step S35 is updated with the captured image acquired in step S32, and the item of region information is updated with the actual display region specified in step S37. An augmented reality information update request including the augmented reality information after update is transmitted to the
ステップS43においては、拡張現実表示処理を終了する指示を受け付けたか否かを判断する。終了指示を受け付けたならば処理を終了するが、そうでなければ処理をステップS31に戻す。 In step S43, it is determined whether an instruction to end the augmented reality display process has been received. If an end instruction is accepted, the process ends. If not, the process returns to step S31.
また、ステップS36において、被写体が同一と判断される拡張現実情報が複数存在する場合は、ステップS37において、複数の拡張現実情報それぞれの関連情報の画像を、合成した合成画像を表示し、ユーザーが複数の関連情報の画像のうちから選択する場合に、選択された1つの関連情報の画像のみを合成した合成画像を表示するようにすればよい。また、ステップS42においては、複数の拡張現実情報それぞれに対する拡張現実情報更新要求を、サーバー500に送信するようにすればよい。
If there are a plurality of augmented reality information in which the subject is determined to be the same in step S36, in step S37, a composite image obtained by synthesizing the related information images of the plurality of augmented reality information is displayed. When selecting from a plurality of related information images, a combined image obtained by combining only the selected one related information image may be displayed. In step S42, an augmented reality information update request for each of the plurality of augmented reality information may be transmitted to the
図21は、相違部分判断処理の流れの一例を示すフローチャートである。相違部分判断処理は、図20のステップS40で実行される処理である。図21を参照して、CPU201は、撮像画像を複数の部分画像に分割する(ステップS51)。分割数は限定するものではないが、縦および横それぞれで複数に等分するのが好ましい。
FIG. 21 is a flowchart illustrating an example of the flow of the different portion determination process. The different portion determination process is a process executed in step S40 of FIG. Referring to FIG. 21,
そして、複数の部分画像の1つを処理対象に選択する(ステップS52)。次のステップS53においては、処理対象の部分画像を背景画像の少なくとも一部と比較する。例えば、部分画像と背景画像の少なくとも一部を、パターンマッチングすることにより、比較する。そして、比較の結果によって処理を分岐させる(ステップS54)。背景画像が部分画像と同一または類似する部分を含む場合、処理をステップS55に進めるが、そうでなければ処理をステップS56に進める。ステップS55においては、処理対象の部分画像に「類似」を設定し、処理をステップS57に進め、ステップS56においては、処理対象の部分画像に「非類似」を設定し、処理をステップS57に進める。ステップS57においては、処理対象に選択されていない部分画像が存在するか否かを判断する。未処理の部分画像が存在すれば処理をステップS52に戻すが、そうでなければ処理をステップS58に進める。以下、「類似」に設定された部分画像を類似部分といい、「非類似」に設定された部分画像を非類似部分という。 Then, one of the plurality of partial images is selected as a processing target (step S52). In the next step S53, the partial image to be processed is compared with at least a part of the background image. For example, at least a part of the partial image and the background image are compared by pattern matching. Then, the process branches depending on the comparison result (step S54). If the background image includes the same or similar part as the partial image, the process proceeds to step S55; otherwise, the process proceeds to step S56. In step S55, “similar” is set for the partial image to be processed, and the process proceeds to step S57. In step S56, “not similar” is set for the partial image to be processed, and the process proceeds to step S57. . In step S57, it is determined whether there is a partial image that is not selected as a processing target. If there is an unprocessed partial image, the process returns to step S52; otherwise, the process proceeds to step S58. Hereinafter, a partial image set to “similar” is referred to as a similar portion, and a partial image set to “dissimilar” is referred to as a dissimilar portion.
ステップS58においては、相違部分が存在するか否かを判断する。具体的には、複数の部分画像のうちに類似部分に囲まれる非類似部分が存在する場合に、その非類似部分を相違部分と判断する。相違部分が存在すると判断する場合は処理をS59に進め、そうでなければ処理をステップS60に進める。ステップS59においては、相違部分有に決定し、処理を拡張現実表示処理に戻し、ステップS60においては、相違部分無しに決定し、処理を拡張現実表示処理に戻す。 In step S58, it is determined whether there is a different portion. Specifically, when a dissimilar part surrounded by a similar part exists in a plurality of partial images, the dissimilar part is determined as a different part. If it is determined that a different portion exists, the process proceeds to S59; otherwise, the process proceeds to step S60. In step S59, it is determined that there is a different part, and the process returns to the augmented reality display process. In step S60, it is determined that there is no different part, and the process returns to the augmented reality display process.
<変形例>
上述した実施の形態においては、拡張現実表示装置の一例として携帯情報装置200を例に説明したが、HMD400を拡張現実表示装置として機能させるようにしてもよい。この場合、HMD400が備えるCPU401は、図8に示した携帯情報装置200が備えるCPU201が有する機能と同様の機能を有するが、表示制御部257が異なる。
<Modification>
In the embodiment described above, the
HMD400が備えるCPU401が有する表示制御部257は、撮像制御部259から撮像画像が入力されることに応じて、撮像画像を表示部206に表示することなく、拡張現実情報取得部255から入力される拡張現実情報に基づいて、拡張現実情報に含まれる関連情報の項目に設定された関連情報を表示部404に表示する。HMD400を装着するユーザーは、撮像画像と同じ画像を、表示部404の表示面を通して実際に見ている。このため、現実表示領域決定部258によって撮像画像中で決定された現実表示領域に対応する領域を表示部404の表示面中で特定し、表示部404の表示面中で特定した領域に関連情報の画像を表示する。
The
ここで、HMD400を装着するユーザーが、会議室Aにおいてホワイトボードを目視すれば、ホワイトボードがカメラ402の被写体となる。この場合、会議室Aの位置を示す位置情報が位置情報の項目に設定され、ホワイトボードを被写体にして撮像された背景画像がコンテンツの項目に設定され、会議の資料である画像が関連情報に設定され、背景画像中のホワイトボードの描画面の全体を含む領域が領域情報の項目に設定された拡張現実情報がサーバー500から受信される。そして、表示部404に関連情報である会議の資料の画像が表示されると、ユーザーは、表示部404の表示面を透過して見るホワイトボードの描画面に、表示部404の表示面に表示された会議の資料の画像を見ることになる。
Here, if the user wearing the
また、変形例においては、HMD400が備えるCPU401は、図20に示した拡張現実表示処理を実行するが、ステップS38、ステップS39およびステップS41が異なる。HMD400が備えるCPU401は、ステップS38において、合成画像を生成することなく、ステップS37において特定された撮像画像中の現実表示領域に対応する表示部404の表示面中の領域を特定する。そして、次のステップS39において、特定された表示部404の表示面中の領域に、関連情報の画像を表示し、処理をステップS40に進める。また、ステップS44においては、何も表示することなく、処理をステップS40に進める。
In the modification, the
以上説明したように、本実施の形態における携帯情報装置200は、拡張現実表示装置として機能し、被写体を撮像して得られる撮像画像(第1の画像)中の被写体と同一の被写体を有する背景画像(第2の画像)を含む拡張現実情報を、サーバー500から取得し、撮像画像中の被写体に対する相対位置が、背景画像中の被写体と表示領域との相対位置と同じ関係となる現実表示領域を決定し、現実表示領域に関連情報を表示する。このため、拡張現実情報によって撮像画像中の被写体に関連付けられた関連情報を、撮像画像中の被写体に対して定められた相対的な位置に、表示するので、撮像画像中の被写体に関連する情報を、その被写体に対して予め定められた位置に表示することができる。
As described above,
また、背景画像と撮像画像とで異なる相違部分を抽出する場合、拡張現実情報の背景画像を撮像画像で更新するので、ユーザーに通知するので、撮像画像中で被写体とは異なる部分、例えば、背景等が変化した後に、拡張現実情報に含まれる画像を最新の状態に更新することができる。 In addition, when a different portion that is different between the background image and the captured image is extracted, the background image of the augmented reality information is updated with the captured image, so that the user is notified. Etc., the image included in the augmented reality information can be updated to the latest state.
また、背景画像と撮像画像とで異なる相違部分を抽出する場合、ユーザーに通知するので、被写体とは異なる部分、例えば、背景等が変化したことをユーザーに通知することができる。また、拡張現実情報に含まれる画像が最新の状態に更新されることをユーザーに通知することができる。 Further, when a different portion that is different between the background image and the captured image is extracted, the user is notified, so that the user can be notified that a portion different from the subject, for example, the background or the like has changed. Further, it is possible to notify the user that the image included in the augmented reality information is updated to the latest state.
さらに、撮像画像(第1の画像)の一部を、拡張現実情報に含まれる背景画像(第2の画像)の少なくとも一部と比較することによって、背景画像と撮像画像とで異なる相違部分を抽出するので、撮像画像および背景画像それぞれの全体が一致しなくても、被写体が同一か否かを判断することができる。 Further, by comparing a part of the captured image (first image) with at least a part of the background image (second image) included in the augmented reality information, a different part that differs between the background image and the captured image is obtained. Since extraction is performed, it is possible to determine whether or not the subject is the same even if the entire captured image and background image do not match.
さらに、撮像画像を分割した複数の部分画像それぞれを背景画像の一部と比較し、複数の部分画像のうち背景画像の一部と類似する複数の部分画像に囲まれた部分画像であって、背景画像の一部と類似しない部分画像を相違部分に決定するので、撮像画像と背景画像とが、被写体が同一であるが、全体として異なることを判別することができる。 Further, each of the plurality of partial images obtained by dividing the captured image is compared with a part of the background image, and is a partial image surrounded by a plurality of partial images similar to a part of the background image among the plurality of partial images, Since a partial image that is not similar to a part of the background image is determined as a different portion, it can be determined that the captured image and the background image are the same subject but different as a whole.
さらに、背景画像中の被写体の地理的な位置が、被写体を撮像する時点における地理的な位置から所定の範囲に存在する拡張現実情報を取得するので、複数の拡張現実情報のうちから処理対象となる拡張現実情報を絞り込むことができ、背景画像中の被写体と同一の被写体を有する背景画像を含む拡張現実情報の取得が容易となる。 Furthermore, since the augmented reality information in which the geographical position of the subject in the background image exists within a predetermined range from the geographical position at the time of capturing the subject is acquired, the processing target is selected from a plurality of augmented reality information. The augmented reality information can be narrowed down, and the augmented reality information including the background image having the same subject as the subject in the background image can be easily obtained.
また、現在位置が取得できない場合であっても、撮像画像中の被写体と、背景画像中の被写体とを比較すれば、複数の拡張現実情報のうちから背景画像中の被写体と同一の被写体を有する背景画像を含む拡張現実情報を抽出することができる。このため、携帯情報装置が、GPS衛星からの信号を受信できない場所に位置する場合であっても、拡張現実情報を取得することができる。 Even when the current position cannot be obtained, if the subject in the captured image is compared with the subject in the background image, the subject in the background image is the same as the subject in the background image from among a plurality of augmented reality information. Augmented reality information including a background image can be extracted. For this reason, even if it is a case where a portable information device is located in the place which cannot receive the signal from a GPS satellite, augmented reality information can be acquired.
また、撮像画像に関連情報を重畳した合成画像を生成し、表示するので、撮像画像中で被写体に関連情報を関連付けることができる。 In addition, since the composite image in which the related information is superimposed on the captured image is generated and displayed, the related information can be associated with the subject in the captured image.
また、HMD400が拡張現実表示装置として機能する場合、カメラ402で被写体を撮像した撮像画像(第1の画像)に基づいて、表示部404の表示面中で現実表示領域が決定され、関連情報を、表示部404の表示面中の現実表示領域に表示するので、ユーザーが表示部404の表示面を透過して視認する被写体に関連付けて関連情報を表示することができる。
When the
さらに、本実施の形態におけるサーバー500は、拡張現実情報を記憶し、拡張現実表示装置として機能する携帯情報装置200は、サーバー500から拡張現実情報を取得する。このため、携帯情報装置200のユーザーは、そのユーザーとは別のユーザーによりサーバー500に登録された拡張現実情報に含まれる関連情報を閲覧することができる。
Further, the
また、本実施の形態における拡張現実表示システム1においては、基本情報登録装置として機能する携帯情報装置200によって基本情報がサーバー500に登録され、拡張現実情報登録装置として機能するMFP100によって基本情報に関連情報と領域情報とを追加した拡張現実情報が登録される。このため、拡張現実表示装置として機能する携帯情報装置200は、それを使用するユーザー本人または、そのユーザーとは別のユーザーがMFP100を操作して登録した関連情報を、表示することができる。したがって、任意のユーザーにより登録された関連情報を被写体と関連付けて表示することができる。
In the augmented
MFP100は、原稿読取部130が原稿を読み取った画像データを関連情報とした拡張現実情報を登録することができる。
The
さらに、MFP100は、HDD115に記憶されたデータまたはネットワーク2に接続されたコンピューターに記憶されたデータのうちからユーザーにより指定されたデータを関連情報とした拡張現実情報を登録することができる。
Further, the
なお、上述した実施の形態においては、拡張現実情報表示装置の一例として携帯情報装置200を例に説明したが、図20および図21に示した拡張現実表示処理を携帯情報装置200に実行させる拡張現実情報表示方法、またはその拡張現実情報表示方法を携帯情報装置200が備えるCPU201に実行させる拡張現実情報表示プログラムとして、発明を特定することができるのは言うまでもない。
In the above-described embodiment, the
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1 拡張現実表示システム、2 ネットワーク、3 無線局、100 MFP、200,200A,200B 携帯情報装置、300 PC、400 HMD、500 サーバー、110 メイン回路、111 CPU、112 通信I/F部、113 ROM、114 RAM、115 HDD115 ファクシミリ部、117 外部記憶装置、118 CD−ROM、120 自動原稿搬送装置、130 原稿読取部、140 画像形成部、150 給紙部、155 後処理部、160 操作パネル、161 表示部、163 操作部、201 CPU、202 カメラ、203 フラッシュメモリー、204 無線通信部、205 通話部、206 表示部、207 操作部、208 無線LANI/F、209 位置検出部、210 方位検出部、211 外部記憶装置、401 CPU、402 カメラ、403 フラッシュメモリー、404 表示部、405 無線LANI/F、501 CPU、502 ROM、503 RAM、504 HDD、505 通信部、506 表示部、507 操作部、51 生成側コンテンツ取得部、53 領域決定部、55 関連情報取得部、57 拡張現実情報生成部、59 登録部、61 位置受付部、63 基本情報取得部、65 生成側コンテンツ表示部、67 表示領域受付部、69 プレビュー部、71 入力受付部、73 原稿読取制御部、75 データ取得部、251 撮像制御部、253 位置取得部、255 拡張現実情報取得部、257 表示制御部、258 現実表示領域決定部、259 撮像制御部、261 位置基準取得部、263 被写体基準取得部、271 相違部分抽出部、273 処理実行部、275 通知部、277 更新制御部、281 分割部、283 比較部、285 相違部分決定部、287 基本情報登録部、551 基本情報登録要求受信部、553 基本情報登録部、555 基本情報送信要求受信部、557 基本情報抽出部、559 基本情報送信部、561 拡張現実情報登録要求受信部、563 拡張現実情報登録部、565 拡張現実情報送信要求受信部、567 拡張現実情報抽出部、569 拡張現実情報送信部。
1 augmented reality display system, 2 network, 3 wireless station, 100 MFP, 200, 200A, 200B portable information device, 300 PC, 400 HMD, 500 server, 110 main circuit, 111 CPU, 112 communication I / F unit, 113 ROM 114 RAM, 115 HDD 115 Facsimile unit, 117 External storage device, 118 CD-ROM, 120 Automatic document feeder, 130 Document reading unit, 140 Image forming unit, 150 Paper feed unit, 155 Post-processing unit, 160 Operation panel, 161 Display unit, 163 operation unit, 201 CPU, 202 camera, 203 flash memory, 204 wireless communication unit, 205 call unit, 206 display unit, 207 operation unit, 208 wireless LAN I / F, 209 position detection unit, 210 direction detection unit, 211 External storage device, 401 CPU , 402 Camera, 403 Flash memory, 404 Display unit, 405 Wireless LAN I / F, 501 CPU, 502 ROM, 503 RAM, 504 HDD, 505 Communication unit, 506 Display unit, 507 Operation unit, 51 Production-side content acquisition unit, 53 Area determination unit, 55 related information acquisition unit, 57 augmented reality information generation unit, 59 registration unit, 61 position reception unit, 63 basic information acquisition unit, 65 generation content display unit, 67 display region reception unit, 69 preview unit, 71 Input receiving unit, 73 Document reading control unit, 75 Data acquisition unit, 251 Imaging control unit, 253 Position acquisition unit, 255 Augmented reality information acquisition unit, 257 Display control unit, 258 Reality display area determination unit, 259 Imaging control unit, 261 Position reference acquisition unit, 263 subject reference acquisition unit, 271 different part extraction unit, 273 process execution unit, 275 notification unit, 277 update control unit, 281 division unit, 283 comparison unit, 285 different part determination unit, 287 basic information registration unit, 551 basic information registration request reception unit, 553 basic information registration unit, 555 basic information transmission request reception unit 557 Basic information extraction unit, 559 Basic information transmission unit, 561 Augmented reality information registration request reception unit, 563 Augmented reality information registration unit, 565 Augmented reality information transmission request reception unit, 567 Augmented reality information extraction unit, 568 Augmented reality information transmission Department.
Claims (15)
前記取得された第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報を取得する拡張現実情報取得手段と、
前記拡張現実情報は、前記第2の画像に加えて、前記第2の画像中の被写体に対して相対的な位置で定まる表示領域を示す領域情報と、前記被写体に関連する関連情報とを含み、
前記第1の画像中の被写体に対する相対位置が、前記第2の画像中の被写体と前記表示領域との相対位置と同じ関係となる現実表示領域を決定する現実表示領域決定手段と、
前記決定された現実表示領域に前記拡張現実情報に含まれる前記関連情報を表示する表示制御手段と、
前記第2の画像と前記第1の画像とで異なる相違部分を抽出する相違部分抽出手段と、
前記相違部分抽出手段により相違部分が抽出される場合、予め定められた処理を実行する処理実行手段と、を備えた拡張現実表示装置。 Imaging means for imaging a subject and outputting a first image;
Augmented reality information obtaining means for obtaining augmented reality information including a second image having the same subject as the subject in the obtained first image;
The augmented reality information includes, in addition to the second image, region information indicating a display region determined at a position relative to the subject in the second image, and related information related to the subject. ,
A real display area determining means for determining a real display area whose relative position with respect to the subject in the first image is the same as the relative position between the subject in the second image and the display area;
Display control means for displaying the related information included in the augmented reality information in the determined reality display area;
A different part extracting means for extracting different parts different between the second image and the first image;
An augmented reality display device comprising: a process execution unit that executes a predetermined process when a different part is extracted by the different part extraction unit.
前記複数の部分画像それぞれを前記第2の画像の一部と比較する比較手段と、
前記複数の部分画像のうち前記第2の画像の一部と類似する複数の部分画像に囲まれた部分画像であって、前記第2の画像の一部と類似しない部分画像を相違部分に決定する相違部分決定手段と、を含む、請求項4に記載の拡張現実表示装置。 The different part extracting means includes a dividing means for dividing the first image into a plurality of partial images;
Comparing means for comparing each of the plurality of partial images with a portion of the second image;
Of the plurality of partial images, a partial image surrounded by a plurality of partial images similar to a part of the second image and a partial image not similar to a part of the second image is determined as a different part. The augmented reality display device according to claim 4, further comprising: a different-part determining unit.
前記拡張現実表示装置が現実に存在する地理的な位置を現在位置として取得する位置取得手段をさらに備え、
前記拡張現実情報取得手段は、前記取得された現在位置に基づいて前記取得された現在位置から所定の範囲内の地理的な位置に関連付けられた拡張現実情報を取得する位置基準取得手段をさらに含む、請求項1〜5のいずれかに記載の拡張現実表示装置。 The augmented reality information further includes position information indicating a geographical position,
The augmented reality display device further includes position acquisition means for acquiring a geographical position where the augmented reality display device actually exists as a current position,
The augmented reality information acquisition means further includes a position reference acquisition means for acquiring augmented reality information associated with a geographical position within a predetermined range from the acquired current position based on the acquired current position. An augmented reality display device according to any one of claims 1 to 5.
前記表示制御手段は、前記拡張現実情報に含まれる前記関連情報を前記第1の画像に重畳した合成画像を生成する合成画像生成手段を含み、
前記生成された合成画像を前記表示手段に表示する、請求項1〜7のいずれかに記載の拡張現実表示装置。 It further comprises display means for displaying an image,
The display control means includes composite image generation means for generating a composite image in which the related information included in the augmented reality information is superimposed on the first image,
The augmented reality display device according to claim 1, wherein the generated composite image is displayed on the display unit.
前記現実表示領域決定手段は、前記撮像手段が出力する前記第1の画像に基づいて、表示手段の表示面中で現実表示領域を決定し、
前記表示制御手段は、前記拡張現実情報に含まれる関連情報を、前記表示手段の表示面中の現実形態表示領域に表示する、請求項1〜7のいずれかに記載の拡張現実表示装置。 Arranged at a position determined with reference to the optical axis of the imaging means, further comprising a transmissive display means,
The actual display area determining means determines the actual display area on the display surface of the display means based on the first image output by the imaging means,
The augmented reality display device according to any one of claims 1 to 7, wherein the display control means displays related information included in the augmented reality information in an actual form display area in a display surface of the display means.
前記拡張現実情報取得手段は、前記サーバーから前記拡張現実情報を取得する、請求項1〜9のいずれかに記載の拡張現実表示装置。 A communication control means capable of communicating with the server storing the augmented reality information;
The augmented reality display device according to claim 1, wherein the augmented reality information acquisition unit acquires the augmented reality information from the server.
前記基本情報登録装置は、被写体を撮像し、画像を出力する基本撮像手段と、
前記基本情報登録装置が現実に存在する地理的な位置を現在位置として取得する基本位置取得手段と、
前記基本撮像手段が被写体を撮像して出力する画像を第2の画像とし、当該第2の画像と前記基本位置取得手段により取得された現在位置とを含む基本情報を前記サーバーに登録する基本情報登録手段を、備え、
前記拡張現実情報登録装置は、地理的な位置の指定を受け付ける位置受付手段と、
前記受け付けられた地理的な位置が所定の範囲内となる位置情報を含む基本情報を前記サーバーから取得する基本情報取得手段と、
前記取得された基本情報に含まれる第2の画像を表示する生成側表示手段と、
前記第2の画像中の表示領域の指定を受け付ける表示領域受付手段と、
関連情報を取得する関連情報取得手段と、
前記取得された関連情報と、前記表示領域受付手段により受け付けられた表示領域を示す領域情報とを前記基本情報に追加した拡張現実情報を生成する拡張現実情報生成手段と、
前記サーバーに前記生成された拡張現実情報を登録する登録手段と、を備えた拡張現実表示システム。 An augmented reality display system comprising the augmented reality display device according to claim 10 and a basic information registration device and an augmented reality information registration device capable of communicating with the server,
The basic information registration device includes a basic imaging unit that images a subject and outputs an image;
Basic position acquisition means for acquiring the geographical position where the basic information registration device actually exists as a current position;
The basic information for registering basic information including the second image and the current position acquired by the basic position acquisition unit in the server is an image output by the basic imaging unit imaging the subject. A registration means,
The augmented reality information registration device includes a position receiving unit that receives designation of a geographical position;
Basic information acquisition means for acquiring, from the server, basic information including position information in which the received geographical position is within a predetermined range;
Generation-side display means for displaying a second image included in the acquired basic information;
Display area accepting means for accepting designation of a display area in the second image;
Related information acquisition means for acquiring related information;
Augmented reality information generating means for generating augmented reality information in which the acquired related information and area information indicating the display area received by the display area receiving means are added to the basic information;
An augmented reality display system comprising: registration means for registering the generated augmented reality information in the server.
前記関連情報取得手段は、前記原稿読取手段が出力する画像データを前記関連情報として取得する、請求項11に記載の拡張現実表示システム。 The augmented reality information registration device further includes document reading means for outputting image data obtained by optically reading a document and converting it into electronic data,
The augmented reality display system according to claim 11, wherein the related information acquisition unit acquires image data output from the document reading unit as the related information.
前記関連情報取得手段は、前記データ記憶手段に記憶されたデータのうちからユーザーにより指定されたデータを前記関連情報として取得する、請求項11または12に記載の拡張現実表示システム。 The augmented reality information registration device further includes data storage means for storing data,
The augmented reality display system according to claim 11 or 12, wherein the related information acquisition unit acquires data specified by a user from the data stored in the data storage unit as the related information.
前記取得された第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報を取得する拡張現実情報取得ステップと、
前記拡張現実情報は、前記第2の画像に加えて、前記第2の画像中の被写体に対して相対的な位置で定まる表示領域を示す領域情報と、前記被写体に関連する関連情報とを含み、
前記第1の画像中の被写体に対する相対位置が、前記第2の画像中の被写体と前記表示領域との相対位置と同じ関係となる現実表示領域を決定する現実表示領域決定ステップと、
前記決定された現実表示領域に前記拡張現実情報に含まれる前記関連情報を表示する表示制御ステップと、
前記第2の画像と前記第1の画像とで異なる相違部分を抽出する相違部分抽出ステップと、
前記相違部分抽出ステップにおいて相違部分が抽出される場合、予め定められた処理を実行する処理実行ステップと、を含む拡張現実表示方法。 An imaging step of acquiring a first image obtained by imaging a subject;
An augmented reality information acquisition step of acquiring augmented reality information including a second image having the same subject as the subject in the acquired first image;
The augmented reality information includes, in addition to the second image, region information indicating a display region determined at a position relative to the subject in the second image, and related information related to the subject. ,
A real display area determining step for determining a real display area in which a relative position with respect to a subject in the first image is the same as a relative position between the subject in the second image and the display area;
A display control step of displaying the related information included in the augmented reality information in the determined reality display area;
A different part extraction step of extracting different parts different between the second image and the first image;
An augmented reality display method comprising: a process execution step of executing a predetermined process when a different part is extracted in the different part extraction step.
前記取得された第1の画像中の被写体と同一の被写体を有する第2の画像を含む拡張現実情報を取得する拡張現実情報取得ステップと、
前記拡張現実情報は、前記第2の画像に加えて、前記第2の画像中の被写体に対して相対的な位置で定まる表示領域を示す領域情報と、前記被写体に関連する関連情報とを含み、
前記第1の画像中の被写体に対する相対位置が、前記第2の画像中の被写体と前記表示領域との相対位置と同じ関係となる現実表示領域を決定する現実表示領域決定ステップと、
前記決定された現実表示領域に前記拡張現実情報に含まれる前記関連情報を表示する表示制御ステップと、
前記第2の画像と前記第1の画像とで異なる相違部分を抽出する相違部分抽出ステップと、
前記相違部分抽出ステップにおいて相違部分が抽出される場合、予め定められた処理を実行する処理実行ステップと、をコンピューターに実行させる拡張現実表示プログラム。 An imaging step of acquiring a first image obtained by imaging a subject;
An augmented reality information acquisition step of acquiring augmented reality information including a second image having the same subject as the subject in the acquired first image;
The augmented reality information includes, in addition to the second image, region information indicating a display region determined at a position relative to the subject in the second image, and related information related to the subject. ,
A real display area determining step for determining a real display area in which a relative position with respect to a subject in the first image is the same as a relative position between the subject in the second image and the display area;
A display control step of displaying the related information included in the augmented reality information in the determined reality display area;
A different part extraction step of extracting different parts different between the second image and the first image;
An augmented reality display program for causing a computer to execute a process execution step of executing a predetermined process when a different part is extracted in the different part extraction step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014058661A JP6248732B2 (en) | 2014-03-20 | 2014-03-20 | Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014058661A JP6248732B2 (en) | 2014-03-20 | 2014-03-20 | Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015184777A JP2015184777A (en) | 2015-10-22 |
JP6248732B2 true JP6248732B2 (en) | 2017-12-20 |
Family
ID=54351277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014058661A Active JP6248732B2 (en) | 2014-03-20 | 2014-03-20 | Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6248732B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3437555B2 (en) * | 2001-03-06 | 2003-08-18 | キヤノン株式会社 | Specific point detection method and device |
JP5446700B2 (en) * | 2009-10-06 | 2014-03-19 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
US9013550B2 (en) * | 2010-09-09 | 2015-04-21 | Qualcomm Incorporated | Online reference generation and tracking for multi-user augmented reality |
JP2013214158A (en) * | 2012-03-30 | 2013-10-17 | Ntt Comware Corp | Display image retrieval device, display control system, display control method, and program |
-
2014
- 2014-03-20 JP JP2014058661A patent/JP6248732B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015184777A (en) | 2015-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10593014B2 (en) | Image processing apparatus, image processing system, image capturing system, image processing method | |
JP2015184778A (en) | Augmented reality display system, augmented reality information generation device, augmented reality display device, server, augmented reality information generation program, augmented reality display program, and data structure of augmented reality information | |
US11393070B2 (en) | Image processing apparatus, image capturing system, image processing method, and recording medium | |
JP5438376B2 (en) | Imaging apparatus and control method thereof | |
JP5920057B2 (en) | Transmission device, image sharing system, transmission method, and program | |
US10937134B2 (en) | Image processing apparatus, image capturing system, image processing method, and recording medium | |
JP6721004B2 (en) | Image management system and image management method | |
US9258440B2 (en) | Image forming apparatus, remote operation device, remote control method, remote operation method, non-transitory computer-readable recording medium encoded with remote control program, and non-transitory computer-readable recording medium encoded with remote operation program for performing remote operation | |
US20180124310A1 (en) | Image management system, image management method and recording medium | |
JP2014038429A (en) | Image processor, image processing method and image processing program | |
JP5532037B2 (en) | Cooperation system, portable information device, cooperation method, and cooperation program | |
CN108920113A (en) | Video frame images Method of printing, device and computer readable storage medium | |
JP6268904B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6011117B2 (en) | Reception device, image sharing system, reception method, and program | |
JP6304300B2 (en) | Transmitting apparatus, communication method, program, and receiving apparatus | |
US9854132B2 (en) | Image processing apparatus, data registration method, and data registration program | |
JP2018026642A (en) | Image management system, image communication system, image management method, and program | |
JP6248732B2 (en) | Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program | |
JP2005039702A (en) | Information terminal, data transmission method, and data transmission program | |
JP6268950B2 (en) | Image processing system, image processing apparatus, image processing method, and image processing program | |
JP5942637B2 (en) | Additional information management system, image sharing system, additional information management method, and program | |
JP5994615B2 (en) | Remote control system, portable information device, remote control method, and remote control program | |
JP2016081312A (en) | Image processing system and interlocking modification method | |
JP6508288B2 (en) | SYSTEM, IMAGE SHARING SYSTEM, COMMUNICATION METHOD, AND PROGRAM | |
JP6233451B2 (en) | Image sharing system, communication method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6248732 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |