JP2015184391A - Image display method, device, and program - Google Patents

Image display method, device, and program Download PDF

Info

Publication number
JP2015184391A
JP2015184391A JP2014059305A JP2014059305A JP2015184391A JP 2015184391 A JP2015184391 A JP 2015184391A JP 2014059305 A JP2014059305 A JP 2014059305A JP 2014059305 A JP2014059305 A JP 2014059305A JP 2015184391 A JP2015184391 A JP 2015184391A
Authority
JP
Japan
Prior art keywords
image
image display
display device
specific area
paper surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014059305A
Other languages
Japanese (ja)
Inventor
大木 光晴
Mitsuharu Oki
光晴 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2014059305A priority Critical patent/JP2015184391A/en
Publication of JP2015184391A publication Critical patent/JP2015184391A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve such a problem that an AR (Augmented Reality) device visible in a user's eyes cannot provide an image display with a sense of unity for an actual landscape conventionally.SOLUTION: An AR device 10 is grounded on a paper surface 20 and moved. An area to be cut out from image data 30 with information is moved by a same amount as the movement and is displayed on an image display section 13. The image display section 13 creates an illusion as if a user directly views the paper surface 20 through a transparent glass so as to make the user feel a sense of unity. Further, the user feels as if information 32 is written on the transparent glass portion. The start and finish of the AR movement is automated by detecting a change in acceleration in the X-axis direction.

Description

本技術は、撮影対象物体を撮影して、撮影された画像の中に、情報を重畳させて表示させる方法、装置、並びに、プログラムに関する。 The present technology relates to a method, an apparatus, and a program for photographing an object to be photographed and displaying information superimposed on the photographed image.

近年、拡張現実感(AR:Augmented Reality)を用いたアプリケーションが実現されてきている。たとえば、スマートフォンやタブレットPCを用いて、紙面などの対象物体を撮影すると、撮影された画像の中に、情報を重畳させて表示させるアプリケーションである。より具体的には、株式会社中日新聞社東京本社が提供する「東京AR」というアプリケーションである。また、非特許文献1のFigure 1にも、同様のアプリケーションの例が記載されている。さらに、特許文献1にも同様のアプリケーションが開示されている。 In recent years, applications using augmented reality (AR) have been realized. For example, when a target object such as a paper surface is photographed using a smartphone or a tablet PC, the application is displayed by superimposing information on the photographed image. More specifically, it is an application called “Tokyo AR” provided by the Tokyo head office of Chunichi Shimbun. Also, FIG. 1 of Non-Patent Document 1 describes an example of a similar application. Further, Patent Document 1 discloses a similar application.

これらアプリケーションの具体的な使用手順を、図を用いて説明する。 Specific procedures for using these applications will be described with reference to the drawings.

図1の(ア)内の100が従来のAR装置(具体的にはスマートフォンあるいはタブレットPCなど)である。AR装置100には、画像表示部110と、撮像部120を有している。撮像部120は、画像表示部110に対して反対側に設置されており、図中には見えていない。撮像部120により、4つの点線130、131、132および133で示した範囲の内側が撮影される。ちなみに、4つの点線で示した範囲の内側を視野角という。また、200は紙面である。紙面とは、たとえば、雑誌の特定の1ページである。あるいは、新聞紙の一面である。図1の(ア)では、紙面200に、自動車の写真が掲載されている例を示している。ユーザが、撮像部120を用いて、紙面200を撮影すると、AR装置100は、画像を解析して、所望の処理を行い、画像表示部110に画像と情報を表示する。すなわち、撮像部120により撮影された画像300(図1の(イ))は、画像表示部110にて表示され、さらに、情報310(図1の(ウ))も重畳して表示される。図1の例では、情報310は、「展示場で試乗できます」というテキスト情報である。図1の(ア)の画像表示部110には、このような画像300と情報310を表示している状況を示している。 100 in FIG. 1A is a conventional AR device (specifically, a smartphone or a tablet PC). The AR device 100 includes an image display unit 110 and an imaging unit 120. The imaging unit 120 is installed on the opposite side of the image display unit 110 and is not visible in the figure. The inside of the range indicated by the four dotted lines 130, 131, 132 and 133 is imaged by the imaging unit 120. Incidentally, the inside of the range indicated by the four dotted lines is called the viewing angle. Reference numeral 200 denotes a paper surface. The page is, for example, a specific page of a magazine. Or it is one side of a newspaper. FIG. 1A shows an example in which a photograph of a car is posted on the paper surface 200. When the user uses the imaging unit 120 to photograph the paper surface 200, the AR device 100 analyzes the image, performs desired processing, and displays the image and information on the image display unit 110. That is, the image 300 ((A) in FIG. 1) photographed by the imaging unit 120 is displayed on the image display unit 110, and information 310 ((U) in FIG. 1) is also superimposed and displayed. In the example of FIG. 1, the information 310 is text information “You can test ride at the exhibition hall”. In the image display unit 110 of FIG. 1A, such an image 300 and information 310 are displayed.

図1の(ア)の400は、ユーザの目を示している。図1の(ア)は、ユーザが、画像表示部110を見ている場面である。 Reference numeral 400 in FIG. 1A denotes the user's eyes. FIG. 1A shows a scene where the user is looking at the image display unit 110.

ユーザの目400から見える光景を、図2に示す。ユーザからは、図2に示すように、AR装置100が見える。AR装置100内の画像表示部110には、画像300および情報310が見える。また、AR装置100の外側には、実世界の風景が見える。すなわち、紙面200が見える。図2において、紙面200と、画像表示部110内の画像300とは、一体感がない。これは、対象物体である自動車の大きさが違うからである。 A view seen from the user's eye 400 is shown in FIG. As shown in FIG. 2, the AR device 100 is visible to the user. An image 300 and information 310 can be seen on the image display unit 110 in the AR device 100. In addition, a real world landscape can be seen outside the AR device 100. That is, the paper surface 200 can be seen. In FIG. 2, the paper surface 200 and the image 300 in the image display unit 110 do not have a sense of unity. This is because the size of the target automobile is different.

仮に、撮影された画像300の一部分のみ(図1の(イ)の320で示された点線矩形領域)を画像表示部110に表示させる場合を考えてみよう。この場合、情報310も、図1の(イ)の330の部分のみを画像表示部110に表示させる。画像300に対する部分画像320の位置関係と、情報310に対する部分情報330の位置関係は同じとする。この場合、ユーザの目400から見える光景を、図3に示す。ユーザからは、図3に示すように、AR装置100が見える。AR装置100内の画像表示部110には、部分画像320および部分情報330が見える。また、AR装置100の外側には、実世界の風景が見える。すなわち、紙面200が見える。図2と違い、紙面200と、画像表示部110内の画像320とは、一体感がある。これは、同じ大きさだからである。あたかも、画像表示部110は透明なガラスのようであり、画像表示部110の部分は、透明なガラスを通して、紙面200を直接見ているかのような錯覚をユーザに起こさせることができるので、一体感を感じる。そして、透明なガラス部分に、部分情報330が書かれているように感じる。 Let us consider a case where only a part of the photographed image 300 (dotted line rectangular region indicated by 320 in FIG. 1A) is displayed on the image display unit 110. In this case, the information 310 also causes the image display unit 110 to display only the portion 330 in FIG. It is assumed that the positional relationship of the partial image 320 with respect to the image 300 and the positional relationship of the partial information 330 with respect to the information 310 are the same. In this case, the view seen from the user's eyes 400 is shown in FIG. As shown in FIG. 3, the AR device 100 is visible to the user. The partial image 320 and the partial information 330 are visible on the image display unit 110 in the AR device 100. In addition, a real world landscape can be seen outside the AR device 100. That is, the paper surface 200 can be seen. Unlike FIG. 2, the paper surface 200 and the image 320 in the image display unit 110 have a sense of unity. This is because they are the same size. It is as if the image display unit 110 is transparent glass, and the portion of the image display unit 110 can cause an illusion that the user is looking directly at the paper surface 200 through the transparent glass. Feel the experience. And it feels as if the partial information 330 is written on the transparent glass part.

撮影された画像300の全体を画像表示部110に表示させるのではなく、画像300の適切な一部分(部分画像320)を表示させることで、実際の風景に対して、一体感のある画像表示をすることができる。しかしながら、表示するために適切な部分画像の領域は、ユーザの目400と画像表示部110と紙面200の位置関係に依存するため、それら位置関係が不明である以上、適切な部分画像を求めることができなかった。すなわち、図3に示すような光景を提示することは不可能であった。 Instead of displaying the entire photographed image 300 on the image display unit 110, by displaying an appropriate part of the image 300 (partial image 320), it is possible to display an image with a sense of unity with respect to the actual landscape. can do. However, since the area of the partial image suitable for display depends on the positional relationship among the user's eyes 400, the image display unit 110, and the paper surface 200, an appropriate partial image is obtained as long as the positional relationship is unknown. I could not. That is, it was impossible to present a scene as shown in FIG.

もし仮に、図3に示すような光景が提示できたとしよう。表示した後、ユーザがAR装置100を移動させた場合を考えてみる。この場合、移動の後も、一体感のある画像を表示するためには、画像300から切り出す部分画像の領域を変更しなくてはいけない。しかしながら、この領域の変更も不可能であった。なぜなら、移動後に表示するための適切な部分画像の領域は、移動後のユーザの目400と画像表示部110と紙面200の位置関係に依存するためであり、それら位置関係が不明であるからである。 Suppose that the scene shown in FIG. 3 can be presented. Consider the case where the user moves the AR device 100 after the display. In this case, in order to display an image with a sense of unity even after movement, the area of the partial image cut out from the image 300 must be changed. However, this area could not be changed. This is because the appropriate partial image area to be displayed after movement depends on the positional relationship among the user's eyes 400, the image display unit 110, and the paper surface 200 after the movement, and the positional relationship is unknown. is there.

以上をまとめると、従来技術では、以下の欠点があった。
(欠点1)ユーザの目400から見えるAR装置100は、実際の風景に対して、一体感のある画像表示をすることができなかった。
(欠点2)もし仮に、一体感のある画像表示をすることができたとしても、その後、ユーザがAR装置100を移動させると、移動後は一体感のある画像表示をすることができなかった。
(欠点3)ユーザは、AR装置100を空中で保持しなくてはいけないため、疲れる。
(欠点4)常に撮像部120で撮影し続けるために、電力を消費し続けてしまう。
In summary, the prior art has the following drawbacks.
(Disadvantage 1) The AR device 100 visible from the user's eyes 400 cannot display an image with a sense of unity with respect to an actual landscape.
(Disadvantage 2) Even if it is possible to display an image with a sense of unity, if the user subsequently moves the AR device 100, the image cannot be displayed with a sense of unity after the movement. .
(Disadvantage 3) The user is tired because the AR device 100 must be held in the air.
(Defect 4) Since the imaging unit 120 always keeps shooting, power is consumed continuously.

特開2012−195732号公報JP 2012-195732 A

Schmalstieg, Dieter, and Daniel Wagner. "Mobile phones as a platform for augmented reality." connections 1 (2009): 3.Schmalstieg, Dieter, and Daniel Wagner. "Mobile phones as a platform for augmented reality." Connections 1 (2009): 3.

前述のとおり、特許文献1や非特許文献1に記載の技術を用いることで、拡張現実感(AR:Augmented Reality)を実現できるが、表示に関しては一体感がなかった。つまり、再度述べると、従来技術では、以下の欠点があった。
(欠点1)ユーザの目400から見えるAR装置100は、実際の風景に対して、一体感のある画像表示をすることができなかった。
(欠点2)もし仮に、一体感のある画像表示をすることができたとしても、その後、ユーザがAR装置100を移動させると、移動後は一体感のある画像表示をすることができなかった。
(欠点3)ユーザは、AR装置100を空中で保持しなくてはいけないため、疲れる。
(欠点4)常に撮像部120で撮影し続けるために、電力を消費し続けてしまう。
As described above, augmented reality (AR) can be realized by using the techniques described in Patent Document 1 and Non-Patent Document 1, but there is no sense of unity regarding display. In other words, again, the prior art has the following drawbacks.
(Disadvantage 1) The AR device 100 visible from the user's eyes 400 cannot display an image with a sense of unity with respect to an actual landscape.
(Disadvantage 2) Even if it is possible to display an image with a sense of unity, if the user subsequently moves the AR device 100, the image cannot be displayed with a sense of unity after the movement. .
(Disadvantage 3) The user is tired because the AR device 100 must be held in the air.
(Defect 4) Since the imaging unit 120 always keeps shooting, power is consumed continuously.

本技術は、このような状況に鑑みてなされたものであり、一体感のある画像表示をさせるようにするものである。また、ユーザはAR装置を保持しないで済むようにした。さらに、ARの動作を行っている最中には、撮影を行わないようにするので、消費電力を下げることができる。 The present technology has been made in view of such a situation, and is intended to display an image with a sense of unity. Also, the user does not have to hold the AR device. Further, since shooting is not performed during the AR operation, power consumption can be reduced.

本技術の一側面の画像表示方法は、画像の中から特定領域のみを画像表示装置に表示する画像表示方法であって、上記画像をメモリに格納する画像データ格納ステップと、上記画像表示装置の移動量を計測する位置計測ステップと、直前の時刻における上記特定領域に対して、上記位置計測ステップで計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新ステップと、上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示ステップとを含む。これにより、一体感のある画像表示を可能とする。 An image display method according to one aspect of the present technology is an image display method for displaying only a specific area from an image on an image display device, the image data storing step for storing the image in a memory, and the image display device. An area that is moved by the same amount as the movement amount measured in the position measurement step with respect to the specific area at the time immediately before the position measurement step that measures the movement amount is set as the specific area at the current time. As described above, a region updating step for changing the specific region and a display step for displaying only the specific region in the image on the image display device are included. Thereby, it is possible to display an image with a sense of unity.

上記画像表示装置に対して衝撃を検知した時に、上記画像表示装置への表示を初める処理を行う処理開始ステップ、あるいは、上記画像表示装置の表示面側への移動を検知した時に、上記画像表示装置への表示を終了する処理を行う処理終了ステップ、の少なくともいずれか1つのステップをさらに含めても良い。これにより、自動で表示の開始あるいは終了を行うことが出来る。 When an impact is detected with respect to the image display device, a process start step for performing a process of starting display on the image display device, or when the movement of the image display device toward the display surface is detected, the image display You may further include at least any one step of the process end step which performs the process which complete | finishes the display to an apparatus. Thereby, the display can be automatically started or ended.

上記画像表示装置への表示を初める時刻よりも前に、上記画像表示装置に設置された撮像手段により撮影された画像を解析して上記画像表示装置への表示を初める時刻における位置を計算する初期位置計算ステップをさらに含めても良い。これにより、一体感のある画像表示を可能とする。 An initial stage for calculating a position at the time of starting the display on the image display device by analyzing the image taken by the imaging means installed in the image display device before the time of starting the display on the image display device A position calculation step may be further included. Thereby, it is possible to display an image with a sense of unity.

上記特定領域は、上記画像表示装置の表示部の大きさと同じ大きさであるという条件を付けて上記領域更新ステップで上記特定領域を更新するようにしても良い。これにより、一体感のある画像表示を可能とする。 The specific area may be updated in the area update step under a condition that the specific area is the same size as the display unit of the image display device. Thereby, it is possible to display an image with a sense of unity.

上記画像表示装置への表示を初める時刻における画像表示装置の傾き具合に応じて、上記表示ステップで上記画像表示装置に表示する上記特定領域の画像を90度または−90度回転させて表示させるようにしても良い。これにより、一体感のある画像表示を可能とする。 The image of the specific area displayed on the image display device in the display step is rotated by 90 degrees or -90 degrees and displayed in accordance with the inclination of the image display device at the time of starting the display on the image display device. Anyway. Thereby, it is possible to display an image with a sense of unity.

本技術の一側面の画像表示装置は、画像の中から特定領域のみを表示する画像表示装置であって、上記画像を格納するメモリ部と、上記画像表示装置の移動量を計測する位置計測部と、直前の時刻における上記特定領域に対して、上記位置計測部で計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新部と、上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示制御部とを備える。これにより、一体感のある画像表示を可能とする。 An image display device according to an aspect of the present technology is an image display device that displays only a specific area from an image, and includes a memory unit that stores the image and a position measurement unit that measures a movement amount of the image display device. The specific area is changed so that the area moved by the same amount as the movement amount measured by the position measurement unit with respect to the specific area at the immediately preceding time is set as the specific area at the current time. And a display control unit that causes the image display device to display only the specific region of the image. Thereby, it is possible to display an image with a sense of unity.

本技術の一側面の画像表示プログラムは、画像の中から特定領域のみを画像表示装置に表示する画像表示プログラムであって、上記画像をメモリに格納する画像データ格納ステップと、上記画像表示装置の移動量を計測する位置計測ステップと、直前の時刻における上記特定領域に対して、上記位置計測ステップで計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新ステップと、上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示ステップとを含む。これにより、一体感のある画像表示を可能とする。 An image display program according to an aspect of the present technology is an image display program for displaying only a specific area from an image on an image display device, the image data storing step for storing the image in a memory, and the image display device An area that is moved by the same amount as the movement amount measured in the position measurement step with respect to the specific area at the time immediately before the position measurement step that measures the movement amount is set as the specific area at the current time. As described above, a region updating step for changing the specific region and a display step for displaying only the specific region in the image on the image display device are included. Thereby, it is possible to display an image with a sense of unity.

本技術の一側面においては、画像の中から特定領域のみを画像表示装置に表示する画像表示であって、上記画像をメモリに格納し、上記画像表示装置の移動量を計測し、直前の時刻における上記特定領域に対して、上記計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させ、上記画像のうち上記特定領域のみを上記画像表示装置に表示させていく画像表示を行う。これにより、一体感のある画像表示を可能とする。 In one aspect of the present technology, the display is an image display in which only a specific region is displayed on the image display device, the image is stored in a memory, the movement amount of the image display device is measured, and the time immediately before The specific area is changed so that the area moved by the same amount as the measured movement amount is the specific area at the current time, and the specific area of the image is changed. Only the image is displayed on the image display device. Thereby, it is possible to display an image with a sense of unity.

本技術の一側面によれば、一体感のある画像を表示させることができる。また、ユーザはAR装置を保持しないで済むようにできる。さらに、ARの動作を行っている最中には、撮影を行わないようにできる。 According to one aspect of the present technology, an image with a sense of unity can be displayed. Also, the user can avoid holding the AR device. Further, it is possible not to perform shooting during the AR operation.

従来の装置を説明するための図である。It is a figure for demonstrating the conventional apparatus. 従来の装置による一体感のない表示状態を説明するための図である。It is a figure for demonstrating the display state without the sense of unity by the conventional apparatus. 一体感のある理想的な表示方法を説明するための図である。It is a figure for demonstrating the ideal display method with a sense of unity. 本発明の実施例の装置を説明するための図である。It is a figure for demonstrating the apparatus of the Example of this invention. 対象とする紙面を説明するための図である。It is a figure for demonstrating the paper surface made into object. 本発明の実施例の装置にダウンロードされる画像および情報を説明するための図である。It is a figure for demonstrating the image and information which are downloaded to the apparatus of the Example of this invention. 本発明の実施例の装置内に設置された各部位の位置関係を説明するための図である。It is a figure for demonstrating the positional relationship of each site | part installed in the apparatus of the Example of this invention. 本発明の実施例の装置での処理を説明するフローチャートである。It is a flowchart explaining the process with the apparatus of the Example of this invention. 本発明の実施例の装置での処理を説明するフローチャートである。It is a flowchart explaining the process with the apparatus of the Example of this invention. 本発明の実施例の装置での処理を説明するフローチャートである。It is a flowchart explaining the process with the apparatus of the Example of this invention. 本発明の実施例の装置での処理を説明する図である。It is a figure explaining the process with the apparatus of the Example of this invention. 本発明の実施例の装置での処理を説明する図である。It is a figure explaining the process with the apparatus of the Example of this invention. 本発明の実施例の装置での処理を説明する図である。It is a figure explaining the process with the apparatus of the Example of this invention. 本発明の実施例における使用方法を説明する図である。It is a figure explaining the usage method in the Example of this invention.

本発明の利点をまず述べる。前述の従来の欠点(欠点1)から(欠点4)のそれぞれに対応させると、本発明の利点は以下の通りである。
(利点1)AR装置を紙面に接地させているので、ユーザの目の位置に関係なく、画像の適切な一部分のみを表示させることで、実際の風景に対して、一体感のある画像表示をさせることができる。すなわち、画像表示部は、あたかも透明なガラスであるかのように見せることができる。
(利点2)ユーザがAR装置を移動させた場合、その移動量と同じ量だけ、画像から切り出す領域を移動させることで、移動後も一体感のある画像を表示させることができる。
(利点3)AR装置を紙面に接地させて動作させるので、ユーザはAR装置を保持しなくても良い。
(利点4)AR動作を行っている最中は、撮影を行わないので低消費電力での動作が可能である。
さらに、以下の利点もある。
(利点5)紙面に接地したことは、AR装置への衝撃を検出することにより自動で検出するので、ユーザが明示的にAR装置の動作開始(すなわち、表示開始)を指示しなくても良い。
(利点6)ユーザがAR装置を紙面から離した場合、AR装置内の加速度センサによりこの動作を検出し、AR動作を終了させるようにしているので、ユーザが明示的にAR装置の動作終了(すなわち、表示終了)を指示しなくても良い。
The advantages of the present invention are first described. The advantages of the present invention are as follows when each of the above-mentioned conventional defects (defects 1) to (defects 4) is dealt with.
(Advantage 1) Since the AR device is grounded on the paper surface, only an appropriate part of the image is displayed regardless of the position of the user's eyes, thereby displaying an image with a sense of unity with respect to the actual landscape. Can be made. In other words, the image display unit can appear as if it is transparent glass.
(Advantage 2) When the user moves the AR device, by moving the area cut out from the image by the same amount as that amount, an image with a sense of unity can be displayed after the movement.
(Advantage 3) Since the AR device is operated while being grounded on the paper surface, the user does not need to hold the AR device.
(Advantage 4) During the AR operation, since shooting is not performed, an operation with low power consumption is possible.
In addition, there are the following advantages.
(Advantage 5) Since the contact with the paper surface is automatically detected by detecting the impact on the AR device, the user does not need to explicitly give an instruction to start the operation of the AR device (that is, display start). .
(Advantage 6) When the user moves the AR device away from the page, this operation is detected by the acceleration sensor in the AR device and the AR operation is terminated. Therefore, the user explicitly ends the operation of the AR device ( That is, it is not necessary to instruct the display end).

図4に本発明の実施例であるAR装置10を示す。なお、本発明は、ARの体験をユーザに提供する画像表示装置に関するものであり、以降では、AR装置と命名して述べていく。AR装置10には、Central Processing Unit(CPU、中央演算処理部)11と、操作部12と、画像表示部13と、メモリ14と、撮像部15と、加速度センサ16と、ネットワークインターフェース部17とを有し、さらに、11乃至17間でのデータのやりとりを行うことができるようにバス18も有している。このようなAR装置のハードウエア構成は、米IBM社のパーソナル・コンピュータ「P C/ A T( P e r s o n a l C o m p u t e r / A d v a n c e d T e c h n o l o g y)」の互換機又は後継機を採用することができる。勿論、他のアーキテクチャを備えたコンピュータを採用しても良い。また、通常、メモリ14には、オペレーティング・システムが格納されており、このオペレーティング・システム上で、本発明の実施例の処理(以降、AR動作と呼ぶことにする)を行うプログラムが実行される。AR動作を行うプログラムも、あらかじめ、メモリ14上に格納されている。CPU11は、各種演算処理を実行できる。操作部12から、ユーザは各種命令をAR装置10に対して、与えることができる。操作部12は、画像表示装置13と一体化されており、タッチパネルによる入力ができるようにしても良い。画像表示部13には、画像や情報を表示できる。メモリ14には、AR動作を行うプログラムのほか、CPU11で計算されたデータ、撮像部15で撮影された画像、加速度センサ16からの加速度情報、ネットワークインターフェース部17を介してネットワーク上のデータをダウンロードしたものなどを格納することができる。撮像部15は、たとえば、レンズとイメージセンサより成り、外界を撮影して、画像を生成することができる。ネットワークインターフェース部17を介して、AR装置10は、インターネット等のネットワークに接続でき、インターネット上の各種情報にアクセスできる。なお、加速度センサ16は、3軸センサである。すなわち、x軸、y軸、z軸方向の加速度を検出することができるものとする。また、一般的に、加速度センサは重力の影響を受けるが、重力の影響は加速度センサの値から引き算することでキャンセルできるので、以降では、重力の影響はないものとして説明する。 FIG. 4 shows an AR device 10 which is an embodiment of the present invention. The present invention relates to an image display device that provides an AR experience to a user, and will hereinafter be referred to as an AR device. The AR device 10 includes a central processing unit (CPU, central processing unit) 11, an operation unit 12, an image display unit 13, a memory 14, an imaging unit 15, an acceleration sensor 16, and a network interface unit 17. And a bus 18 so that data can be exchanged between 11 to 17. The hardware configuration of such an AR device can employ a compatible computer or a successor of IBM's personal computer “PC / AT (Person C omp pu t e r / A d va nc dT e c h no o g o y y)”. Of course, you may employ | adopt the computer provided with the other architecture. Usually, an operating system is stored in the memory 14, and a program for performing the processing of the embodiment of the present invention (hereinafter referred to as AR operation) is executed on this operating system. . A program for performing the AR operation is also stored in the memory 14 in advance. The CPU 11 can execute various arithmetic processes. From the operation unit 12, the user can give various commands to the AR device 10. The operation unit 12 may be integrated with the image display device 13 and may be input via a touch panel. Images and information can be displayed on the image display unit 13. In addition to the program that performs the AR operation, the memory 14 downloads data calculated by the CPU 11, an image captured by the imaging unit 15, acceleration information from the acceleration sensor 16, and data on the network via the network interface unit 17. Can be stored. The imaging unit 15 includes, for example, a lens and an image sensor, and can capture an outside world and generate an image. The AR device 10 can be connected to a network such as the Internet via the network interface unit 17 and can access various information on the Internet. The acceleration sensor 16 is a triaxial sensor. That is, it is possible to detect acceleration in the x-axis, y-axis, and z-axis directions. In general, the acceleration sensor is affected by gravity, but since the influence of gravity can be canceled by subtracting from the value of the acceleration sensor, the following description will be made assuming that there is no influence of gravity.

このAR装置10を用いた、具体的な使用手順を示す。 A specific use procedure using the AR device 10 will be described.

ユーザは、まず、AR動作を行いたい対象物(紙面)を用意する。この紙面の隅には、2次元バーコード(QRコード)が描かれている。図5に、紙面の例を示しておく。図5の20が紙面であり、隅には、2次元バーコード21が記載されている。紙面20には図に示すように自動車の写真が掲載されているとする。 The user first prepares an object (paper surface) on which an AR operation is desired. A two-dimensional bar code (QR code) is drawn at the corner of the page. FIG. 5 shows an example of a paper surface. Reference numeral 20 in FIG. 5 denotes a paper surface, and a two-dimensional barcode 21 is written at a corner. It is assumed that a photograph of the car is posted on the paper 20 as shown in the figure.

ユーザは、AR装置10に対して、AR動作の前処理を行うように、操作部12を介して、AR装置10に命令するとともに、AR装置10をQRコード21に向ける。AR装置10は、この命令を受けると、撮影部15により撮影を行う。そして、撮影画像の中のQRコード21を認識し、QRコード21により指定されたネットワーク上の情報付き画像データ30をダウンロードする。この情報付き画像データ30は、紙面20と同じ大きさであり、「紙面20と同じ画像31と、その画像上に情報32が重畳されている」という形式のデータである。情報付き画像データ30と、それを構成する画像31と情報32の例を、図6に示す。また、本実施例では、情報付き画像データ30は、静止画として、以降説明するが、アニメーションGIFなど動画でも良い。 The user instructs the AR device 10 to the AR device 10 via the operation unit 12 to perform preprocessing of the AR operation, and directs the AR device 10 toward the QR code 21. Upon receiving this command, the AR device 10 performs imaging using the imaging unit 15. Then, the QR code 21 in the photographed image is recognized, and the image data 30 with information on the network designated by the QR code 21 is downloaded. The image data 30 with information is the same size as the paper surface 20 and is in the form of “the same image 31 as the paper surface 20 and the information 32 is superimposed on the image”. An example of the image data 30 with information, and the image 31 and information 32 constituting the image data 30 is shown in FIG. In this embodiment, the image data with information 30 will be described as a still image, but may be a moving image such as an animation GIF.

次に、ユーザは、AR装置10を紙面20から数十cm離した位置に保持する。そして、AR装置10に対して、AR動作の開始を行うように、操作部12を介して、AR装置10に命令する。そして、紙面20に近づけていき、最終的には、紙面20にAR装置10を接地させる。 Next, the user holds the AR device 10 at a position separated from the paper surface 20 by several tens of centimeters. Then, the AR device 10 is commanded to the AR device 10 via the operation unit 12 to start the AR operation. Then, the AR device 10 is brought close to the paper surface 20 and finally the AR device 10 is grounded to the paper surface 20.

AR装置10は、AR動作の開始を行う命令を受けると、撮影部15により連続撮影を行う。紙面20に近づいているので、しばらくすると、撮影画像は合焦しなくなる。合焦しなくなったら連続撮影を中止する。これ以降、AR動作中、撮影は行わない。 When receiving the command to start the AR operation, the AR device 10 performs continuous shooting by the shooting unit 15. Since it is approaching the paper surface 20, the captured image will not be in focus after a while. Stop continuous shooting when the subject is out of focus. Thereafter, no shooting is performed during the AR operation.

また、AR装置10は、加速度センサ16の出力値を検出し続けて、出力値が不連続となる時刻(AR装置10が衝撃を受けた時刻であり、すなわち、AR装置10が紙面20に接地された時刻である)を求める。合焦しなくなるまでに撮影された画像を解析することで、不連続となる時刻におけるAR装置10と紙面20との位置関係を求める。求まったAR装置10と紙面20の位置関係に対応する領域を、前処理においてダウンロードした情報付き画像データ30から切り取り、画像表示部13にて表示を行う。これにより、紙面20に置かれたAR装置10内の画像表示部13は、あたかも、透明なガラスを通して、紙面20を直接見ているかのような錯覚をユーザに起こさせることができるので、ユーザは一体感を感じる。そして、透明なガラス部分に、情報32(厳密には、情報32の一部分)が書かれているように感じる(図14のAR装置10(移動前)の状況であり、詳細は後述する)。 Further, the AR device 10 continues to detect the output value of the acceleration sensor 16 and the time when the output value becomes discontinuous (the time when the AR device 10 receives an impact, that is, the AR device 10 is grounded to the paper surface 20. Time). The positional relationship between the AR device 10 and the paper surface 20 at the time of discontinuity is obtained by analyzing an image that has been photographed before it is out of focus. An area corresponding to the obtained positional relationship between the AR device 10 and the paper surface 20 is cut out from the image data 30 with information downloaded in the preprocessing and displayed on the image display unit 13. As a result, the image display unit 13 in the AR device 10 placed on the paper surface 20 can cause the user to have the illusion that the paper surface 20 is directly viewed through the transparent glass. I feel a sense of unity. And it feels as if the information 32 (strictly, a part of the information 32) is written on the transparent glass portion (the situation of the AR device 10 (before movement) in FIG. 14, details will be described later).

AR装置10を紙面20に接地した後、ユーザは、AR装置10を紙面20上に沿って、移動させることもできる。AR装置10は、加速度センサ16により移動量を検知して、移動量と同じ量だけ切り出し領域を変更して、画像表示部13にて表示を行う。これにより、移動後も、紙面20に置かれたAR装置10内の画像表示部13は、あたかも、透明なガラスを通して、紙面20を直接見ているかのような錯覚をユーザに起こさせることができるので、ユーザは一体感を感じる。そして、透明なガラス部分に、情報32(厳密には、情報32の一部分)が書かれているように感じる(図14のAR装置10(移動後)の状況であり、詳細は後述する)。 After the AR device 10 is grounded on the paper surface 20, the user can move the AR device 10 along the paper surface 20. The AR device 10 detects the amount of movement by the acceleration sensor 16, changes the cutout region by the same amount as the amount of movement, and performs display on the image display unit 13. Thereby, even after the movement, the image display unit 13 in the AR device 10 placed on the paper surface 20 can cause the user to have the illusion that the paper surface 20 is directly viewed through the transparent glass. Therefore, the user feels a sense of unity. Then, it feels as if the information 32 (strictly, a part of the information 32) is written on the transparent glass portion (the situation of the AR device 10 (after movement) in FIG. 14, details will be described later).

ユーザは、最後に、AR装置10を紙面20から離す。AR装置10は、加速度センサ16の出力値を検出し続けて、画像表示部13の方向への加速度を検出する(すなわちAR装置10が紙面20より離れた時刻を検出する)。そして、加速度を検出した場合に、画像表示部13での表示を終了し、AR動作も終了する。 Finally, the user moves the AR device 10 away from the paper surface 20. The AR device 10 continues to detect the output value of the acceleration sensor 16 and detects the acceleration in the direction of the image display unit 13 (that is, detects the time when the AR device 10 is separated from the paper surface 20). When the acceleration is detected, the display on the image display unit 13 is terminated and the AR operation is also terminated.

以上が、具体的な使用手順と、その手順に沿ったAR装置10での動作の簡易説明である。このようにして、前述の(利点1)から(利点6)の利点を受けることが可能となる。 The above is a specific usage procedure and a simplified description of the operation of the AR device 10 according to the procedure. In this way, it is possible to receive the advantages of (Advantage 1) to (Advantage 6).

それでは、以下で、詳しく処理の流れを説明していく。 The process flow will be described in detail below.

なお、以降では、画像に関する座標系は、画像の中心が原点であり、横方向がx軸(左側が正)、縦方向がy軸(下側が正)とする。説明の都合上、画像表示部13については、さらに、垂直な方向の軸をz軸と呼ぶことにする。画像表示部13から画像表示部13の裏側へ向かう方向が、z軸の正の方向である。また、画像表示部13の裏側には、撮像部15が設置されているとする。画像表示部13の中心と、撮像部15の中心の位置は同じとする。正確には、AR装置の厚みの分だけ、z軸方向に、画像表示部13の中心と撮像部15の中心の位置は違っているが、厚みは通常薄いので、無視する。また、画像表示部13の大きさは、横WD、縦HDとする。この様子を、図7に示す。 In the following, in the coordinate system related to the image, the center of the image is the origin, the horizontal direction is the x axis (left side is positive), and the vertical direction is the y axis (lower side is positive). For convenience of explanation, with respect to the image display unit 13, the axis in the vertical direction is further referred to as the z-axis. The direction from the image display unit 13 toward the back side of the image display unit 13 is the positive z-axis direction. Further, it is assumed that an imaging unit 15 is installed on the back side of the image display unit 13. Assume that the center of the image display unit 13 and the center of the imaging unit 15 are the same. Exactly, although the positions of the center of the image display unit 13 and the center of the imaging unit 15 are different in the z-axis direction by the thickness of the AR device, the thickness is usually thin and is ignored. The size of the image display unit 13 is horizontal WD and vertical HD. This is shown in FIG.

なお、画像表示装置13の中心と、撮像部15の中心が違う場合は、後述する位置の計算に関して、その分オフセットを加算すればよいので、画像表示部13の中心と、撮像部15の中心の位置は同じとして説明しても一般性を失わない。 If the center of the image display device 13 and the center of the imaging unit 15 are different, an offset may be added for the calculation of the position described later, so that the center of the image display unit 13 and the center of the imaging unit 15 are added. The generality is not lost even if it is described as the same position.

図8に本発明の実施例の処理の流れを示す。 FIG. 8 shows a processing flow of the embodiment of the present invention.

図8のステップ1で、ユーザからの前処理を行う指示を待つ。すなわち、ユーザが、操作部12を介してAR動作の前処理を行う指示をするまで、ステップ1で待ち続ける。ユーザからの前処理を行う指示が来ると、ステップ2へ進む。 In step 1 of FIG. 8, an instruction for preprocessing from the user is awaited. That is, the process continues to wait in step 1 until the user gives an instruction to perform preprocessing of the AR operation via the operation unit 12. When an instruction to perform preprocessing is received from the user, the process proceeds to step 2.

ステップ2へ進む段階では、ユーザが、AR装置10をQRコード21に向けている。ステップ2では、撮像部15にて撮影を行い、そして、撮影された画像はバス18を介してCPU11へ送られる。CPU11では、この画像内のQRコード21を検出し、解析を行う。なお、QRコードの検出および解析は、既知の手法であり、その説明を省略する。QRコード21には、ネットワーク上の情報付き画像データ30の所在場所が記録されている。QRコード21の解析結果から、QRコード21により指定されたネットワーク上の情報付き画像データ30をダウンロードする。なお、ダウンロードは、ネットワークインターフェース部17を介して行われ、ダウンロードされた情報付き画像データ30は、バス18を介してメモリ14に格納される。なお、ネットワーク上にあらかじめ用意されている情報付き画像データ30は、紙面20と同じ大きさであり、「紙面20と同じ画像31と、その画像上に情報32が重畳されている」という形式のデータである。 In the stage of proceeding to step 2, the user points the AR device 10 toward the QR code 21. In step 2, shooting is performed by the imaging unit 15, and the captured image is sent to the CPU 11 via the bus 18. The CPU 11 detects and analyzes the QR code 21 in this image. The detection and analysis of the QR code is a known method, and the description thereof is omitted. In the QR code 21, the location of the image data with information 30 on the network is recorded. From the analysis result of the QR code 21, the image data 30 with information on the network designated by the QR code 21 is downloaded. The download is performed via the network interface unit 17, and the downloaded image data with information 30 is stored in the memory 14 via the bus 18. Note that the image data with information 30 prepared in advance on the network has the same size as the paper surface 20 and has a format of “the same image 31 as the paper surface 20 and information 32 superimposed on the image”. It is data.

ここで、紙面20を表現するのに、P(x,y)という2次元関数を導入とする。つまり、任意の位置(x,y)にP(x,y)という値が設定されている画像が、紙面20である(図5参照)。ここで、x=−W/2からW/2の範囲であり、y=−H/2からH/2の範囲である。紙面20の大きさは横Wであり縦Hであるとする。なお、xおよびyの単位は、たとえばミリメートルなどである。 Here, it is assumed that a two-dimensional function P (x, y) is introduced to represent the paper surface 20. That is, an image in which a value of P (x, y) is set at an arbitrary position (x, y) is the paper surface 20 (see FIG. 5). Here, x = −W / 2 to W / 2, and y = −H / 2 to H / 2. The size of the paper surface 20 is assumed to be horizontal W and vertical H. The unit of x and y is, for example, millimeter.

画像31は、紙面20と同じなので、画像31の任意の位置(x,y)には、P(x,y)という値が設定されている。情報付き画像データ30を、Q(x,y)とする。x=−W/2からW/2の範囲であり、y=−H/2からH/2の範囲である。Q(x,y)は、P(x,y)に情報32を重畳したデータである。したがって、情報32が存在しない位置(x,y)では、Q(x,y)=P(x,y)である(図6参照)。 Since the image 31 is the same as the paper surface 20, a value of P (x, y) is set at an arbitrary position (x, y) of the image 31. The image data with information 30 is assumed to be Q (x, y). x = -W / 2 to W / 2, and y = -H / 2 to H / 2. Q (x, y) is data obtained by superimposing information 32 on P (x, y). Therefore, Q (x, y) = P (x, y) at the position (x, y) where the information 32 does not exist (see FIG. 6).

ステップ2の後、ステップ3に進む。 After step 2, proceed to step 3.

ステップ3では、ユーザからのAR動作開始の指示を待つ。すなわち、ユーザが操作部12を介して、AR動作開始の指示をするまで、ステップ3で待ち続ける。ユーザからのAR動作開始の指示が来ると、ステップ4へ進む。 In step 3, an AR operation start instruction from the user is awaited. That is, the process continues to wait in step 3 until the user gives an instruction to start the AR operation via the operation unit 12. When an instruction to start the AR operation is received from the user, the process proceeds to Step 4.

ステップ4では、時刻を示す数値パラメータtに0をセットする。そして、ステップ5に進む。 In step 4, 0 is set to a numerical parameter t indicating time. Then, the process proceeds to Step 5.

ステップ5へ進む段階では、ユーザが、AR装置10を紙面20から数十cm離した位置に保持している。そして、AR装置10内ではステップ5以降の処理が行われるが、これら処理が行われている最中に、ユーザは、AR装置10を紙面20に近づけていき、最終的には、紙面20にAR装置10を接地させるという動作を行う。ステップ5では、撮像部15にて撮影を行い、撮影された画像はバス18を介してCPU11へ送られる。なお、この画像は、時刻tに撮影された画像であるので、I(t)とする。そして、ステップ6に進む。 In the stage of proceeding to Step 5, the user holds the AR device 10 at a position separated from the paper surface 20 by several tens of centimeters. Then, in the AR device 10, the processes after step 5 are performed. While these processes are being performed, the user brings the AR device 10 closer to the paper surface 20, and finally the paper surface 20. An operation of grounding the AR device 10 is performed. In step 5, shooting is performed by the imaging unit 15, and the captured image is sent to the CPU 11 via the bus 18. Since this image is an image taken at time t, it is assumed that I (t). Then, the process proceeds to Step 6.

ステップ6では、CPU11により画像I(t)が合焦した画像であるか判断する。具体的には、画像I(t)の高周波数成分を調べ、所定の閾値以上であれば、合焦した画像であると判断する。上記閾値未満であれば、ボケた画像(合焦していない画像)と判断する。合焦した画像である場合には、ステップ7に進む。そうでなければ、ステップ10(図9)に進む。 In step 6, the CPU 11 determines whether the image I (t) is an in-focus image. Specifically, the high frequency component of the image I (t) is examined, and if it is greater than or equal to a predetermined threshold, it is determined that the image is in focus. If it is less than the threshold value, it is determined that the image is out of focus (an out-of-focus image). If the image is in focus, the process proceeds to step 7. Otherwise, go to Step 10 (FIG. 9).

ステップ7では、メモリ14内にある情報付き画像データ30のうち画像31(すなわち、P(x,y))のみを、バス18を介してCPU11へ送る。そして、CPU11で、画像I(t)と画像31のマッチングを行い、画像I(t)と画像31の位置関係(射影変換の関係)を求める。すなわち、式1を満たす3×3行列H3を求める。 In step 7, only the image 31 (that is, P (x, y)) of the image data with information 30 in the memory 14 is sent to the CPU 11 via the bus 18. Then, the CPU 11 performs matching between the image I (t) and the image 31 to obtain the positional relationship (projection transformation relationship) between the image I (t) and the image 31. That is, a 3 × 3 matrix H3 that satisfies Equation 1 is obtained.

Figure 2015184391
Figure 2015184391

ここで、I(t,x,y)は、画像I(t)の位置(x,y)の値である。つまり、画像I(t)を、H3で変形することにより、画像31となるようなH3を求める処理をする。この3×3行列H3は、ホモグラフィ行列(射影変換行列)と呼ばれるものである。2枚の画像のマッチング(位置関係の計算)の手法は、特徴点によるマッチング手法など、既知の手法を使えば良いので、その詳細説明を省略する。ステップ7の後、ステップ8に進む。 Here, I (t, x, y) is the value of the position (x, y) of the image I (t). That is, a process for obtaining H3 to be the image 31 by transforming the image I (t) with H3. This 3 × 3 matrix H3 is called a homography matrix (projection transformation matrix). As a method for matching two images (calculation of positional relationship), a known method such as a matching method using feature points may be used, and a detailed description thereof will be omitted. After step 7, proceed to step 8.

ステップ8では、撮影された画像I(t)の中心(x,y)=(0,0)が、画像31(すなわち紙面20)に対して、どのような位置関係にあるかを、CPU11で求める。具体的には、(X(t),Y(t),dX(t)、dY(t))を求める。具体的には、(X(t),Y(t),dX(t)、dY(t))は、式2、および、式3により計算される。ここで、H3は、直前のステップ7で求めたホモグラフィ行列(射影変換行列)である。 In step 8, the CPU 11 determines what positional relationship the center (x, y) = (0, 0) of the photographed image I (t) is with respect to the image 31 (that is, the paper surface 20). Ask. Specifically, (X (t), Y (t), dX (t), dY (t)) is obtained. Specifically, (X (t), Y (t), dX (t), dY (t)) is calculated by Equation 2 and Equation 3. Here, H3 is the homography matrix (projection transformation matrix) obtained in the immediately preceding step 7.

Figure 2015184391
Figure 2015184391

Figure 2015184391
Figure 2015184391

これにより、時刻tにおいて撮影された画像I(t)の中心(すなわち、撮像部15の中心)は、画像31(すなわち紙面20)の(X(t),Y(t))の位置を撮影していたと言える。そして、撮影された画像I(t)のx軸の正の方向は、画像31(すなわち紙面20)の(dX(t)、dY(t))の方向であることが分かる。正確に述べるなら、x軸の正の方向に単位長さを持つベクトルは、画像31(すなわち紙面20)の上ではベクトル(dX(t)、dY(t))となることが分かる。 Thereby, the center of the image I (t) photographed at time t (that is, the center of the imaging unit 15) captures the position of (X (t), Y (t)) of the image 31 (that is, the paper surface 20). It can be said that he was doing. Then, it can be seen that the positive direction of the x-axis of the captured image I (t) is the direction of (dX (t), dY (t)) of the image 31 (that is, the paper surface 20). To be precise, it can be seen that a vector having a unit length in the positive direction of the x-axis becomes a vector (dX (t), dY (t)) on the image 31 (that is, the paper surface 20).

CPU11で求まった(X(t),Y(t),dX(t)、dY(t))は、バス18を介して、メモリ14に格納される。これでステップ8での処理は終了し、次にステップ9に進む。 (X (t), Y (t), dX (t), dY (t)) obtained by the CPU 11 is stored in the memory 14 via the bus 18. This completes the processing in step 8, and then proceeds to step 9.

ステップ9では、単位時間(たとえば、1/30秒)だけ待つ。そして、単位時間進んだので、tを1だけインクリメントする。ステップ9の後、ステップ5に戻り、更新されたtについての処理を行う。 In step 9, it waits for unit time (for example, 1/30 second). Since the unit time has been advanced, t is incremented by one. After step 9, the process returns to step 5 to perform the process for the updated t.

ステップ10に進んだ段階では、ユーザによりAR装置10が紙面20に近づけすぎて、撮像部15が合焦できなくなっている。ステップ10では、合焦できなくなった時刻を記憶しておくためt1=tとする。そして、ステップ11へ進む。 At the stage of proceeding to step 10, the AR device 10 is too close to the paper surface 20 by the user, and the imaging unit 15 cannot be focused. In step 10, t1 = t is set in order to store the time at which focusing could not be performed. Then, the process proceeds to Step 11.

ステップ11では、加速度センサ16のz軸方向の値が不連続になったかを検出する。不連続でなければ、ステップ12に進み、不連続であれば、ステップ13に進む。 In step 11, it is detected whether the value of the acceleration sensor 16 in the z-axis direction becomes discontinuous. If it is not discontinuous, the process proceeds to step 12. If discontinuous, the process proceeds to step 13.

ステップ12では、単位時間(たとえば、1/30秒)だけ待つ。そして、単位時間進んだので、tを1だけインクリメントする。そして、ステップ11に戻る。 In step 12, it waits for unit time (for example, 1/30 second). Since the unit time has been advanced, t is incremented by one. Then, the process returns to step 11.

ステップ13に進むということは、加速度センサ16のz軸方向の値が不連続を検知したということである。すなわち、AR装置10が紙面20に接触(接地)したことを意味する。ステップ13では、AR装置10が紙面20に接触(接地)した時刻を記憶しておくためt2=tとする。そして、ステップ14へ進む。 Proceeding to step 13 means that the value of the acceleration sensor 16 in the z-axis direction has detected a discontinuity. That is, it means that the AR device 10 has contacted (grounded) the paper surface 20. In step 13, t2 = t in order to store the time when the AR device 10 contacts (grounds) the paper surface 20. Then, the process proceeds to step 14.

ステップ14では、接触(接地)した時刻における画像表示部13と紙面20の位置関係を外挿する。これは、メモリ14に格納された(X(t),Y(t),dX(t)、dY(t))(ここで、tは0からt1−1までの整数)を、バス18を介してCPU11に転送して、CPU11にて、これら(X(t),Y(t),dX(t)、dY(t))の値を使って、外挿する。ここで外挿とは、0からt1−1までの(X(t),Y(t),dX(t)、dY(t))の値を使って、時刻t2における値(X(t2),Y(t2),dX(t2)、dY(t2))を推定することを意味する。外挿には、各種手法が存在するが、たとえば、線形回帰モデルにより外挿すれば良い。すなわち、式4が最小となるA1とB1を求める。そして、X(t2)=A1 × t2 + B1 とすればよい。この様子を図11に示す。Y(t2),dX(t2)、dY(t2)についても同様に求めればよい。 In step 14, the positional relationship between the image display unit 13 and the paper surface 20 at the time of contact (grounding) is extrapolated. This means that (X (t), Y (t), dX (t), dY (t)) (where t is an integer from 0 to t1-1) stored in the memory 14 is transferred to the bus 18. Then, the CPU 11 extrapolates using these values (X (t), Y (t), dX (t), dY (t)). Here, extrapolation means the value (X (t2)) at time t2 using the values of (X (t), Y (t), dX (t), dY (t)) from 0 to t1-1. , Y (t2), dX (t2), dY (t2)). Various methods exist for extrapolation. For example, extrapolation may be performed using a linear regression model. That is, A1 and B1 that minimize Equation 4 are obtained. Then, X (t2) = A1 × t2 + B1 may be satisfied. This is shown in FIG. Y (t2), dX (t2), and dY (t2) may be obtained similarly.

Figure 2015184391
Figure 2015184391

ステップ14の後、ステップ15に進む。 After step 14, proceed to step 15.

ステップ15では、AR装置10の位置について、場合分けを行い、適切な方向になるように座標変換を行う。本発明の実施例においては、AR装置10として、スマートフォンやタブレットPCなどを想定している。ユーザは、スマートフォンやタブレットPCを横方向にして使用する場合もあれば、縦方向にして使用する場合もある。そこで、AR装置10が紙面20に接地したとき、どのような方向であったかを検出する必要がある。図12に、すべての場合を示す。
図12の(ア):紙面20とAR装置10(すなわち、画像表示部13)の各軸が同じ方向である場合を示している。
図12の(イ):紙面20に対して、AR装置10(すなわち、画像表示部13)が90度回転した場合を示している。すなわち、紙面20のx軸の正の方向と、画像表示部13のy軸の正の方向が同じである場合を示している。
図12の(ウ):紙面20に対して、AR装置10(すなわち、画像表示部13)が−90度回転した場合を示している。すなわち、紙面20のx軸の正の方向と、画像表示部13のy軸の負の方向が同じである場合を示している。
なお、図12の中に記述されている40は、「紙面20(あるいは、情報付き画像データ30)」である。41は、「紙面20(あるいは、情報付き画像データ30)の座標原点」である。42は、「紙面20(あるいは、情報付き画像データ30)のx軸」である。43は、「紙面20(あるいは、情報付き画像データ30)のy軸」である。44は、「画像表示部13」である。45は、「画像表示部13の座標原点」である。46は、「画像表示部13のx軸」である。47は、「画像表示部13のy軸」である。図12中に書かれているベクトル(X(t2),Y(t2))は、紙面20(あるいは、情報付き画像データ30)の座標系におけるベクトルである。
In step 15, the position of the AR device 10 is divided into cases, and coordinate conversion is performed so as to be in an appropriate direction. In the embodiment of the present invention, a smartphone or a tablet PC is assumed as the AR device 10. The user may use the smartphone or tablet PC in the horizontal direction or may use it in the vertical direction. Therefore, it is necessary to detect the direction in which the AR device 10 was in contact with the paper surface 20. FIG. 12 shows all cases.
FIG. 12A shows a case where the axes of the paper surface 20 and the AR device 10 (that is, the image display unit 13) are in the same direction.
FIG. 12A shows a case where the AR device 10 (that is, the image display unit 13) is rotated 90 degrees with respect to the paper surface 20. That is, the case where the positive direction of the x-axis of the paper surface 20 is the same as the positive direction of the y-axis of the image display unit 13 is shown.
FIG. 12C shows a case where the AR device 10 (that is, the image display unit 13) is rotated by −90 degrees with respect to the paper surface 20. That is, the case where the positive direction of the x-axis of the paper surface 20 is the same as the negative direction of the y-axis of the image display unit 13 is shown.
Note that 40 described in FIG. 12 is “paper surface 20 (or image data with information 30)”. Reference numeral 41 denotes “the coordinate origin of the paper surface 20 (or image data with information 30)”. Reference numeral 42 denotes “the x axis of the paper surface 20 (or the image data 30 with information 30)”. 43 is the “y-axis of the paper surface 20 (or image data 30 with information 30)”. Reference numeral 44 denotes an “image display unit 13”. Reference numeral 45 denotes “the coordinate origin of the image display unit 13”. Reference numeral 46 denotes “the x-axis of the image display unit 13”. 47 is the “y-axis of the image display unit 13”. The vectors (X (t2), Y (t2)) written in FIG. 12 are vectors in the coordinate system of the paper surface 20 (or image data 30 with information).

なお、180度回転して使用するということは、天地を反対にしてAR装置10を使用することを意味しており、これは異常な使用方法なのでAR処理を強制終了するようにする。また、AR装置10を斜めにして使用することも、異常な使用方法なのでAR処理を強制終了するようにする。 Note that the fact that it is rotated 180 degrees means that the AR device 10 is used with the top and bottom reversed, and since this is an abnormal usage method, the AR processing is forcibly terminated. Further, since the use of the AR device 10 at an angle is also an abnormal usage method, the AR process is forcibly terminated.

さて、前述のとおり、時刻tにおいて撮影された画像I(t)のx軸の正の方向は、紙面20では(dX(t)、dY(t))の方向であるから、外挿した値である(dX(t2)、dY(t2))により、図12で示す(ア)、(イ)、(ウ)、および、「それ以外」の場合分けが可能である。すなわち、ステップ15では、ステップ14で求めた(dX(t2)、dY(t2))を使用して、CPU11にて、以下の処理を行う。
場合1:「dY(t2)の絶対値」<「dX(t2)の絶対値」、かつ、0<dX(t2)、かつ、「dY(t2)の絶対値」÷dX(t2)<Δならば、図12の(ア)と判断されるので、紙面20と画像表示部13の各軸の方向が合っているから、何も処理を行わない。
場合2:「dX(t2)の絶対値」<「dY(t2)の絶対値」、かつ、0>dY(t2)、かつ、「dX(t2)の絶対値」÷(−dY(t2))<Δならば、図12の(イ)と判断されるので、メモリ14に格納されている情報付き画像データ30を90度回転させて、上書きする。また、接触した時刻における画像表示部13と紙面20の位置関係も90度回転する必要があるので、(X(t2),Y(t2))=(−Y(t2),X(t2))とする。
場合3:「dX(t2)の絶対値」<「dY(t2)の絶対値」、かつ、0<dY(t2)、かつ、「dX(t2)の絶対値」÷dY(t2)<Δならば、図12の(ウ)と判断されるので、メモリ14に格納されている情報付き画像データ30を−90度回転させて、上書きする。また、接触した時刻における画像表示部13と紙面20の位置関係も−90度回転する必要があるので、(X(t2),Y(t2))=(Y(t2),−X(t2))とする。
場合4:上記場合1、場合2、および、場合3のいずれにも合致しない場合には、「紙面に対して装置が傾き過ぎています。」というメッセージを画像表示部13に表示して、強制終了する。
なお、ここで、Δは微小な値であり、AR装置10が多少傾いていても、エラーとせず、AR動作を続行させるための閾値である。
As described above, since the positive direction of the x axis of the image I (t) taken at time t is the direction of (dX (t), dY (t)) on the paper surface 20, the extrapolated value. (DX (t2), dY (t2)), (a), (b), (c), and “other” shown in FIG. 12 can be classified. In other words, in step 15, the CPU 11 performs the following processing using (dX (t2), dY (t2)) obtained in step 14.
Case 1: “Absolute value of dY (t2)” <“Absolute value of dX (t2)”, 0 <dX (t2), and “Absolute value of dY (t2)” ÷ dX (t2) <Δ Then, since it is determined as (a) in FIG. 12, since the directions of the axes of the paper surface 20 and the image display unit 13 match, no processing is performed.
Case 2: “Absolute value of dX (t2)” <“Absolute value of dY (t2)”, 0> dY (t2), and “Absolute value of dX (t2)” ÷ (−dY (t2) ) <Δ, it is determined as (A) in FIG. 12, and the image data with information 30 stored in the memory 14 is rotated by 90 degrees and overwritten. Further, since the positional relationship between the image display unit 13 and the paper surface 20 at the time of contact needs to be rotated by 90 degrees, (X (t2), Y (t2)) = (− Y (t2), X (t2)) And
Case 3: “absolute value of dX (t2)” <“absolute value of dY (t2)”, 0 <dY (t2), and “absolute value of dX (t2)” ÷ dY (t2) <Δ Then, since it is determined as (c) in FIG. 12, the image data with information 30 stored in the memory 14 is rotated by −90 degrees and overwritten. Further, since the positional relationship between the image display unit 13 and the paper surface 20 at the time of contact needs to be rotated by −90 degrees, (X (t2), Y (t2)) = (Y (t2), −X (t2) ).
Case 4: If none of the above cases 1, 2, and 3 is met, the message “The device is tilted too much with respect to the paper surface” is displayed on the image display unit 13 and forced. finish.
Here, Δ is a minute value and is a threshold value for continuing the AR operation without causing an error even if the AR device 10 is slightly inclined.

場合1、場合2、および、場合3の状態に対する図を、それぞれ、図13の(ア)、(イ)および(ウ)に記す。この図には、回転した後の軸(ステップ15で更新した後の軸)を記してある。なお、図13の中に記述されている50は、「情報付き画像データ30」である。51は、「情報付き画像データ30の座標原点」である。52は、「情報付き画像データ30のステップ15の画像回転により更新されたx軸」である。53は、「情報付き画像データ30のステップ15の画像回転により更新されたy軸」である。図13における44乃至47は、図12に記したものと同じである。図13中に書かれている「ステップ15により更新された(X(t2),Y(t2))」は、情報付き画像データ30のステップ15により更新された座標系(更新されたx軸、y軸)におけるベクトルである。 FIGS. 13A, 13A, and 13C show diagrams for the cases 1, 2, and 3, respectively. In this figure, the axis after rotation (the axis after updating in step 15) is shown. Note that 50 described in FIG. 13 is “image data 30 with information”. Reference numeral 51 denotes “the coordinate origin of the image data with information 30”. Reference numeral 52 denotes “x-axis updated by image rotation in step 15 of the image data with information 30”. 53 is “y-axis updated by image rotation in step 15 of image data with information 30”. Reference numerals 44 to 47 in FIG. 13 are the same as those shown in FIG. “Updated by step 15 (X (t2), Y (t2))” written in FIG. 13 is the coordinate system updated by step 15 of the image data with information 30 (updated x-axis, y-axis).

ステップ15の後、場合4を除き、ステップ16(図10)に進む。 After step 15, except for case 4, the process proceeds to step 16 (FIG. 10).

ステップ16では、あらたに時刻を表すパラメータsに0をセットする。また、最初の時刻における紙面20に対する画像表示部13の位置関係を示す値(Xoffset、Yoffset)に(X(t2),Y(t2))の値を代入し、この値をメモリ14に格納しておく。さらに、(XX(0)、YY(0))=(Xoffset、Yoffset)として、この値もメモリ14に格納しておく。そして、ステップ17に進む。 In step 16, a new parameter s representing time is set to 0. Further, values (X (t2), Y (t2)) are substituted for values (Xoffset, Yoffset) indicating the positional relationship of the image display unit 13 with respect to the paper surface 20 at the first time, and these values are stored in the memory 14. Keep it. Further, this value is also stored in the memory 14 as (XX (0), YY (0)) = (Xoffset, Yoffset). Then, the process proceeds to Step 17.

ステップ17では、画像表示部13にて、現在の時刻sにおける適切な画像を表示する。すなわち、メモリ14よりバス18を介して、情報付き画像データ30と(XX(s)、YY(s))をCPU11に送る。CPU11では、(XX(s)、YY(s))を中心とした(WD、HD)の領域を、情報付き画像データ30から切り取り、画像表示部13に送る。画像表示部13では、この画像が表示される。これにより、紙面20に置かれたAR装置10内の画像表示部13は、あたかも、透明なガラスを通して、紙面20を直接見ているかのような錯覚をユーザに起こさせることができるので、ユーザは一体感を感じる。そして、透明なガラス部分に、情報32(厳密には、情報32の一部分)が書かれているように感じる。なぜなら、紙面20上に対して、画像表示部13の中心は(XX(s)、YY(s))に位置しており、そして、紙面20と同じ大きさの情報付き画像データ30から、(XX(s)、YY(s))を中心とした「画像表示部13の大きさである(WD、HD)」を切り出して表示しているからである。ステップ17の後、ステップ18に進む。 In step 17, an appropriate image at the current time s is displayed on the image display unit 13. That is, the image data with information 30 and (XX (s), YY (s)) are sent from the memory 14 via the bus 18 to the CPU 11. In the CPU 11, the (WD, HD) area centered on (XX (s), YY (s)) is cut out from the image data with information 30 and sent to the image display unit 13. The image display unit 13 displays this image. As a result, the image display unit 13 in the AR device 10 placed on the paper surface 20 can cause the user to have the illusion that the paper surface 20 is directly viewed through the transparent glass. I feel a sense of unity. And it feels as if the information 32 (strictly, a part of the information 32) is written on the transparent glass portion. This is because the center of the image display unit 13 is located at (XX (s), YY (s)) with respect to the paper surface 20, and from the image data 30 with information of the same size as the paper surface 20, This is because “the size of the image display unit 13 (WD, HD)” centering on XX (s), YY (s)) is cut out and displayed. After step 17, proceed to step 18.

ステップ18では、単位時間(たとえば、1/30秒)だけ待つ。そして、単位時間進んだので、sを1だけインクリメントする。そして、現在の時刻における加速度センサ16のx軸の値(ax(s)とする)とy軸の値(ay(s)とする)を、バス18を介して、メモリ14に格納する。そして、ステップ19に進む。 In step 18, it waits for unit time (for example, 1/30 second). Since the unit time has advanced, s is incremented by one. Then, the x-axis value (referred to as ax (s)) and the y-axis value (referred to as ay (s)) of the acceleration sensor 16 at the current time are stored in the memory 14 via the bus 18. Then, the process proceeds to Step 19.

ステップ19では、位置情報の更新を行う。すなわち、メモリに格納されているs=1から現在までのすべての時刻におけるax(s)およびay(s)の値および(Xoffset、Yoffset)を、バス18を介して、CPU11に送る。CPU11では、ax(s)を最初の時刻(s=1)から現在までの時間を2回積分して、さらに、Xoffsetを加算した値を計算し、XX(s)とする。ay(s)を最初の時刻(s=1)から現在までの時間を2回積分して、さらに、Yoffsetを加算した値を計算し、YY(s)とする。加速度センサの値を2回積分することで位置の変化をもとめることができる。(XX(s)、YY(s))の値は、バス18を介して、メモリ14に格納される。ステップ19の後、ステップ20に進む。 In step 19, the position information is updated. That is, the values of ax (s) and ay (s) and (Xoffset, Yoffset) at all times from s = 1 to the present stored in the memory are sent to the CPU 11 via the bus 18. In the CPU 11, the time from the first time (s = 1) to the present time is integrated twice with ax (s), and a value obtained by adding Xoffset is further calculated as XX (s). The time from the first time (s = 1) to the present time is integrated twice for ay (s), and a value obtained by adding Yoffset is calculated to be YY (s). The position change can be obtained by integrating the value of the acceleration sensor twice. The values of (XX (s), YY (s)) are stored in the memory 14 via the bus 18. After step 19, proceed to step 20.

ステップ20では、ユーザによる位置の微調整を行う。ステップ19での積分は、時間がたつにつれて、誤差が累積してしまい、紙面20に対する画像表示部13の位置ずれが顕著になってくる可能性がある。そこで、ユーザが明示的に修正を加えられるようにしておく。具体的には、ユーザは、操作部12より、(Xoffset、Yoffset)の値を入力する。操作部12より入力された(Xoffset、Yoffset)はバス18を介して、メモリ14に格納されている(Xoffset、Yoffset)の値を上書きする。この更新により、次回の表示のときに、位置が修正された適切な領域が表示できる。ステップ20の後、ステップ21に進む。 In step 20, the position is finely adjusted by the user. The integration in step 19 may accumulate errors over time, and the positional displacement of the image display unit 13 with respect to the paper surface 20 may become significant. Therefore, the user can explicitly make corrections. Specifically, the user inputs a value of (Xoffset, Yoffset) from the operation unit 12. (Xoffset, Yoffset) input from the operation unit 12 overwrites the value of (Xoffset, Yoffset) stored in the memory 14 via the bus 18. By this update, an appropriate area whose position is corrected can be displayed at the next display. After step 20, the process proceeds to step 21.

ステップ21では、AR動作の終了を検知する。すなわち、加速度センサ16のz軸の値が、負の値であるかを判断する。負の値であれば、紙面20からAR装置10が離れたことを意味する。負でなければ、紙面20上にAR装置が接地され続けていることが分かる。そこで、ステップ21では、加速度センサ16のz軸の値が、負の値である場合には、ステップ22に進む。そうでなければ、AR動作を続けるために、ステップ17に戻る。 In step 21, the end of the AR operation is detected. That is, it is determined whether the z-axis value of the acceleration sensor 16 is a negative value. A negative value means that the AR device 10 is separated from the paper surface 20. If it is not negative, it can be seen that the AR device continues to be grounded on the paper surface 20. Therefore, in step 21, if the value of the z-axis of the acceleration sensor 16 is a negative value, the process proceeds to step 22. Otherwise, return to step 17 to continue the AR operation.

ステップ22では、画像表示部13での表示を終了させて、AR動作を終了させる。 In step 22, the display on the image display unit 13 is terminated and the AR operation is terminated.

以上で本発明の実施例の説明を終える。 This is the end of the description of the embodiment of the present invention.

本発明においては、図14に示すように、紙面20に対してAR装置10を接地して使用する。そのため、ユーザの目の位置にかかわらず、画像表示部13には、紙面20内の適切な領域を、紙面20と同じ大きさで表示させることで、実際の風景(紙面20)に対して一体感のある画像表示をさせることができる。すなわち、画像表示部は、あたかも透明なガラスであるかのように見せることができる。そして、ユーザがAR装置10を移動させても、移動させた量と同じ量だけ、情報付き画像データ30からの切り取り領域を変更して、表示させるので、画像表示部は、あたかも透明なガラスであるかのように見せ続けさせることができる。 In the present invention, as shown in FIG. 14, the AR device 10 is used while being grounded with respect to the paper surface 20. Therefore, regardless of the position of the user's eyes, the image display unit 13 displays an appropriate area in the paper surface 20 in the same size as the paper surface 20, so that the actual landscape (the paper surface 20) is displayed. It is possible to display an image with a bodily sensation. In other words, the image display unit can appear as if it is transparent glass. Even if the user moves the AR device 10, the cut area from the image data with information 30 is changed and displayed by the same amount as the moved amount, so that the image display unit is made of transparent glass. You can keep it looking as if it were.

なお、上記本発明の実施例においては、ユーザがAR装置10を紙面20上で移動させる際に、平行移動のみを許可しており、回転させることを想定していない。もし、回転も許可する場合は、AR装置10内に、ジャイロセンサを設けて、紙面20に対するAR装置10の傾き具合を検知するようにすれば良い。そして、上記(XX(s)、YY(s))の値と、ジャイロセンサより検出されたその傾き具合とにより、情報付き画像データ30から切り取る領域を決定して、その領域部分を、画像表示部13にて表示すれば良い。 In the above-described embodiment of the present invention, when the user moves the AR device 10 on the paper surface 20, only the parallel movement is permitted, and it is not assumed that the AR device 10 is rotated. If rotation is also permitted, a gyro sensor may be provided in the AR device 10 to detect the inclination of the AR device 10 with respect to the paper surface 20. Then, a region to be cut out from the image data with information 30 is determined based on the values of (XX (s), YY (s)) and the inclination detected by the gyro sensor, and the region portion is displayed as an image. What is necessary is just to display in the part 13.

また、上記本発明の実施例においては、QRコードにより情報付き画像データ30をダウンロードするとして説明したが、以下のような方法で情報付き画像データ30を取得しても良い。すなわち、紙面20を撮影し、紙面20内に描かれている物体を認識する。そして、認識された物体に対する情報を、インターネット上で検索して、検索された情報を付加することで、情報付き画像データ30を作成しても良い。 In the embodiment of the present invention described above, the image data with information 30 is downloaded as a QR code. However, the image data with information 30 may be acquired by the following method. That is, the paper surface 20 is photographed and an object drawn in the paper surface 20 is recognized. Then, information on the recognized object may be searched on the Internet, and the searched image data 30 may be created by adding the searched information.

以上、本発明の実施形態を詳述してきたが、具体的な構成は本実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 As mentioned above, although embodiment of this invention was explained in full detail, the concrete structure is not restricted to this embodiment, The design change etc. of the range which does not deviate from the summary of this invention are included.

さらに、本技術は、以下の構成とすることも可能である。 Furthermore, this technique can also be set as the following structures.

[1]
画像の中から特定領域のみを画像表示装置に表示する画像表示方法であって、
上記画像をメモリに格納する画像データ格納ステップと、
上記画像表示装置の移動量を計測する位置計測ステップと、
直前の時刻における上記特定領域に対して、上記位置計測ステップで計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新ステップと、
上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示ステップと
を含む画像表示方法。
[2]
上記画像表示装置に対して衝撃を検知した時に、上記画像表示装置への表示を初める処理を行う処理開始ステップ、
あるいは、
上記画像表示装置の表示面側への移動を検知した時に、上記画像表示装置への表示を終了する処理を行う処理終了ステップ、
の少なくともいずれか1つのステップを
さらに含む[1]に記載の画像表示方法。
[3]
上記画像表示装置への表示を初める時刻よりも前に、
上記画像表示装置に設置された撮像手段により撮影された画像を解析して上記画像表示装置への表示を初める時刻における位置を計算する初期位置計算ステップを
さらに含む[1]または[2]に記載の画像表示方法。
[4]
上記特定領域は、上記画像表示装置の表示部の大きさと同じ大きさであるという条件を付けて上記領域更新ステップで上記特定領域を更新することを
特徴とする[1]乃至[3]に記載の画像表示方法。
[5]
上記画像表示装置への表示を初める時刻における画像表示装置の傾き具合に応じて、上記表示ステップで上記画像表示装置に表示する上記特定領域の画像を90度または−90度回転させて表示させることを
特徴とする[1]乃至[4]に記載の画像表示方法。
[6]
画像の中から特定領域のみを表示する画像表示装置であって、
上記画像を格納するメモリ部と、
上記画像表示装置の移動量を計測する位置計測部と、
直前の時刻における上記特定領域に対して、上記位置計測部で計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新部と、
上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示制御部と
を備える画像表示装置。
[7]
画像の中から特定領域のみを画像表示装置に表示する画像表示プログラムであって、
上記画像をメモリに格納する画像データ格納ステップと、
上記画像表示装置の移動量を計測する位置計測ステップと、
直前の時刻における上記特定領域に対して、上記位置計測ステップで計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新ステップと、
上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示ステップと
を含む処理をコンピュータに実行させる画像表示プログラム。
[1]
An image display method for displaying only a specific area from an image on an image display device,
An image data storage step for storing the image in a memory;
A position measuring step for measuring the amount of movement of the image display device;
An area for changing the specific area so that an area moved by the same amount as the movement amount measured in the position measurement step with respect to the specific area at the immediately preceding time is set as the specific area at the current time. An update step;
A display step of causing the image display device to display only the specific area of the image.
[2]
A process start step for performing a process of starting display on the image display device when an impact is detected on the image display device;
Or
A process end step for performing a process of ending the display on the image display device when movement of the image display device toward the display surface is detected;
The image display method according to [1], further including at least one of the steps.
[3]
Before the time to start displaying on the image display device,
The method according to [1] or [2], further including an initial position calculating step of analyzing an image captured by an imaging unit installed in the image display device and calculating a position at a time when display on the image display device is started. Image display method.
[4]
[1] to [3], wherein the specific area is updated in the area update step under a condition that the specific area is the same size as a display unit of the image display device. Image display method.
[5]
The image of the specific area displayed on the image display device in the display step is rotated by 90 degrees or -90 degrees and displayed in accordance with the inclination of the image display device at the time of starting the display on the image display device. The image display method according to any one of [1] to [4].
[6]
An image display device that displays only a specific area from an image,
A memory unit for storing the image;
A position measuring unit for measuring the movement amount of the image display device;
An area for changing the specific area so that an area moved by the same amount as the movement amount measured by the position measurement unit with respect to the specific area at the immediately preceding time is set as the specific area at the current time. An update section;
An image display device comprising: a display control unit that causes the image display device to display only the specific region of the image.
[7]
An image display program for displaying only a specific area from an image on an image display device,
An image data storage step for storing the image in a memory;
A position measuring step for measuring the amount of movement of the image display device;
An area for changing the specific area so that an area moved by the same amount as the movement amount measured in the position measurement step with respect to the specific area at the immediately preceding time is set as the specific area at the current time. An update step;
An image display program for causing a computer to execute a process including a display step of causing the image display device to display only the specific area of the image.

10…画像表示装置(AR装置)
11…中央演算処理部
12…操作部
13…画像表示部
14…メモリ
15…撮像部
16…加速度センサ
17…ネットワークインターフェース部
18…バス
20…紙面
21…2次元バーコード
30…情報付き画像データ
31…画像
32…情報
100…従来の画像表示装置(従来のAR装置)
110…画像表示部
120…撮像部
200…紙面
300…画像
310…情報
400…ユーザの目
10. Image display device (AR device)
DESCRIPTION OF SYMBOLS 11 ... Central processing part 12 ... Operation part 13 ... Image display part 14 ... Memory 15 ... Imaging part 16 ... Acceleration sensor 17 ... Network interface part 18 ... Bus 20 ... Paper surface 21 ... Two-dimensional barcode 30 ... Image data 31 with information ... Image 32 ... Information 100 ... Conventional image display device (conventional AR device)
110 ... Image display unit 120 ... Imaging unit 200 ... Paper surface 300 ... Image 310 ... Information 400 ... User's eyes

Claims (7)

画像の中から特定領域のみを画像表示装置に表示する画像表示方法であって、
上記画像をメモリに格納する画像データ格納ステップと、
上記画像表示装置の移動量を計測する位置計測ステップと、
直前の時刻における上記特定領域に対して、上記位置計測ステップで計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新ステップと、
上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示ステップと
を含む画像表示方法。
An image display method for displaying only a specific area from an image on an image display device,
An image data storage step for storing the image in a memory;
A position measuring step for measuring the amount of movement of the image display device;
An area for changing the specific area so that an area moved by the same amount as the movement amount measured in the position measurement step with respect to the specific area at the immediately preceding time is set as the specific area at the current time. An update step;
A display step of causing the image display device to display only the specific area of the image.
上記画像表示装置に対して衝撃を検知した時に、上記画像表示装置への表示を初める処理を行う処理開始ステップ、
あるいは、
上記画像表示装置の表示面側への移動を検知した時に、上記画像表示装置への表示を終了する処理を行う処理終了ステップ、
の少なくともいずれか1つのステップを
さらに含む請求項1記載の画像表示方法。
A process start step for performing a process of starting display on the image display device when an impact is detected on the image display device;
Or
A process end step for performing a process of ending the display on the image display device when movement of the image display device toward the display surface is detected;
The image display method according to claim 1, further comprising at least one step of:
上記画像表示装置への表示を初める時刻よりも前に、
上記画像表示装置に設置された撮像手段により撮影された画像を解析して上記画像表示装置への表示を初める時刻における位置を計算する初期位置計算ステップを
さらに含む請求項1あるいは請求項2記載の画像表示方法。
Before the time to start displaying on the image display device,
3. The initial position calculating step according to claim 1, further comprising an initial position calculating step of analyzing an image captured by an imaging means installed in the image display device and calculating a position at a time when display on the image display device is started. Image display method.
上記特定領域は、上記画像表示装置の表示部の大きさと同じ大きさであるという条件を付けて上記領域更新ステップで上記特定領域を更新することを
特徴とする請求項1、請求項2あるいは請求項3記載の画像表示方法。
3. The specific area is updated in the area update step with a condition that the specific area is the same size as a display unit of the image display device. Item 4. The image display method according to Item 3.
上記画像表示装置への表示を初める時刻における画像表示装置の傾き具合に応じて、上記表示ステップで上記画像表示装置に表示する上記特定領域の画像を90度または−90度回転させて表示させることを
特徴とする請求項1、請求項2、請求項3あるいは請求項4記載の画像表示方法。
The image of the specific area displayed on the image display device in the display step is rotated by 90 degrees or -90 degrees and displayed in accordance with the inclination of the image display device at the time of starting the display on the image display device. The image display method according to claim 1, 2, 3, or 4.
画像の中から特定領域のみを表示する画像表示装置であって、
上記画像を格納するメモリ部と、
上記画像表示装置の移動量を計測する位置計測部と、
直前の時刻における上記特定領域に対して、上記位置計測部で計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新部と、
上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示制御部と
を備える画像表示装置。
An image display device that displays only a specific area from an image,
A memory unit for storing the image;
A position measuring unit for measuring the movement amount of the image display device;
An area for changing the specific area so that an area moved by the same amount as the movement amount measured by the position measurement unit with respect to the specific area at the immediately preceding time is set as the specific area at the current time. An update section;
An image display device comprising: a display control unit that causes the image display device to display only the specific region of the image.
画像の中から特定領域のみを画像表示装置に表示する画像表示プログラムであって、
上記画像をメモリに格納する画像データ格納ステップと、
上記画像表示装置の移動量を計測する位置計測ステップと、
直前の時刻における上記特定領域に対して、上記位置計測ステップで計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新ステップと、
上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示ステップと
を含む処理をコンピュータに実行させる画像表示プログラム。
An image display program for displaying only a specific area from an image on an image display device,
An image data storage step for storing the image in a memory;
A position measuring step for measuring the amount of movement of the image display device;
An area for changing the specific area so that an area moved by the same amount as the movement amount measured in the position measurement step with respect to the specific area at the immediately preceding time is set as the specific area at the current time. An update step;
The image display program which makes a computer perform the process including the display step which displays only the said specific area | region among the said images on the said image display apparatus.
JP2014059305A 2014-03-21 2014-03-21 Image display method, device, and program Pending JP2015184391A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014059305A JP2015184391A (en) 2014-03-21 2014-03-21 Image display method, device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014059305A JP2015184391A (en) 2014-03-21 2014-03-21 Image display method, device, and program

Publications (1)

Publication Number Publication Date
JP2015184391A true JP2015184391A (en) 2015-10-22

Family

ID=54351011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014059305A Pending JP2015184391A (en) 2014-03-21 2014-03-21 Image display method, device, and program

Country Status (1)

Country Link
JP (1) JP2015184391A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001117553A (en) * 1999-10-21 2001-04-27 Casio Comput Co Ltd Portable information terminal device and recording medium
JP2002007072A (en) * 2000-06-27 2002-01-11 Namco Ltd Position instructing device and information storage medium
JP2002259991A (en) * 2001-02-28 2002-09-13 Sony Corp Image processor and its method
WO2013021539A1 (en) * 2011-08-10 2013-02-14 パナソニック株式会社 Information display device
JP2015027008A (en) * 2013-07-29 2015-02-05 富士通株式会社 Information processing device, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001117553A (en) * 1999-10-21 2001-04-27 Casio Comput Co Ltd Portable information terminal device and recording medium
JP2002007072A (en) * 2000-06-27 2002-01-11 Namco Ltd Position instructing device and information storage medium
JP2002259991A (en) * 2001-02-28 2002-09-13 Sony Corp Image processor and its method
WO2013021539A1 (en) * 2011-08-10 2013-02-14 パナソニック株式会社 Information display device
JP2015027008A (en) * 2013-07-29 2015-02-05 富士通株式会社 Information processing device, and program

Similar Documents

Publication Publication Date Title
US11164001B2 (en) Method, apparatus, and system for automatically annotating a target object in images
CN110073313B (en) Interacting with an environment using a parent device and at least one companion device
US10095458B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
US9495068B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
US20150062123A1 (en) Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model
JP5248806B2 (en) Information processing apparatus and information processing method
JP2016006589A (en) Display device, control program and control method
KR102337209B1 (en) Method for notifying environmental context information, electronic apparatus and storage medium
US20240346745A1 (en) Image processing apparatus, method for controlling the same, and non-transitory computer-readable storage medium
JP2019185475A (en) Specification program, specification method, and information processing device
US9030501B2 (en) Methods and systems for modifying a display of a field of view of a robotic device to include zoomed-in and zoomed-out views
US20230360267A1 (en) Intrinsic parameters estimation in visual tracking systems
WO2015072091A1 (en) Image processing device, image processing method, and program storage medium
CN115578432A (en) Image processing method, image processing device, electronic equipment and storage medium
CN114201028B (en) Augmented reality system and method for anchoring display virtual object thereof
JP6371547B2 (en) Image processing apparatus, method, and program
CN117321472A (en) Post-warping to minimize delays in moving objects
WO2022246388A1 (en) Intrinsic parameters estimation in visual tracking systems
JP6204781B2 (en) Information processing method, information processing apparatus, and computer program
JP2015184391A (en) Image display method, device, and program
JP7570711B2 (en) Method for providing virtual indoor space content and server therefor
JP2021060856A (en) Image synthesis apparatus, control method thereof, and program
JP2016023962A (en) Method for measuring subject size, device for measuring subject size, program for measuring subject size, image display method, image display device and image display program
JP2023532831A (en) Virtual indoor space content providing method and server therefor
US20240303934A1 (en) Adaptive image processing for augmented reality device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180918