JP2015184391A - Image display method, device, and program - Google Patents
Image display method, device, and program Download PDFInfo
- Publication number
- JP2015184391A JP2015184391A JP2014059305A JP2014059305A JP2015184391A JP 2015184391 A JP2015184391 A JP 2015184391A JP 2014059305 A JP2014059305 A JP 2014059305A JP 2014059305 A JP2014059305 A JP 2014059305A JP 2015184391 A JP2015184391 A JP 2015184391A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image display
- display device
- specific area
- paper surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本技術は、撮影対象物体を撮影して、撮影された画像の中に、情報を重畳させて表示させる方法、装置、並びに、プログラムに関する。 The present technology relates to a method, an apparatus, and a program for photographing an object to be photographed and displaying information superimposed on the photographed image.
近年、拡張現実感(AR:Augmented Reality)を用いたアプリケーションが実現されてきている。たとえば、スマートフォンやタブレットPCを用いて、紙面などの対象物体を撮影すると、撮影された画像の中に、情報を重畳させて表示させるアプリケーションである。より具体的には、株式会社中日新聞社東京本社が提供する「東京AR」というアプリケーションである。また、非特許文献1のFigure 1にも、同様のアプリケーションの例が記載されている。さらに、特許文献1にも同様のアプリケーションが開示されている。
In recent years, applications using augmented reality (AR) have been realized. For example, when a target object such as a paper surface is photographed using a smartphone or a tablet PC, the application is displayed by superimposing information on the photographed image. More specifically, it is an application called “Tokyo AR” provided by the Tokyo head office of Chunichi Shimbun. Also, FIG. 1 of Non-Patent
これらアプリケーションの具体的な使用手順を、図を用いて説明する。 Specific procedures for using these applications will be described with reference to the drawings.
図1の(ア)内の100が従来のAR装置(具体的にはスマートフォンあるいはタブレットPCなど)である。AR装置100には、画像表示部110と、撮像部120を有している。撮像部120は、画像表示部110に対して反対側に設置されており、図中には見えていない。撮像部120により、4つの点線130、131、132および133で示した範囲の内側が撮影される。ちなみに、4つの点線で示した範囲の内側を視野角という。また、200は紙面である。紙面とは、たとえば、雑誌の特定の1ページである。あるいは、新聞紙の一面である。図1の(ア)では、紙面200に、自動車の写真が掲載されている例を示している。ユーザが、撮像部120を用いて、紙面200を撮影すると、AR装置100は、画像を解析して、所望の処理を行い、画像表示部110に画像と情報を表示する。すなわち、撮像部120により撮影された画像300(図1の(イ))は、画像表示部110にて表示され、さらに、情報310(図1の(ウ))も重畳して表示される。図1の例では、情報310は、「展示場で試乗できます」というテキスト情報である。図1の(ア)の画像表示部110には、このような画像300と情報310を表示している状況を示している。
100 in FIG. 1A is a conventional AR device (specifically, a smartphone or a tablet PC). The AR device 100 includes an
図1の(ア)の400は、ユーザの目を示している。図1の(ア)は、ユーザが、画像表示部110を見ている場面である。
Reference numeral 400 in FIG. 1A denotes the user's eyes. FIG. 1A shows a scene where the user is looking at the
ユーザの目400から見える光景を、図2に示す。ユーザからは、図2に示すように、AR装置100が見える。AR装置100内の画像表示部110には、画像300および情報310が見える。また、AR装置100の外側には、実世界の風景が見える。すなわち、紙面200が見える。図2において、紙面200と、画像表示部110内の画像300とは、一体感がない。これは、対象物体である自動車の大きさが違うからである。
A view seen from the user's eye 400 is shown in FIG. As shown in FIG. 2, the AR device 100 is visible to the user. An image 300 and information 310 can be seen on the
仮に、撮影された画像300の一部分のみ(図1の(イ)の320で示された点線矩形領域)を画像表示部110に表示させる場合を考えてみよう。この場合、情報310も、図1の(イ)の330の部分のみを画像表示部110に表示させる。画像300に対する部分画像320の位置関係と、情報310に対する部分情報330の位置関係は同じとする。この場合、ユーザの目400から見える光景を、図3に示す。ユーザからは、図3に示すように、AR装置100が見える。AR装置100内の画像表示部110には、部分画像320および部分情報330が見える。また、AR装置100の外側には、実世界の風景が見える。すなわち、紙面200が見える。図2と違い、紙面200と、画像表示部110内の画像320とは、一体感がある。これは、同じ大きさだからである。あたかも、画像表示部110は透明なガラスのようであり、画像表示部110の部分は、透明なガラスを通して、紙面200を直接見ているかのような錯覚をユーザに起こさせることができるので、一体感を感じる。そして、透明なガラス部分に、部分情報330が書かれているように感じる。
Let us consider a case where only a part of the photographed image 300 (dotted line rectangular region indicated by 320 in FIG. 1A) is displayed on the
撮影された画像300の全体を画像表示部110に表示させるのではなく、画像300の適切な一部分(部分画像320)を表示させることで、実際の風景に対して、一体感のある画像表示をすることができる。しかしながら、表示するために適切な部分画像の領域は、ユーザの目400と画像表示部110と紙面200の位置関係に依存するため、それら位置関係が不明である以上、適切な部分画像を求めることができなかった。すなわち、図3に示すような光景を提示することは不可能であった。
Instead of displaying the entire photographed image 300 on the
もし仮に、図3に示すような光景が提示できたとしよう。表示した後、ユーザがAR装置100を移動させた場合を考えてみる。この場合、移動の後も、一体感のある画像を表示するためには、画像300から切り出す部分画像の領域を変更しなくてはいけない。しかしながら、この領域の変更も不可能であった。なぜなら、移動後に表示するための適切な部分画像の領域は、移動後のユーザの目400と画像表示部110と紙面200の位置関係に依存するためであり、それら位置関係が不明であるからである。
Suppose that the scene shown in FIG. 3 can be presented. Consider the case where the user moves the AR device 100 after the display. In this case, in order to display an image with a sense of unity even after movement, the area of the partial image cut out from the image 300 must be changed. However, this area could not be changed. This is because the appropriate partial image area to be displayed after movement depends on the positional relationship among the user's eyes 400, the
以上をまとめると、従来技術では、以下の欠点があった。
(欠点1)ユーザの目400から見えるAR装置100は、実際の風景に対して、一体感のある画像表示をすることができなかった。
(欠点2)もし仮に、一体感のある画像表示をすることができたとしても、その後、ユーザがAR装置100を移動させると、移動後は一体感のある画像表示をすることができなかった。
(欠点3)ユーザは、AR装置100を空中で保持しなくてはいけないため、疲れる。
(欠点4)常に撮像部120で撮影し続けるために、電力を消費し続けてしまう。
In summary, the prior art has the following drawbacks.
(Disadvantage 1) The AR device 100 visible from the user's eyes 400 cannot display an image with a sense of unity with respect to an actual landscape.
(Disadvantage 2) Even if it is possible to display an image with a sense of unity, if the user subsequently moves the AR device 100, the image cannot be displayed with a sense of unity after the movement. .
(Disadvantage 3) The user is tired because the AR device 100 must be held in the air.
(Defect 4) Since the imaging unit 120 always keeps shooting, power is consumed continuously.
前述のとおり、特許文献1や非特許文献1に記載の技術を用いることで、拡張現実感(AR:Augmented Reality)を実現できるが、表示に関しては一体感がなかった。つまり、再度述べると、従来技術では、以下の欠点があった。
(欠点1)ユーザの目400から見えるAR装置100は、実際の風景に対して、一体感のある画像表示をすることができなかった。
(欠点2)もし仮に、一体感のある画像表示をすることができたとしても、その後、ユーザがAR装置100を移動させると、移動後は一体感のある画像表示をすることができなかった。
(欠点3)ユーザは、AR装置100を空中で保持しなくてはいけないため、疲れる。
(欠点4)常に撮像部120で撮影し続けるために、電力を消費し続けてしまう。
As described above, augmented reality (AR) can be realized by using the techniques described in
(Disadvantage 1) The AR device 100 visible from the user's eyes 400 cannot display an image with a sense of unity with respect to an actual landscape.
(Disadvantage 2) Even if it is possible to display an image with a sense of unity, if the user subsequently moves the AR device 100, the image cannot be displayed with a sense of unity after the movement. .
(Disadvantage 3) The user is tired because the AR device 100 must be held in the air.
(Defect 4) Since the imaging unit 120 always keeps shooting, power is consumed continuously.
本技術は、このような状況に鑑みてなされたものであり、一体感のある画像表示をさせるようにするものである。また、ユーザはAR装置を保持しないで済むようにした。さらに、ARの動作を行っている最中には、撮影を行わないようにするので、消費電力を下げることができる。 The present technology has been made in view of such a situation, and is intended to display an image with a sense of unity. Also, the user does not have to hold the AR device. Further, since shooting is not performed during the AR operation, power consumption can be reduced.
本技術の一側面の画像表示方法は、画像の中から特定領域のみを画像表示装置に表示する画像表示方法であって、上記画像をメモリに格納する画像データ格納ステップと、上記画像表示装置の移動量を計測する位置計測ステップと、直前の時刻における上記特定領域に対して、上記位置計測ステップで計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新ステップと、上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示ステップとを含む。これにより、一体感のある画像表示を可能とする。 An image display method according to one aspect of the present technology is an image display method for displaying only a specific area from an image on an image display device, the image data storing step for storing the image in a memory, and the image display device. An area that is moved by the same amount as the movement amount measured in the position measurement step with respect to the specific area at the time immediately before the position measurement step that measures the movement amount is set as the specific area at the current time. As described above, a region updating step for changing the specific region and a display step for displaying only the specific region in the image on the image display device are included. Thereby, it is possible to display an image with a sense of unity.
上記画像表示装置に対して衝撃を検知した時に、上記画像表示装置への表示を初める処理を行う処理開始ステップ、あるいは、上記画像表示装置の表示面側への移動を検知した時に、上記画像表示装置への表示を終了する処理を行う処理終了ステップ、の少なくともいずれか1つのステップをさらに含めても良い。これにより、自動で表示の開始あるいは終了を行うことが出来る。 When an impact is detected with respect to the image display device, a process start step for performing a process of starting display on the image display device, or when the movement of the image display device toward the display surface is detected, the image display You may further include at least any one step of the process end step which performs the process which complete | finishes the display to an apparatus. Thereby, the display can be automatically started or ended.
上記画像表示装置への表示を初める時刻よりも前に、上記画像表示装置に設置された撮像手段により撮影された画像を解析して上記画像表示装置への表示を初める時刻における位置を計算する初期位置計算ステップをさらに含めても良い。これにより、一体感のある画像表示を可能とする。 An initial stage for calculating a position at the time of starting the display on the image display device by analyzing the image taken by the imaging means installed in the image display device before the time of starting the display on the image display device A position calculation step may be further included. Thereby, it is possible to display an image with a sense of unity.
上記特定領域は、上記画像表示装置の表示部の大きさと同じ大きさであるという条件を付けて上記領域更新ステップで上記特定領域を更新するようにしても良い。これにより、一体感のある画像表示を可能とする。 The specific area may be updated in the area update step under a condition that the specific area is the same size as the display unit of the image display device. Thereby, it is possible to display an image with a sense of unity.
上記画像表示装置への表示を初める時刻における画像表示装置の傾き具合に応じて、上記表示ステップで上記画像表示装置に表示する上記特定領域の画像を90度または−90度回転させて表示させるようにしても良い。これにより、一体感のある画像表示を可能とする。 The image of the specific area displayed on the image display device in the display step is rotated by 90 degrees or -90 degrees and displayed in accordance with the inclination of the image display device at the time of starting the display on the image display device. Anyway. Thereby, it is possible to display an image with a sense of unity.
本技術の一側面の画像表示装置は、画像の中から特定領域のみを表示する画像表示装置であって、上記画像を格納するメモリ部と、上記画像表示装置の移動量を計測する位置計測部と、直前の時刻における上記特定領域に対して、上記位置計測部で計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新部と、上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示制御部とを備える。これにより、一体感のある画像表示を可能とする。 An image display device according to an aspect of the present technology is an image display device that displays only a specific area from an image, and includes a memory unit that stores the image and a position measurement unit that measures a movement amount of the image display device. The specific area is changed so that the area moved by the same amount as the movement amount measured by the position measurement unit with respect to the specific area at the immediately preceding time is set as the specific area at the current time. And a display control unit that causes the image display device to display only the specific region of the image. Thereby, it is possible to display an image with a sense of unity.
本技術の一側面の画像表示プログラムは、画像の中から特定領域のみを画像表示装置に表示する画像表示プログラムであって、上記画像をメモリに格納する画像データ格納ステップと、上記画像表示装置の移動量を計測する位置計測ステップと、直前の時刻における上記特定領域に対して、上記位置計測ステップで計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新ステップと、上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示ステップとを含む。これにより、一体感のある画像表示を可能とする。 An image display program according to an aspect of the present technology is an image display program for displaying only a specific area from an image on an image display device, the image data storing step for storing the image in a memory, and the image display device An area that is moved by the same amount as the movement amount measured in the position measurement step with respect to the specific area at the time immediately before the position measurement step that measures the movement amount is set as the specific area at the current time. As described above, a region updating step for changing the specific region and a display step for displaying only the specific region in the image on the image display device are included. Thereby, it is possible to display an image with a sense of unity.
本技術の一側面においては、画像の中から特定領域のみを画像表示装置に表示する画像表示であって、上記画像をメモリに格納し、上記画像表示装置の移動量を計測し、直前の時刻における上記特定領域に対して、上記計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させ、上記画像のうち上記特定領域のみを上記画像表示装置に表示させていく画像表示を行う。これにより、一体感のある画像表示を可能とする。 In one aspect of the present technology, the display is an image display in which only a specific region is displayed on the image display device, the image is stored in a memory, the movement amount of the image display device is measured, and the time immediately before The specific area is changed so that the area moved by the same amount as the measured movement amount is the specific area at the current time, and the specific area of the image is changed. Only the image is displayed on the image display device. Thereby, it is possible to display an image with a sense of unity.
本技術の一側面によれば、一体感のある画像を表示させることができる。また、ユーザはAR装置を保持しないで済むようにできる。さらに、ARの動作を行っている最中には、撮影を行わないようにできる。 According to one aspect of the present technology, an image with a sense of unity can be displayed. Also, the user can avoid holding the AR device. Further, it is possible not to perform shooting during the AR operation.
本発明の利点をまず述べる。前述の従来の欠点(欠点1)から(欠点4)のそれぞれに対応させると、本発明の利点は以下の通りである。
(利点1)AR装置を紙面に接地させているので、ユーザの目の位置に関係なく、画像の適切な一部分のみを表示させることで、実際の風景に対して、一体感のある画像表示をさせることができる。すなわち、画像表示部は、あたかも透明なガラスであるかのように見せることができる。
(利点2)ユーザがAR装置を移動させた場合、その移動量と同じ量だけ、画像から切り出す領域を移動させることで、移動後も一体感のある画像を表示させることができる。
(利点3)AR装置を紙面に接地させて動作させるので、ユーザはAR装置を保持しなくても良い。
(利点4)AR動作を行っている最中は、撮影を行わないので低消費電力での動作が可能である。
さらに、以下の利点もある。
(利点5)紙面に接地したことは、AR装置への衝撃を検出することにより自動で検出するので、ユーザが明示的にAR装置の動作開始(すなわち、表示開始)を指示しなくても良い。
(利点6)ユーザがAR装置を紙面から離した場合、AR装置内の加速度センサによりこの動作を検出し、AR動作を終了させるようにしているので、ユーザが明示的にAR装置の動作終了(すなわち、表示終了)を指示しなくても良い。
The advantages of the present invention are first described. The advantages of the present invention are as follows when each of the above-mentioned conventional defects (defects 1) to (defects 4) is dealt with.
(Advantage 1) Since the AR device is grounded on the paper surface, only an appropriate part of the image is displayed regardless of the position of the user's eyes, thereby displaying an image with a sense of unity with respect to the actual landscape. Can be made. In other words, the image display unit can appear as if it is transparent glass.
(Advantage 2) When the user moves the AR device, by moving the area cut out from the image by the same amount as that amount, an image with a sense of unity can be displayed after the movement.
(Advantage 3) Since the AR device is operated while being grounded on the paper surface, the user does not need to hold the AR device.
(Advantage 4) During the AR operation, since shooting is not performed, an operation with low power consumption is possible.
In addition, there are the following advantages.
(Advantage 5) Since the contact with the paper surface is automatically detected by detecting the impact on the AR device, the user does not need to explicitly give an instruction to start the operation of the AR device (that is, display start). .
(Advantage 6) When the user moves the AR device away from the page, this operation is detected by the acceleration sensor in the AR device and the AR operation is terminated. Therefore, the user explicitly ends the operation of the AR device ( That is, it is not necessary to instruct the display end).
図4に本発明の実施例であるAR装置10を示す。なお、本発明は、ARの体験をユーザに提供する画像表示装置に関するものであり、以降では、AR装置と命名して述べていく。AR装置10には、Central Processing Unit(CPU、中央演算処理部)11と、操作部12と、画像表示部13と、メモリ14と、撮像部15と、加速度センサ16と、ネットワークインターフェース部17とを有し、さらに、11乃至17間でのデータのやりとりを行うことができるようにバス18も有している。このようなAR装置のハードウエア構成は、米IBM社のパーソナル・コンピュータ「P C/ A T( P e r s o n a l C o m p u t e r / A d v a n c e d T e c h n o l o g y)」の互換機又は後継機を採用することができる。勿論、他のアーキテクチャを備えたコンピュータを採用しても良い。また、通常、メモリ14には、オペレーティング・システムが格納されており、このオペレーティング・システム上で、本発明の実施例の処理(以降、AR動作と呼ぶことにする)を行うプログラムが実行される。AR動作を行うプログラムも、あらかじめ、メモリ14上に格納されている。CPU11は、各種演算処理を実行できる。操作部12から、ユーザは各種命令をAR装置10に対して、与えることができる。操作部12は、画像表示装置13と一体化されており、タッチパネルによる入力ができるようにしても良い。画像表示部13には、画像や情報を表示できる。メモリ14には、AR動作を行うプログラムのほか、CPU11で計算されたデータ、撮像部15で撮影された画像、加速度センサ16からの加速度情報、ネットワークインターフェース部17を介してネットワーク上のデータをダウンロードしたものなどを格納することができる。撮像部15は、たとえば、レンズとイメージセンサより成り、外界を撮影して、画像を生成することができる。ネットワークインターフェース部17を介して、AR装置10は、インターネット等のネットワークに接続でき、インターネット上の各種情報にアクセスできる。なお、加速度センサ16は、3軸センサである。すなわち、x軸、y軸、z軸方向の加速度を検出することができるものとする。また、一般的に、加速度センサは重力の影響を受けるが、重力の影響は加速度センサの値から引き算することでキャンセルできるので、以降では、重力の影響はないものとして説明する。
FIG. 4 shows an
このAR装置10を用いた、具体的な使用手順を示す。
A specific use procedure using the
ユーザは、まず、AR動作を行いたい対象物(紙面)を用意する。この紙面の隅には、2次元バーコード(QRコード)が描かれている。図5に、紙面の例を示しておく。図5の20が紙面であり、隅には、2次元バーコード21が記載されている。紙面20には図に示すように自動車の写真が掲載されているとする。
The user first prepares an object (paper surface) on which an AR operation is desired. A two-dimensional bar code (QR code) is drawn at the corner of the page. FIG. 5 shows an example of a paper surface.
ユーザは、AR装置10に対して、AR動作の前処理を行うように、操作部12を介して、AR装置10に命令するとともに、AR装置10をQRコード21に向ける。AR装置10は、この命令を受けると、撮影部15により撮影を行う。そして、撮影画像の中のQRコード21を認識し、QRコード21により指定されたネットワーク上の情報付き画像データ30をダウンロードする。この情報付き画像データ30は、紙面20と同じ大きさであり、「紙面20と同じ画像31と、その画像上に情報32が重畳されている」という形式のデータである。情報付き画像データ30と、それを構成する画像31と情報32の例を、図6に示す。また、本実施例では、情報付き画像データ30は、静止画として、以降説明するが、アニメーションGIFなど動画でも良い。
The user instructs the
次に、ユーザは、AR装置10を紙面20から数十cm離した位置に保持する。そして、AR装置10に対して、AR動作の開始を行うように、操作部12を介して、AR装置10に命令する。そして、紙面20に近づけていき、最終的には、紙面20にAR装置10を接地させる。
Next, the user holds the
AR装置10は、AR動作の開始を行う命令を受けると、撮影部15により連続撮影を行う。紙面20に近づいているので、しばらくすると、撮影画像は合焦しなくなる。合焦しなくなったら連続撮影を中止する。これ以降、AR動作中、撮影は行わない。
When receiving the command to start the AR operation, the
また、AR装置10は、加速度センサ16の出力値を検出し続けて、出力値が不連続となる時刻(AR装置10が衝撃を受けた時刻であり、すなわち、AR装置10が紙面20に接地された時刻である)を求める。合焦しなくなるまでに撮影された画像を解析することで、不連続となる時刻におけるAR装置10と紙面20との位置関係を求める。求まったAR装置10と紙面20の位置関係に対応する領域を、前処理においてダウンロードした情報付き画像データ30から切り取り、画像表示部13にて表示を行う。これにより、紙面20に置かれたAR装置10内の画像表示部13は、あたかも、透明なガラスを通して、紙面20を直接見ているかのような錯覚をユーザに起こさせることができるので、ユーザは一体感を感じる。そして、透明なガラス部分に、情報32(厳密には、情報32の一部分)が書かれているように感じる(図14のAR装置10(移動前)の状況であり、詳細は後述する)。
Further, the
AR装置10を紙面20に接地した後、ユーザは、AR装置10を紙面20上に沿って、移動させることもできる。AR装置10は、加速度センサ16により移動量を検知して、移動量と同じ量だけ切り出し領域を変更して、画像表示部13にて表示を行う。これにより、移動後も、紙面20に置かれたAR装置10内の画像表示部13は、あたかも、透明なガラスを通して、紙面20を直接見ているかのような錯覚をユーザに起こさせることができるので、ユーザは一体感を感じる。そして、透明なガラス部分に、情報32(厳密には、情報32の一部分)が書かれているように感じる(図14のAR装置10(移動後)の状況であり、詳細は後述する)。
After the
ユーザは、最後に、AR装置10を紙面20から離す。AR装置10は、加速度センサ16の出力値を検出し続けて、画像表示部13の方向への加速度を検出する(すなわちAR装置10が紙面20より離れた時刻を検出する)。そして、加速度を検出した場合に、画像表示部13での表示を終了し、AR動作も終了する。
Finally, the user moves the
以上が、具体的な使用手順と、その手順に沿ったAR装置10での動作の簡易説明である。このようにして、前述の(利点1)から(利点6)の利点を受けることが可能となる。
The above is a specific usage procedure and a simplified description of the operation of the
それでは、以下で、詳しく処理の流れを説明していく。 The process flow will be described in detail below.
なお、以降では、画像に関する座標系は、画像の中心が原点であり、横方向がx軸(左側が正)、縦方向がy軸(下側が正)とする。説明の都合上、画像表示部13については、さらに、垂直な方向の軸をz軸と呼ぶことにする。画像表示部13から画像表示部13の裏側へ向かう方向が、z軸の正の方向である。また、画像表示部13の裏側には、撮像部15が設置されているとする。画像表示部13の中心と、撮像部15の中心の位置は同じとする。正確には、AR装置の厚みの分だけ、z軸方向に、画像表示部13の中心と撮像部15の中心の位置は違っているが、厚みは通常薄いので、無視する。また、画像表示部13の大きさは、横WD、縦HDとする。この様子を、図7に示す。
In the following, in the coordinate system related to the image, the center of the image is the origin, the horizontal direction is the x axis (left side is positive), and the vertical direction is the y axis (lower side is positive). For convenience of explanation, with respect to the image display unit 13, the axis in the vertical direction is further referred to as the z-axis. The direction from the image display unit 13 toward the back side of the image display unit 13 is the positive z-axis direction. Further, it is assumed that an
なお、画像表示装置13の中心と、撮像部15の中心が違う場合は、後述する位置の計算に関して、その分オフセットを加算すればよいので、画像表示部13の中心と、撮像部15の中心の位置は同じとして説明しても一般性を失わない。
If the center of the image display device 13 and the center of the
図8に本発明の実施例の処理の流れを示す。 FIG. 8 shows a processing flow of the embodiment of the present invention.
図8のステップ1で、ユーザからの前処理を行う指示を待つ。すなわち、ユーザが、操作部12を介してAR動作の前処理を行う指示をするまで、ステップ1で待ち続ける。ユーザからの前処理を行う指示が来ると、ステップ2へ進む。
In
ステップ2へ進む段階では、ユーザが、AR装置10をQRコード21に向けている。ステップ2では、撮像部15にて撮影を行い、そして、撮影された画像はバス18を介してCPU11へ送られる。CPU11では、この画像内のQRコード21を検出し、解析を行う。なお、QRコードの検出および解析は、既知の手法であり、その説明を省略する。QRコード21には、ネットワーク上の情報付き画像データ30の所在場所が記録されている。QRコード21の解析結果から、QRコード21により指定されたネットワーク上の情報付き画像データ30をダウンロードする。なお、ダウンロードは、ネットワークインターフェース部17を介して行われ、ダウンロードされた情報付き画像データ30は、バス18を介してメモリ14に格納される。なお、ネットワーク上にあらかじめ用意されている情報付き画像データ30は、紙面20と同じ大きさであり、「紙面20と同じ画像31と、その画像上に情報32が重畳されている」という形式のデータである。
In the stage of proceeding to step 2, the user points the
ここで、紙面20を表現するのに、P(x,y)という2次元関数を導入とする。つまり、任意の位置(x,y)にP(x,y)という値が設定されている画像が、紙面20である(図5参照)。ここで、x=−W/2からW/2の範囲であり、y=−H/2からH/2の範囲である。紙面20の大きさは横Wであり縦Hであるとする。なお、xおよびyの単位は、たとえばミリメートルなどである。
Here, it is assumed that a two-dimensional function P (x, y) is introduced to represent the
画像31は、紙面20と同じなので、画像31の任意の位置(x,y)には、P(x,y)という値が設定されている。情報付き画像データ30を、Q(x,y)とする。x=−W/2からW/2の範囲であり、y=−H/2からH/2の範囲である。Q(x,y)は、P(x,y)に情報32を重畳したデータである。したがって、情報32が存在しない位置(x,y)では、Q(x,y)=P(x,y)である(図6参照)。
Since the image 31 is the same as the
ステップ2の後、ステップ3に進む。
After
ステップ3では、ユーザからのAR動作開始の指示を待つ。すなわち、ユーザが操作部12を介して、AR動作開始の指示をするまで、ステップ3で待ち続ける。ユーザからのAR動作開始の指示が来ると、ステップ4へ進む。
In
ステップ4では、時刻を示す数値パラメータtに0をセットする。そして、ステップ5に進む。
In
ステップ5へ進む段階では、ユーザが、AR装置10を紙面20から数十cm離した位置に保持している。そして、AR装置10内ではステップ5以降の処理が行われるが、これら処理が行われている最中に、ユーザは、AR装置10を紙面20に近づけていき、最終的には、紙面20にAR装置10を接地させるという動作を行う。ステップ5では、撮像部15にて撮影を行い、撮影された画像はバス18を介してCPU11へ送られる。なお、この画像は、時刻tに撮影された画像であるので、I(t)とする。そして、ステップ6に進む。
In the stage of proceeding to Step 5, the user holds the
ステップ6では、CPU11により画像I(t)が合焦した画像であるか判断する。具体的には、画像I(t)の高周波数成分を調べ、所定の閾値以上であれば、合焦した画像であると判断する。上記閾値未満であれば、ボケた画像(合焦していない画像)と判断する。合焦した画像である場合には、ステップ7に進む。そうでなければ、ステップ10(図9)に進む。
In step 6, the
ステップ7では、メモリ14内にある情報付き画像データ30のうち画像31(すなわち、P(x,y))のみを、バス18を介してCPU11へ送る。そして、CPU11で、画像I(t)と画像31のマッチングを行い、画像I(t)と画像31の位置関係(射影変換の関係)を求める。すなわち、式1を満たす3×3行列H3を求める。
In step 7, only the image 31 (that is, P (x, y)) of the image data with information 30 in the memory 14 is sent to the
ここで、I(t,x,y)は、画像I(t)の位置(x,y)の値である。つまり、画像I(t)を、H3で変形することにより、画像31となるようなH3を求める処理をする。この3×3行列H3は、ホモグラフィ行列(射影変換行列)と呼ばれるものである。2枚の画像のマッチング(位置関係の計算)の手法は、特徴点によるマッチング手法など、既知の手法を使えば良いので、その詳細説明を省略する。ステップ7の後、ステップ8に進む。 Here, I (t, x, y) is the value of the position (x, y) of the image I (t). That is, a process for obtaining H3 to be the image 31 by transforming the image I (t) with H3. This 3 × 3 matrix H3 is called a homography matrix (projection transformation matrix). As a method for matching two images (calculation of positional relationship), a known method such as a matching method using feature points may be used, and a detailed description thereof will be omitted. After step 7, proceed to step 8.
ステップ8では、撮影された画像I(t)の中心(x,y)=(0,0)が、画像31(すなわち紙面20)に対して、どのような位置関係にあるかを、CPU11で求める。具体的には、(X(t),Y(t),dX(t)、dY(t))を求める。具体的には、(X(t),Y(t),dX(t)、dY(t))は、式2、および、式3により計算される。ここで、H3は、直前のステップ7で求めたホモグラフィ行列(射影変換行列)である。
In step 8, the
これにより、時刻tにおいて撮影された画像I(t)の中心(すなわち、撮像部15の中心)は、画像31(すなわち紙面20)の(X(t),Y(t))の位置を撮影していたと言える。そして、撮影された画像I(t)のx軸の正の方向は、画像31(すなわち紙面20)の(dX(t)、dY(t))の方向であることが分かる。正確に述べるなら、x軸の正の方向に単位長さを持つベクトルは、画像31(すなわち紙面20)の上ではベクトル(dX(t)、dY(t))となることが分かる。 Thereby, the center of the image I (t) photographed at time t (that is, the center of the imaging unit 15) captures the position of (X (t), Y (t)) of the image 31 (that is, the paper surface 20). It can be said that he was doing. Then, it can be seen that the positive direction of the x-axis of the captured image I (t) is the direction of (dX (t), dY (t)) of the image 31 (that is, the paper surface 20). To be precise, it can be seen that a vector having a unit length in the positive direction of the x-axis becomes a vector (dX (t), dY (t)) on the image 31 (that is, the paper surface 20).
CPU11で求まった(X(t),Y(t),dX(t)、dY(t))は、バス18を介して、メモリ14に格納される。これでステップ8での処理は終了し、次にステップ9に進む。
(X (t), Y (t), dX (t), dY (t)) obtained by the
ステップ9では、単位時間(たとえば、1/30秒)だけ待つ。そして、単位時間進んだので、tを1だけインクリメントする。ステップ9の後、ステップ5に戻り、更新されたtについての処理を行う。 In step 9, it waits for unit time (for example, 1/30 second). Since the unit time has been advanced, t is incremented by one. After step 9, the process returns to step 5 to perform the process for the updated t.
ステップ10に進んだ段階では、ユーザによりAR装置10が紙面20に近づけすぎて、撮像部15が合焦できなくなっている。ステップ10では、合焦できなくなった時刻を記憶しておくためt1=tとする。そして、ステップ11へ進む。
At the stage of proceeding to step 10, the
ステップ11では、加速度センサ16のz軸方向の値が不連続になったかを検出する。不連続でなければ、ステップ12に進み、不連続であれば、ステップ13に進む。
In
ステップ12では、単位時間(たとえば、1/30秒)だけ待つ。そして、単位時間進んだので、tを1だけインクリメントする。そして、ステップ11に戻る。
In
ステップ13に進むということは、加速度センサ16のz軸方向の値が不連続を検知したということである。すなわち、AR装置10が紙面20に接触(接地)したことを意味する。ステップ13では、AR装置10が紙面20に接触(接地)した時刻を記憶しておくためt2=tとする。そして、ステップ14へ進む。
Proceeding to step 13 means that the value of the
ステップ14では、接触(接地)した時刻における画像表示部13と紙面20の位置関係を外挿する。これは、メモリ14に格納された(X(t),Y(t),dX(t)、dY(t))(ここで、tは0からt1−1までの整数)を、バス18を介してCPU11に転送して、CPU11にて、これら(X(t),Y(t),dX(t)、dY(t))の値を使って、外挿する。ここで外挿とは、0からt1−1までの(X(t),Y(t),dX(t)、dY(t))の値を使って、時刻t2における値(X(t2),Y(t2),dX(t2)、dY(t2))を推定することを意味する。外挿には、各種手法が存在するが、たとえば、線形回帰モデルにより外挿すれば良い。すなわち、式4が最小となるA1とB1を求める。そして、X(t2)=A1 × t2 + B1 とすればよい。この様子を図11に示す。Y(t2),dX(t2)、dY(t2)についても同様に求めればよい。
In step 14, the positional relationship between the image display unit 13 and the
ステップ14の後、ステップ15に進む。 After step 14, proceed to step 15.
ステップ15では、AR装置10の位置について、場合分けを行い、適切な方向になるように座標変換を行う。本発明の実施例においては、AR装置10として、スマートフォンやタブレットPCなどを想定している。ユーザは、スマートフォンやタブレットPCを横方向にして使用する場合もあれば、縦方向にして使用する場合もある。そこで、AR装置10が紙面20に接地したとき、どのような方向であったかを検出する必要がある。図12に、すべての場合を示す。
図12の(ア):紙面20とAR装置10(すなわち、画像表示部13)の各軸が同じ方向である場合を示している。
図12の(イ):紙面20に対して、AR装置10(すなわち、画像表示部13)が90度回転した場合を示している。すなわち、紙面20のx軸の正の方向と、画像表示部13のy軸の正の方向が同じである場合を示している。
図12の(ウ):紙面20に対して、AR装置10(すなわち、画像表示部13)が−90度回転した場合を示している。すなわち、紙面20のx軸の正の方向と、画像表示部13のy軸の負の方向が同じである場合を示している。
なお、図12の中に記述されている40は、「紙面20(あるいは、情報付き画像データ30)」である。41は、「紙面20(あるいは、情報付き画像データ30)の座標原点」である。42は、「紙面20(あるいは、情報付き画像データ30)のx軸」である。43は、「紙面20(あるいは、情報付き画像データ30)のy軸」である。44は、「画像表示部13」である。45は、「画像表示部13の座標原点」である。46は、「画像表示部13のx軸」である。47は、「画像表示部13のy軸」である。図12中に書かれているベクトル(X(t2),Y(t2))は、紙面20(あるいは、情報付き画像データ30)の座標系におけるベクトルである。
In
FIG. 12A shows a case where the axes of the
FIG. 12A shows a case where the AR device 10 (that is, the image display unit 13) is rotated 90 degrees with respect to the
FIG. 12C shows a case where the AR device 10 (that is, the image display unit 13) is rotated by −90 degrees with respect to the
Note that 40 described in FIG. 12 is “paper surface 20 (or image data with information 30)”.
なお、180度回転して使用するということは、天地を反対にしてAR装置10を使用することを意味しており、これは異常な使用方法なのでAR処理を強制終了するようにする。また、AR装置10を斜めにして使用することも、異常な使用方法なのでAR処理を強制終了するようにする。
Note that the fact that it is rotated 180 degrees means that the
さて、前述のとおり、時刻tにおいて撮影された画像I(t)のx軸の正の方向は、紙面20では(dX(t)、dY(t))の方向であるから、外挿した値である(dX(t2)、dY(t2))により、図12で示す(ア)、(イ)、(ウ)、および、「それ以外」の場合分けが可能である。すなわち、ステップ15では、ステップ14で求めた(dX(t2)、dY(t2))を使用して、CPU11にて、以下の処理を行う。
場合1:「dY(t2)の絶対値」<「dX(t2)の絶対値」、かつ、0<dX(t2)、かつ、「dY(t2)の絶対値」÷dX(t2)<Δならば、図12の(ア)と判断されるので、紙面20と画像表示部13の各軸の方向が合っているから、何も処理を行わない。
場合2:「dX(t2)の絶対値」<「dY(t2)の絶対値」、かつ、0>dY(t2)、かつ、「dX(t2)の絶対値」÷(−dY(t2))<Δならば、図12の(イ)と判断されるので、メモリ14に格納されている情報付き画像データ30を90度回転させて、上書きする。また、接触した時刻における画像表示部13と紙面20の位置関係も90度回転する必要があるので、(X(t2),Y(t2))=(−Y(t2),X(t2))とする。
場合3:「dX(t2)の絶対値」<「dY(t2)の絶対値」、かつ、0<dY(t2)、かつ、「dX(t2)の絶対値」÷dY(t2)<Δならば、図12の(ウ)と判断されるので、メモリ14に格納されている情報付き画像データ30を−90度回転させて、上書きする。また、接触した時刻における画像表示部13と紙面20の位置関係も−90度回転する必要があるので、(X(t2),Y(t2))=(Y(t2),−X(t2))とする。
場合4:上記場合1、場合2、および、場合3のいずれにも合致しない場合には、「紙面に対して装置が傾き過ぎています。」というメッセージを画像表示部13に表示して、強制終了する。
なお、ここで、Δは微小な値であり、AR装置10が多少傾いていても、エラーとせず、AR動作を続行させるための閾値である。
As described above, since the positive direction of the x axis of the image I (t) taken at time t is the direction of (dX (t), dY (t)) on the
Case 1: “Absolute value of dY (t2)” <“Absolute value of dX (t2)”, 0 <dX (t2), and “Absolute value of dY (t2)” ÷ dX (t2) <Δ Then, since it is determined as (a) in FIG. 12, since the directions of the axes of the
Case 2: “Absolute value of dX (t2)” <“Absolute value of dY (t2)”, 0> dY (t2), and “Absolute value of dX (t2)” ÷ (−dY (t2) ) <Δ, it is determined as (A) in FIG. 12, and the image data with information 30 stored in the memory 14 is rotated by 90 degrees and overwritten. Further, since the positional relationship between the image display unit 13 and the
Case 3: “absolute value of dX (t2)” <“absolute value of dY (t2)”, 0 <dY (t2), and “absolute value of dX (t2)” ÷ dY (t2) <Δ Then, since it is determined as (c) in FIG. 12, the image data with information 30 stored in the memory 14 is rotated by −90 degrees and overwritten. Further, since the positional relationship between the image display unit 13 and the
Case 4: If none of the
Here, Δ is a minute value and is a threshold value for continuing the AR operation without causing an error even if the
場合1、場合2、および、場合3の状態に対する図を、それぞれ、図13の(ア)、(イ)および(ウ)に記す。この図には、回転した後の軸(ステップ15で更新した後の軸)を記してある。なお、図13の中に記述されている50は、「情報付き画像データ30」である。51は、「情報付き画像データ30の座標原点」である。52は、「情報付き画像データ30のステップ15の画像回転により更新されたx軸」である。53は、「情報付き画像データ30のステップ15の画像回転により更新されたy軸」である。図13における44乃至47は、図12に記したものと同じである。図13中に書かれている「ステップ15により更新された(X(t2),Y(t2))」は、情報付き画像データ30のステップ15により更新された座標系(更新されたx軸、y軸)におけるベクトルである。
FIGS. 13A, 13A, and 13C show diagrams for the
ステップ15の後、場合4を除き、ステップ16(図10)に進む。
After
ステップ16では、あらたに時刻を表すパラメータsに0をセットする。また、最初の時刻における紙面20に対する画像表示部13の位置関係を示す値(Xoffset、Yoffset)に(X(t2),Y(t2))の値を代入し、この値をメモリ14に格納しておく。さらに、(XX(0)、YY(0))=(Xoffset、Yoffset)として、この値もメモリ14に格納しておく。そして、ステップ17に進む。
In
ステップ17では、画像表示部13にて、現在の時刻sにおける適切な画像を表示する。すなわち、メモリ14よりバス18を介して、情報付き画像データ30と(XX(s)、YY(s))をCPU11に送る。CPU11では、(XX(s)、YY(s))を中心とした(WD、HD)の領域を、情報付き画像データ30から切り取り、画像表示部13に送る。画像表示部13では、この画像が表示される。これにより、紙面20に置かれたAR装置10内の画像表示部13は、あたかも、透明なガラスを通して、紙面20を直接見ているかのような錯覚をユーザに起こさせることができるので、ユーザは一体感を感じる。そして、透明なガラス部分に、情報32(厳密には、情報32の一部分)が書かれているように感じる。なぜなら、紙面20上に対して、画像表示部13の中心は(XX(s)、YY(s))に位置しており、そして、紙面20と同じ大きさの情報付き画像データ30から、(XX(s)、YY(s))を中心とした「画像表示部13の大きさである(WD、HD)」を切り出して表示しているからである。ステップ17の後、ステップ18に進む。
In step 17, an appropriate image at the current time s is displayed on the image display unit 13. That is, the image data with information 30 and (XX (s), YY (s)) are sent from the memory 14 via the bus 18 to the
ステップ18では、単位時間(たとえば、1/30秒)だけ待つ。そして、単位時間進んだので、sを1だけインクリメントする。そして、現在の時刻における加速度センサ16のx軸の値(ax(s)とする)とy軸の値(ay(s)とする)を、バス18を介して、メモリ14に格納する。そして、ステップ19に進む。
In step 18, it waits for unit time (for example, 1/30 second). Since the unit time has advanced, s is incremented by one. Then, the x-axis value (referred to as ax (s)) and the y-axis value (referred to as ay (s)) of the
ステップ19では、位置情報の更新を行う。すなわち、メモリに格納されているs=1から現在までのすべての時刻におけるax(s)およびay(s)の値および(Xoffset、Yoffset)を、バス18を介して、CPU11に送る。CPU11では、ax(s)を最初の時刻(s=1)から現在までの時間を2回積分して、さらに、Xoffsetを加算した値を計算し、XX(s)とする。ay(s)を最初の時刻(s=1)から現在までの時間を2回積分して、さらに、Yoffsetを加算した値を計算し、YY(s)とする。加速度センサの値を2回積分することで位置の変化をもとめることができる。(XX(s)、YY(s))の値は、バス18を介して、メモリ14に格納される。ステップ19の後、ステップ20に進む。
In step 19, the position information is updated. That is, the values of ax (s) and ay (s) and (Xoffset, Yoffset) at all times from s = 1 to the present stored in the memory are sent to the
ステップ20では、ユーザによる位置の微調整を行う。ステップ19での積分は、時間がたつにつれて、誤差が累積してしまい、紙面20に対する画像表示部13の位置ずれが顕著になってくる可能性がある。そこで、ユーザが明示的に修正を加えられるようにしておく。具体的には、ユーザは、操作部12より、(Xoffset、Yoffset)の値を入力する。操作部12より入力された(Xoffset、Yoffset)はバス18を介して、メモリ14に格納されている(Xoffset、Yoffset)の値を上書きする。この更新により、次回の表示のときに、位置が修正された適切な領域が表示できる。ステップ20の後、ステップ21に進む。
In
ステップ21では、AR動作の終了を検知する。すなわち、加速度センサ16のz軸の値が、負の値であるかを判断する。負の値であれば、紙面20からAR装置10が離れたことを意味する。負でなければ、紙面20上にAR装置が接地され続けていることが分かる。そこで、ステップ21では、加速度センサ16のz軸の値が、負の値である場合には、ステップ22に進む。そうでなければ、AR動作を続けるために、ステップ17に戻る。
In
ステップ22では、画像表示部13での表示を終了させて、AR動作を終了させる。 In step 22, the display on the image display unit 13 is terminated and the AR operation is terminated.
以上で本発明の実施例の説明を終える。 This is the end of the description of the embodiment of the present invention.
本発明においては、図14に示すように、紙面20に対してAR装置10を接地して使用する。そのため、ユーザの目の位置にかかわらず、画像表示部13には、紙面20内の適切な領域を、紙面20と同じ大きさで表示させることで、実際の風景(紙面20)に対して一体感のある画像表示をさせることができる。すなわち、画像表示部は、あたかも透明なガラスであるかのように見せることができる。そして、ユーザがAR装置10を移動させても、移動させた量と同じ量だけ、情報付き画像データ30からの切り取り領域を変更して、表示させるので、画像表示部は、あたかも透明なガラスであるかのように見せ続けさせることができる。
In the present invention, as shown in FIG. 14, the
なお、上記本発明の実施例においては、ユーザがAR装置10を紙面20上で移動させる際に、平行移動のみを許可しており、回転させることを想定していない。もし、回転も許可する場合は、AR装置10内に、ジャイロセンサを設けて、紙面20に対するAR装置10の傾き具合を検知するようにすれば良い。そして、上記(XX(s)、YY(s))の値と、ジャイロセンサより検出されたその傾き具合とにより、情報付き画像データ30から切り取る領域を決定して、その領域部分を、画像表示部13にて表示すれば良い。
In the above-described embodiment of the present invention, when the user moves the
また、上記本発明の実施例においては、QRコードにより情報付き画像データ30をダウンロードするとして説明したが、以下のような方法で情報付き画像データ30を取得しても良い。すなわち、紙面20を撮影し、紙面20内に描かれている物体を認識する。そして、認識された物体に対する情報を、インターネット上で検索して、検索された情報を付加することで、情報付き画像データ30を作成しても良い。
In the embodiment of the present invention described above, the image data with information 30 is downloaded as a QR code. However, the image data with information 30 may be acquired by the following method. That is, the
以上、本発明の実施形態を詳述してきたが、具体的な構成は本実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 As mentioned above, although embodiment of this invention was explained in full detail, the concrete structure is not restricted to this embodiment, The design change etc. of the range which does not deviate from the summary of this invention are included.
さらに、本技術は、以下の構成とすることも可能である。 Furthermore, this technique can also be set as the following structures.
[1]
画像の中から特定領域のみを画像表示装置に表示する画像表示方法であって、
上記画像をメモリに格納する画像データ格納ステップと、
上記画像表示装置の移動量を計測する位置計測ステップと、
直前の時刻における上記特定領域に対して、上記位置計測ステップで計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新ステップと、
上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示ステップと
を含む画像表示方法。
[2]
上記画像表示装置に対して衝撃を検知した時に、上記画像表示装置への表示を初める処理を行う処理開始ステップ、
あるいは、
上記画像表示装置の表示面側への移動を検知した時に、上記画像表示装置への表示を終了する処理を行う処理終了ステップ、
の少なくともいずれか1つのステップを
さらに含む[1]に記載の画像表示方法。
[3]
上記画像表示装置への表示を初める時刻よりも前に、
上記画像表示装置に設置された撮像手段により撮影された画像を解析して上記画像表示装置への表示を初める時刻における位置を計算する初期位置計算ステップを
さらに含む[1]または[2]に記載の画像表示方法。
[4]
上記特定領域は、上記画像表示装置の表示部の大きさと同じ大きさであるという条件を付けて上記領域更新ステップで上記特定領域を更新することを
特徴とする[1]乃至[3]に記載の画像表示方法。
[5]
上記画像表示装置への表示を初める時刻における画像表示装置の傾き具合に応じて、上記表示ステップで上記画像表示装置に表示する上記特定領域の画像を90度または−90度回転させて表示させることを
特徴とする[1]乃至[4]に記載の画像表示方法。
[6]
画像の中から特定領域のみを表示する画像表示装置であって、
上記画像を格納するメモリ部と、
上記画像表示装置の移動量を計測する位置計測部と、
直前の時刻における上記特定領域に対して、上記位置計測部で計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新部と、
上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示制御部と
を備える画像表示装置。
[7]
画像の中から特定領域のみを画像表示装置に表示する画像表示プログラムであって、
上記画像をメモリに格納する画像データ格納ステップと、
上記画像表示装置の移動量を計測する位置計測ステップと、
直前の時刻における上記特定領域に対して、上記位置計測ステップで計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新ステップと、
上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示ステップと
を含む処理をコンピュータに実行させる画像表示プログラム。
[1]
An image display method for displaying only a specific area from an image on an image display device,
An image data storage step for storing the image in a memory;
A position measuring step for measuring the amount of movement of the image display device;
An area for changing the specific area so that an area moved by the same amount as the movement amount measured in the position measurement step with respect to the specific area at the immediately preceding time is set as the specific area at the current time. An update step;
A display step of causing the image display device to display only the specific area of the image.
[2]
A process start step for performing a process of starting display on the image display device when an impact is detected on the image display device;
Or
A process end step for performing a process of ending the display on the image display device when movement of the image display device toward the display surface is detected;
The image display method according to [1], further including at least one of the steps.
[3]
Before the time to start displaying on the image display device,
The method according to [1] or [2], further including an initial position calculating step of analyzing an image captured by an imaging unit installed in the image display device and calculating a position at a time when display on the image display device is started. Image display method.
[4]
[1] to [3], wherein the specific area is updated in the area update step under a condition that the specific area is the same size as a display unit of the image display device. Image display method.
[5]
The image of the specific area displayed on the image display device in the display step is rotated by 90 degrees or -90 degrees and displayed in accordance with the inclination of the image display device at the time of starting the display on the image display device. The image display method according to any one of [1] to [4].
[6]
An image display device that displays only a specific area from an image,
A memory unit for storing the image;
A position measuring unit for measuring the movement amount of the image display device;
An area for changing the specific area so that an area moved by the same amount as the movement amount measured by the position measurement unit with respect to the specific area at the immediately preceding time is set as the specific area at the current time. An update section;
An image display device comprising: a display control unit that causes the image display device to display only the specific region of the image.
[7]
An image display program for displaying only a specific area from an image on an image display device,
An image data storage step for storing the image in a memory;
A position measuring step for measuring the amount of movement of the image display device;
An area for changing the specific area so that an area moved by the same amount as the movement amount measured in the position measurement step with respect to the specific area at the immediately preceding time is set as the specific area at the current time. An update step;
An image display program for causing a computer to execute a process including a display step of causing the image display device to display only the specific area of the image.
10…画像表示装置(AR装置)
11…中央演算処理部
12…操作部
13…画像表示部
14…メモリ
15…撮像部
16…加速度センサ
17…ネットワークインターフェース部
18…バス
20…紙面
21…2次元バーコード
30…情報付き画像データ
31…画像
32…情報
100…従来の画像表示装置(従来のAR装置)
110…画像表示部
120…撮像部
200…紙面
300…画像
310…情報
400…ユーザの目
10. Image display device (AR device)
DESCRIPTION OF
110 ... Image display unit 120 ... Imaging unit 200 ... Paper surface 300 ... Image 310 ... Information 400 ... User's eyes
Claims (7)
上記画像をメモリに格納する画像データ格納ステップと、
上記画像表示装置の移動量を計測する位置計測ステップと、
直前の時刻における上記特定領域に対して、上記位置計測ステップで計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新ステップと、
上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示ステップと
を含む画像表示方法。 An image display method for displaying only a specific area from an image on an image display device,
An image data storage step for storing the image in a memory;
A position measuring step for measuring the amount of movement of the image display device;
An area for changing the specific area so that an area moved by the same amount as the movement amount measured in the position measurement step with respect to the specific area at the immediately preceding time is set as the specific area at the current time. An update step;
A display step of causing the image display device to display only the specific area of the image.
あるいは、
上記画像表示装置の表示面側への移動を検知した時に、上記画像表示装置への表示を終了する処理を行う処理終了ステップ、
の少なくともいずれか1つのステップを
さらに含む請求項1記載の画像表示方法。 A process start step for performing a process of starting display on the image display device when an impact is detected on the image display device;
Or
A process end step for performing a process of ending the display on the image display device when movement of the image display device toward the display surface is detected;
The image display method according to claim 1, further comprising at least one step of:
上記画像表示装置に設置された撮像手段により撮影された画像を解析して上記画像表示装置への表示を初める時刻における位置を計算する初期位置計算ステップを
さらに含む請求項1あるいは請求項2記載の画像表示方法。 Before the time to start displaying on the image display device,
3. The initial position calculating step according to claim 1, further comprising an initial position calculating step of analyzing an image captured by an imaging means installed in the image display device and calculating a position at a time when display on the image display device is started. Image display method.
特徴とする請求項1、請求項2あるいは請求項3記載の画像表示方法。 3. The specific area is updated in the area update step with a condition that the specific area is the same size as a display unit of the image display device. Item 4. The image display method according to Item 3.
特徴とする請求項1、請求項2、請求項3あるいは請求項4記載の画像表示方法。 The image of the specific area displayed on the image display device in the display step is rotated by 90 degrees or -90 degrees and displayed in accordance with the inclination of the image display device at the time of starting the display on the image display device. The image display method according to claim 1, 2, 3, or 4.
上記画像を格納するメモリ部と、
上記画像表示装置の移動量を計測する位置計測部と、
直前の時刻における上記特定領域に対して、上記位置計測部で計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新部と、
上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示制御部と
を備える画像表示装置。 An image display device that displays only a specific area from an image,
A memory unit for storing the image;
A position measuring unit for measuring the movement amount of the image display device;
An area for changing the specific area so that an area moved by the same amount as the movement amount measured by the position measurement unit with respect to the specific area at the immediately preceding time is set as the specific area at the current time. An update section;
An image display device comprising: a display control unit that causes the image display device to display only the specific region of the image.
上記画像をメモリに格納する画像データ格納ステップと、
上記画像表示装置の移動量を計測する位置計測ステップと、
直前の時刻における上記特定領域に対して、上記位置計測ステップで計測された移動量と同じ量だけ、移動させた領域を現在の時刻における上記特定領域とするように、上記特定領域を変更させる領域更新ステップと、
上記画像のうち上記特定領域のみを上記画像表示装置に表示させる表示ステップと
を含む処理をコンピュータに実行させる画像表示プログラム。 An image display program for displaying only a specific area from an image on an image display device,
An image data storage step for storing the image in a memory;
A position measuring step for measuring the amount of movement of the image display device;
An area for changing the specific area so that an area moved by the same amount as the movement amount measured in the position measurement step with respect to the specific area at the immediately preceding time is set as the specific area at the current time. An update step;
The image display program which makes a computer perform the process including the display step which displays only the said specific area | region among the said images on the said image display apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014059305A JP2015184391A (en) | 2014-03-21 | 2014-03-21 | Image display method, device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014059305A JP2015184391A (en) | 2014-03-21 | 2014-03-21 | Image display method, device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015184391A true JP2015184391A (en) | 2015-10-22 |
Family
ID=54351011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014059305A Pending JP2015184391A (en) | 2014-03-21 | 2014-03-21 | Image display method, device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015184391A (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001117553A (en) * | 1999-10-21 | 2001-04-27 | Casio Comput Co Ltd | Portable information terminal device and recording medium |
JP2002007072A (en) * | 2000-06-27 | 2002-01-11 | Namco Ltd | Position instructing device and information storage medium |
JP2002259991A (en) * | 2001-02-28 | 2002-09-13 | Sony Corp | Image processor and its method |
WO2013021539A1 (en) * | 2011-08-10 | 2013-02-14 | パナソニック株式会社 | Information display device |
JP2015027008A (en) * | 2013-07-29 | 2015-02-05 | 富士通株式会社 | Information processing device, and program |
-
2014
- 2014-03-21 JP JP2014059305A patent/JP2015184391A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001117553A (en) * | 1999-10-21 | 2001-04-27 | Casio Comput Co Ltd | Portable information terminal device and recording medium |
JP2002007072A (en) * | 2000-06-27 | 2002-01-11 | Namco Ltd | Position instructing device and information storage medium |
JP2002259991A (en) * | 2001-02-28 | 2002-09-13 | Sony Corp | Image processor and its method |
WO2013021539A1 (en) * | 2011-08-10 | 2013-02-14 | パナソニック株式会社 | Information display device |
JP2015027008A (en) * | 2013-07-29 | 2015-02-05 | 富士通株式会社 | Information processing device, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11164001B2 (en) | Method, apparatus, and system for automatically annotating a target object in images | |
CN110073313B (en) | Interacting with an environment using a parent device and at least one companion device | |
US10095458B2 (en) | Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system | |
US9495068B2 (en) | Three-dimensional user interface apparatus and three-dimensional operation method | |
US20150062123A1 (en) | Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model | |
JP5248806B2 (en) | Information processing apparatus and information processing method | |
JP2016006589A (en) | Display device, control program and control method | |
KR102337209B1 (en) | Method for notifying environmental context information, electronic apparatus and storage medium | |
US20240346745A1 (en) | Image processing apparatus, method for controlling the same, and non-transitory computer-readable storage medium | |
JP2019185475A (en) | Specification program, specification method, and information processing device | |
US9030501B2 (en) | Methods and systems for modifying a display of a field of view of a robotic device to include zoomed-in and zoomed-out views | |
US20230360267A1 (en) | Intrinsic parameters estimation in visual tracking systems | |
WO2015072091A1 (en) | Image processing device, image processing method, and program storage medium | |
CN115578432A (en) | Image processing method, image processing device, electronic equipment and storage medium | |
CN114201028B (en) | Augmented reality system and method for anchoring display virtual object thereof | |
JP6371547B2 (en) | Image processing apparatus, method, and program | |
CN117321472A (en) | Post-warping to minimize delays in moving objects | |
WO2022246388A1 (en) | Intrinsic parameters estimation in visual tracking systems | |
JP6204781B2 (en) | Information processing method, information processing apparatus, and computer program | |
JP2015184391A (en) | Image display method, device, and program | |
JP7570711B2 (en) | Method for providing virtual indoor space content and server therefor | |
JP2021060856A (en) | Image synthesis apparatus, control method thereof, and program | |
JP2016023962A (en) | Method for measuring subject size, device for measuring subject size, program for measuring subject size, image display method, image display device and image display program | |
JP2023532831A (en) | Virtual indoor space content providing method and server therefor | |
US20240303934A1 (en) | Adaptive image processing for augmented reality device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180227 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180918 |