JP2016023962A - Method for measuring subject size, device for measuring subject size, program for measuring subject size, image display method, image display device and image display program - Google Patents

Method for measuring subject size, device for measuring subject size, program for measuring subject size, image display method, image display device and image display program Download PDF

Info

Publication number
JP2016023962A
JP2016023962A JP2014146359A JP2014146359A JP2016023962A JP 2016023962 A JP2016023962 A JP 2016023962A JP 2014146359 A JP2014146359 A JP 2014146359A JP 2014146359 A JP2014146359 A JP 2014146359A JP 2016023962 A JP2016023962 A JP 2016023962A
Authority
JP
Japan
Prior art keywords
image
target object
size
image display
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014146359A
Other languages
Japanese (ja)
Inventor
大木 光晴
Mitsuharu Oki
光晴 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2014146359A priority Critical patent/JP2016023962A/en
Publication of JP2016023962A publication Critical patent/JP2016023962A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To perform image display which produces a sense of unity between an actual scenery viewed by a user and a display on an image display device.SOLUTION: An image display device (AR device) 10 is used by being brought in contact with respect to a paper surface 20. An image display part 13 displays an appropriate region in the paper surface 20 in the same size as the paper surface 20 regardless of the position of the user's eyes, and therefore, can perform image display with a sense of unity with respect to an actual scenery (paper surface 20). In other words, the image display part 13 can display while acting as if the image display part 13 is transparent glass. The region displayed by the image display part 13 can be made appropriate by utilizing at least one piece of information among an imaging region of an image I which imaged the paper surface 20, a contact position P of an imaging part 15 to the paper surface 20, and a size (WD and HD) of the image display part 13.SELECTED DRAWING: Figure 13

Description

本技術は、撮影対象物体を撮影して、撮影対象物体の大きさを測定する方法、装置、並びに、プログラムに関するもの、および、撮影された画像を素材として編集した画像を表示させる方法、装置、並びに、プログラムに関するものである。 The present technology relates to a method, an apparatus, and a program for measuring a size of an object to be imaged and measuring a size of the object to be imaged, and a method, an apparatus, and an apparatus for displaying an image edited using a captured image as a material. And related to the program.

近年、拡張現実感(AR:Augmented Reality)を用いたアプリケーションが実現されてきている。たとえば、スマートフォンやタブレットPCを用いて、紙面などの対象物体を撮影すると、その対象物体を認識して、適切な画像を表示させるアプリケーションである。より具体的には、株式会社中日新聞社東京本社が提供する「東京AR」というアプリケーションである。また、非特許文献1のFigure 1にも、同様のアプリケーションの例が記載されている。さらに、特許文献1にも同様のアプリケーションが開示されている。 In recent years, applications using augmented reality (AR) have been realized. For example, when a target object such as paper is photographed using a smartphone or tablet PC, the application recognizes the target object and displays an appropriate image. More specifically, it is an application called “Tokyo AR” provided by the Tokyo head office of Chunichi Shimbun. Also, FIG. 1 of Non-Patent Document 1 describes an example of a similar application. Further, Patent Document 1 discloses a similar application.

また、顔の写っている1枚の画像から、自動で顔を認識して、口や目などが動く動画を作成する技術も、存在している。より具体的には、モーションポートレート株式会社の開発した技術である。この技術を流用することで、以下のようなARを用いたアプリケーションが考えられる。 There is also a technology for automatically recognizing a face from a single image with a face and creating a moving moving mouth and eyes. More specifically, this is a technology developed by Motion Portrait Co., Ltd. By using this technology, the following applications using AR can be considered.

図1の100が従来のAR装置(具体的にはスマートフォンあるいはタブレットPCなど)である。AR装置100には、画像表示部110と、撮像部120を有している。撮像部120は、画像表示部110に対して反対側に設置されており、図中には見えていない。撮像部120により、たとえば、紙面20を撮影する。紙面20には人30が描かれているとする。ここで、紙面とは、たとえば、雑誌の特定の1ページであり、その特定の1ページには人物の写真が印刷されている。ユーザが、撮像部120を用いて、紙面20を撮影すると、AR装置100は、画像を解析して、人の顔の部分を検出する。さらに、その顔画像を変形して、目や口が動く動画を作成する。そして、作成した動画を、画像表示部110に表示する。図1の画像表示部110には、このような動画を再生している状況を図示している。 1 is a conventional AR device (specifically, a smartphone or a tablet PC). The AR device 100 includes an image display unit 110 and an imaging unit 120. The imaging unit 120 is installed on the opposite side of the image display unit 110 and is not visible in the figure. For example, the paper surface 20 is photographed by the imaging unit 120. It is assumed that a person 30 is drawn on the paper surface 20. Here, the paper surface is, for example, a specific page of a magazine, and a photograph of a person is printed on the specific page. When the user uses the imaging unit 120 to photograph the paper surface 20, the AR device 100 analyzes the image and detects a human face portion. Further, the face image is deformed to create a moving image of moving eyes and mouth. Then, the created moving image is displayed on the image display unit 110. The image display unit 110 in FIG. 1 illustrates a situation where such a moving image is being reproduced.

図1の40は、ユーザの目を示している。図1は、ユーザが、紙面20を撮影した直後に、画像表示部110を見ている場面である。 Reference numeral 40 in FIG. 1 indicates the eyes of the user. FIG. 1 is a scene in which the user is looking at the image display unit 110 immediately after photographing the paper surface 20.

ユーザの目40から見える光景を、図2に示す。ユーザからは、図2に示すように、AR装置100が見える。AR装置100内の画像表示部110には、撮影された画像(より正確には、撮影された画像のうち、顔部分を変形させた動画)が見える。また、AR装置100の外側には、実世界の風景が見える。すなわち、紙面20が見える。さらに、紙面20上に描かれた人30の一部も見える。図2において、紙面20と、画像表示部110内に表示される画像とは、一体感がない。これは、対象物体である人の大きさが違うからである。つまり、画像表示部110内の人の大きさと、実世界の紙面20上に描かれた人30の大きさが違うからである。 A view seen from the user's eyes 40 is shown in FIG. As shown in FIG. 2, the AR device 100 is visible to the user. On the image display unit 110 in the AR device 100, a captured image (more precisely, a moving image in which a face portion of the captured image is deformed) can be seen. In addition, a real world landscape can be seen outside the AR device 100. That is, the paper surface 20 can be seen. Furthermore, a part of the person 30 drawn on the paper surface 20 can also be seen. In FIG. 2, the paper surface 20 and the image displayed in the image display unit 110 have no sense of unity. This is because the size of the target person is different. That is, the size of the person in the image display unit 110 is different from the size of the person 30 drawn on the real world paper 20.

このように、ユーザの目40から見えるAR装置100は、実際の風景に対して、一体感のある画像表示をすることができなかった。 As described above, the AR device 100 visible from the user's eyes 40 cannot display an image with a sense of unity with respect to an actual landscape.

特開2012−195732号公報JP 2012-195732 A

Schmalstieg, Dieter, and Daniel Wagner. "Mobile phones as a platform for augmented reality." connections 1 (2009): 3.Schmalstieg, Dieter, and Daniel Wagner. "Mobile phones as a platform for augmented reality." Connections 1 (2009): 3.

前述のとおり、特許文献1や非特許文献1に記載の技術を用いることで、拡張現実感(AR:Augmented Reality)を実現できるが、表示に関しては一体感がなかった。つまり、ユーザの目40から見えるAR装置100は、実際の風景に対して、一体感のある画像表示をすることができなかった。 As described above, augmented reality (AR) can be realized by using the techniques described in Patent Document 1 and Non-Patent Document 1, but there is no sense of unity regarding display. In other words, the AR device 100 that can be seen from the user's eyes 40 cannot display an image with a sense of unity with respect to an actual landscape.

本技術は、このような状況に鑑みてなされたものであり、実際の風景に対して、一体感のある画像表示をさせるようにするものである。 The present technology has been made in view of such circumstances, and is intended to display an image with a sense of unity with respect to an actual landscape.

本技術の一側面の被写体の大きさを測定する方法は、以下のとおりである。撮影位置に置いた撮像装置にて、対象物体を撮影して、撮影画像を得る撮影ステップと、上記撮像装置を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測ステップと、上記撮像装置の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算ステップとを有する。これにより、被写体の大きさを測定することが出来る。 The method for measuring the size of the subject according to one aspect of the present technology is as follows. A photographing step of photographing a target object and obtaining a photographed image with an imaging device placed at the photographing position, and moving the imaging device between the photographing position and the target object, A measurement step for measuring the distance to the target object; and a calculation step for calculating the size of the target object based on the viewing angle of the imaging device and the distance. Thereby, the size of the subject can be measured.

また、本技術の一側面の画像を表示する方法は、以下のとおりである。撮像部と画像表示部が一体となった装置を使用して、画像を表示する方法において、撮影位置に置いた上記装置の上記撮像部にて、対象物体を撮影して、撮影画像を得る撮影ステップと、上記撮影画像あるいは必要に応じて上記撮影画像を素材とした画像の一部を切り出す切り出しステップと、上記切り出しステップで切り出された画像を、上記装置が上記対象物体に接地された時に上記画像表示部にて表示する表示ステップとを有し、上記切り出しステップでは、上記対象物体の大きさと、上記装置が上記対象物体に接地された時の位置と、上記画像表示部の大きさの少なくとも1つの情報を利用して切り出す領域を決定する。これにより、一体感のある画像表示を可能とする。 A method for displaying an image of one aspect of the present technology is as follows. In a method of displaying an image using a device in which an image pickup unit and an image display unit are integrated, shooting is performed by shooting a target object with the image pickup unit of the device placed at a shooting position. A step of cutting out the captured image or a part of an image using the captured image as a material as necessary, and the image cut out in the clipping step when the device is grounded to the target object. A display step of displaying on the image display unit, and in the clipping step, at least the size of the target object, the position when the device is grounded to the target object, and the size of the image display unit A region to be cut out is determined using one piece of information. Thereby, it is possible to display an image with a sense of unity.

そして、上記画像を表示する方法において、上記対象物体の大きさを確定するために、さらに、上記装置を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測ステップと、上記撮像部の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算ステップとを設けた。これにより、一体感のある画像表示を可能とする。 In the method of displaying the image, in order to determine the size of the target object, the apparatus is further moved between the shooting position and the target object, so that the shooting position and the target object are moved. A measurement step for measuring the distance to the object, and a calculation step for calculating the size of the target object based on the viewing angle of the imaging unit and the distance are provided. Thereby, it is possible to display an image with a sense of unity.

本技術の一側面の被写体の大きさを測定する装置は、以下のとおりである。撮影位置に置いた撮像部にて、対象物体を撮影して、撮影画像を得る撮影画像取得部と、上記撮像部を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測処理部と、上記撮像部の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算処理部とを有する。これにより、被写体の大きさを測定することが出来る。 An apparatus for measuring the size of a subject according to one aspect of the present technology is as follows. The image capturing unit placed at the image capturing position captures the target object to obtain a captured image, and the image capturing unit is moved between the image capturing position and the target object, thereby capturing the image. A measurement processing unit that measures a position and a distance to the target object; and a calculation processing unit that calculates a size of the target object based on a viewing angle of the imaging unit and the distance. Thereby, the size of the subject can be measured.

また、本技術の一側面の画像を表示する装置は、以下のとおりである。撮像部と画像表示部が一体となった装置において、撮影位置に置いた上記装置の上記撮像部にて、対象物体を撮影して、撮影画像を得る撮影画像取得部と、上記撮影画像あるいは必要に応じて上記撮影画像を素材とした画像の一部を切り出す切り出し処理部と、上記切り出し処理部で切り出された画像を、上記装置が上記対象物体に接地された時に上記画像表示部にて表示する処理を行う画像表示制御部とを有し、上記切り出し処理部では、上記対象物体の大きさと、上記装置が上記対象物体に接地された時の位置と、上記画像表示部の大きさの少なくとも1つの情報を利用して切り出す領域を決定する。これにより、一体感のある画像表示を可能とする。 In addition, an apparatus that displays an image of one aspect of the present technology is as follows. In an apparatus in which an imaging unit and an image display unit are integrated, a captured image acquisition unit that captures a target object by the imaging unit of the apparatus placed at a shooting position and obtains a captured image, and the captured image or necessary And a cutout processing unit that cuts out a part of the image using the captured image as a material, and the image cut out by the cutout processing unit is displayed on the image display unit when the device is grounded to the target object. An image display control unit that performs processing to perform at least one of the size of the target object, the position when the device is grounded to the target object, and the size of the image display unit. A region to be cut out is determined using one piece of information. Thereby, it is possible to display an image with a sense of unity.

そして、上記画像を表示する装置において、上記対象物体の大きさを確定するために、さらに、上記撮像部を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測処理部と、上記撮像部の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算処理部とを設けた。これにより、一体感のある画像表示を可能とする。 In the device for displaying the image, in order to determine the size of the target object, the imaging unit is further moved between the shooting position and the target object, so that the shooting position and the target object are moved. A measurement processing unit that measures the distance to the target object, and a calculation processing unit that calculates the size of the target object based on the viewing angle of the imaging unit and the distance are provided. Thereby, it is possible to display an image with a sense of unity.

本技術の一側面の被写体の大きさを測定するプログラムは、以下のとおりである。撮影位置に置いた撮像装置にて、対象物体を撮影して、撮影画像を得る撮影ステップと、上記撮像装置を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測ステップと、上記撮像装置の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算ステップとを有する。これにより、被写体の大きさを測定することが出来る。 A program for measuring the size of a subject according to one aspect of the present technology is as follows. A photographing step of photographing a target object and obtaining a photographed image with an imaging device placed at the photographing position, and moving the imaging device between the photographing position and the target object, A measurement step for measuring the distance to the target object; and a calculation step for calculating the size of the target object based on the viewing angle of the imaging device and the distance. Thereby, the size of the subject can be measured.

また、本技術の一側面の画像を表示するプログラムは、以下のとおりである。撮像部と画像表示部が一体となった装置を使用して、画像を表示するプログラムにおいて、撮影位置に置いた上記装置の上記撮像部にて、対象物体を撮影して、撮影画像を得る撮影ステップと、上記撮影画像あるいは必要に応じて上記撮影画像を素材とした画像の一部を切り出す切り出しステップと、上記切り出しステップで切り出された画像を、上記装置が上記対象物体に接地された時に上記画像表示部にて表示する表示ステップとを有し、上記切り出しステップでは、上記対象物体の大きさと、上記装置が上記対象物体に接地された時の位置と、上記画像表示部の大きさの少なくとも1つの情報を利用して切り出す領域を決定する。これにより、一体感のある画像表示を可能とする。 A program for displaying an image of one aspect of the present technology is as follows. In a program for displaying an image using a device in which an imaging unit and an image display unit are integrated, the imaging unit of the device placed at a shooting position captures a target object and obtains a captured image. A step of cutting out the captured image or a part of an image using the captured image as a material as necessary, and the image cut out in the clipping step when the device is grounded to the target object. A display step of displaying on the image display unit, and in the clipping step, at least the size of the target object, the position when the device is grounded to the target object, and the size of the image display unit A region to be cut out is determined using one piece of information. Thereby, it is possible to display an image with a sense of unity.

そして、上記画像を表示するプログラムにおいて、上記対象物体の大きさを確定するために、さらに、上記装置を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測ステップと、上記撮像部の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算ステップとを設けた。これにより、一体感のある画像表示を可能とする。 In the program for displaying the image, in order to determine the size of the target object, the apparatus is further moved between the shooting position and the target object, so that the shooting position and the target are moved. A measurement step for measuring the distance to the object, and a calculation step for calculating the size of the target object based on the viewing angle of the imaging unit and the distance are provided. Thereby, it is possible to display an image with a sense of unity.

本技術の一側面は、撮影位置に置いた撮像装置にて、対象物体を撮影して、撮影画像を得ることと、上記撮像装置を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測することと、上記撮像装置の視野角と、上記距離とにより、上記対象物体の大きさを計算することを有する。これにより、被写体の大きさを測定することが出来る。 One aspect of the present technology is that an imaging device placed at a shooting position captures a target object to obtain a captured image, and the imaging device is moved between the shooting position and the target object. And measuring the distance to the shooting position and the target object, and calculating the size of the target object based on the viewing angle of the imaging device and the distance. Thereby, the size of the subject can be measured.

また、本技術の一側面は、撮像部と画像表示部が一体となった装置を使用して、画像を表示するにあたり、撮影位置に置いた上記装置の上記撮像部にて、対象物体を撮影して、撮影画像を得ることと、上記撮影画像あるいは必要に応じて上記撮影画像を素材とした画像の一部を切り出すことと、上記切り出された画像を、上記装置が上記対象物体に接地された時に上記画像表示部にて表示することを有し、上記切り出す過程では、上記対象物体の大きさと、上記装置が上記対象物体に接地された時の位置と、上記画像表示部の大きさの少なくとも1つの情報を利用して切り出す領域を決定する。これにより、一体感のある画像表示を可能とする。 In addition, according to one aspect of the present technology, when an image is displayed using an apparatus in which an imaging unit and an image display unit are integrated, the target object is captured by the imaging unit of the apparatus placed at a capturing position. Then, obtaining the captured image, cutting out a part of the image using the captured image or, if necessary, the captured image as a material, and the apparatus is grounded to the target object. In the cutting process, the size of the target object, the position when the device is grounded to the target object, and the size of the image display unit are displayed. A region to be cut out is determined using at least one piece of information. Thereby, it is possible to display an image with a sense of unity.

そして、上記対象物体の大きさを確定するために、さらに、上記装置を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測することと、上記撮像部の視野角と、上記距離とにより、上記対象物体の大きさを計算することを設けた。これにより、一体感のある画像表示を可能とする。 Then, in order to determine the size of the target object, the apparatus is further moved between the shooting position and the target object, thereby measuring the distance between the shooting position and the target object. And calculating the size of the target object based on the viewing angle of the imaging unit and the distance. Thereby, it is possible to display an image with a sense of unity.

本技術の一側面によれば、被写体の大きさを測定することが出来る。あるいは、一体感のある画像を表示させることができる。 According to one aspect of the present technology, the size of a subject can be measured. Alternatively, an image with a sense of unity can be displayed.

従来の装置の使用例を説明する図である。It is a figure explaining the usage example of the conventional apparatus. 従来の装置による一体感のない表示状態を説明するための図である。It is a figure for demonstrating the display state without the sense of unity by the conventional apparatus. 本発明の実施例の装置を説明するための図である。It is a figure for demonstrating the apparatus of the Example of this invention. 本発明の実施例の装置内に設置された各部位の位置関係を説明するための図である。It is a figure for demonstrating the positional relationship of each site | part installed in the apparatus of the Example of this invention. 本発明の実施例の装置の使用例を説明する図である。It is a figure explaining the usage example of the apparatus of the Example of this invention. 本発明の実施例の装置での処理を説明するフローチャートである。It is a flowchart explaining the process with the apparatus of the Example of this invention. 本発明の実施例の装置での処理を説明するフローチャートである。It is a flowchart explaining the process with the apparatus of the Example of this invention. 本発明の実施例で撮影される画像についての説明図である。It is explanatory drawing about the image image | photographed in the Example of this invention. 本発明の実施例で撮影される画像についての説明図である。It is explanatory drawing about the image image | photographed in the Example of this invention. 本発明の実施例において行われる位置推定に関する説明図である。It is explanatory drawing regarding the position estimation performed in the Example of this invention. 本発明の実施例における紙面と装置の位置関係を説明するための図である。It is a figure for demonstrating the positional relationship of the paper surface and apparatus in the Example of this invention. 本発明の実施例で表示される画像についての説明図である。It is explanatory drawing about the image displayed in the Example of this invention. 本発明の実施例の装置による一体感のある表示状態を説明するための図である。It is a figure for demonstrating the display state with a sense of unity by the apparatus of the Example of this invention.

本発明の利点をまず述べる。なお、本発明の実施例は、ARの体験をユーザに提供する画像表示装置に関するものであり、以降では、AR装置と命名して述べていく。
(利点1)AR装置を紙面に接地させて動作させるので、ユーザの目の位置に関係なく、画像の適切な一部分のみを表示させることで、実際の風景に対して、一体感のある画像表示をさせることができる。すなわち、画像表示部は、あたかも透明なガラスであるかのように見せることができる。
さらに、以下の利点もある。
(利点2)紙面に接地したことは、AR装置への衝撃を検出することにより自動で検出するので、ユーザが明示的にAR装置の動作開始(すなわち、表示開始)を指示しなくても良い。
(利点3)ユーザがAR装置を紙面から離した場合、AR装置内の加速度センサによりこの動作を検出し、AR動作を終了させるようにしているので、ユーザが明示的にAR装置の動作終了(すなわち、表示終了)を指示しなくても良い。
The advantages of the present invention are first described. The embodiment of the present invention relates to an image display device that provides an AR experience to a user, and will be referred to as an AR device hereinafter.
(Advantage 1) Since the AR device is operated while being grounded on the paper surface, only an appropriate part of the image is displayed regardless of the position of the user's eyes, thereby displaying an image with a sense of unity with respect to the actual landscape. Can be made. In other words, the image display unit can appear as if it is transparent glass.
In addition, there are the following advantages.
(Advantage 2) Since the contact with the paper surface is automatically detected by detecting the impact on the AR device, the user does not need to explicitly give an instruction to start the operation of the AR device (that is, display start). .
(Advantage 3) When the user moves the AR device away from the paper surface, this operation is detected by the acceleration sensor in the AR device and the AR operation is terminated, so that the user explicitly ends the operation of the AR device ( That is, it is not necessary to instruct the display end).

図3に本発明の実施例であるAR装置10を示す。AR装置10には、Central Processing Unit(CPU、中央演算処理部)11と、操作部12と、画像表示部13と、メモリ14と、撮像部15と、加速度センサ16と、ネットワークインターフェース部17とを有し、さらに、11乃至17間でのデータのやりとりを行うことができるようにバス18も有している。このようなAR装置のハードウエア構成は、米IBM社のパーソナル・コンピュータ「P C/ A T( P e r s o n a l C o m p u t e r / A d v a n c e d T e c h n o l o g y)」の互換機又は後継機を採用することができる。勿論、他のアーキテクチャを備えたコンピュータを採用しても良い。また、通常、メモリ14には、オペレーティング・システムが格納されており、このオペレーティング・システム上で、本発明の実施例の処理(以降、AR動作と呼ぶことにする)を行うプログラムが実行される。AR動作を行うプログラムも、あらかじめ、メモリ14上に格納されている。もし、メモリ14上に格納されていない場合には、後述のネットワークインターフェース部17を介して、インターネット上からAR動作を行うプログラムをダウンロードすれば良い。CPU11は、各種演算処理を実行できる。操作部12から、ユーザは各種命令をAR装置10に対して、与えることができる。操作部12は、画像表示装置13と一体化されており、タッチパネルによる入力ができるようにしても良い。画像表示部13には、画像や情報を表示できる。メモリ14には、AR動作を行うプログラムのほか、CPU11で計算されたデータ、撮像部15で撮影された画像、加速度センサ16からの加速度情報、ネットワークインターフェース部17を介してネットワーク上のデータをダウンロードしたものなどを格納することができる。撮像部15は、たとえば、レンズとイメージセンサより成り、外界を撮影して、画像を生成することができる。ネットワークインターフェース部17を介して、AR装置10は、インターネット等のネットワークに接続でき、インターネット上の各種情報にアクセスできる。なお、加速度センサ16は、通常3軸センサであるが、本発明の実施例においては、z軸方向の加速度情報のみを使用する。また、一般的に、加速度センサは重力の影響を受けるが、重力の影響は加速度センサの値から引き算することでキャンセルできるので、以降では、重力の影響はないものとして説明する。 FIG. 3 shows an AR device 10 which is an embodiment of the present invention. The AR device 10 includes a central processing unit (CPU, central processing unit) 11, an operation unit 12, an image display unit 13, a memory 14, an imaging unit 15, an acceleration sensor 16, and a network interface unit 17. And a bus 18 so that data can be exchanged between 11 to 17. The hardware configuration of such an AR device can employ a compatible computer or a successor of IBM's personal computer “PC / AT (Person C omp pu t e r / A d va nc dT e c h no o g o y y)”. Of course, you may employ | adopt the computer provided with the other architecture. Usually, an operating system is stored in the memory 14, and a program for performing the processing of the embodiment of the present invention (hereinafter referred to as AR operation) is executed on this operating system. . A program for performing the AR operation is also stored in the memory 14 in advance. If not stored in the memory 14, a program for performing the AR operation may be downloaded from the Internet via the network interface unit 17 described later. The CPU 11 can execute various arithmetic processes. From the operation unit 12, the user can give various commands to the AR device 10. The operation unit 12 may be integrated with the image display device 13 and may be input via a touch panel. Images and information can be displayed on the image display unit 13. In addition to the program that performs the AR operation, the memory 14 downloads data calculated by the CPU 11, an image captured by the imaging unit 15, acceleration information from the acceleration sensor 16, and data on the network via the network interface unit 17. Can be stored. The imaging unit 15 includes, for example, a lens and an image sensor, and can capture an outside world and generate an image. The AR device 10 can be connected to a network such as the Internet via the network interface unit 17 and can access various information on the Internet. The acceleration sensor 16 is usually a three-axis sensor, but in the embodiment of the present invention, only acceleration information in the z-axis direction is used. In general, the acceleration sensor is affected by gravity, but since the influence of gravity can be canceled by subtracting from the value of the acceleration sensor, the following description will be made assuming that there is no influence of gravity.

なお、以降では、画像に関する座標系は、画像の中心が原点であり、横方向がx軸(右側が正)、縦方向がy軸(下側が正)とする。説明の都合上、画像表示部13については、さらに、垂直な方向の軸をz軸と呼ぶことにする。画像表示部13から画像表示部13の裏側へ向かう方向が、z軸の正の方向である。また、画像表示部13の裏側には、撮像部15が設置されているとする。画像表示部13の中心と、撮像部15の中心の位置は同じとする。正確には、AR装置の厚みの分だけ、z軸方向に、画像表示部13の中心と撮像部15の中心の位置は違っているが、厚みは通常薄いので、無視する。また、画像表示部13の大きさは、横WD、縦HDとする。この様子を、図4に示す。 In the following, in the coordinate system related to the image, the center of the image is the origin, the horizontal direction is the x axis (right side is positive), and the vertical direction is the y axis (lower side is positive). For convenience of explanation, with respect to the image display unit 13, the axis in the vertical direction is further referred to as the z-axis. The direction from the image display unit 13 toward the back side of the image display unit 13 is the positive z-axis direction. Further, it is assumed that an imaging unit 15 is installed on the back side of the image display unit 13. Assume that the center of the image display unit 13 and the center of the imaging unit 15 are the same. Exactly, although the positions of the center of the image display unit 13 and the center of the imaging unit 15 are different in the z-axis direction by the thickness of the AR device, the thickness is usually thin and is ignored. The size of the image display unit 13 is horizontal WD and vertical HD. This is shown in FIG.

撮像部15は、画像表示部13とは反対側を撮影することが出来る。撮像部15では、横方向(x軸方向)にAhという画角で、縦方向(y軸方向)にAvという画角で撮影が行われる。画角AhおよびAvは既知とする。また、撮影される画像は、横W画素、縦H画素の画像とする。 The imaging unit 15 can capture the side opposite to the image display unit 13. The imaging unit 15 performs shooting with an angle of view of Ah in the horizontal direction (x-axis direction) and an angle of view of Av in the vertical direction (y-axis direction). The angles of view Ah and Av are assumed to be known. The image to be shot is an image having horizontal W pixels and vertical H pixels.

なお、画像表示装置13の中心と、撮像部15の中心が違う場合は、後述する位置の計算に関して、その分オフセットを加算すればよいので、画像表示部13の中心と、撮像部15の中心の位置は同じとして説明しても一般性を失わない。 If the center of the image display device 13 and the center of the imaging unit 15 are different, an offset may be added for the calculation of the position described later, so that the center of the image display unit 13 and the center of the imaging unit 15 are added. The generality is not lost even if it is described as the same position.

このAR装置10を用いた、具体的な使用手順を示す。 A specific use procedure using the AR device 10 will be described.

ユーザは、まず、AR動作を行いたい対象物(紙面)を用意する。この紙面には、人物が描かれているとする。図5に、紙面の例を示しておく。図5の20が紙面であり、30が紙面上に描かれている人物である。 The user first prepares an object (paper surface) on which an AR operation is desired. It is assumed that a person is drawn on this paper. FIG. 5 shows an example of a paper surface. 5 in FIG. 5 is a paper surface, and 30 is a person drawn on the paper surface.

ユーザは、AR装置10に対して、AR動作を行うように、操作部12を介して、AR装置10に命令するとともに、AR装置10を紙面20に向ける。AR装置10は、この命令を受けると、撮像部15により撮影を開始する。そして、AR装置10を紙面20に近づけるように、AR装置10はユーザに指示を出す。指示を受けたユーザは、図5の矢印50で示す方向にAR装置10を動かし、最終的には、AR装置10を紙面20に接地させる。AR装置10は、接地されると、自動で画像表示部13に、人30の顔の動画を表示する。この動画は、後述するように、実際の風景に対して、一体感のある画像となる。すなわち、画像表示部13は、あたかも透明なガラスであるかのように見せることができる。さらに、ユーザがAR装置10を紙面から離すと自動でAR動作を終える。 The user instructs the AR device 10 to perform an AR operation on the AR device 10 via the operation unit 12 and directs the AR device 10 toward the paper surface 20. Upon receiving this command, the AR device 10 starts shooting with the imaging unit 15. Then, the AR device 10 gives an instruction to the user so that the AR device 10 approaches the paper surface 20. The user who has received the instruction moves the AR device 10 in the direction indicated by the arrow 50 in FIG. 5, and finally causes the AR device 10 to contact the paper surface 20. When the AR device 10 is grounded, the AR device 10 automatically displays a moving image of the face of the person 30 on the image display unit 13. As will be described later, this moving image is an image having a sense of unity with the actual landscape. That is, the image display unit 13 can appear as if it is a transparent glass. Furthermore, when the user removes the AR device 10 from the paper surface, the AR operation is automatically terminated.

以上が、具体的な使用手順である。このようにして、前述の(利点1)から(利点3)の利点を受けることが可能となる。 The above is a specific use procedure. In this way, it is possible to receive the advantages of (Advantage 1) to (Advantage 3).

それでは、以下で、詳しく処理の流れを説明していく。 The process flow will be described in detail below.

図6および図7に本発明の実施例の処理の流れを示す。 6 and 7 show the processing flow of the embodiment of the present invention.

ユーザは、AR装置10に対して、AR動作を行うように、操作部12を介して、AR装置10に命令する。これにより、AR装置10は、最初に、図6のステップS1を行う。 The user instructs the AR device 10 via the operation unit 12 to perform an AR operation on the AR device 10. Thereby, the AR apparatus 10 first performs step S1 of FIG.

ステップS1では、撮像部15にて撮影を行い、撮影された画像をIとして、バス18を介してメモリ14に格納する。なお、既に画像Iがメモリ14に格納されている場合には、上書きする。そして、ステップS2に進む。 In step S <b> 1, shooting is performed by the imaging unit 15, and the captured image is stored as I in the memory 14 via the bus 18. If the image I is already stored in the memory 14, it is overwritten. Then, the process proceeds to step S2.

ステップS2では、メモリ14に格納されている画像Iを取り出し、CPU11にて、解析を行う。この解析により、画像Iの中から顔を検出する。なお、画像の中から顔を認識する技術は既知の技術であり、解析処理の詳細説明は省略する。そして、ステップS3に進む。 In step S2, the image I stored in the memory 14 is taken out and analyzed by the CPU 11. By this analysis, a face is detected from the image I. Note that the technique for recognizing a face from an image is a known technique, and a detailed description of the analysis process is omitted. Then, the process proceeds to step S3.

ステップS3では、直前のステップにおいて顔が検出できたか判定する。顔が検出できなかった場合には、再度撮影を行うために、ステップS1に戻る。顔が検出できた場合には、処理を進めるためにステップS4に進む。なお、ステップS1における撮影は、ユーザが紙面20に向けて撮影していることが想定される。紙面20上には人物30が描かれているので、ステップS2では通常顔を検出することができる。したがって、ステップS3からステップS1に戻ることは、あまりあり得ない。万一、顔を検出できなかった場合のみ、AR動作を最初からやり直すために、ステップS1に戻る。 In step S3, it is determined whether a face has been detected in the immediately preceding step. If the face cannot be detected, the process returns to step S1 in order to take a picture again. If a face can be detected, the process proceeds to step S4 in order to proceed with the process. Note that it is assumed that the shooting in step S1 is performed by the user shooting toward the paper surface 20. Since the person 30 is drawn on the paper surface 20, a normal face can be detected in step S2. Therefore, it is not possible to return from step S3 to step S1. In the unlikely event that a face cannot be detected, the process returns to step S1 to restart the AR operation from the beginning.

ステップS4では、ユーザに対して、AR装置10を紙面20に向けて移動させるように、ユーザに指示する。具体的には、画像表示部13に、「この装置を紙面に向けて移動させてください」と表示する。そして、ステップS5に進む。 In step S4, the user is instructed to move the AR device 10 toward the paper surface 20. Specifically, “Please move this device toward the page” is displayed on the image display unit 13. Then, the process proceeds to step S5.

ステップS5では、時刻を示す数値パラメータtに0をセットする。そして、ステップS6に進む。 In step S5, 0 is set to a numerical parameter t indicating time. Then, the process proceeds to step S6.

ステップS6へ進む段階では、ユーザは、AR装置10を紙面20から離した位置に保持している。そして、AR装置10内ではステップS6以降の処理が行われるが、これら処理が行われている最中に、ユーザは、AR装置10を紙面20に近づけていき、最終的には、紙面20にAR装置10を接地させるという動作を行う。 At the stage of proceeding to step S6, the user holds the AR device 10 at a position away from the paper surface 20. Then, the processes after step S6 are performed in the AR device 10, and while these processes are being performed, the user brings the AR device 10 closer to the paper surface 20, and finally, on the paper surface 20. An operation of grounding the AR device 10 is performed.

ステップS6では、撮像部15にて撮影を行う。撮影された画像はバス18を介してCPU11へ送られる。なお、この画像は、時刻tにおいて撮影された画像であるので、I(t)とする。また、加速度センサ16からのz軸方向の加速度の値を、バス18を介して、CPU11へ送る。なお、この加速度の値は、時刻tの時の値であるので、a(t)とする。そして、ステップS7に進む。 In step S6, the image pickup unit 15 performs shooting. The captured image is sent to the CPU 11 via the bus 18. Since this image is an image taken at time t, it is assumed that I (t). Also, the acceleration value in the z-axis direction from the acceleration sensor 16 is sent to the CPU 11 via the bus 18. Since the acceleration value is a value at time t, it is set to a (t). Then, the process proceeds to step S7.

ステップS7では、CPU11により画像I(t)が合焦した画像であるか判断する。具体的には、画像I(t)の高周波数成分を調べ、所定の閾値以上であれば、合焦した画像であると判断する。上記閾値未満であれば、ボケた画像(合焦していない画像)と判断する。合焦した画像である場合には、ステップS8に進む。そうでなければ、ステップS11(図7)に進む。 In step S7, the CPU 11 determines whether the image I (t) is an in-focus image. Specifically, the high frequency component of the image I (t) is examined, and if it is greater than or equal to a predetermined threshold, it is determined that the image is in focus. If it is less than the threshold value, it is determined that the image is out of focus (an out-of-focus image). If the image is in focus, the process proceeds to step S8. Otherwise, the process proceeds to step S11 (FIG. 7).

ステップS8では、メモリ14内にある画像Iを、バス18を介してCPU11へ送る。そして、CPU11で、画像Iと画像I(t)のマッチングを行い、画像Iと画像I(t)の位置関係を求める。すなわち、式1を満たす3つの変数S、X(t)、Y(t)を求める。 In step S8, the image I in the memory 14 is sent to the CPU 11 via the bus 18. Then, the CPU 11 performs matching between the image I and the image I (t), and obtains the positional relationship between the image I and the image I (t). That is, three variables S, X (t), and Y (t) that satisfy Equation 1 are obtained.

Figure 2016023962
Figure 2016023962

ここで、I(x1,y1)は、画像Iの位置(x1,y1)の画素値である。また、I(t,x,y)は、画像I(t)の位置(x,y)の画素値である。つまり、画像I(t)を、式1で変形することにより、画像IとなるようなS、X(t)、Y(t)を求める計算を行う。式1は、画像I(t)をS倍だけ拡大/縮小して、さらに、x軸方向にX(t)だけ、y軸方向にY(t)だけ平行移動した画像が、画像Iとなることを意味している。この様子を図8に示す。図8の(ア)に画像Iを、(イ)に画像I(t)を示す。図8の画像は、いずれも横W画素、縦H画素より成る。ユーザはAR装置10を紙面20に近づけているので、画像Iに対して、画像I(t)は拡大された画像となる。この拡大率がSである。画像I(t)の任意の位置(x,y)の投影像は、画像Iの位置(x1,y1)と同じ投影像である。なお、2枚の画像のマッチング(位置関係の計算)の手法は、特徴点によるマッチング手法など、既知の手法を使えば良いので、その詳細説明を省略する。 Here, I (x1, y1) is a pixel value at the position (x1, y1) of the image I. I (t, x, y) is a pixel value at the position (x, y) of the image I (t). In other words, the image I (t) is transformed by Equation 1 to calculate S, X (t), and Y (t) such that the image I is obtained. In Expression 1, an image obtained by enlarging / reducing the image I (t) by S times and further translating by X (t) in the x-axis direction and Y (t) in the y-axis direction becomes the image I. It means that. This is shown in FIG. FIG. 8A shows an image I, and FIG. 8A shows an image I (t). Each of the images in FIG. 8 is composed of horizontal W pixels and vertical H pixels. Since the user brings the AR device 10 close to the paper surface 20, the image I (t) is an enlarged image with respect to the image I. This enlargement factor is S. The projected image at an arbitrary position (x, y) of the image I (t) is the same projected image as the position (x1, y1) of the image I. As a method for matching two images (calculation of positional relationship), a known method such as a matching method using feature points may be used, and a detailed description thereof will be omitted.

ステップS8の後、ステップS9に進む。 After step S8, the process proceeds to step S9.

ステップS9では、撮影された画像I(t)の中心(x,y)=(0,0)が、画像Iに対して、どのような位置関係にあるかを、CPU11で求める。式1において、(x,y)=(0,0)を代入すれば良いので、結果として、(X(t),Y(t))となる。つまり、ステップS9では、直前のステップで求めたS、X(t)、Y(t)のうち、Sのみを破棄して、X(t)およびY(t)を保持する。ステップS9の後、ステップS10に進む。 In step S9, the CPU 11 determines what positional relationship the center (x, y) = (0, 0) of the photographed image I (t) is with respect to the image I. In Expression 1, since (x, y) = (0, 0) may be substituted, the result is (X (t), Y (t)). That is, in step S9, among S, X (t), and Y (t) obtained in the immediately preceding step, only S is discarded and X (t) and Y (t) are held. After step S9, the process proceeds to step S10.

ステップS10では、単位時間(たとえば、1/30秒)だけ待つ。そして、単位時間進んだので、tを1だけインクリメントする。ステップS10の後、ステップS6に戻り、更新されたtについての処理を行う。 In step S10, it waits for unit time (for example, 1/30 second). Since the unit time has been advanced, t is incremented by one. After step S10, the process returns to step S6, and the process for the updated t is performed.

ステップS6からステップS10での処理を行っている最中は、ユーザはAR装置10を紙面20に近づけている。したがって、しばらくすると、被写体に近づき過ぎて撮影される画像はボケた画像(合焦していない画像)しか撮影できなくなる。このような画像が撮影された時点で、ステップS11に進む。 During the processing from step S6 to step S10, the user brings the AR device 10 close to the paper surface 20. Therefore, after a while, only a blurred image (an image out of focus) can be taken as an image taken too close to the subject. When such an image is taken, the process proceeds to step S11.

ステップS11では、合焦した画像が撮影できなくなった時刻を記憶しておくために、数値パラメータt1に、現在のtの値をセットする。そして、ステップS12に進む。 In step S11, the current value of t is set in the numerical parameter t1 in order to store the time when the focused image cannot be captured. Then, the process proceeds to step S12.

ステップS12では、加速度センサ16のz軸方向の値が不連続になったかを検出する。不連続でなければ、ステップS13に進み、不連続であれば、ステップS15に進む。 In step S12, it is detected whether the value of the acceleration sensor 16 in the z-axis direction is discontinuous. If not discontinuous, the process proceeds to step S13, and if discontinuous, the process proceeds to step S15.

ステップS13では、単位時間(たとえば、1/30秒)だけ待つ。そして、単位時間進んだので、tを1だけインクリメントする。そして、ステップS14に進む。 In step S13, it waits for unit time (for example, 1/30 second). Since the unit time has been advanced, t is incremented by one. Then, the process proceeds to step S14.

ステップS14では、加速度センサ16からのz軸方向の加速度の値を、バス18を介して、CPU11へ送る。なお、この加速度の値は、時刻tの時の値であるので、a(t)とする。そして、ステップS12に戻る。 In step S <b> 14, the acceleration value in the z-axis direction from the acceleration sensor 16 is sent to the CPU 11 via the bus 18. Since the acceleration value is a value at time t, it is set to a (t). Then, the process returns to step S12.

ステップS15に進むということは、加速度センサ16のz軸方向の値が不連続を検知したということである。すなわち、AR装置10が紙面20に接触(接地)したことを意味する。ステップS15では、AR装置10が紙面20に接触(接地)した時刻を記憶しておくために、数値パラメータt2に、現在のtの値をセットする。そして、ステップS16に進む。 Proceeding to step S15 means that the value of the acceleration sensor 16 in the z-axis direction has detected a discontinuity. That is, it means that the AR device 10 has contacted (grounded) the paper surface 20. In step S15, in order to store the time when the AR device 10 contacts (grounds) the paper surface 20, the current value of t is set in the numerical parameter t2. Then, the process proceeds to step S16.

ここまでの処理において計算されたデータについて、説明しておく。人30が描かれている紙面20を撮影した画像Iは、時刻t=0において撮影されている。時刻t=0からt=t1−1までに撮像部15で撮影された各画像I(t)の中心は、画像Iにおいては(X(t),Y(t))に対応している。また、時刻t=0からt=t2までのそれぞれの時刻におけるz軸方向の加速度の値は、a(t)である。 The data calculated in the process so far will be described. An image I taken of the paper surface 20 on which the person 30 is drawn is taken at time t = 0. The center of each image I (t) taken by the imaging unit 15 from time t = 0 to t = t1-1 corresponds to (X (t), Y (t)) in the image I. Further, the acceleration value in the z-axis direction at each time from time t = 0 to t = t2 is a (t).

ステップS16では、画像Iを撮影した時のAR装置10と紙面20までの距離Lを求める。すなわち、CPU11にて、t=0から t=t2まで a(t)を2回積分し、その値をLとする。画像Iを撮影した時刻がt=0であり、AR装置10が紙面20と接触(接地)した時刻がt=t2であるから、この期間における加速度a(t)を2回積分すれば、距離Lを求めることが出来る。 In step S16, a distance L between the AR device 10 and the paper surface 20 when the image I is captured is obtained. That is, the CPU 11 integrates a (t) twice from t = 0 to t = t2, and sets the value to L. Since the time when the image I is captured is t = 0 and the time when the AR device 10 is in contact (ground) with the paper surface 20 is t = t2, if the acceleration a (t) in this period is integrated twice, the distance L can be obtained.

距離Lを求めることで、画像Iが撮影した被写体の大きさを知ることが出来る。つまり、紙面20上のどの範囲を撮影したかを知ることが出来る。図9に示すように、画像Iを撮影した時刻における撮像部15の位置は紙面20から距離Lだけ離れている。そして、撮像部15は、横方向(x軸方向)にAhという画角で、縦方向(y軸方向)にAvという画角で撮影を行っている。したがって、紙面20において、横方向に2L×tan(Ah/2)という長さ、縦方向に2L×tan(Av/2)という長さの矩形領域を撮影したことが分かる。 By obtaining the distance L, the size of the subject photographed by the image I can be known. That is, it is possible to know which range on the paper surface 20 has been shot. As shown in FIG. 9, the position of the imaging unit 15 at the time when the image I was captured is separated from the paper surface 20 by a distance L. Then, the imaging unit 15 performs imaging with an angle of view of Ah in the horizontal direction (x-axis direction) and an angle of view of Av in the vertical direction (y-axis direction). Therefore, it can be seen that a rectangular region having a length of 2L × tan (Ah / 2) in the horizontal direction and a length of 2L × tan (Av / 2) in the vertical direction is photographed on the paper surface 20.

ステップS16の後、ステップS17に進む。 After step S16, the process proceeds to step S17.

ステップS17では、接触した時刻(すなわち、時刻t=t2)における画像表示部13の中心が画像 I に対してどのような位置関係であるか外挿する。外挿された位置を(X(t2),Y(t2))とする。これは、CPU11にて、t=0からt=t1−1までの(X(t),Y(t))の値を使って、外挿する。外挿には、各種手法が存在するが、たとえば、線形回帰モデルにより外挿すれば良い。すなわち、式2が最小となるA1とB1を求める。そして、X(t2)=A1 × t2 + B1 とすればよい。この様子を図10に示す。Y(t2)についても同様に求めればよい。 In step S17, the positional relationship of the center of the image display unit 13 with respect to the image I at the time of contact (that is, time t = t2) is extrapolated. Let the extrapolated position be (X (t2), Y (t2)). This is extrapolated by the CPU 11 using values (X (t), Y (t)) from t = 0 to t = t1-1. Various methods exist for extrapolation. For example, extrapolation may be performed using a linear regression model. That is, A1 and B1 that minimize Equation 2 are obtained. Then, X (t2) = A1 × t2 + B1 may be satisfied. This is shown in FIG. What is necessary is just to obtain | require similarly about Y (t2).

Figure 2016023962
Figure 2016023962

時刻t=t1以降は、近接撮影のため、ピントが合わずに画像を取得していないが、もし画像を取得していたら、時刻t=t2における画像の中心は、画像Iにおいては(X(t2),Y(t2))に対応していると言える。 After time t = t1, because of close-up shooting, the image is not focused and is not acquired. However, if an image is acquired, the center of the image at time t = t2 is (X ( It can be said that it corresponds to t2) and Y (t2)).

画像Iの中で位置(X(t2),Y(t2))に対応する紙面20上の位置をPとする(図9参照)。すなわち、紙面20上の位置Pの被写体の投影像は、画像Iにおいては、位置(X(t2),Y(t2))である。時刻t=t2において、もし、撮像部15で撮影していたら、撮影画像の中心は、位置Pを撮影していたと推測される。時刻t=t2において、AR装置10は紙面20に接地していることを加味すると、撮像部15の位置は、紙面20上の位置Pと一致する。この様子を図11に示す。 A position on the paper surface 20 corresponding to the position (X (t2), Y (t2)) in the image I is defined as P (see FIG. 9). That is, the projected image of the subject at the position P on the paper surface 20 is the position (X (t2), Y (t2)) in the image I. At time t = t2, if the image pickup unit 15 is shooting, it is estimated that the center of the shot image is shooting the position P. Considering that the AR device 10 is in contact with the paper surface 20 at time t = t2, the position of the imaging unit 15 matches the position P on the paper surface 20. This is shown in FIG.

ステップS17の後、ステップS18に進む。 After step S17, the process proceeds to step S18.

ステップS18では、画像I内の顔を変形させて動画Iaを作成する。具体的には、CPU11にて、前述のモーションポートレート株式会社の開発した技術を適用して処理すればよい。動画Iaは、画像Iと同様に、横W画素、縦H画素の画像群である。そして、ステップS19に進む。 In step S18, the face in the image I is deformed to create the moving image Ia. Specifically, the CPU 11 may apply the technology developed by the above-mentioned Motion Portrait Co., Ltd. Similar to the image I, the moving image Ia is an image group of horizontal W pixels and vertical H pixels. Then, the process proceeds to step S19.

ステップS19では、動画 Ia から、位置(X(t2),Y(t2))を中心とし、横WC画素、縦HC画素の矩形領域を切り出した動画Ibを作成する(図12参照)。ここで、WCおよびHCは、式3で示す値である。 In step S19, a moving image Ib is created from the moving image Ia by cutting out a rectangular region of horizontal WC pixels and vertical HC pixels centered on the position (X (t2), Y (t2)) (see FIG. 12). Here, WC and HC are values shown in Equation 3.

Figure 2016023962
Figure 2016023962

ステップS19の後、ステップS20に進む。 After step S19, the process proceeds to step S20.

ステップS20では、動画 Ib をAR装置10内の画像表示部13にて表示(動画を再生)する。 In step S20, the moving image Ib is displayed on the image display unit 13 in the AR device 10 (playing a moving image).

ここで表示される画像(動画Ib)の大きさについて説明しておく。紙面20において、画像Iの撮影範囲は、横方向に2L×tan(Ah/2)という長さ、縦方向に2L×tan(Av/2)という長さである(前述)。また、画像表示部13の大きさは、横WD、縦HDである。動画Iaの大きさは、画像Iと同じで、横W、縦Hである。したがって、動画Iaから、式3で示す横WC、縦HCの大きさを切り出して、画像表示部13に表示すると、紙面20上の大きさと同じ大きさとなる。 The size of the image (moving image Ib) displayed here will be described. On the paper surface 20, the shooting range of the image I is 2L × tan (Ah / 2) in the horizontal direction and 2L × tan (Av / 2) in the vertical direction (described above). The size of the image display unit 13 is horizontal WD and vertical HD. The size of the moving image Ia is the same as that of the image I, and is W in the horizontal direction and H in the vertical direction. Therefore, when the horizontal WC and vertical HC sizes shown in Expression 3 are cut out from the moving image Ia and displayed on the image display unit 13, the size is the same as the size on the paper surface 20.

次に、表示される画像(動画Ib)の位置について説明しておく。動画Ibの中心は、動画Ia(すなわち画像I)において位置(X(t2),Y(t2))である。画像I(すなわち、動画Ia)の中で位置(X(t2),Y(t2))に対応する紙面20上の位置はPである。画像表示部13の中心と撮像部15は同じ位置であるから、接地されているAR装置10の画像表示部13の中心の位置は、紙面20において位置Pである。したがって、動画Ibの中心位置は、紙面20上では、接地されている画像表示部13の中心の位置と合致する。 Next, the position of the displayed image (moving image Ib) will be described. The center of the moving image Ib is the position (X (t2), Y (t2)) in the moving image Ia (that is, the image I). The position on the paper surface 20 corresponding to the position (X (t2), Y (t2)) in the image I (that is, the moving image Ia) is P. Since the center of the image display unit 13 and the imaging unit 15 are at the same position, the position of the center of the image display unit 13 of the AR device 10 that is grounded is the position P on the paper surface 20. Therefore, the center position of the moving image Ib matches the center position of the grounded image display unit 13 on the paper surface 20.

上記動画Ibの大きさと位置についての説明より明らかに、ユーザから見て、画像表示部13に表示される動画は、AR装置10の外側に見える実世界の風景(紙面20に描かれた人30の一部)と一体感のある画像を表示することになる。換言すれば、画像表示部13は、あたかも透明なガラスであるかのように見せることができる。図13には、ユーザから見た光景を示す。ユーザからは、図13に示すように、AR装置10が見える。AR装置10内の画像表示部13には、撮影された画像(より正確には、撮影された画像のうち、顔部分を変形させた動画)が見える。また、AR装置10の外側には、実世界の風景が見える。すなわち、紙面20が見える。さらに、紙面20上に描かれた人30の一部も見える。図13において、紙面20と、画像表示部13内に表示される画像とは、一体感がある。これは、対象物体である人の大きさが同じであるからである。つまり、画像表示部13内の人の大きさと、実世界の紙面20上に描かれた人30の大きさが同じであるからである。 As apparent from the description of the size and position of the moving image Ib, the moving image displayed on the image display unit 13 as viewed from the user is a real-world landscape (a person 30 drawn on the paper surface 20) that is visible outside the AR device 10. An image with a sense of unity. In other words, the image display unit 13 can appear as if it is a transparent glass. FIG. 13 shows a scene viewed from the user. As shown in FIG. 13, the AR device 10 is visible to the user. On the image display unit 13 in the AR device 10, a captured image (more precisely, a moving image in which a face portion is deformed in the captured image) can be seen. In addition, a real world landscape can be seen outside the AR device 10. That is, the paper surface 20 can be seen. Furthermore, a part of the person 30 drawn on the paper surface 20 can also be seen. In FIG. 13, the paper surface 20 and the image displayed in the image display unit 13 have a sense of unity. This is because the size of the target person is the same. That is, the size of the person in the image display unit 13 is the same as the size of the person 30 drawn on the paper 20 in the real world.

ステップS20の後、ステップS21に進む。 After step S20, the process proceeds to step S21.

ステップS21では、加速度センサ16のz軸方向の値を検知する。加速度の値が0であれば、AR装置10は紙面20に接地され続けていると判断できるので、ステップS20に戻り、動画Ibの再生を続ける。加速度の値が0でなければ、ユーザがAR装置10を紙面20から離したと判断できるので、ステップS22に進む。 In step S21, the value of the acceleration sensor 16 in the z-axis direction is detected. If the acceleration value is 0, it can be determined that the AR device 10 continues to be grounded on the paper surface 20, so the process returns to step S20 to continue the reproduction of the moving image Ib. If the acceleration value is not 0, it can be determined that the user has separated the AR device 10 from the paper surface 20, and the process proceeds to step S22.

ステップS22では、ユーザがAR装置10を紙面20から離したので、画像表示部13での表示を終了して、AR動作を終了する。 In step S22, since the user has separated the AR device 10 from the paper surface 20, the display on the image display unit 13 is terminated and the AR operation is terminated.

以上で本発明の実施例の説明を終える。 This is the end of the description of the embodiment of the present invention.

上記実施例における重要な点を以下で述べる。
(重要な点1)AR装置10の撮像部15により撮影を行い、画像Iを得る。単に撮影しただけでは、画像Iの撮影範囲の大きさが不明である。そこで、画像Iを得た位置と、紙面20との間をAR装置10を移動させることで、距離Lを求めている。この距離Lと、撮像部15の画角(横方向Ah、および、縦方向Av)とを用いることで、画像Iの撮影範囲の大きさ(横方向に2L×tan(Ah/2)という長さ、縦方向に2L×tan(Av/2)という長さ)を求めている。このようにして、撮影範囲の大きさを求めることが出来る。
(重要な点2)さらに、画像表示部13の大きさ(横WD、縦HD)と同じ大きさを、画像Iの撮影範囲の大きさ(横方向に2L×tan(Ah/2)という長さ、縦方向に2L×tan(Av/2))のデータから切り出している。これにより、画像表示部13での表示物体の大きさと、AR装置100の外側に見える実世界の風景の大きさとが一致する。
(重要な点3)また、AR装置10を接地した位置(前述の位置P)を求めることにより、画像Iから切り出す位置を決定している。これにより、画像表示部13での表示物体の位置と、AR装置100の外側に見える実世界の風景の位置とが一致する。
上記3つの重要な点のうち1つでも実行することで、従来にないメリットを得ることが出来る。そして、上記3つの重要な点をすべて実行することで、最大限のメリットを得ることが出来る。
The important points in the above embodiment will be described below.
(Important Point 1) Photographing is performed by the imaging unit 15 of the AR device 10, and an image I is obtained. The size of the shooting range of the image I is unknown simply by shooting. Therefore, the distance L is obtained by moving the AR device 10 between the position where the image I is obtained and the paper surface 20. By using this distance L and the angle of view (horizontal direction Ah and vertical direction Av) of the imaging unit 15, the size of the shooting range of the image I (2L × tan (Ah / 2) in the horizontal direction) Now, a length of 2L × tan (Av / 2) in the vertical direction) is obtained. In this way, the size of the shooting range can be obtained.
(Important Point 2) Further, the same size as the size of the image display unit 13 (horizontal WD, vertical HD) is set to the size of the shooting range of the image I (2L × tan (Ah / 2) in the horizontal direction). Now, it is cut out from data of 2L × tan (Av / 2)) in the vertical direction. As a result, the size of the display object on the image display unit 13 and the size of the real-world landscape seen outside the AR device 100 match.
(Important Point 3) Further, the position to be cut out from the image I is determined by obtaining the position (the aforementioned position P) where the AR device 10 is grounded. As a result, the position of the display object on the image display unit 13 and the position of the real-world landscape seen outside the AR device 100 coincide.
By executing at least one of the above three important points, an unprecedented merit can be obtained. And, by executing all the three important points, the maximum merit can be obtained.

本発明においては、紙面20に対してAR装置10を接地して使用する。そのため、ユーザの目の位置にかかわらず、画像表示部13には、紙面20を撮影した画像Iの適切な領域を、紙面20と同じ大きさで表示させることで、実際の風景(紙面20)に対して一体感のある画像表示をさせることができる。すなわち、画像表示部13は、あたかも透明なガラスであるかのように見せることができる。 In the present invention, the AR device 10 is grounded and used with respect to the paper surface 20. For this reason, regardless of the position of the user's eyes, the image display unit 13 displays an appropriate area of the image I obtained by photographing the paper surface 20 in the same size as the paper surface 20, so that an actual landscape (paper surface 20) is displayed. Image display with a sense of unity. That is, the image display unit 13 can appear as if it is a transparent glass.

画像表示部13にて表示する領域は、紙面20を撮影した画像Iの撮影範囲と、撮像部15の紙面20の接地位置Pと、画像表示部13の大きさ(WDおよびHD)の少なくとも1つの情報を利用することで適切な領域とすることが出来る。 The area displayed on the image display unit 13 is at least one of the shooting range of the image I obtained by shooting the paper surface 20, the grounding position P of the paper surface 20 of the imaging unit 15, and the size (WD and HD) of the image display unit 13. By using one piece of information, it can be made an appropriate area.

また、上記本発明の実施例においては、画像IおよびI(t)より、位置(X(t2),Y(t2))を求めていたが、時刻t=0からt=t2までの加速度センサのx軸方向とy軸方向の値を使って、求めても良い。 In the embodiment of the present invention, the position (X (t2), Y (t2)) is obtained from the images I and I (t), but the acceleration sensor from time t = 0 to t = t2 is obtained. You may obtain | require using the value of the x-axis direction and y-axis direction.

また、上記処理では誤差を生じることも考えられるので、接地後、ユーザが、動画Iaから切り出す大きさや位置を手動で微調整できるようにしても良い。 Further, since an error may occur in the above processing, the user may be able to manually fine-tune the size and position to be cut out from the moving image Ia after the grounding.

また、上記本発明の実施例は、顔を変形させた動画を表示させる例であったが、本発明は顔に限定するわけではない。たとえば、風景写真が掲載されている紙面を撮影して、その風景の色を徐々に赤色に変えていく動画を作成して動画Iaとしても良い。これにより、徐々に夕暮れになっていく動画を、ユーザは、見ることが出来る。 Moreover, although the said Example of the said invention was an example which displays the moving image which deform | transformed the face, this invention is not necessarily limited to a face. For example, the moving image Ia may be created by shooting a paper on which a landscape photograph is posted and creating a moving image in which the color of the landscape is gradually changed to red. As a result, the user can see a moving image that gradually becomes dusk.

以上、本発明の実施形態を詳述してきたが、具体的な構成は本実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 As mentioned above, although embodiment of this invention was explained in full detail, the concrete structure is not restricted to this embodiment, The design change etc. of the range which does not deviate from the summary of this invention are included.

さらに、本技術は、以下の構成とすることも可能である。 Furthermore, this technique can also be set as the following structures.

[1]
撮影位置に置いた撮像装置にて、対象物体を撮影して、撮影画像を得る撮影ステップと、
上記撮像装置を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測ステップと、
上記撮像装置の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算ステップとを
有することを特徴とする被写体の大きさを測定する方法。
[2]
撮像部と画像表示部が一体となった装置を使用して、画像を表示する方法において、
撮影位置に置いた上記装置の上記撮像部にて、対象物体を撮影して、撮影画像を得る撮影ステップと、
上記撮影画像あるいは必要に応じて上記撮影画像を素材とした画像の一部を切り出す切り出しステップと、
上記切り出しステップで切り出された画像を、上記装置が上記対象物体に接地された時に上記画像表示部にて表示する表示ステップとを有し、
上記切り出しステップでは、上記対象物体の大きさと、上記装置が上記対象物体に接地された時の位置と、上記画像表示部の大きさの少なくとも1つの情報を利用して切り出す領域を決定すること
を特徴とする画像表示方法。
[3]
上記[2]において、
上記対象物体の大きさを確定するために、
さらに、
上記装置を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測ステップと、
上記撮像部の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算ステップとを
設けたことを特徴とする画像表示方法。
[4]
撮影位置に置いた撮像部にて、対象物体を撮影して、撮影画像を得る撮影画像取得部と、
上記撮像部を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測処理部と、
上記撮像部の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算処理部とを
有することを特徴とする被写体の大きさを測定する装置。
[5]
撮像部と画像表示部が一体となった装置において、
撮影位置に置いた上記装置の上記撮像部にて、対象物体を撮影して、撮影画像を得る撮影画像取得部と、
上記撮影画像あるいは必要に応じて上記撮影画像を素材とした画像の一部を切り出す切り出し処理部と、
上記切り出し処理部で切り出された画像を、上記装置が上記対象物体に接地された時に上記画像表示部にて表示する処理を行う画像表示制御部とを有し、
上記切り出し処理部では、上記対象物体の大きさと、上記装置が上記対象物体に接地された時の位置と、上記画像表示部の大きさの少なくとも1つの情報を利用して切り出す領域を決定すること
を特徴とする画像を表示する装置。
[6]
上記[5]において、
上記対象物体の大きさを確定するために、
さらに、
上記撮像部を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測処理部と、
上記撮像部の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算処理部とを
設けたことを特徴とする画像を表示する装置。
[7]
撮影位置に置いた撮像装置にて、対象物体を撮影して、撮影画像を得る撮影ステップと、
上記撮像装置を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測ステップと、
上記撮像装置の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算ステップとを
有することを特徴とする被写体の大きさを測定するためのコンピュータに実行させるプログラム。
[8]
撮像部と画像表示部が一体となった装置を使用して、画像を表示するプログラムにおいて、
撮影位置に置いた上記装置の上記撮像部にて、対象物体を撮影して、撮影画像を得る撮影ステップと、
上記撮影画像あるいは必要に応じて上記撮影画像を素材とした画像の一部を切り出す切り出しステップと、
上記切り出しステップで切り出された画像を、上記装置が上記対象物体に接地された時に上記画像表示部にて表示する表示ステップとを有し、
上記切り出しステップでは、上記対象物体の大きさと、上記装置が上記対象物体に接地された時の位置と、上記画像表示部の大きさの少なくとも1つの情報を利用して切り出す領域を決定すること
を特徴とする画像を表示するためのコンピュータに実行させるプログラム。
[9]
上記[8]において、
上記対象物体の大きさを確定するために、
さらに、
上記装置を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測ステップと、
上記撮像部の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算ステップとを
設けたことを特徴とする画像を表示するためのコンピュータに実行させるプログラム。
[1]
A shooting step of shooting a target object and obtaining a shot image with an imaging device placed at the shooting position;
A measurement step of measuring the distance between the shooting position and the target object by moving the imaging device between the shooting position and the target object;
A method for measuring the size of an object, comprising: a calculation step of calculating the size of the target object based on a viewing angle of the imaging device and the distance.
[2]
In a method for displaying an image using an apparatus in which an imaging unit and an image display unit are integrated,
In the imaging unit of the apparatus placed at the shooting position, a shooting step of shooting a target object and obtaining a shot image;
A cutout step of cutting out a part of an image using the captured image or, if necessary, the captured image as a material;
A display step of displaying the image cut out in the cutout step on the image display unit when the device is grounded to the target object,
In the clipping step, a region to be clipped is determined using at least one information of the size of the target object, the position when the device is grounded to the target object, and the size of the image display unit. Characteristic image display method.
[3]
In [2] above,
In order to determine the size of the target object,
further,
A measurement step of measuring the distance between the shooting position and the target object by moving the device between the shooting position and the target object;
An image display method comprising: a calculation step for calculating a size of the target object based on a viewing angle of the imaging unit and the distance.
[4]
A captured image acquisition unit that captures a target object and captures a captured image with an imaging unit placed at the capturing position;
A measurement processing unit that measures the distance between the shooting position and the target object by moving the imaging unit between the shooting position and the target object;
An apparatus for measuring the size of a subject, comprising: a calculation processing unit that calculates a size of the target object based on a viewing angle of the imaging unit and the distance.
[5]
In an apparatus in which an imaging unit and an image display unit are integrated,
In the imaging unit of the apparatus placed at the shooting position, a captured image acquisition unit that captures a target object and obtains a captured image;
A cutout processing unit that cuts out a part of an image using the captured image or the captured image as a material as necessary;
An image display control unit that performs processing to display the image cut out by the cut-out processing unit on the image display unit when the device is grounded to the target object;
The cutout processing unit determines a region to be cut out using at least one information of the size of the target object, the position when the device is grounded to the target object, and the size of the image display unit. An apparatus for displaying an image characterized by the above.
[6]
In the above [5],
In order to determine the size of the target object,
further,
A measurement processing unit that measures the distance between the shooting position and the target object by moving the imaging unit between the shooting position and the target object;
An apparatus for displaying an image, comprising: a calculation processing unit that calculates a size of the target object based on a viewing angle of the imaging unit and the distance.
[7]
A shooting step of shooting a target object and obtaining a shot image with an imaging device placed at the shooting position;
A measurement step of measuring the distance between the shooting position and the target object by moving the imaging device between the shooting position and the target object;
A program to be executed by a computer for measuring the size of a subject, comprising a calculation step of calculating the size of the target object based on the viewing angle of the imaging device and the distance.
[8]
In a program for displaying an image using a device in which an imaging unit and an image display unit are integrated,
In the imaging unit of the apparatus placed at the shooting position, a shooting step of shooting a target object and obtaining a shot image;
A cutout step of cutting out a part of an image using the captured image or, if necessary, the captured image as a material;
A display step of displaying the image cut out in the cutout step on the image display unit when the device is grounded to the target object,
In the clipping step, a region to be clipped is determined using at least one information of the size of the target object, the position when the device is grounded to the target object, and the size of the image display unit. A program to be executed by a computer for displaying a characteristic image.
[9]
In the above [8],
In order to determine the size of the target object,
further,
A measurement step of measuring the distance between the shooting position and the target object by moving the device between the shooting position and the target object;
A program to be executed by a computer for displaying an image, characterized in that a calculation step for calculating the size of the target object is provided according to the viewing angle of the imaging unit and the distance.

10…画像表示装置(AR装置)
11…中央演算処理部
12…操作部
13…画像表示部
14…メモリ
15…撮像部
16…加速度センサ
17…ネットワークインターフェース部
18…バス
20…紙面
30…紙面に描かれた人
40…ユーザの目
50…画像表示装置(AR装置)を動かす方向
100…従来の画像表示装置(従来のAR装置)
110…画像表示部
120…撮像部
10. Image display device (AR device)
DESCRIPTION OF SYMBOLS 11 ... Central processing part 12 ... Operation part 13 ... Image display part 14 ... Memory 15 ... Imaging part 16 ... Acceleration sensor 17 ... Network interface part 18 ... Bus 20 ... Paper surface 30 ... Person 40 drawn on paper surface ... User's eyes 50 ... Direction of moving image display device (AR device) 100 ... Conventional image display device (conventional AR device)
110: Image display unit 120: Imaging unit

Claims (9)

撮影位置に置いた撮像装置にて、対象物体を撮影して、撮影画像を得る撮影ステップと、
上記撮像装置を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測ステップと、
上記撮像装置の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算ステップとを
有することを特徴とする被写体の大きさを測定する方法。
A shooting step of shooting a target object and obtaining a shot image with an imaging device placed at the shooting position;
A measurement step of measuring the distance between the shooting position and the target object by moving the imaging device between the shooting position and the target object;
A method for measuring the size of an object, comprising: a calculation step of calculating the size of the target object based on a viewing angle of the imaging device and the distance.
撮像部と画像表示部が一体となった装置を使用して、画像を表示する方法において、
撮影位置に置いた上記装置の上記撮像部にて、対象物体を撮影して、撮影画像を得る撮影ステップと、
上記撮影画像あるいは必要に応じて上記撮影画像を素材とした画像の一部を切り出す切り出しステップと、
上記切り出しステップで切り出された画像を、上記装置が上記対象物体に接地された時に上記画像表示部にて表示する表示ステップとを有し、
上記切り出しステップでは、上記対象物体の大きさと、上記装置が上記対象物体に接地された時の位置と、上記画像表示部の大きさの少なくとも1つの情報を利用して切り出す領域を決定すること
を特徴とする画像表示方法。
In a method for displaying an image using an apparatus in which an imaging unit and an image display unit are integrated,
In the imaging unit of the apparatus placed at the shooting position, a shooting step of shooting a target object and obtaining a shot image;
A cutout step of cutting out a part of an image using the captured image or, if necessary, the captured image as a material;
A display step of displaying the image cut out in the cutout step on the image display unit when the device is grounded to the target object,
In the clipping step, a region to be clipped is determined using at least one information of the size of the target object, the position when the device is grounded to the target object, and the size of the image display unit. Characteristic image display method.
請求項2において、
上記対象物体の大きさを確定するために、
さらに、
上記装置を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測ステップと、
上記撮像部の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算ステップとを
設けたことを特徴とする画像表示方法。
In claim 2,
In order to determine the size of the target object,
further,
A measurement step of measuring the distance between the shooting position and the target object by moving the device between the shooting position and the target object;
An image display method comprising: a calculation step for calculating a size of the target object based on a viewing angle of the imaging unit and the distance.
撮影位置に置いた撮像部にて、対象物体を撮影して、撮影画像を得る撮影画像取得部と、
上記撮像部を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測処理部と、
上記撮像部の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算処理部とを
有することを特徴とする被写体の大きさを測定する装置。
A captured image acquisition unit that captures a target object and captures a captured image with an imaging unit placed at the capturing position;
A measurement processing unit that measures the distance between the shooting position and the target object by moving the imaging unit between the shooting position and the target object;
An apparatus for measuring the size of a subject, comprising: a calculation processing unit that calculates a size of the target object based on a viewing angle of the imaging unit and the distance.
撮像部と画像表示部が一体となった装置において、
撮影位置に置いた上記装置の上記撮像部にて、対象物体を撮影して、撮影画像を得る撮影画像取得部と、
上記撮影画像あるいは必要に応じて上記撮影画像を素材とした画像の一部を切り出す切り出し処理部と、
上記切り出し処理部で切り出された画像を、上記装置が上記対象物体に接地された時に上記画像表示部にて表示する処理を行う画像表示制御部とを有し、
上記切り出し処理部では、上記対象物体の大きさと、上記装置が上記対象物体に接地された時の位置と、上記画像表示部の大きさの少なくとも1つの情報を利用して切り出す領域を決定すること
を特徴とする画像を表示する装置。
In an apparatus in which an imaging unit and an image display unit are integrated,
In the imaging unit of the apparatus placed at the shooting position, a captured image acquisition unit that captures a target object and obtains a captured image;
A cutout processing unit that cuts out a part of an image using the captured image or the captured image as a material as necessary;
An image display control unit that performs processing to display the image cut out by the cut-out processing unit on the image display unit when the device is grounded to the target object;
The cutout processing unit determines a region to be cut out using at least one information of the size of the target object, the position when the device is grounded to the target object, and the size of the image display unit. An apparatus for displaying an image characterized by the above.
請求項5において、
上記対象物体の大きさを確定するために、
さらに、
上記撮像部を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測処理部と、
上記撮像部の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算処理部とを
設けたことを特徴とする画像を表示する装置。
In claim 5,
In order to determine the size of the target object,
further,
A measurement processing unit that measures the distance between the shooting position and the target object by moving the imaging unit between the shooting position and the target object;
An apparatus for displaying an image, comprising: a calculation processing unit that calculates a size of the target object based on a viewing angle of the imaging unit and the distance.
撮影位置に置いた撮像装置にて、対象物体を撮影して、撮影画像を得る撮影ステップと、
上記撮像装置を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測ステップと、
上記撮像装置の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算ステップとを
有することを特徴とする被写体の大きさを測定するためのコンピュータに実行させるプログラム。
A shooting step of shooting a target object and obtaining a shot image with an imaging device placed at the shooting position;
A measurement step of measuring the distance between the shooting position and the target object by moving the imaging device between the shooting position and the target object;
A program to be executed by a computer for measuring the size of a subject, comprising a calculation step of calculating the size of the target object based on the viewing angle of the imaging device and the distance.
撮像部と画像表示部が一体となった装置を使用して、画像を表示するプログラムにおいて、
撮影位置に置いた上記装置の上記撮像部にて、対象物体を撮影して、撮影画像を得る撮影ステップと、
上記撮影画像あるいは必要に応じて上記撮影画像を素材とした画像の一部を切り出す切り出しステップと、
上記切り出しステップで切り出された画像を、上記装置が上記対象物体に接地された時に上記画像表示部にて表示する表示ステップとを有し、
上記切り出しステップでは、上記対象物体の大きさと、上記装置が上記対象物体に接地された時の位置と、上記画像表示部の大きさの少なくとも1つの情報を利用して切り出す領域を決定すること
を特徴とする画像を表示するためのコンピュータに実行させるプログラム。
In a program for displaying an image using a device in which an imaging unit and an image display unit are integrated,
In the imaging unit of the apparatus placed at the shooting position, a shooting step of shooting a target object and obtaining a shot image;
A cutout step of cutting out a part of an image using the captured image or, if necessary, the captured image as a material;
A display step of displaying the image cut out in the cutout step on the image display unit when the device is grounded to the target object,
In the clipping step, a region to be clipped is determined using at least one information of the size of the target object, the position when the device is grounded to the target object, and the size of the image display unit. A program to be executed by a computer for displaying a characteristic image.
請求項8において、
上記対象物体の大きさを確定するために、
さらに、
上記装置を、上記撮影位置と上記対象物体との間を移動させることで、上記撮影位置と上記対象物体までの距離を計測する計測ステップと、
上記撮像部の視野角と、上記距離とにより、上記対象物体の大きさを計算する計算ステップとを
設けたことを特徴とする画像を表示するためのコンピュータに実行させるプログラム。
In claim 8,
In order to determine the size of the target object,
further,
A measurement step of measuring the distance between the shooting position and the target object by moving the device between the shooting position and the target object;
A program to be executed by a computer for displaying an image, characterized in that a calculation step for calculating the size of the target object is provided according to the viewing angle of the imaging unit and the distance.
JP2014146359A 2014-07-17 2014-07-17 Method for measuring subject size, device for measuring subject size, program for measuring subject size, image display method, image display device and image display program Pending JP2016023962A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014146359A JP2016023962A (en) 2014-07-17 2014-07-17 Method for measuring subject size, device for measuring subject size, program for measuring subject size, image display method, image display device and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014146359A JP2016023962A (en) 2014-07-17 2014-07-17 Method for measuring subject size, device for measuring subject size, program for measuring subject size, image display method, image display device and image display program

Publications (1)

Publication Number Publication Date
JP2016023962A true JP2016023962A (en) 2016-02-08

Family

ID=55270852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014146359A Pending JP2016023962A (en) 2014-07-17 2014-07-17 Method for measuring subject size, device for measuring subject size, program for measuring subject size, image display method, image display device and image display program

Country Status (1)

Country Link
JP (1) JP2016023962A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11250582B2 (en) 2017-08-31 2022-02-15 Optim Corporation Image analysis distance information provision system, method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011259341A (en) * 2010-06-11 2011-12-22 Olympus Corp Imaging apparatus
JP2013011491A (en) * 2011-06-28 2013-01-17 Fujitsu Ltd Dimension measuring device, dimension measuring method and dimension measuring program
JP2013156291A (en) * 2012-01-26 2013-08-15 Canon Inc Image formation apparatus
JP2015027008A (en) * 2013-07-29 2015-02-05 富士通株式会社 Information processing device, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011259341A (en) * 2010-06-11 2011-12-22 Olympus Corp Imaging apparatus
JP2013011491A (en) * 2011-06-28 2013-01-17 Fujitsu Ltd Dimension measuring device, dimension measuring method and dimension measuring program
JP2013156291A (en) * 2012-01-26 2013-08-15 Canon Inc Image formation apparatus
JP2015027008A (en) * 2013-07-29 2015-02-05 富士通株式会社 Information processing device, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11250582B2 (en) 2017-08-31 2022-02-15 Optim Corporation Image analysis distance information provision system, method, and program

Similar Documents

Publication Publication Date Title
JP5740884B2 (en) AR navigation for repeated shooting and system, method and program for difference extraction
US10175764B2 (en) Method of controlling an operation of a camera apparatus and a camera apparatus
US9516214B2 (en) Information processing device and information processing method
US20160337593A1 (en) Image presentation method, terminal device and computer storage medium
CN109582122B (en) Augmented reality information providing method and device and electronic equipment
KR20170031733A (en) Technologies for adjusting a perspective of a captured image for display
US9160931B2 (en) Modifying captured image based on user viewpoint
CN104954672B (en) Manual focusing method of mobile terminal and mobile terminal
TW201251447A (en) Positional sensor-assisted image registration for panoramic photography
JP2007129480A (en) Imaging device
CN109451240B (en) Focusing method, focusing device, computer equipment and readable storage medium
US10771707B2 (en) Information processing device and information processing method
JP2011146821A (en) Device and method for providing tactile information, and program
JP6552256B2 (en) Image processing apparatus and image processing apparatus control method
CN114690900A (en) Input identification method, equipment and storage medium in virtual scene
WO2023273498A1 (en) Depth detection method and apparatus, electronic device, and storage medium
CN110895433B (en) Method and apparatus for user interaction in augmented reality
JP2009171428A (en) Control method and program for digital camera apparatus and electronic zoom
KR101308184B1 (en) Augmented reality apparatus and method of windows form
JP6283329B2 (en) Augmented Reality Object Recognition Device
CN113870213A (en) Image display method, image display device, storage medium, and electronic apparatus
WO2022061541A1 (en) Control method, handheld gimbal, system, and computer-readable storage medium
JP6483661B2 (en) Imaging control apparatus, imaging control method, and program
US20220244788A1 (en) Head-mounted display
JP2016023962A (en) Method for measuring subject size, device for measuring subject size, program for measuring subject size, image display method, image display device and image display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190108