JP2013008257A - Image composition program - Google Patents

Image composition program Download PDF

Info

Publication number
JP2013008257A
JP2013008257A JP2011141346A JP2011141346A JP2013008257A JP 2013008257 A JP2013008257 A JP 2013008257A JP 2011141346 A JP2011141346 A JP 2011141346A JP 2011141346 A JP2011141346 A JP 2011141346A JP 2013008257 A JP2013008257 A JP 2013008257A
Authority
JP
Japan
Prior art keywords
image
virtual object
real
composition program
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011141346A
Other languages
Japanese (ja)
Inventor
Shusaku Furushima
終作 古島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Celsys Inc
Original Assignee
Celsys Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Celsys Inc filed Critical Celsys Inc
Priority to JP2011141346A priority Critical patent/JP2013008257A/en
Publication of JP2013008257A publication Critical patent/JP2013008257A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a program for creating a correct composite image without using a marker.SOLUTION: A position of a virtual object is limited on one reference plane in three dimensional space, and a photographing direction and a focal distance are obtained from image data of a digital camera. An exact position of the reference plane is determined using data of two points on the plane and distance therebetween instead of markers. As for the position and a direction of the virtual object, input performed when size is decided is used, and the position and the direction of the virtual object can be changed by gesture or the like.

Description

本発明は、写真画像と他の画像とを合成するプログラムに関するものである。   The present invention relates to a program for synthesizing a photographic image and another image.

現実世界の画像(現実画像)に、その現実世界には存在しない他の画像(仮想画像)を合成した合成画像を表示する技術は、拡張現実(Augmented Reality)と呼ばれ、活用が期待されている。例えば、家具やインテリアを購入するに先立って、現実の室内の写真に購入しようとする家具又はインテリアの画像を合成して表示することにより、購入した場合の室内の状況を確認することができる。   A technique for displaying a composite image obtained by combining a real image (real image) with another image (virtual image) that does not exist in the real world is called augmented reality and is expected to be used. Yes. For example, prior to purchasing furniture or interior, by combining and displaying an image of the furniture or interior to be purchased on an actual indoor picture, it is possible to confirm the indoor situation when the purchase is made.

合成画像は、多くの場合に、現実画像としてカメラで撮影された空間(現実空間)に仮想の物体(仮想物体)を配置したものである。仮想物体の現実空間における位置及び方向を定めるために、「マーカー」と呼ばれる物体を含んで撮影を行い、撮影されたマーカーの画像に基づいて仮想物体の位置並びに方向を決定して合成する方法が広く知られている。例えば、特許文献1にかかる技術が開示されている。   In many cases, a composite image is a virtual object (virtual object) arranged in a space (real space) captured by a camera as a real image. In order to determine the position and direction of the virtual object in the real space, a method of performing imaging by including an object called a “marker” and determining and combining the position and direction of the virtual object based on the image of the captured marker Widely known. For example, the technique concerning patent document 1 is disclosed.

しかし、マーカーを用いる方法には、以下の問題があり、仮想現実の活用が困難であった。マーカーは、プログラムによって撮影された画像内からマーカーを発見することを容易にするための特徴的な図柄を含むものであり、多くのユーザにとってその入手が容易ではない。しかし、マーカーを用いることなく仮想物体の位置並びに方向、特に仮想物体の現実空間における位置を定めるプログラムは知られていなかった。   However, the method using a marker has the following problems, making it difficult to use virtual reality. The marker includes a characteristic pattern for facilitating the discovery of the marker from the image photographed by the program, and is not easily obtained for many users. However, there is no known program that determines the position and direction of a virtual object without using a marker, particularly the position of the virtual object in the real space.

実際、カメラで撮影された現実空間に仮想物体を配置した仮想画像を表示するアプリケーション・ソフトウェアがある。例えば非特許文献1に示されたものである。これらのアプリケーション・ソフトウェアにおいては、仮想物体の配置方向については一定の制限があるものの配置位置についてはユーザによる調整(仮想物体のサイズを調整することで、仮想物体の現実空間での奥行きを実質的に調整)に任せている。これに起因して、例えば、現実空間の室内には入らないような大きな家具(仮想物体)であっても奥行き(サイズ)の調整によってはそれが現実空間に納まった合成画像が作成されてしまう。家具の購入を検討しようとするユーザにとって好ましくない。   Actually, there is application software that displays a virtual image in which a virtual object is arranged in a real space photographed by a camera. For example, it is shown in Non-Patent Document 1. In these application softwares, although there are certain restrictions on the placement direction of the virtual object, the placement position can be adjusted by the user (by adjusting the size of the virtual object, the virtual object's depth in the real space can be substantially reduced. To adjust). For this reason, for example, even a large piece of furniture (virtual object) that does not enter the room in the real space, a composite image in which it is stored in the real space is created by adjusting the depth (size). . It is not preferable for users who are considering purchasing furniture.

特開2003−256876号公報JP 2003-256876 A

オフィス家具のレイアウトアプリ(https://www.kaunet.com/kaunet/pdf/20110107_iPhone_kaguap.pdf)Office furniture layout app (https://www.kaunet.com/kaunet/pdf/20110107_iPhone_kaguap.pdf) Tomas Akenine-Moller, Eric Haines:リアルタイムレンダリング 第2版(50-54ページ)Tomas Akenine-Moller, Eric Haines: Real-time rendering 2nd edition (pages 50-54)

解決しようとする課題は、特別なマーカーを用いることなく正確な合成画像を作成するプログラムを提供することである。   The problem to be solved is to provide a program for creating an accurate composite image without using a special marker.

仮想物体は、3次元ポリゴンや曲面のデータとして表されたもの(以下、このようなデータを「3DCG」(3-dimentional computer graphics)と言う。)であることが多い。この場合、仮想物体の位置並びに方向を決定するためには、以下の3つのことを行えばよい。
(1)仮想物体を現実空間に配置する基準面の向きを定める。基準面は現実空間における床や机などの水平面である。カメラの撮影方向が既知であれば計算することができる。(2)その基準面とカメラ(視点)からの距離を定める。(3)仮想物体を現実空間の基準面上の特定の位置に配置する(基準面の向きに合わせた方向で配置する)。
上記(1)についてはカメラの撮影方向が既知であれば計算することができる。(3)については画像を合成した後に調整することが可能であり、また、任意の物としても正しい合成画像が得られる。これらに対し、(2)についてはそれが正しくなければ、現実画像と仮想画像の大小比率の整合しない画像となってしまう。この意味において、(2)が重要である。
The virtual object is often represented as data of a three-dimensional polygon or a curved surface (hereinafter, such data is referred to as “3DCG” (3-dimensional computer graphics)). In this case, in order to determine the position and direction of the virtual object, the following three things may be performed.
(1) The direction of the reference plane for arranging the virtual object in the real space is determined. The reference plane is a horizontal plane such as a floor or a desk in the real space. If the shooting direction of the camera is known, it can be calculated. (2) The distance from the reference plane to the camera (viewpoint) is determined. (3) The virtual object is arranged at a specific position on the reference plane in the real space (arranged in a direction according to the direction of the reference plane).
The above (1) can be calculated if the shooting direction of the camera is known. (3) can be adjusted after the images are combined, and a correct combined image can be obtained as an arbitrary object. On the other hand, if (2) is not correct, the actual image and the virtual image will not match each other in size. In this sense, (2) is important.


本発明の画像合成プログラムは、
現実空間がカメラによって撮影された現実画像と、3次元形状データ(3DCG)として表された仮想物体を1つの投影方向から見た画像である仮想画像とを合成した合成画像を作成する画像合成プログラムであって、
前記合成画像は現実空間内の1つの水平面である基準面に前記仮想物体を置いた画像であり、
前記基準面に前記仮想物体を配置するための現実空間内の座標を計算する仮想物体配置手段を備え、
前記仮想物体配置手段は、前記現実画像に含まれている前記基準面上の2点である基準点の現実空間における2点間の距離(基準距離)に基づいて前記基準面のカメラ(視点)からの正確な位置を計算することを特徴とする。
現実画像は、現実空間を、カメラの撮影状態に基づいて射影した2次元画像である。多くの場合、仮想画像は3DCGとして表された仮想物体のものであり、合成画像は仮想画像と現実画像を重ね合わせたものである。ここで、現実空間の任意の位置に仮想物体を配置した合成画像を作成するためには、仮想物体の位置並びに方向を決定する必要がある。
このために、基準面のカメラ(視点)からの正確な位置(カメラ座標系による基準面を表す平面の式)を求める。
仮想物体を基準面上に配置することに限定するので、仮想物体の位置は平面上の移動、仮想物体の方向も平面上の1軸の回転のみに限定できるため画像を合成した後に調整することもできる。そこで、基準面と視点との距離の決定について検討する。基準面と視点との距離がわかれば、現実空間内の正しい位置に仮想物体を配置できるため、最終的に位置、向き、大きさの正しい仮想画像を表示できる。

The image composition program of the present invention is:
An image composition program for creating a composite image by combining a real image obtained by photographing a real space with a camera and a virtual image that is an image of a virtual object represented as three-dimensional shape data (3DCG) viewed from one projection direction. Because
The composite image is an image in which the virtual object is placed on a reference plane that is one horizontal plane in the real space,
Virtual object placement means for calculating coordinates in real space for placing the virtual object on the reference plane;
The virtual object placement unit is configured to use a camera (viewpoint) of the reference plane based on a distance (reference distance) between two points in the real space of a reference point that is two points on the reference plane included in the real image. It is characterized by calculating the exact position from.
The real image is a two-dimensional image obtained by projecting the real space based on the shooting state of the camera. In many cases, the virtual image is that of a virtual object represented as 3DCG, and the composite image is a superposition of the virtual image and the real image. Here, in order to create a composite image in which a virtual object is arranged at an arbitrary position in the real space, it is necessary to determine the position and direction of the virtual object.
For this purpose, an accurate position of the reference plane from the camera (viewpoint) (a plane expression representing the reference plane by the camera coordinate system) is obtained.
Since the virtual object is limited to being placed on the reference plane, the position of the virtual object can be limited to movement on the plane, and the direction of the virtual object can also be limited to rotation of one axis on the plane. You can also. Therefore, the determination of the distance between the reference plane and the viewpoint is examined. If the distance between the reference plane and the viewpoint is known, the virtual object can be placed at the correct position in the real space, so that a virtual image with the correct position, orientation, and size can be finally displayed.


本発明の画像合成プログラムは、
現実画像内の2点を指定しその2点間の距離を入力させるサイズ指示手段を有し、
前記仮想物体配置手段は、その2点を前記基準点とし、前記サイズ指示手段によって入力された距離を前記基準距離とするものであることを特徴とする。
現実画像の中の基準面上にサイズが既知の物体(あるいは風景の一部)が撮影されていれば、その物体の映像(位置、サイズ、方向)によって基準点を定め、既知のサイズを基準距離とすることができる。しかし、そのような物体が撮影されていたとしてもサイズの値がプログラムの利用するデータとして保持されていない場合には、その物体の基準点とその距離をプログラムに入力する必要がある。サイズ指示手段は、この入力を行わせるものである。具体的には、例えば、画像上の2点を指定(マウスでクリック、タッチスクリーンをタップ等)し、その2点の間の距離を入力(入力用のウィンドウが表示されてそこにキーボード等で入力)する操作をユーザに行わせることでよい。

The image composition program of the present invention is:
A size instruction means for designating two points in the real image and inputting a distance between the two points;
The virtual object placement means uses the two points as the reference points, and uses the distance input by the size instruction means as the reference distance.
If an object of a known size (or part of a landscape) is photographed on a reference plane in a real image, a reference point is determined based on the image (position, size, direction) of the object, and the known size is used as a reference. It can be a distance. However, even if such an object is photographed, if the size value is not held as data used by the program, it is necessary to input the reference point of the object and its distance to the program. The size instruction means is for making this input. Specifically, for example, two points on the image are specified (clicking with the mouse, tapping the touch screen, etc.), and the distance between the two points is input (an input window is displayed on the keyboard or the like). It is sufficient to let the user perform an operation of inputting.

本発明の画像合成プログラムは、
前記仮想物体配置手段は、前記基準点の前記現実画像における座標、前記基準距離及び前記現実画像を撮影した時の前記カメラの撮影方向に基づいて、前記仮想物体の現実空間における位置並びに方向を計算することを特徴とする。
仮想物体の現実空間における位置並びに方向を決定するため、従来のマーカーを用いる方法では、マーカーに少なくとも4点を表示し、相互の距離が分かっているそれらの点の現実画像内の座標から逆算して位置、方向及びサイズを決定していた。このためには、マーカー上の表示として、少なくとも4点を必要とした。仮想物体のカメラに対する相対的な3次元位置及びカメラの焦点距離(又はこれらと同等の情報)を求める必要があるからである。
しかし、(1)仮想物体の位置を3次元空間内の1つの水平面(基準面)に限定し、(2)カメラの撮影方向が既知であれば、基準面上の2つの基準点の現実画像における座標と基準距離のみによって仮想物体を配置する基準面の正確な位置と方向を決定することができる。
ここで、カメラの撮影方向は、デジタルカメラの画像データ(例えばExifフォーマットのもの)に含まれているものを使うこともでき、又は、各カメラの既知の値やカメラに備えられた重力センサ等のデバイスによる出力等を使うこともできる。2つの基準点及び基準距離がユーザによって入力される、或いは現実画像の中から基準点がプログラムによって認識され基準距離が既知であることのみによって、基準面の正確な位置を決定することができる。
基準面上に配置する仮想物体の位置及び方向については、ユーザの希望に合わせるものであるが、基準点が2つ(位置を指定する第1点と方向を指定する第2点)あるので、2つの基準点の座標に基づいて位置及び方向を決定することができる。ユーザは、基準点の指定において自己の希望を示すことができる。
本発明の画像合成プログラムは、以上のことを利用し、2つの基準点と基準距離のみをユーザに指定させて仮想画像の現実画像の中での位置、方向を決定する。ユーザによる指定の手間が小さいものである。
The image composition program of the present invention is:
The virtual object placement means calculates the position and direction of the virtual object in the real space based on the coordinates of the reference point in the real image, the reference distance, and the shooting direction of the camera when the real image is shot. It is characterized by doing.
In order to determine the position and direction of the virtual object in the real space, the conventional method using the marker displays at least four points on the marker and back-calculates them from the coordinates in the real image of those points whose mutual distance is known. Position, direction and size. For this purpose, at least four points were required as the display on the marker. This is because it is necessary to obtain the three-dimensional position of the virtual object relative to the camera and the focal length of the camera (or information equivalent thereto).
However, (1) the position of the virtual object is limited to one horizontal plane (reference plane) in the three-dimensional space, and (2) if the shooting direction of the camera is known, real images of two reference points on the reference plane The exact position and direction of the reference plane on which the virtual object is placed can be determined only by the coordinates and the reference distance at.
Here, the camera shooting direction can be the one included in the image data of the digital camera (for example, in the Exif format), or a known value of each camera, a gravity sensor provided in the camera, or the like You can also use output from other devices. An accurate position of the reference plane can be determined only by inputting two reference points and a reference distance by the user, or by only recognizing the reference point from the real image by the program and knowing the reference distance.
As for the position and direction of the virtual object placed on the reference plane, it matches the user's wish, but there are two reference points (a first point for specifying the position and a second point for specifying the direction). The position and direction can be determined based on the coordinates of the two reference points. The user can indicate his / her desire in specifying the reference point.
The image synthesizing program of the present invention utilizes the above and determines the position and direction of the virtual image in the real image by letting the user specify only two reference points and a reference distance. The user's effort to specify is small.

本発明の画像合成プログラムは、
前記合成画像をタッチパネルスクリーンに表示し、前記タッチパネルスクリーンにおけるジェスチャに基づいて前記仮想物体の現実空間における位置並びに方向を変更する仮想画像移動手段を有することを特徴とする。
室内における家具の配置など、仮想物体を移動、回転させて比較検討したい場合が考えられる。合成画像をタッチパネルスクリーンに表示することにより、ユーザの直感に合わせた移動及び回転が容易に実現できる。
The image composition program of the present invention is:
Virtual image moving means for displaying the composite image on a touch panel screen and changing the position and direction of the virtual object in a real space based on a gesture on the touch panel screen is provided.
There may be cases where you want to make a comparative study by moving and rotating a virtual object, such as the arrangement of furniture in a room. By displaying the composite image on the touch panel screen, movement and rotation in accordance with the user's intuition can be easily realized.


本発明の画像合成プログラムは、
前記カメラがスマートフォンに付属するものであり、
前記タッチパネルスクリーンがそのスマートフォンに付属する画面であることを特徴とする。
タッチパネルスクリーンを備えた端末装置として、スマートフォンが広く用いられている。スマートフォンを活用して本発明の画像合成プログラムを広く活用できる。

The image composition program of the present invention is:
The camera is attached to the smartphone;
The touch panel screen is a screen attached to the smartphone.
Smartphones are widely used as terminal devices equipped with a touch panel screen. The image composition program of the present invention can be widely utilized by utilizing a smartphone.

本発明の画像合成プログラムは、
前記現実画像が室内を撮影した写真であり、
前記仮想物体が家具、家電製品又はインテリア向け置物であることを特徴とする。
室内に家具又はインテリア向け置物を配置するアプリケーションは、本発明の画像合成プログラムを有効に活用するものである。
The image composition program of the present invention is:
The real image is a photograph of a room,
The virtual object is furniture, a home appliance, or an interior ornament.
An application that arranges furniture or interior decorations in the room effectively uses the image composition program of the present invention.


本発明の画像合成プログラムは、
サーバにおいて動作し、
前記現実画像がインターネットを介してユーザから受信した画像であり、
前記仮想物体の3次元形状データがそのサーバに保存され、
合成された画像をインターネットを介してユーザの端末装置に表示することを特徴とする。
この構成によれば、本発明の画像合成プログラムをインターネットを介して広く活用することができる。

The image composition program of the present invention is:
Runs on the server,
The real image is an image received from a user via the Internet;
3D shape data of the virtual object is stored in the server,
The synthesized image is displayed on the terminal device of the user via the Internet.
According to this configuration, the image composition program of the present invention can be widely used via the Internet.

本発明の画像合成プログラムは、マーカーを用いることなく仮想物体の位置並びに方向を決定する。2つの基準点を指定して基準距離を入力することで足るので、ユーザの操作が容易である。   The image composition program of the present invention determines the position and direction of a virtual object without using a marker. Since it is sufficient to specify two reference points and input a reference distance, a user operation is easy.

図1は、画像合成プログラムの原理を示す図である。FIG. 1 is a diagram showing the principle of an image composition program. 図2は、サイズ入力手段の画面の例を示す図である。FIG. 2 is a diagram showing an example of the screen of the size input means. 図3は、画像合成プログラムのフローの例を示す図である。FIG. 3 is a diagram showing an example of the flow of the image composition program. 図4は、仮想物体の配置状態の例を示す図である。FIG. 4 is a diagram illustrating an example of a virtual object arrangement state. 図5は、ジェスチャ及びその処理の例を示す図である。FIG. 5 is a diagram illustrating an example of a gesture and its processing. 図6は、画像合成プログラムの構成の例を示す図である。FIG. 6 is a diagram illustrating an example of the configuration of an image composition program.

以下に、本発明の実施例を示す。   Examples of the present invention are shown below.

本実施例は、本発明の画像合成プログラムの基本動作を示すものである。本実施例においては、現実画像はカメラで撮影された室内の画像であり、仮想物体は家具である。   This embodiment shows the basic operation of the image composition program of the present invention. In this embodiment, the real image is an indoor image taken by a camera, and the virtual object is furniture.

図1は、画像合成プログラムの原理を示す図である。
床面である基準面1を含む画像をカメラ2によって撮影する。カメラの横方向をx軸とし、縦方向をy軸とし、撮影方向をz軸とする座標を「カメラ座標」と言う。カメラの重力センサ等のデバイスにより図にNで示す重力方向が分かる。ベクトルNは単位ベクトル(長さが1のもの)とする。基準面1は床面であるので、重力方向はそれに垂直である。
撮影された現実画像は、カメラ3の後方にある撮像素子に投影されたものであるが、非特許文献2に示されるとおり、仮想スクリーン3上をカメラの前方に想定し、現実空間内の物が仮想スクリーン3に投射されたと考えてよい(仮想スクリーン3上に投射された画像と現実画像とは相似である。)。仮想スクリーン3は、カメラの撮影方向にカメラからdだけ離れた平面であり、カメラ座標でz=dで表される。ここで、dの値はカメラの焦点距離等によって定まるものであり、非特許文献2に記載の方法によりその値を求めることができる。以下、仮想スクリーン3に基づいて説明するが、現実画像と等価である。
FIG. 1 is a diagram showing the principle of an image composition program.
An image including the reference surface 1 which is the floor surface is taken by the camera 2. The coordinates where the horizontal direction of the camera is the x axis, the vertical direction is the y axis, and the shooting direction is the z axis are referred to as “camera coordinates”. The direction of gravity indicated by N in the figure can be determined by a device such as a gravity sensor of the camera. The vector N is a unit vector (having a length of 1). Since the reference plane 1 is a floor surface, the direction of gravity is perpendicular to it.
The captured real image is projected onto the image sensor behind the camera 3, but as shown in Non-Patent Document 2, the virtual screen 3 is assumed to be in front of the camera, and the object in the real space May be considered to be projected on the virtual screen 3 (the image projected on the virtual screen 3 is similar to the real image). The virtual screen 3 is a plane separated from the camera by d in the shooting direction of the camera, and is represented by z = d in camera coordinates. Here, the value of d is determined by the focal length of the camera and the like, and can be obtained by the method described in Non-Patent Document 2. Hereinafter, although described based on the virtual screen 3, it is equivalent to a real image.

仮想スクリーン3上に、2つの基準点P及びQを設定する。基準点は、現実空間における基準面上の点P’及びQ’が撮影された点である。また、現実空間におけるP’とQ’との距離eを取得する。
基準点の設定及び距離eの取得は、サイズ既知の物体を撮影しその物体を画像認識することでも可能であるが、本実施例ではユーザが入力する。
ユーザは、コンピュータを用いて画像合成プログラムを起動し、撮影された現実画像データを画像合成プログラムに読み込ませる。画像合成プログラムが現実画像を表示する画面において、P及びQの点をマウスでクリックし、図2に示すウィンドウにおいて基準距離を入力する。図2は、サイズ入力手段の画面の例を示す図である。このように、サイズ既知の物体の2点を指定した場合には選択によって容易に基準距離を入力することができ、それ以外の場合には実際の距離を数値として入力することができる。
図3は、画像合成プログラムのフローの例を示す図である。上記は、図における「サイズ既知の画像があるか」の分岐においてNoでありその下にあるサイズ指示手段5の処理が行われたことになる。
サイズ指示手段5により、基準距離の値e及び基準点P並びにQのx座標並びにy座標が入力される。P及びQのカメラ座標は、x座標、y座標に加えて、z座標(値はdである)を持つ。以下この3次元の座標で表されるベクトル値を、P、Qで表す。

Figure 2013008257
Two reference points P and Q are set on the virtual screen 3. The reference point is a point at which points P ′ and Q ′ on the reference plane in the real space are photographed. Further, the distance e between P ′ and Q ′ in the real space is acquired.
The setting of the reference point and the acquisition of the distance e can be performed by photographing an object of known size and recognizing the object, but in this embodiment, the user inputs.
A user activates an image composition program using a computer and causes the image composition program to read captured real image data. On the screen on which the image composition program displays a real image, the points P and Q are clicked with the mouse, and the reference distance is input in the window shown in FIG. FIG. 2 is a diagram showing an example of the screen of the size input means. As described above, when two points of an object of known size are designated, the reference distance can be easily input by selection, and in other cases, the actual distance can be input as a numerical value.
FIG. 3 is a diagram showing an example of the flow of the image composition program. The above is No in the branch of “Is there an image of known size” in the figure, and the processing of the size instructing means 5 below it is performed.
The size instructing means 5 inputs the reference distance value e, the reference point P, and the x and y coordinates of Q. The camera coordinates of P and Q have a z coordinate (value is d) in addition to the x coordinate and the y coordinate. Hereinafter, vector values represented by the three-dimensional coordinates are represented by P and Q.
Figure 2013008257

仮想物体配置手段6は、P、Q及びNに基づき、P’及びQ’を以下のとおりに求める。
カメラ座標の原点(レンズの位置)からNの方向に1だけ移動した平面(以下の数2で表される)と、カメラ座標の原点とP及びQとを結ぶ直線の交点P及びQを以下の数3の式で求める。

Figure 2013008257
Figure 2013008257
ここで、(P・N)及び(Q・N)は、P及びQとNとの内積である。
及びQに基づき、以下の数4の式により、P’及びQ’を求める。
Figure 2013008257

ここで、|P−Q|は、PとQとの距離である。
基準面は、
Figure 2013008257

として表される。基準面の正確な位置が求まる。ここで、|P’|,|P|は、ベクトルP’,Pの大きさである。 The virtual object placement unit 6 obtains P ′ and Q ′ based on P, Q, and N as follows.
Intersections P 0 and Q 0 of a plane connecting the origin of the camera coordinates and the planes P and Q, which are moved by 1 in the N direction from the camera coordinates origin (lens position), and the camera coordinates origin P and Q Is obtained by the following equation (3).
Figure 2013008257
Figure 2013008257
Here, (P · N) and (Q · N) are inner products of P and Q and N.
Based on P 0 and Q 0 , P ′ and Q ′ are obtained by the following equation (4).
Figure 2013008257

Here, | P 0 -Q 0 | is the distance between P 0 and Q 0 .
The reference plane is
Figure 2013008257

Represented as: The exact position of the reference plane is obtained. Here, | P ′ | and | P 0 | are the magnitudes of the vectors P ′ and P 0 .

仮想物体配置手段6は、P’及びQ’に基づいて、P’の位置を原点とし、P’からQ’に向かう方向をx’軸、P’から図の上方に向かう基準面の法線をy’軸、x’軸に垂直な基準面内の方向をz’軸とする現実座標を定める。x’軸、y’軸を表す現実座標系の単位ベクトル(U’、U’)は、カメラ座標で以下のとおりになる。z’軸は、x’軸及びy’軸に垂直な方向であるので、容易に計算できる。

Figure 2013008257
Based on P ′ and Q ′, the virtual object placement means 6 uses the position of P ′ as the origin, the direction from P ′ to Q ′ is the x ′ axis, and the normal of the reference plane that is upward from P ′ in the figure Is a real coordinate with the y′-axis and the z′-axis the direction in the reference plane perpendicular to the x′-axis. Unit vectors (U x ′, U y ′) in the real coordinate system representing the x ′ axis and the y ′ axis are as follows in camera coordinates. Since the z ′ axis is a direction perpendicular to the x ′ axis and the y ′ axis, it can be easily calculated.
Figure 2013008257

仮想物体配置手段6は、3DCGで表された仮想物体を現実座標に配置する。ここで、仮想物体は、平面y’=0が基準面に置かれるときの底面であり、x’軸方向が幅方向、y’軸方向が高さ方向、z’軸方向が奥行方向であり、z’軸の負の側に正面が向いているように3DCGを構成しておく。また、仮想物体の底面の中の1点を現実座標の原点に合わせるものとして指定しておく。基準面に正しく置かれ、仮想スクリーン3に正面側が投影されるようにするためである。図4は、仮想物体の配置状態の例を示す図である。仮想物体4は、カメラ方向が正面になるように配置され、基準面に正しく置かれている。
なお、本実施例においてはP’を現実座標の原点としたが、他の位置(例えばP’とQ’の中点)を原点としてもよい。また、y’軸は図の上方に向かう基準面の法線でなければならないが、x’軸及びz’軸は本実施例と異なる方向としてもよい。要するに、仮想物体を配置する位置及び方向(基準面の法線方向を除く)についてはプログラムの設計により任意に定めてよい。
The virtual object placement unit 6 places a virtual object represented by 3DCG in real coordinates. Here, the virtual object is a bottom surface when the plane y ′ = 0 is placed on the reference plane, the x′-axis direction is the width direction, the y′-axis direction is the height direction, and the z′-axis direction is the depth direction. , 3DCG is configured such that the front side faces the negative side of the z ′ axis. Also, it is specified that one point on the bottom surface of the virtual object is aligned with the origin of the real coordinates. This is because it is placed correctly on the reference plane and the front side is projected onto the virtual screen 3. FIG. 4 is a diagram illustrating an example of a virtual object arrangement state. The virtual object 4 is arranged so that the camera direction is the front, and is correctly placed on the reference plane.
In this embodiment, P ′ is the origin of the actual coordinates, but another position (for example, the midpoint of P ′ and Q ′) may be the origin. Further, the y ′ axis must be a normal line of the reference plane facing upward in the drawing, but the x ′ axis and the z ′ axis may be different from those in the present embodiment. In short, the position and direction (excluding the normal direction of the reference plane) where the virtual object is arranged may be arbitrarily determined by program design.

画像合成プログラムは、現実座標をカメラ座標に変換し、仮想スクリーン3に投影する。
現実座標からカメラ座標への変換は、以下の計算により行われる。
x’軸、y’軸、z’軸の単位ベクトル(U’、U’、U’)をカメラ座標で表現した値を、

Figure 2013008257

とするとき、
Figure 2013008257

左辺のベクトルがカメラ座標、右辺のベクトルが現実座標である。
このカメラ座標(x、y、z)が、仮想スクリーン3上の(X,Y,d)に投影され仮想画像となる。3DCGのデータを一方向に投影した2次元画像を作成する方法については、既知のものを用いればよい。なお、X、Yは以下の計算で求めることができる。
Figure 2013008257
仮想スクリーン3に投影された画像が、合成画像となる。 The image composition program converts real coordinates into camera coordinates and projects them onto the virtual screen 3.
The conversion from the real coordinates to the camera coordinates is performed by the following calculation.
x'-axis, y'-axis, z'-axis unit vectors (U x ', U y ', U z ') expressed in camera coordinates,
Figure 2013008257

And when
Figure 2013008257

The vector on the left side is the camera coordinates, and the vector on the right side is the real coordinates.
The camera coordinates (x, y, z) are projected onto (X, Y, d) on the virtual screen 3 to become a virtual image. As a method for creating a two-dimensional image obtained by projecting 3DCG data in one direction, a known one may be used. X and Y can be obtained by the following calculation.
Figure 2013008257
The image projected on the virtual screen 3 becomes a composite image.

本実施例に示されるとおり、本発明の画像合成プログラムによれば、ユーザは2つの基準点と基準距離を入力することのみによって合成画像を得ることができる。2つの基準点の入力は、マウスのクリックでもよいし、タッチパネルスクリーンを用いる場合には画面のタップでもよく、或いは線分を描くジェスチャを用いて描かれた線分の始点と終点を基準点としてもよい。従来技術のようにマーカーを正確に置いて撮影する必要はない。
また、非特許文献1の技術と異なり、仮想物体が正しいサイズで現実画像に合成される。ユーザは、現実空間に仮想物体を置いた場合について、正確な把握が可能である。
As shown in the present embodiment, according to the image composition program of the present invention, the user can obtain a composite image only by inputting two reference points and a reference distance. The input of the two reference points may be a mouse click or a screen tap when using a touch panel screen, or the start point and end point of a line segment drawn using a line drawing gesture as reference points. Also good. There is no need to take an image with a marker placed accurately as in the prior art.
Further, unlike the technique of Non-Patent Document 1, a virtual object is synthesized with a real image with a correct size. The user can accurately grasp the case where the virtual object is placed in the real space.

本実施例は、本発明の画像合成プログラムによる合成画像をタッチパネルスクリーンに表示し、タッチパネルスクリーンにおけるジェスチャに基づいて合成画像の移動を行うものである。   In this embodiment, a composite image obtained by the image composition program of the present invention is displayed on a touch panel screen, and the composite image is moved based on a gesture on the touch panel screen.

合成画像がタッチパネルスクリーンに表示されている。ユーザは、ジェスチャを用いて仮想物体の移動(位置の変更)又は回転(方向の変更)を行う。図5は、ジェスチャ及びその処理の例を示す図である。
(a)は移動を行うためのジェスチャであり、ジェスチャ8aは、1本の指で仮想物体をポイントし、希望の位置に動かすものである。
(b)は回転を行うためのジェスチャであり、ジェスチャ8bは、2本の指を仮想物体の周囲で旋回させるものである。
A composite image is displayed on the touch panel screen. The user moves (changes the position) or rotates (changes the direction) the virtual object using the gesture. FIG. 5 is a diagram illustrating an example of a gesture and its processing.
(A) is a gesture for moving, and the gesture 8a points a virtual object with one finger and moves it to a desired position.
(B) is a gesture for performing rotation, and the gesture 8b is for turning two fingers around a virtual object.

ジェスチャを認識した画像合成プログラムは、以下の式により、仮想物体を配置する現実座標を変換する。なお、仮想物体をz’x’平面において移動、回転するものであり、y’座標はジェスチャの前後で同一である。
移動のジェスチャについては、(z’、x’)だけの移動(ジェスチャ8aの始点及び終点に対応する基準面上の2点の座標の差:基準面上の2点の座標は実施例1と同様に数3及び数4により計算できる)とすると、

Figure 2013008257
ここで、添字Oは移動前、添字Rは移動後を示す。
回転のジェスチャについては、θだけの回転(ジェスチャ8bの始点と終点の角度の差)とすると
Figure 2013008257

ここで、添字Oは回転前、添字Rは回転後を示す。(z’、x’)は、回転ジェスチャの中心点8cに対応する基準面上の点の座標である。 The image composition program that has recognized the gesture transforms the real coordinates where the virtual object is arranged according to the following equation. Note that the virtual object is moved and rotated in the z′x ′ plane, and the y ′ coordinate is the same before and after the gesture.
As for the movement gesture, the movement by (z ′ m , x ′ m ) (the difference between the coordinates of the two points on the reference plane corresponding to the start point and the end point of the gesture 8a: the coordinates of the two points on the reference plane are examples) (It can be calculated by Equation 3 and Equation 4 as in 1.)
Figure 2013008257
Here, the subscript O indicates before movement, and the subscript R indicates after movement.
As for the rotation gesture, if the rotation is only θ (the difference between the start point and the end point of the gesture 8b),
Figure 2013008257

Here, the subscript O indicates before rotation, and the subscript R indicates after rotation. (Z ′ C , x ′ C ) are the coordinates of a point on the reference plane corresponding to the center point 8c of the rotation gesture.

画像合成プログラムは、移動・回転の後の現実座標の値に基づき、実施例1と同様に仮想物体を仮想スクリーンに投影して合成画像を得る。なお、ジェスチャの終了を待たず、ジェスチャに追随して合成画像を継続的に更新してもよい。
また、タッチスクリーンパネルを用いない場合には、ジェスチャによらずにマウスの操作により、ドラッグアンドドロップによって移動、所定のハンドルを動かして回転とすることができる。移動、回転のための具体的なユーザ操作は任意に設計できる。
The image composition program obtains a composite image by projecting a virtual object on a virtual screen based on the values of real coordinates after movement and rotation, as in the first embodiment. Note that the synthesized image may be continuously updated following the gesture without waiting for the gesture to end.
When a touch screen panel is not used, it can be moved by dragging and dropping, and a predetermined handle can be moved to rotate by operating the mouse without using a gesture. Specific user operations for movement and rotation can be arbitrarily designed.

本実施例によれば、ユーザは、各種の仮想物体の配置についての合成画像を見ることができる。家具の購入前の検討を考えると、室内で最も気に入る配置の画像を見ることができる。   According to the present embodiment, the user can see a composite image of various virtual object arrangements. Considering the consideration before purchasing furniture, you can see the image of the most favorite arrangement in the room.

本実施例は、本発明の画像合成プログラムをサーバにおいて動作させるものである。   In this embodiment, the image composition program of the present invention is operated on a server.

図6は、画像合成プログラムの構成の例を示す図である。サーバ9とユーザ端末装置10は、インターネットを介して接続されている。サーバ9においては、画像合成プログラム11が動作し、仮想物体データ12が保存されている。ユーザ端末装置10においては、ブラウザ13が動作し、現実画像データ14が保存されており又は作成される。ユーザ端末装置10は、特別のプログラムやデータを持たず、パーソナルコンピュータ、カメラ付きのスマートフォン等の広く用いられているものでよい。
仮想物体データ12は、家具、家電製品又はインテリア向け置物のものである。サーバ9は、これらの物品を販売する者によって運営されている。
FIG. 6 is a diagram illustrating an example of the configuration of an image composition program. The server 9 and the user terminal device 10 are connected via the Internet. In the server 9, an image composition program 11 operates and virtual object data 12 is stored. In the user terminal device 10, the browser 13 operates, and the real image data 14 is stored or created. The user terminal device 10 does not have a special program or data, and may be a widely used device such as a personal computer or a smartphone with a camera.
The virtual object data 12 is for furniture, home appliances, or interior decorations. The server 9 is operated by a person who sells these items.

パーソナルコンピュータであるユーザ端末装置10を使用するユーザは、ブラウザ13を立ち上げ、インターネットを介してサーバにアクセスする。ユーザは、デジタルカメラを用いて撮影した室内の写真(現実画像データ14)をユーザ端末装置10に保持しており、これを画像合成プログラム11に送信する。ここで、現実画像データ14はExifフォーマットであり、焦点距離及び撮影方向のデータを含む。
なお、スマートフォンであるユーザ端末装置10でも、写真を撮影し、焦点距離及び撮影方向のデータを含んでサーバに送信することができる。
A user who uses the user terminal device 10 which is a personal computer starts up the browser 13 and accesses the server via the Internet. The user holds an indoor photograph (real image data 14) taken using a digital camera in the user terminal device 10, and transmits this to the image composition program 11. Here, the real image data 14 is in the Exif format, and includes data on the focal length and the shooting direction.
Note that the user terminal device 10 which is a smartphone can also take a picture and transmit it to the server including data on the focal length and the shooting direction.

仮想物体データ12は複数の商品の3DCGを含んでおり、画像合成プログラム11は、図示しない画面においてブラウザ13にこれらを画像表示する。ユーザは、表示ざれた画像から合成画像に用いるものを選択する。
画像合成プログラム11は、現実画像をブラウザ13に表示する。ユーザは、表示された現実画像に対して基準点及び基準距離を入力する。
画像合成プログラム11は、実施例1と同様にして、選択された仮想物体を含む合成画像を作成し、これをブラウザ13に表示する。
この後、実施例2と同様にして仮想物体の移動・回転を行ってもよい。
The virtual object data 12 includes 3DCGs of a plurality of products, and the image composition program 11 displays these images on the browser 13 on a screen (not shown). The user selects one to be used for the composite image from the displayed images.
The image composition program 11 displays a real image on the browser 13. The user inputs a reference point and a reference distance for the displayed real image.
The image composition program 11 creates a composite image including the selected virtual object in the same manner as in the first embodiment, and displays it on the browser 13.
Thereafter, the virtual object may be moved / rotated in the same manner as in the second embodiment.

この実施例によれば、家具、家電製品又はインテリア向け置物を販売する者は、効果的に販売を促進することができる。   According to this embodiment, a person who sells furniture, home appliances, or interior ornaments can effectively promote the sale.

マーカーを用いることなく正確な合成画像を作成するプログラムであり、多くの企業、特に家具販売業者による活用が期待できる。     It is a program that creates an accurate composite image without using a marker, and can be expected to be used by many companies, particularly furniture dealers.

1 基準面
2 カメラ
3 仮想スクリーン
4 仮想物体
5 サイズ指示手段
6 仮想物体配置手段
7 ステップ
8 ジェスチャ
9 サーバ
10 ユーザ端末装置
11 画像合成プログラム
12 仮想物体データ
13 ブラウザ
14 現実画像データ
DESCRIPTION OF SYMBOLS 1 Reference plane 2 Camera 3 Virtual screen 4 Virtual object 5 Size instruction | indication means 6 Virtual object arrangement | positioning means 7 Step 8 Gesture
9 Server 10 User terminal device 11 Image composition program 12 Virtual object data 13 Browser 14 Real image data

Claims (7)

現実空間がカメラによって撮影された現実画像と、3次元形状データとして表された仮想物体を1つの投影方向から見た画像である仮想画像とを合成した合成画像を作成する画像合成プログラムであって、
前記合成画像は現実空間内の1つの水平面である基準面に前記仮想物体を置いた画像であり、
前記基準面に前記仮想物体を配置するための現実空間内の座標を計算する仮想物体配置手段を備え、
前記仮想物体配置手段は、前記現実画像に含まれている前記基準面上の2点である基準点の現実空間における2点間の距離(基準距離)に基づいて基準面の正確な位置を計算することを特徴とする、画像合成プログラム。
An image composition program for creating a composite image by combining a real image obtained by photographing a real space with a camera and a virtual image that is an image obtained by viewing a virtual object represented as three-dimensional shape data from one projection direction. ,
The composite image is an image in which the virtual object is placed on a reference plane that is one horizontal plane in the real space,
Virtual object placement means for calculating coordinates in real space for placing the virtual object on the reference plane;
The virtual object placement unit calculates an accurate position of the reference plane based on a distance (reference distance) between two points in the real space of a reference point that is two points on the reference plane included in the real image. An image composition program characterized by:
現実画像内の2点を指定しその2点間の距離を入力させるサイズ指示手段を有し、
前記仮想物体配置手段は、その2点を前記基準点とし、前記サイズ指示手段によって入力された距離を前記基準距離とするものであることを特徴とする、請求項1に記載の画像合成プログラム。
A size instruction means for designating two points in the real image and inputting a distance between the two points;
2. The image composition program according to claim 1, wherein the virtual object placement unit uses the two points as the reference point, and uses the distance input by the size instruction unit as the reference distance. 3.
前記仮想物体配置手段は、前記基準点の前記現実画像における座標、前記基準距離及び前記現実画像を撮影した時の前記カメラの撮影方向に基づいて、前記仮想物体の現実空間における位置並びに方向を計算することを特徴とする、請求項1又は2に記載の画像合成プログラム。   The virtual object placement means calculates the position and direction of the virtual object in the real space based on the coordinates of the reference point in the real image, the reference distance, and the shooting direction of the camera when the real image is shot. The image composition program according to claim 1 or 2, wherein 前記合成画像をタッチパネルスクリーンに表示し、前記タッチパネルスクリーンにおけるジェスチャに基づいて前記仮想物体の現実空間における位置並びに方向を変更する仮想画像移動手段を有することを特徴とする、請求項1〜3のいずれか1項に記載の画像合成プログラム。   The virtual image moving means for displaying the composite image on a touch panel screen and changing a position and a direction of the virtual object in a real space based on a gesture on the touch panel screen. The image composition program according to claim 1. 前記カメラがスマートフォンに付属するものであり、
前記タッチパネルスクリーンがそのスマートフォンに付属する画面であることを特徴とする、請求項4に記載の画像合成プログラム。
The camera is attached to the smartphone;
The image composition program according to claim 4, wherein the touch panel screen is a screen attached to the smartphone.
前記現実画像が室内を撮影した写真であり、
前記仮想物体が家具、家電製品又はインテリア向け置物であることを特徴とする、請求項1〜5のいずれか1項に記載の画像合成プログラム。
The real image is a photograph of a room,
The image composition program according to claim 1, wherein the virtual object is furniture, a home appliance, or an interior ornament.
サーバにおいて動作し、
前記現実画像がインターネットを介してユーザから受信した画像であり、
前記仮想物体の3次元形状データがそのサーバに保存され、
合成された画像をインターネットを介してユーザの端末装置に表示することを特徴とする、請求項6に記載の画像合成プログラム。
Runs on the server,
The real image is an image received from a user via the Internet;
3D shape data of the virtual object is stored in the server,
7. The image composition program according to claim 6, wherein the synthesized image is displayed on a user terminal device via the Internet.
JP2011141346A 2011-06-27 2011-06-27 Image composition program Pending JP2013008257A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011141346A JP2013008257A (en) 2011-06-27 2011-06-27 Image composition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011141346A JP2013008257A (en) 2011-06-27 2011-06-27 Image composition program

Publications (1)

Publication Number Publication Date
JP2013008257A true JP2013008257A (en) 2013-01-10

Family

ID=47675541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011141346A Pending JP2013008257A (en) 2011-06-27 2011-06-27 Image composition program

Country Status (1)

Country Link
JP (1) JP2013008257A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197317A (en) * 2013-03-29 2014-10-16 ソニー株式会社 Information processing apparatus, information processing method, and recording medium
JP2017505933A (en) * 2013-11-26 2017-02-23 シェフィ,ヨァヴ Method and system for generating a virtual image fixed on a real object
JP2017151648A (en) * 2016-02-23 2017-08-31 キヤノン株式会社 Information processing apparatus, information processing method, information processing system, and program
CN111475026A (en) * 2020-04-10 2020-07-31 李斌 Space positioning method based on mobile terminal application augmented virtual reality technology
CN113228117A (en) * 2019-01-11 2021-08-06 三菱电机株式会社 Authoring apparatus, authoring method, and authoring program
WO2021217385A1 (en) * 2020-04-28 2021-11-04 深圳市大疆创新科技有限公司 Video processing method and apparatus

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197317A (en) * 2013-03-29 2014-10-16 ソニー株式会社 Information processing apparatus, information processing method, and recording medium
US9665982B2 (en) 2013-03-29 2017-05-30 Sony Corporation Information processing apparatus, information processing method, and recording medium
US10198146B2 (en) 2013-03-29 2019-02-05 Sony Corporation Information processing apparatus, information processing method, and recording medium
US11188187B2 (en) 2013-03-29 2021-11-30 Sony Corporation Information processing apparatus, information processing method, and recording medium
JP2017505933A (en) * 2013-11-26 2017-02-23 シェフィ,ヨァヴ Method and system for generating a virtual image fixed on a real object
JP2017151648A (en) * 2016-02-23 2017-08-31 キヤノン株式会社 Information processing apparatus, information processing method, information processing system, and program
CN113228117A (en) * 2019-01-11 2021-08-06 三菱电机株式会社 Authoring apparatus, authoring method, and authoring program
CN111475026A (en) * 2020-04-10 2020-07-31 李斌 Space positioning method based on mobile terminal application augmented virtual reality technology
CN111475026B (en) * 2020-04-10 2023-08-22 李斌 Spatial positioning method based on mobile terminal application augmented virtual reality technology
WO2021217385A1 (en) * 2020-04-28 2021-11-04 深圳市大疆创新科技有限公司 Video processing method and apparatus
CN113906731A (en) * 2020-04-28 2022-01-07 深圳市大疆创新科技有限公司 Video processing method and device
CN113906731B (en) * 2020-04-28 2023-10-13 深圳市大疆创新科技有限公司 Video processing method and device

Similar Documents

Publication Publication Date Title
US11367250B2 (en) Virtual interaction with three-dimensional indoor room imagery
US10964108B2 (en) Augmentation of captured 3D scenes with contextual information
US11164381B2 (en) Clothing model generation and display system
US10755485B2 (en) Augmented reality product preview
KR102638526B1 (en) Modifying scenes in augmented reality using parameterized markers
TWI505709B (en) System and method for determining individualized depth information in augmented reality scene
US20120120113A1 (en) Method and apparatus for visualizing 2D product images integrated in a real-world environment
JP4253567B2 (en) Data authoring processor
US9268410B2 (en) Image processing device, image processing method, and program
JP2020024752A (en) Information processing device, control method thereof, and program
KR20190080692A (en) Virtual·augmented reality system which generate 3d-drawings·3d-shapes of frame and operate construction information based on 2d-drawing and building information modeling, and mobile application implementing thereof
JP2015501044A (en) Method and system for capturing and moving 3D models of real world objects and correctly scaled metadata
JP2013008257A (en) Image composition program
WO2015107665A1 (en) Program for creating work assistance data
TW201227606A (en) Electronic device and method for designing a specified scene using the electronic device
Park et al. DesignAR: Portable projection-based AR system specialized in interior design
JP2015099545A (en) Image generation system and image generation program
JP2020509505A (en) Method, apparatus and computer program for providing augmented reality
JP6405539B2 (en) Label information processing apparatus for multi-viewpoint image and label information processing method
JP2017168132A (en) Virtual object display system, display system program, and display method
JP6357412B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP2018124746A (en) Information processing device, information processing system, information processing method and program
JP2015121892A (en) Image processing apparatus, and image processing method
JP2017084215A (en) Information processing system, control method thereof, and program
JP3575469B2 (en) Synthetic moving image generating apparatus and synthetic moving image generating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140627

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150512

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150929