JP2011149952A - Model input device and model generation system - Google Patents

Model input device and model generation system Download PDF

Info

Publication number
JP2011149952A
JP2011149952A JP2011053245A JP2011053245A JP2011149952A JP 2011149952 A JP2011149952 A JP 2011149952A JP 2011053245 A JP2011053245 A JP 2011053245A JP 2011053245 A JP2011053245 A JP 2011053245A JP 2011149952 A JP2011149952 A JP 2011149952A
Authority
JP
Japan
Prior art keywords
model
light
unit
data
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011053245A
Other languages
Japanese (ja)
Inventor
Yukinori Matsumoto
幸則 松本
Kota Fujimura
恒太 藤村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2011053245A priority Critical patent/JP2011149952A/en
Publication of JP2011149952A publication Critical patent/JP2011149952A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a model input device and model generation system for accurately acquiring a moving solid model (three-dimensional moving image data) of an object. <P>SOLUTION: This model input device includes a photographing section 10c for acquiring color data of the object, an irradiation section 10a for irradiating the object with light having a wavelength other than that of the visible light, a light receiving section 10b for receiving light reflected by the object, a unit 10 including the photographing section, irradiation section, and light receiving section, and an interface capable of outputting, to the computer, the color data acquired by the photographing section and information related to the reflected light acquired by the light receiving section. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明はモデル入力装置およびモデル生成システム、特に動く対象物についての複数枚の画像データから対象物の動き立体モデル(三次元モデル)を生成する三次元モデリング技術に関する。   The present invention relates to a model input device and a model generation system, and more particularly to a three-dimensional modeling technique for generating a motion solid model (three-dimensional model) of an object from a plurality of image data of a moving object.

従来より、動きデータを獲得する方法として、モーションキャプチャシステムが実用化されており、映画製作などに応用されている。これは、主に人の動きデータを獲得することを目的とし、人の関節にマーカあるいはセンサをつけ、人の動きに応じてその位置を検出することで、人の骨格の動きデータを得るものである。   Conventionally, a motion capture system has been put to practical use as a method for acquiring motion data and applied to movie production and the like. This is mainly for the purpose of acquiring human motion data. By attaching markers or sensors to human joints and detecting their positions according to human motion, human skeleton motion data is obtained. It is.

より具体的には、モーションキャプチャシステムは2種類に分けられ、磁気センサを用いるもの、および光学的手法によるものが存在する。磁気センサを用いるものは、関節に磁気センサを取り付け、空間内の磁場に基づいて各センサは自身の位置を得る。人間の動きにしたがって、各センサの位置が変わり、これが関節の動きデータとして獲得されるものである。但し、この手法では、各センサにケーブルを接続する必要があり、これが人の動きを不自由にするという問題がある。また、磁場を乱す環境では正確に動きデータが得られないと言う問題もある。   More specifically, there are two types of motion capture systems, one using a magnetic sensor and the other using an optical technique. In the case of using a magnetic sensor, a magnetic sensor is attached to a joint, and each sensor obtains its position based on a magnetic field in space. The position of each sensor changes according to human movement, and this is acquired as joint movement data. However, in this method, it is necessary to connect a cable to each sensor, and this causes a problem that the movement of a person becomes inconvenient. In addition, there is a problem that accurate motion data cannot be obtained in an environment where the magnetic field is disturbed.

一方、光学式では、たとえばLEDを関節にマーカとして取り付ける。これを複数のカメラにて観測し、三角測量原理で各LEDの位置を検出する。但し、この手法では、データ入力空間を暗めにしなければならず、また、リアルタイムでの動きデータ獲得は難しいと言う問題がある。   On the other hand, in the optical type, for example, an LED is attached to a joint as a marker. This is observed with a plurality of cameras, and the position of each LED is detected by the triangulation principle. However, this method has a problem that the data input space must be darkened, and it is difficult to acquire motion data in real time.

さらに、磁気式あるいは光学式のいずれの方法においても、動きデータのみ獲得するものであり、動いている物体(人)自体の三次元形状データを得るものではない。
特開平11−219422号公報 特開2001−082940号公報 特開平11−175692号公報
Furthermore, in either the magnetic method or the optical method, only motion data is acquired, and three-dimensional shape data of the moving object (person) itself is not acquired.
JP-A-11-219422 JP 2001-082940 A JP-A-11-175692

これに対し、CMU(カーネギーメロン大学)では、複数カメラを配置した空間内で人が動作し、ステレオ法によって対象物体(人)の動き付き三次元データを得る方法を発表している。   On the other hand, CMU (Carnegie Mellon University) has announced a method in which a person operates in a space in which a plurality of cameras are arranged and three-dimensional data with movement of a target object (person) is obtained by a stereo method.

しかしながら、この方法でも、動き付き三次元データは得られるものの、
(1)受動的ステレオ法に基づいているため、対象物に十分なテクスチャ情報がない場合、きわめて精度の悪い形状データとなる
(2)三次元データの羅列を得ているため、獲得データ量はきわめて多大となるという問題を有しており、実際の応用分野に適切なデータを提供しているとは言えない。
However, even with this method, although 3D data with motion can be obtained,
(1) Since it is based on the passive stereo method, the shape data is extremely inaccurate when there is not enough texture information on the object. (2) Since the list of 3D data is obtained, the amount of acquired data is It has the problem of becoming extremely large, and it cannot be said that it provides data suitable for actual application fields.

本発明は、上記従来技術の有する課題に鑑みなされたものであり、その目的は、対象物体の表面色彩に影響されることなく、高精度に対象物の動立体モデル(三次元動画像データ)を取得することができるモデル入力装置およびモデル生成システムを提供することにある。   The present invention has been made in view of the above-described problems of the prior art, and the object thereof is a moving object model (three-dimensional moving image data) with high accuracy without being affected by the surface color of the object. It is an object to provide a model input device and a model generation system that can acquire the model.

上記目的を達成するために、本発明のモデル入力装置は、対象物の色彩データを取得する撮影部(例えば、カラーカメラ10c)と、可視光以外の波長を有する光を前記対象物へ照射する照射部(例えば、プロジェクタ10a)と、前記対象物で反射された前記光を受光する受光部(例えば、近赤外カメラアレイ10b)と、内部に前記撮影部と前記照射部と前記受光部とを備えるユニット(例えば、入力ユニット10)と、前記撮影部で得られた前記色彩データと前記受光部で得られた反射光に関する情報とをコンピュータへ出力可能なインターフェース(例えば、インターフェースI/F)と、を備えることを特徴とする。   In order to achieve the above object, the model input device of the present invention irradiates the object with a photographing unit (for example, the color camera 10c) that acquires color data of the object and light having a wavelength other than visible light. An irradiation unit (for example, projector 10a), a light receiving unit (for example, near-infrared camera array 10b) that receives the light reflected by the object, and the imaging unit, the irradiation unit, and the light receiving unit inside A unit (e.g., input unit 10), and an interface (e.g., interface I / F) that can output to the computer the color data obtained by the photographing unit and the information about the reflected light obtained by the light receiving unit And.

本装置において、前記撮影部と前記照射部とは可及的に離して前記ユニットに配置されることが好適である。   In the present apparatus, it is preferable that the photographing unit and the irradiation unit are arranged in the unit as far apart as possible.

本装置において、前記反射光に関する情報に基づいて、三次元形状データと動きデータを取得することもできる。   In the present apparatus, three-dimensional shape data and motion data can be acquired based on the information related to the reflected light.

本装置において、前記受光部は、可視光以外の波長を有する光を受光可能な素子が複数個配列されることが好適である。   In the present apparatus, it is preferable that the light receiving section includes a plurality of elements capable of receiving light having a wavelength other than visible light.

また、本発明のモデル生成システムは、対象物の色彩データを取得する撮影部(例えば、カラーカメラ10c)と、可視光以外の波長を有する光を前記対象物へ照射する照射部(例えば、プロジェクタ10a)と、前記対象物で反射された前記光を受光する受光部(例えば、近赤外カメラアレイ10b)と、内部に前記撮影部と前記照射部と前記受光部とを備えるユニット(例えば、入力ユニット10)と、前記撮影部で得られた前記色彩データと前記受光部で得られた反射光に関する情報とをコンピュータへ出力可能なインターフェース(例えば、インターフェースI/F)と、を備えるモデル入力装置と、前記インターフェースを介して前記モデル入力装置と接続され、三次元形状データが登録された三次元形状データベースを有し、前記反射光に関する情報に基づく動きデータと前記三次元形状データベースに登録された前記三次元形状データとを合成するモデル合成装置(例えば、コンピュータ18)と、を備えることを特徴とする。   In addition, the model generation system of the present invention includes an imaging unit (for example, a color camera 10c) that acquires color data of an object, and an irradiation unit (for example, a projector) that irradiates the object with light having a wavelength other than visible light. 10a), a light receiving unit (for example, near-infrared camera array 10b) that receives the light reflected by the object, and a unit (for example, the image capturing unit, the irradiation unit, and the light receiving unit) Model input comprising: an input unit 10); and an interface (for example, interface I / F) capable of outputting the color data obtained by the photographing unit and the information about the reflected light obtained by the light receiving unit to a computer A three-dimensional shape database in which three-dimensional shape data is registered and connected to the model input device via the interface Reflected light model synthesizer for synthesizing said registered a motion data on the three-dimensional shape database three-dimensional shape data based on information about (e.g., computer 18), characterized in that it comprises a, a.

本システムにおいて、前記モデル合成装置は、前記撮影部で取得された前記色彩データを記憶する画像メモリをさらに有することもできる。   In the present system, the model synthesizing apparatus may further include an image memory for storing the color data acquired by the photographing unit.

本システムにおいて、前記モデル合成装置は、前記反射光に関する情報に基づく三次元形状データと前記反射光に関する情報と同時刻に取得された色彩データとを合成することが好適である。   In this system, it is preferable that the model synthesizing device synthesizes the three-dimensional shape data based on the information about the reflected light and the color data acquired at the same time with the information about the reflected light.

本システムにおいて、前記モデル合成装置と接続され、前記モデル合成装置にて合成された動立体モデルを出力する出力装置(例えば、出力装置20)をさらに備えることもできる。   The system may further include an output device (for example, the output device 20) that is connected to the model synthesis device and outputs a dynamic solid model synthesized by the model synthesis device.

ここで、前記三次元形状データであるボクセルデータは連続した時間にわたって取得され、前記骨格データを生成する手段は、ある時刻に取得された前記ボクセルデータの細線化処理を少なくとも複数時刻にわたって実行することにより前記骨格データを生成することが好適である。   Here, the voxel data that is the three-dimensional shape data is acquired over a continuous time, and the means for generating the skeleton data executes the thinning process of the voxel data acquired at a certain time over at least a plurality of times. It is preferable to generate the skeleton data by

また、前記剛体グループに区分する手段は、前記骨格データの動きの方向及び大きさが略同一である骨格要素を同一剛体グループに属するとして区分することができる。また、前記剛体グループに区分する手段は、前記骨格データの動きの方向及び大きさを前記細線化処理後の一部の連続したボクセル座標の1次関数として記述し、この1次関数記述との誤差が一定値以下となる連続したボクセルを同一剛体グループに属するとして区分することもできる。   Further, the means for classifying the rigid body groups can classify the skeleton elements having substantially the same movement direction and size of the skeleton data as belonging to the same rigid body group. Further, the means for dividing into the rigid body group describes the motion direction and size of the skeleton data as a linear function of a part of the continuous voxel coordinates after the thinning process, and the linear function description It is also possible to classify consecutive voxels whose errors are below a certain value as belonging to the same rigid body group.

また、本装置において、さらに、前記骨格データ及び剛体グループ毎の運動パラメータを前記三次元形状データ及び色彩データとは別に記憶する手段とを有することが好適である。   The apparatus preferably further includes means for storing the skeleton data and the motion parameters for each rigid body group separately from the three-dimensional shape data and the color data.

ここで、前記骨格データ及び剛体グループ毎の運動パラメータと、異なる対象物について得られた前記三次元形状データ及び色彩データとを合成する手段とを有することもできる。   Here, it is also possible to have means for synthesizing the skeletal data and the motion parameters for each rigid body group with the three-dimensional shape data and color data obtained for different objects.

以上説明したように、本発明によれば、対象物体の表面色彩に影響されることなく、高精度に対象物の動立体モデル(三次元動画像データ)を取得することができる。   As described above, according to the present invention, it is possible to acquire a moving three-dimensional model (three-dimensional moving image data) of a target object with high accuracy without being affected by the surface color of the target object.

実施形態の構成図である。It is a block diagram of embodiment. 図1におけるコンピュータの構成図である。It is a block diagram of the computer in FIG. ステレオ法の原理説明図(その1)である。It is principle explanatory drawing (the 1) of a stereo method. ステレオ法の原理説明図(その2)である。It is a principle explanatory view (the 2) of the stereo method. ステレオ法の原理説明図(その3)である。It is a principle explanatory view (the 3) of the stereo method. 三次元データの計算処理を示す説明図である。It is explanatory drawing which shows the calculation process of three-dimensional data. 細線化処理説明図である。It is thinning process explanatory drawing.

以下、図面に基づき本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1実施形態>
まず、本実施形態の基本概念について説明する。対象物体の表面色彩に左右されず精度良く三次元動画データを入力するためには、受動的手法ではなく、能動的手法が有効である。すなわち、何らかのパタン光を対象物に照射し、これを観測することで対象物の形状を得る方法である。ここで使用されるパタンとして、スリット光などの構造化光やランダム光などが代表的である。
<First Embodiment>
First, the basic concept of this embodiment will be described. In order to input 3D moving image data with high accuracy regardless of the surface color of the target object, an active method is effective instead of a passive method. That is, it is a method of obtaining the shape of an object by irradiating the object with some pattern light and observing the pattern light. Typical patterns used here include structured light such as slit light, random light, and the like.

いま、全周囲の動きつき三次元データを獲得することを前提にした場合、一方向だけでなく、複数の方向から同時にパタンを照射する必要がある。ここで、スリット光などの構造化光はパタンそのものに意味があるため、これを複数方向から同時に同じ対象物に照射すると互いのパタン光が干渉しあい、その結果、誤った形状データをえることになる。   Now, when it is assumed that three-dimensional data with movement of the entire circumference is acquired, it is necessary to irradiate a pattern simultaneously from a plurality of directions, not just one direction. Here, since structured light such as slit light is meaningful in the pattern itself, if the same object is irradiated simultaneously from multiple directions, the pattern light will interfere with each other, resulting in incorrect shape data. Become.

一方、ランダム光の場合、パタンそのものには意味をもたない。したがって、複数方向からの同時照射を行っても問題ない。ただし、入力カメラは複数必要であり、これらでステレオ法を適用すればよい。   On the other hand, in the case of random light, the pattern itself has no meaning. Therefore, there is no problem even if simultaneous irradiation from a plurality of directions is performed. However, a plurality of input cameras are required, and the stereo method may be applied with these.

加えて、対象物体に対し全方向からの色彩(テクスチャ)データを獲得するためには、複数方向からカラーカメラにて対象物を撮影する必要がある。また、このテクスチャデータ獲得は、上記の三次元データ入力と同時に行わなければならないが、上記のパタン光はカラーカメラで撮影される画像には写るべきではない。なぜなら、このパタン光は本来の対象物の持つ色彩以外の不要な情報を与えるためである。   In addition, in order to acquire color (texture) data from all directions for the target object, it is necessary to photograph the target object from a plurality of directions with a color camera. The texture data acquisition must be performed simultaneously with the input of the three-dimensional data. However, the pattern light should not be reflected in an image photographed by a color camera. This is because this pattern light gives unnecessary information other than the color of the original object.

以上のことから、下記のものから構成される入力ユニットを用いることが好適となる。   From the above, it is preferable to use an input unit composed of the following.

(a)可視光以外、例えば近赤外線によるランダムパタン照射プロジェクタ
(b)近赤外カメラアレイ
(c)カラーカメラ
そして、このユニットを対象物に対して複数配置することにより、対象物全周囲の動きつき三次元データ入力が可能となる。
(A) Other than visible light, for example, a random pattern irradiation projector using near infrared rays, (b) a near infrared camera array, (c) a color camera, and a plurality of units arranged on the object to move around the entire object. It is possible to input 3D data.

図1には、本実施形態の動立体モデル生成装置の構成が示されている。図1(A)は動立体モデル作成装置の入力ユニットであり、図1(B)は動立体モデル生成装置の全体構成図である。   FIG. 1 shows the configuration of the dynamic three-dimensional model generation device of the present embodiment. FIG. 1A is an input unit of the dynamic stereoscopic model creation apparatus, and FIG. 1B is an overall configuration diagram of the dynamic stereoscopic model generation apparatus.

入力ユニット10は、近赤外線によるランダムパタンを照射するプロジェクタ10a、プロジェクタ10aから照射され対象物で反射されたランダムパタンを受光する近赤外カメラアレイ10b及び対象物の色彩テクスチャを取得するためのカラーカメラ10cから構成される。   The input unit 10 includes a projector 10a that emits a random pattern of near infrared rays, a near infrared camera array 10b that receives a random pattern irradiated from the projector 10a and reflected by the subject, and a color for acquiring a color texture of the subject. It consists of a camera 10c.

そして、このような入力ユニットを複数、例えば図1(B)に示されるように入力ユニット10、12、14、16と4つ、対象物(例えば人)の周囲に配置し、それぞれのユニット内の近赤外カメラアレイ10bで得られた近赤外画像及びカラーカメラ10cで得られたカラー画像を処理用コンピュータ18に供給する。なお、各ユニット内の近赤外カメラアレイ10b及びカラーカメラ10cの相対的位置関係は既知で固定であり、また、各ユニット間の相対的位置関係も予め正確に算出しておく。さらに、配置された全ユニット間にて近赤外カメラアレイ10bは相互に同期することが望ましく、カラーカメラ10cも同期することが望ましい。   A plurality of such input units, for example, four input units 10, 12, 14, 16 as shown in FIG. 1B, are arranged around the object (for example, a person), The near-infrared image obtained by the near-infrared camera array 10b and the color image obtained by the color camera 10c are supplied to the processing computer 18. The relative positional relationship between the near-infrared camera array 10b and the color camera 10c in each unit is known and fixed, and the relative positional relationship between the units is accurately calculated in advance. Further, it is desirable that the near-infrared camera array 10b is synchronized with each other among all the units arranged, and it is desirable that the color camera 10c is also synchronized.

図2には、図1におけるコンピュータ18の構成ブロック図が示されている。入出力インターフェースI/F、CPU、ROM、画像メモリ、三次元形状データベース及び骨格データベースを有して構成される。   FIG. 2 is a block diagram showing the configuration of the computer 18 in FIG. It has an input / output interface I / F, CPU, ROM, image memory, three-dimensional shape database, and skeleton database.

近赤外カメラ及びカラーカメラで得られた画像データはインターフェースI/Fからコンピュータ18に取り込まれ、画像メモリに記憶される。   Image data obtained by the near-infrared camera and the color camera is taken into the computer 18 from the interface I / F and stored in the image memory.

CPUは、画像メモリに記憶された画像データから後述する処理を実行して三次元形状データ及び色彩データを取得し、三次元形状データベースに登録する。本実施形態では、動きのある三次元物体をモデリングするため、三次元形状データベースには時間的に連続した三次元形状データが記憶される。ある時刻における三次元形状データをフレームと言うことができる。また、CPUは三次元形状データベースに記憶された三次元形状データ及び色彩データから骨格データ及びその動きデータを分離抽出し、骨格データベースに登録する。   The CPU executes processing to be described later from the image data stored in the image memory, acquires three-dimensional shape data and color data, and registers them in the three-dimensional shape database. In this embodiment, in order to model a moving three-dimensional object, the three-dimensional shape database stores temporally continuous three-dimensional shape data. Three-dimensional shape data at a certain time can be called a frame. Further, the CPU separates and extracts the skeleton data and its motion data from the three-dimensional shape data and the color data stored in the three-dimensional shape database, and registers them in the skeleton database.

ROMは、後述するモデリング処理を実行するための処理プログラムを格納し、CPUはこのROMに記憶されたプログラムを読み出し順次実行することで動きのある三次元物体をモデリングする。なお、この実施例ではプログラムをROMに格納しているが、この他ハードディスク、CD−ROMなど他の記憶媒体に格納されていてもよい。   The ROM stores a processing program for executing a modeling process, which will be described later, and the CPU reads a program stored in the ROM and executes it sequentially to model a moving three-dimensional object. In this embodiment, the program is stored in the ROM, but may be stored in another storage medium such as a hard disk or a CD-ROM.

以上の装置によってある時刻に入力された対象物の画像データの処理の流れを示すと以下の通りである。   The flow of processing of image data of an object input at a certain time by the above apparatus is as follows.

(1)部分奥行きデータの獲得
(2)全三次元データの計算
(3)テクスチャ付き三次元データの獲得
これらの処理について順次説明する。
(1) Acquisition of partial depth data (2) Calculation of all three-dimensional data (3) Acquisition of textured three-dimensional data These processes will be sequentially described.

<部分奥行きデータの獲得>
部分奥行きデータの獲得とは、各ユニットにおいて獲得される部分的三次元データを獲得することである。ここでは、対象物に対し、近赤外線プロジェクタ10aからランダムパタンが照射されている。この画像を近赤外線カメラアレイ10bにて撮影したものが入力画像になる。良く知られたマルチベースラインステレオなどの方法により、対象物のうち、全カメラの共通視野部分についてはカメラアレイ10bからの距離データ(奥行きデータ)を求めることができる。
<Acquisition of partial depth data>
Acquisition of partial depth data refers to acquiring partial three-dimensional data acquired in each unit. Here, the object is irradiated with a random pattern from the near-infrared projector 10a. An image obtained by photographing this image with the near-infrared camera array 10b becomes an input image. By using a well-known method such as multi-baseline stereo, distance data (depth data) from the camera array 10b can be obtained for the common visual field portion of all the cameras in the object.

マルチベースラインステレオの原理は以下のとおりである。今、図3に示されるように対象物100の周囲に3つのカメラA、B、Cを配置し、それぞれのカメラで得られた画像が画像102(カメラAの画像)、画像104(カメラBの画像)、画像106(カメラCの画像)であるとする。カメラAの画像102における点aの対応点として、カメラBの画像104における対応点候補は図4に示されるようにb1、b2、b3のように複数存在する。これらの対応点候補それぞれに応じて奥行きがz1、z2、z3と計算される。この段階ではどれが正しい奥行き候補かは特定できない。しかしながら、3つ以上のカメラを用いた場合、これらの複数候補から絞込みを行うことができる。たとえば、図5のようにカメラCが存在した場合、CにおいてもカメラAの画像102の点aに対応する対応点候補が複数存在し、それぞれの奥行きが存在する。しかし、これらの候補のうち、正しい対応点候補については奥行き値が一致するはずである。すなわち、複数カメラを用いて対応点候補を得た後、これらのなかで奥行きが一致するもの(図中Q)を最終的に真の対応点とし、その点の奥行き値を最終的な奥行きデータとする。但し、これらの奥行きデータは、この時点では各ユニットから見た部分的な情報に過ぎない。次に、これらを統合する必要がある。   The principle of multi-baseline stereo is as follows. Now, as shown in FIG. 3, three cameras A, B, and C are arranged around the object 100, and images obtained by the respective cameras are an image 102 (an image of camera A) and an image 104 (a camera B). ) And image 106 (camera C image). As corresponding points of the point a in the image 102 of the camera A, there are a plurality of corresponding point candidates in the image 104 of the camera B, as shown in FIG. 4, b1, b2, and b3. The depth is calculated as z1, z2, and z3 according to each of these corresponding point candidates. At this stage, it is not possible to specify which is a correct depth candidate. However, when three or more cameras are used, it is possible to narrow down from these multiple candidates. For example, when the camera C exists as shown in FIG. 5, a plurality of corresponding point candidates corresponding to the point a of the image 102 of the camera A exist in C, and the respective depths exist. However, among these candidates, the correct corresponding point candidates should have the same depth value. That is, after obtaining corresponding point candidates using a plurality of cameras, those having the same depth (Q in the figure) are finally regarded as true corresponding points, and the depth value of that point is the final depth data. And However, these depth data are only partial information viewed from each unit at this point. Next, these need to be integrated.

<全三次元データの計算>
入力ユニットが図1(B)に示されるように4つの入力ユニット10、12、14、16から構成されている場合、4つのユニットの視野に共通な空間が存在する。そして、対象物はこの共通空間に存在すると仮定することができる。さもなければ、対象物の少なくとも一部分についてデータが獲得できなくなるからである。そして、この共通空間をボクセル空間、すなわち微小な立方体の集合で表現する。
<Calculation of all three-dimensional data>
When the input unit is composed of four input units 10, 12, 14, and 16 as shown in FIG. 1B, a common space exists in the field of view of the four units. And it can be assumed that the object exists in this common space. Otherwise, data cannot be acquired for at least a part of the object. This common space is expressed by a voxel space, that is, a set of minute cubes.

上述した部分奥行きデータの獲得処理により、各ユニット毎に部分奥行きデータが算出される。各ユニットからの奥行きデータをDz、ボクセル空間の各ボクセルとユニット間の距離をDvとすると、これらの部分奥行きデータは以下の処理により統合される。   The partial depth data is calculated for each unit by the partial depth data acquisition process described above. If the depth data from each unit is Dz and the distance between each voxel in the voxel space and the unit is Dv, these partial depth data are integrated by the following processing.

(1)図6に示されるように、各ユニットについて、かつ、全ボクセルについてDv>Dzであれば、そのボクセルに1点を加える。つまり、全ボクセルのうち、奥行きデータ以遠にあるボクセルについて1点を加える。4つのユニットについて行うことで、各ボクセルは0〜4のいずれかの値をとることになる。ちなみに、0は奥行きデータより手前に位置するボクセルであり、物体の外に対応するボクセルである。 (1) As shown in FIG. 6, if Dv> Dz for each unit and for all voxels, one point is added to that voxel. That is, one point is added to the voxels farther than the depth data among all the voxels. By performing for four units, each voxel takes one of the values 0-4. Incidentally, 0 is a voxel located in front of the depth data, and corresponds to the outside of the object.

(2)4点を獲得したボクセルのみを抽出し、これらを対象物に対応したボクセルとみなす。 (2) Only voxels that have acquired 4 points are extracted, and these are regarded as voxels corresponding to the object.

なお、入力ユニットをn個用いた場合には、ステップ(2)にてn点を獲得したボクセルを抽出すればよい。また、nが大きい場合、ステップ(2)にて(n−1)点、さらにより一般的には(n−m)点(n>m)を獲得したボクセルを抽出してもよい。   When n input units are used, the voxel that has acquired n points in step (2) may be extracted. If n is large, voxels that have acquired (n-1) points, more generally (nm) points (n> m) in step (2) may be extracted.

以上の処理により対象物に相当するボクセルを抽出し、ボクセル空間で表現されたデータをポリゴン表現に変換する。   Through the above processing, voxels corresponding to the object are extracted, and data expressed in the voxel space is converted into a polygon representation.

<テクスチャつき三次元データの獲得>
各ポリゴンに対し、割り当てる色彩データ(テクスチャデータ)を、同じ時刻にカラーカメラ10cによって撮影した画像を参照して獲得する。
<Acquisition of textured 3D data>
Color data (texture data) to be assigned to each polygon is acquired with reference to images taken by the color camera 10c at the same time.

以上の3つの処理をすべての時刻に関して行うことで、精度の良い三次元動画像データを求めることができる。   By performing the above three processes for all times, accurate three-dimensional moving image data can be obtained.

そして、算出された三次元動画像データは三次元形状データベースに登録され、必要に応じてCPUがこれを読み出し、出力装置20に出力することができる。   The calculated three-dimensional moving image data is registered in the three-dimensional shape database, and the CPU can read it and output it to the output device 20 as necessary.

<第2実施形態>
上述した第1実施形態では、三次元画像データの羅列を求めていた。しかし、この羅列から、さらに動きデータと形状データを分離することにより、三次元動画像データをきわめて少ないデータ量で表現可能となる、また、動きデータのみを取り出し別の形状データに適用可能になる、等の利点が発生する。
Second Embodiment
In the first embodiment described above, a list of 3D image data is obtained. However, by further separating motion data and shape data from this list, it is possible to express 3D moving image data with a very small amount of data, and it is possible to extract only motion data and apply it to other shape data. , Etc. are generated.

そこで、本実施形態では、動きデータと形状データを分離する方法について説明する。なお、装置の構成は図1及び図2と同様であり、すべての画像は1/30秒毎に同期して撮影され、これら同時刻に撮影された画像を同一時刻フレームと呼ぶことにする。同時刻フレームの情報を使って、各フレームでの三次元データ(形状+色彩)を求めることになる。   Therefore, in this embodiment, a method for separating motion data and shape data will be described. The configuration of the apparatus is the same as in FIG. 1 and FIG. 2, and all images are taken in synchronization every 1/30 seconds, and these images taken at the same time are called the same time frame. Using the information of the same time frame, three-dimensional data (shape + color) in each frame is obtained.

処理の流れは以下の通りである。   The flow of processing is as follows.

(1)各フレームでの骨格データ生成
(2)フレーム間での骨格データ比較
(3)最終骨格データ生成
以下、これらの処理について順次説明する。
(1) Generation of skeleton data in each frame (2) Comparison of skeleton data between frames (3) Generation of final skeleton data Hereinafter, these processes will be sequentially described.

<各フレーム間での骨格データ生成>
第1実施形態で述べたように、各フレームでの三次元形状データについては、一旦ボクセルデータとして表現される。ここで、画像処理分野で良く知られた細線化処理を行う。細線化処理については、例えば、「コンピュータ画像処理入門」(田村秀行著、日本工業技術センタ編)に記載されている。細線化とは、与えられた図形から線幅を狭めて幅1の中心線を抽出する操作であり、「画像中の境界点の中から消去可能要素でありかつ線の端点ではない画素をすべて消去する」アルゴリズムを基本とする。この基本アルゴリズムを画像全体の画素に施す1回の操作とし、これを消去される画素がなくなるまで反復することで実行することができる。
<Generation of skeleton data between frames>
As described in the first embodiment, the three-dimensional shape data in each frame is once expressed as voxel data. Here, a thinning process well known in the image processing field is performed. The thinning process is described, for example, in “Introduction to Computer Image Processing” (Hideyuki Tamura, edited by Japan Industrial Technology Center). Thinning is an operation of narrowing the line width from a given figure and extracting the center line of width 1. “Throughout the boundary points in the image, all the pixels that are erasable and are not the end points of the line Based on the “erase” algorithm. This basic algorithm can be executed as a single operation that is performed on the pixels of the entire image, and is repeated until there are no more pixels to be erased.

なお、一般に細線化処理はピクセル空間で表現された二次元画像を対象に行われるが、これを三次元画像すなわちボクセル空間に拡張することは容易である。この細線化処理の結果が、対象物、例えば人間の骨格に相当する。   In general, the thinning process is performed on a two-dimensional image expressed in a pixel space, but it is easy to extend this to a three-dimensional image, that is, a voxel space. The result of the thinning process corresponds to an object, for example, a human skeleton.

図7には、細線化処理された対象物(人)が模式的に示されている。図7(A)はボクセルデータを二次元的に表現したものであり、図7(B)はこのボクセルデータを細線化処理したものである。図7(B)の実線は、単位ボクセルが連結したものである。   FIG. 7 schematically shows an object (person) that has been thinned. FIG. 7A is a two-dimensional representation of voxel data, and FIG. 7B is a thinning process of this voxel data. The solid line in FIG. 7B is a connection of unit voxels.

<フレーム間での骨格データ比較>
ここでは、細線化処理の結果得られた点列の位置を、連続したフレーム間で比較し、点列の動きを求める。
<Comparison of skeleton data between frames>
Here, the position of the point sequence obtained as a result of the thinning process is compared between consecutive frames to obtain the motion of the point sequence.

具体的には、以下の処理となる。   Specifically, the following processing is performed.

(1)点列の特徴点(端点、分岐点)を求める。 (1) Find feature points (end points, branch points) of a point sequence.

(2)隣接フレームで近傍の特徴点の対応づけを行う。 (2) Corresponding neighboring feature points in adjacent frames.

(3)特徴点間の点列について、対応づけを行う。 (3) The point sequence between the feature points is associated.

ここでは、対象物の動きは連続しており、また、その動きは撮影時間間隔に対し十分緩やかであると仮定している。したがって、隣接フレーム間において、上記特徴点は十分に近傍に存在するという前提となっている。(1)での点列の特徴点は、前フレームにおける各特徴点の近傍について、次フレームでの対応点を探索すれば良い。これが(2)の処理になる。そして、特徴点の間に挟まれた点列について、それぞれ対応づけをする。   Here, it is assumed that the movement of the object is continuous and that the movement is sufficiently slow with respect to the shooting time interval. Therefore, it is assumed that the feature points are sufficiently close between adjacent frames. For the feature points of the point sequence in (1), a corresponding point in the next frame may be searched for in the vicinity of each feature point in the previous frame. This is the process (2). Each point sequence sandwiched between feature points is associated with each other.

ここで、特徴点間の距離は、本来同じであるが、画像処理誤差などから必ずしも実際には一致しない。このため、ほぼ平均的に割り当てるなどの方法を用いることが好適である。   Here, the distance between the feature points is essentially the same, but does not always match due to an image processing error or the like. For this reason, it is preferable to use a method such as assigning almost average.

<最終骨格データ生成>
ここでは、すべての点のフレーム間対応関係に基づき、それぞれのフレーム間での移動ベクトルを計算する。そして、点のグルーピングを行う。具体的には隣接点において移動ベクトルが同じ方向であり、かつ大きさがほぼ等しいものについては同じグループであるとする。そして、さらに同じグループのものは剛体運動となるという制約を満たすかどうかの判定を行う。これは、例えば、腕を曲げるという動きをした場合において、下腕と上腕とで各々の骨格に属する点列は同じ剛体運動を行うが、別骨格のものは異なる剛体運動をすることに相当する。したがって、グループピングとは、点列を複数の剛体グループに分離すると表現することもできる。最後に、これらグループ分けされた点列について、剛体運動パラメータ(並進と回転)を決定する。
<Final skeleton data generation>
Here, the movement vector between each frame is calculated based on the inter-frame correspondence of all points. Then, point grouping is performed. Specifically, it is assumed that the movement vectors in the adjacent points have the same direction and have substantially the same size are in the same group. Further, it is determined whether or not the same group of members satisfies the constraint that the body motion is rigid. For example, when the arm is bent, the point sequences belonging to the skeletons of the lower arm and the upper arm perform the same rigid body motion, but those of different skeletons correspond to different rigid body motions. . Therefore, grouping can also be expressed as separating a point sequence into a plurality of rigid body groups. Finally, rigid body motion parameters (translation and rotation) are determined for these grouped point sequences.

以上のようにして、自動的に骨格とその動きデータを抽出することができる。   As described above, the skeleton and its motion data can be automatically extracted.

そして、抽出された骨格と動きデータは図2における骨格データベースに登録される。得られた骨格データと動きデータは、CGなどで生成された類似骨格を持つ別のデータに適用し、同様の動きをつけることができるため、極めて有用となる。   The extracted skeleton and motion data are registered in the skeleton database in FIG. The obtained skeleton data and motion data are extremely useful because they can be applied to other data having a similar skeleton generated by CG or the like and given the same motion.

また、骨格データベースに登録されている骨格と動きデータを読み出し、分離された形状データを他の対象物についての形状データに置き換えて合成することで、コンピュータ上で任意の形状を有する対象物に同じような動きをさせることも可能となる。すなわち、骨格と動きデータをΦ、形状データをΨとした場合、元の動立体モデルはΦ+Ψであるが、Ψの代わりに予め三次元形状データベースに登録されている他の対象物についての三次元形状データΩを用いてΦ+Ωを生成することで、Ωの形状にΦの動きをさせることができる。   Also, by reading out the skeleton and motion data registered in the skeleton database, and replacing the separated shape data with the shape data for other objects, it is the same as the object having an arbitrary shape on the computer. It is also possible to make such a movement. In other words, if the skeleton and motion data are Φ and the shape data is Ψ, the original dynamic solid model is Φ + Ψ, but instead of Ψ, three-dimensional information about other objects registered in advance in the three-dimensional shape database By generating Φ + Ω using the shape data Ω, Φ can be moved to the shape of Ω.

以上では、自動的に骨格データを求める方法について述べたが、あるフレームにおいて、手動で骨格を割り当て、以後、これを基本に骨格の動きを追跡して動きデータを得ても良い。   In the above, the method for automatically obtaining the skeleton data has been described. However, the skeleton may be manually assigned in a certain frame, and the movement data may be obtained by tracking the movement of the skeleton based on this.

10、12、14、16 入力ユニット、18 コンピュータ、20 出力装置。   10, 12, 14, 16 input unit, 18 computer, 20 output device.

Claims (8)

対象物の色彩データを取得する撮影部と、
可視光以外の波長を有する光を前記対象物へ照射する照射部と、
前記対象物で反射された前記光を受光する受光部と、
内部に前記撮影部と前記照射部と前記受光部とを備えるユニットと、
前記撮影部で得られた前記色彩データと前記受光部で得られた反射光に関する情報とをコンピュータへ出力可能なインターフェースと、
を備えることを特徴とするモデル入力装置。
An imaging unit for obtaining color data of an object;
An irradiation unit for irradiating the object with light having a wavelength other than visible light;
A light receiving unit for receiving the light reflected by the object;
A unit comprising the imaging unit, the irradiation unit, and the light receiving unit inside;
An interface capable of outputting, to a computer, the color data obtained by the photographing unit and information about the reflected light obtained by the light receiving unit;
A model input device comprising:
請求項1記載のモデル生成装置において、
前記撮影部と前記照射部とは可及的に離して前記ユニットに配置されることを特徴とするモデル入力装置。
The model generation apparatus according to claim 1,
The model input device, wherein the photographing unit and the irradiation unit are arranged in the unit as far apart as possible.
請求項1記載のモデル生成装置において、
前記反射光に関する情報に基づいて、三次元形状データと動きデータを取得することを特徴とするモデル入力装置。
The model generation apparatus according to claim 1,
A model input device that acquires three-dimensional shape data and motion data based on information about the reflected light.
請求項1記載のモデル生成装置において、
前記受光部は、可視光以外の波長を有する光を受光可能な素子が複数個配列されることを特徴とするモデル入力装置。
The model generation apparatus according to claim 1,
The model input device, wherein the light receiving unit includes a plurality of elements capable of receiving light having a wavelength other than visible light.
対象物の色彩データを取得する撮影部と、可視光以外の波長を有する光を前記対象物へ照射する照射部と、前記対象物で反射された前記光を受光する受光部と、内部に前記撮影部と前記照射部と前記受光部とを備えるユニットと、前記撮影部で得られた前記色彩データと前記受光部で得られた反射光に関する情報とをコンピュータへ出力可能なインターフェースと、を備えるモデル入力装置と、
前記インターフェースを介して前記モデル入力装置と接続され、三次元形状データが登録された三次元形状データベースを有し、前記反射光に関する情報に基づく動きデータと前記三次元形状データベースに登録された前記三次元形状データとを合成するモデル合成装置と、
を備えることを特徴とするモデル生成システム。
An imaging unit that acquires color data of an object, an irradiation unit that irradiates the object with light having a wavelength other than visible light, a light receiving unit that receives the light reflected by the object, and the inside A unit including an imaging unit, the irradiation unit, and the light receiving unit; and an interface capable of outputting the color data obtained by the imaging unit and information on the reflected light obtained by the light receiving unit to a computer. A model input device;
A three-dimensional shape database connected to the model input device via the interface and registered with three-dimensional shape data, and motion data based on information on the reflected light and the third order registered in the three-dimensional shape database A model synthesizer that synthesizes the original shape data;
A model generation system comprising:
請求項5記載のモデル生成システムにおいて、
前記モデル合成装置は、前記撮影部で取得された前記色彩データを記憶する画像メモリをさらに有することを特徴とするモデル生成システム。
The model generation system according to claim 5, wherein
The model synthesizing apparatus further includes an image memory for storing the color data acquired by the photographing unit.
請求項5記載のモデル生成システムにおいて、
前記モデル合成装置は、前記反射光に関する情報に基づく三次元形状データと前記反射光に関する情報と同時刻に取得された色彩データとを合成することを特徴とするモデル生成システム。
The model generation system according to claim 5, wherein
The model synthesizing apparatus synthesizes three-dimensional shape data based on information about the reflected light and color data acquired at the same time with the information about the reflected light.
請求項5記載のモデル生成システムにおいて、 前記モデル合成装置と接続され、前記モデル合成装置にて合成された動立体モデルを出力する出力装置をさらに備えることを特徴とするモデル生成システム。
The model generation system according to claim 5, further comprising an output device connected to the model synthesis device and outputting a dynamic solid model synthesized by the model synthesis device.
JP2011053245A 2011-03-10 2011-03-10 Model input device and model generation system Pending JP2011149952A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011053245A JP2011149952A (en) 2011-03-10 2011-03-10 Model input device and model generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011053245A JP2011149952A (en) 2011-03-10 2011-03-10 Model input device and model generation system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001255670A Division JP4761670B2 (en) 2001-08-27 2001-08-27 Moving stereo model generation apparatus and method

Publications (1)

Publication Number Publication Date
JP2011149952A true JP2011149952A (en) 2011-08-04

Family

ID=44537031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011053245A Pending JP2011149952A (en) 2011-03-10 2011-03-10 Model input device and model generation system

Country Status (1)

Country Link
JP (1) JP2011149952A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9922451B2 (en) 2015-03-05 2018-03-20 Seiko Epson Corporation Three-dimensional image processing apparatus and three-dimensional image processing system
JP2020060451A (en) * 2018-10-10 2020-04-16 日野自動車株式会社 Luggage space monitoring system and luggage space monitoring method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6198236A (en) * 1984-10-19 1986-05-16 三菱電機株式会社 Identification of person
JPH06209923A (en) * 1993-01-13 1994-08-02 Terumo Corp Physique measuring device
JPH0850660A (en) * 1994-08-05 1996-02-20 Atr Tsushin Syst Kenkyusho:Kk Real time recognition and composition device for image
JPH10149445A (en) * 1996-11-19 1998-06-02 Image Joho Kagaku Kenkyusho Device for visualizing physical operation analysis
JPH11175692A (en) * 1997-12-05 1999-07-02 Hitachi Denshi Ltd Collector of data on joint motion
JPH11183143A (en) * 1997-12-24 1999-07-09 Anima Kk Dynamic form measuring equipment
JPH11219422A (en) * 1998-02-02 1999-08-10 Hitachi Ltd Personal identification communication method by face
JPH11326057A (en) * 1998-05-20 1999-11-26 Kao Corp Measuring method and device for three-dimensional object
JP2001082940A (en) * 1999-09-14 2001-03-30 Sanyo Electric Co Ltd Apparatus and method for generating three-dimensional model
JP2003061936A (en) * 2001-08-27 2003-03-04 Sanyo Electric Co Ltd Moving three-dimensional model formation apparatus and method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6198236A (en) * 1984-10-19 1986-05-16 三菱電機株式会社 Identification of person
JPH06209923A (en) * 1993-01-13 1994-08-02 Terumo Corp Physique measuring device
JPH0850660A (en) * 1994-08-05 1996-02-20 Atr Tsushin Syst Kenkyusho:Kk Real time recognition and composition device for image
JPH10149445A (en) * 1996-11-19 1998-06-02 Image Joho Kagaku Kenkyusho Device for visualizing physical operation analysis
JPH11175692A (en) * 1997-12-05 1999-07-02 Hitachi Denshi Ltd Collector of data on joint motion
JPH11183143A (en) * 1997-12-24 1999-07-09 Anima Kk Dynamic form measuring equipment
JPH11219422A (en) * 1998-02-02 1999-08-10 Hitachi Ltd Personal identification communication method by face
JPH11326057A (en) * 1998-05-20 1999-11-26 Kao Corp Measuring method and device for three-dimensional object
JP2001082940A (en) * 1999-09-14 2001-03-30 Sanyo Electric Co Ltd Apparatus and method for generating three-dimensional model
JP2003061936A (en) * 2001-08-27 2003-03-04 Sanyo Electric Co Ltd Moving three-dimensional model formation apparatus and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9922451B2 (en) 2015-03-05 2018-03-20 Seiko Epson Corporation Three-dimensional image processing apparatus and three-dimensional image processing system
JP2020060451A (en) * 2018-10-10 2020-04-16 日野自動車株式会社 Luggage space monitoring system and luggage space monitoring method
JP7191630B2 (en) 2018-10-10 2022-12-19 日野自動車株式会社 Luggage room monitoring system and luggage room monitoring method

Similar Documents

Publication Publication Date Title
KR102647351B1 (en) Modeling method and modeling apparatus using 3d point cloud
JP4761670B2 (en) Moving stereo model generation apparatus and method
Pan et al. ProFORMA: Probabilistic Feature-based On-line Rapid Model Acquisition.
US10225473B2 (en) Threshold determination in a RANSAC algorithm
EP2751777B1 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
JP5061350B2 (en) Motion capture system and three-dimensional reconstruction method of feature points in motion capture system
Hoppe et al. Online Feedback for Structure-from-Motion Image Acquisition.
JP2019194616A (en) Position detection method, device and equipment based upon image, and storage medium
Santos et al. 3D plant modeling: localization, mapping and segmentation for plant phenotyping using a single hand-held camera
GB2315124A (en) Real time tracking of camera pose
JP6409433B2 (en) Image generation apparatus, image detection system, and image generation method
JP6541920B1 (en) INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD
US9245375B2 (en) Active lighting for stereo reconstruction of edges
Hafeez et al. Image based 3D reconstruction of texture-less objects for VR contents
JP2010211732A (en) Object recognition device and method
JP2011149952A (en) Model input device and model generation system
JP2010238134A (en) Image processor and program
KR102075079B1 (en) Motion tracking apparatus with hybrid cameras and method there
JPH0273471A (en) Estimating method for three-dimensional form
Amplianitis et al. Calibration of a multiple stereo and rgb-d camera system for 3d human tracking
JP6641313B2 (en) Region extraction device and program
Pan et al. Rapid 3D modelling from live video
Lacher 3D breast surface reconstructions from consumer-grade RGB-D cameras
Fazakas et al. 3D reconstruction system for autonomous robot navigation
Szmuc et al. A novel method for fast generation of 3D objects from multiple depth sensors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110330

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111118

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130425

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130530

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130625

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20130704

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130704