JP6360348B2 - Image processing method and image processing program - Google Patents
Image processing method and image processing program Download PDFInfo
- Publication number
- JP6360348B2 JP6360348B2 JP2014093582A JP2014093582A JP6360348B2 JP 6360348 B2 JP6360348 B2 JP 6360348B2 JP 2014093582 A JP2014093582 A JP 2014093582A JP 2014093582 A JP2014093582 A JP 2014093582A JP 6360348 B2 JP6360348 B2 JP 6360348B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- data
- arrangement
- real object
- imaging data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、画像処理方法、及び画像処理プログラムに関する。 The present invention relates to an image processing method and an image processing program.
カメラ等の撮像手段で撮像して生成された撮像データにアノテーションを重ねることにより、現実世界を拡張して表示できるAR(Augmented Reality)技術が知られている。アノテーションは、マーカに関連付けてコンピュータに記憶された画像データから成り、現実には存在していない仮想オブジェクトである。AR技術においては、実際に存在する物品(実オブジェクト)に付されたマーカを認識することで、この仮想オブジェクトの表示位置等が算出される。 AR (Augmented Reality) technology is known in which the real world can be expanded and displayed by superimposing annotations on imaging data generated by imaging with an imaging means such as a camera. An annotation is a virtual object that consists of image data stored in a computer in association with a marker and does not actually exist. In the AR technology, the display position of the virtual object is calculated by recognizing a marker attached to an actually existing article (real object).
このようなAR技術に関して、例えば特許文献1の画像合成方法によれば、机(実オブジェクト)上のマーカを認識することにより、表示画面には机上にコップ(仮想オブジェクト)が存在しているかのように表示される。この画像合成方法は、マーカを配置する予定範囲(机の表面)の3次元情報を予め準備するステップと、撮像して撮像データを生成するステップと、撮像データ中のマーカを検出するステップと、3次元情報を撮像データ中のマーカ位置に重畳するステップと、さらにこの上に仮想オブジェクトを重畳するステップと、から構成される。この画像合成方法を用いれば、マーカが3次元情報により隠蔽されるので、実オブジェクトと仮想オブジェクトが違和感なく表示される。 With regard to such an AR technology, for example, according to the image composition method of Patent Document 1, by recognizing a marker on a desk (real object), whether a cup (virtual object) exists on the desk on the display screen. Is displayed. In this image composition method, a step of preparing in advance three-dimensional information of a planned range (desk surface) where a marker is arranged, a step of capturing an image to generate image data, a step of detecting a marker in the image data, The method includes a step of superimposing three-dimensional information on the marker position in the imaging data, and a step of superimposing a virtual object thereon. If this image composition method is used, since the marker is hidden by the three-dimensional information, the real object and the virtual object are displayed without a sense of incongruity.
この仮想オブジェクトとしては様々な画像データを採用できるので、仮想オブジェクトの表示内容は特に限定されない。しかし、実オブジェクトに仮想オブジェクトを付加して表示するというAR技術においては、実オブジェクトは実際の映像(撮像データ)を表示し続ける必要があった。すなわち、従来は実オブジェクトそのものを様々な態様で表示することができなかった。 Since various image data can be adopted as the virtual object, the display content of the virtual object is not particularly limited. However, in the AR technology in which a virtual object is added to a real object for display, the real object needs to continue displaying actual video (imaging data). That is, conventionally, the real object itself cannot be displayed in various forms.
本発明は、実オブジェクトそのものを様々な態様で表示できる画像処理方法、及び画像処理プログラムを提供することを目的とする。 An object of the present invention is to provide an image processing method and an image processing program that can display a real object itself in various modes.
本発明の画像処理方法は、撮像手段が、略一定の撮像位置及び撮像姿勢で撮像し、撮像データを生成する撮像ステップと、マーカを有する実オブジェクトの配置後に生成された前記撮像データに含まれる該マーカを検出して、前記撮像位置及び前記撮像姿勢に対する該実オブジェクトの配置位置及び配置姿勢を特定する第一検出ステップと、前記マーカに対応付けて記憶手段に記憶された仮想オブジェクトのオブジェクト画像データを読み出して、該オブジェクト画像データを前記実オブジェクトの配置前に生成された前記撮像データに重畳して第一合成データを生成する第一合成ステップと、表示手段に、前記実オブジェクトの配置位置及び配置姿勢が特定されるまで前記撮像データを表示し続け、該実オブジェクトの配置位置及び配置姿勢の特定後に前記第一合成データを表示する表示切換ステップと、を含み、
前記第一合成ステップにおいて、前記第一検出ステップにより特定された前記実オブジェクトの配置位置及び配置姿勢に対応する位置及び姿勢で前記オブジェクト画像データの重畳を行うことを特徴とする。
The image processing method of the present invention is included in the imaging step in which the imaging unit captures an image at a substantially constant imaging position and orientation and generates imaging data, and the imaging data generated after the arrangement of the real object having the marker. A first detection step of detecting the marker and specifying the arrangement position and arrangement orientation of the real object with respect to the imaging position and the imaging orientation; and an object image of a virtual object stored in a storage unit in association with the marker A first compositing step of reading out data and superimposing the object image data on the imaging data generated before the arrangement of the real object to generate first composite data; And continuously displaying the imaging data until the arrangement posture is specified, and the arrangement position and arrangement figure of the real object Of anda display switching step of displaying the first combined data after a specific,
In the first composition step, the object image data is superimposed at a position and posture corresponding to the placement position and placement posture of the real object specified in the first detection step.
本発明の画像処理方法は、さらに、撮像状況を監視する監視ステップと、前記撮像状況が変化していない場合の前記撮像データを実オブジェクトの配置前の撮像データとして記憶する記憶ステップと、を含むことを特徴とする。 The image processing method of the present invention further includes a monitoring step for monitoring an imaging situation, and a storage step for storing the imaging data when the imaging situation has not changed as imaging data before arrangement of a real object. It is characterized by that.
本発明の画像処理方法は、前記第一検出ステップによって前記マーカが検出される直前に記憶された前記撮像データを実オブジェクトの配置前の撮像データとして用いることを特徴とする。 The image processing method of the present invention is characterized in that the imaging data stored immediately before the marker is detected in the first detection step is used as imaging data before arrangement of a real object.
本発明の画像処理方法は、さらに、撮像状況を監視する監視ステップを含み、前記撮像状況が変化している場合に、前記表示切換ステップにおいて、前記撮像データを表示することを特徴とする。 The image processing method of the present invention further includes a monitoring step for monitoring an imaging situation, and when the imaging situation has changed, the imaging data is displayed in the display switching step.
本発明の画像処理方法は、さらに、前記撮像状況が変化した後に生成された前記撮像データに基づいて、前記撮像状況が変化した後の実オブジェクトの配置位置及び配置姿勢に対応する位置及び姿勢へと連続的に遷移する仮想オブジェクトのオブジェクト画像データを、該実オブジェクトの配置前の前記撮像データに重畳して第二合成データを生成する第二合成ステップを含み、前記表示切換ステップにおいて、前記第二合成データから前記撮像データへと表示を切り換えることを特徴とする。 In the image processing method of the present invention, further, based on the imaging data generated after the imaging situation has changed, the position and orientation corresponding to the arrangement position and orientation of the real object after the imaging situation has changed. A second composition step of generating second composite data by superimposing the object image data of the virtual object that continuously transitions with the imaging data before the placement of the real object, and in the display switching step, The display is switched from the two composite data to the imaging data.
本発明の画像処理プログラムは、コンピュータに上記の各ステップを実行させるプログラムである。 The image processing program of the present invention is a program that causes a computer to execute the above steps.
本発明の表示手段には次のデータが表示される。実オブジェクトの配置前は、撮像手段により生成された撮像データaが表示される。実オブジェクトの配置後は、その位置と姿勢が特定されるまで、実オブジェクトの映像を含む撮像データbが表示される。位置及び姿勢の特定後は、実オブジェクトの配置前の撮像データaを背景映像として、これに仮想オブジェクトのオブジェクト画像データを重畳して成る第一合成データが表示される。
ここで、撮像手段は一定の撮像位置及び撮像姿勢で撮像して撮像データa、bを生成するので、撮像データa、bは実オブジェクトの映像の有無を除けば同一の映像である。すなわち、表示手段には常に同一の背景映像が表示される。
また、第一合成データには実オブジェクトは表示されず、この代わりに実オブジェクトの配置位置及び配置姿勢に対応する位置及び姿勢で重畳された仮想オブジェクトが表示される。
よって、表示手段には、表示されていた実オブジェクトの映像のみが仮想オブジェクトに置き換えられたように表示される。そして、仮想オブジェクトのオブジェクト画像データには様々な画像データを採用できるので、本発明によれば、撮像シーンにおける実オブジェクトのみを様々な態様で表示できる。
The following data is displayed on the display means of the present invention. Before the real object is arranged, the imaging data a generated by the imaging means is displayed. After the real object is arranged, the imaging data b including the video of the real object is displayed until the position and orientation are specified. After specifying the position and orientation, the first composite data formed by superimposing the object image data of the virtual object on the imaging data a before the placement of the real object is displayed as a background video.
Here, since the imaging means captures images at a certain imaging position and orientation and generates imaging data a and b, the imaging data a and b are the same video except for the presence or absence of the video of the real object. That is, the same background video is always displayed on the display means.
In addition, the real object is not displayed in the first composite data, and instead, a virtual object superimposed at a position and posture corresponding to the arrangement position and arrangement posture of the real object is displayed.
Therefore, the display means displays only the video of the displayed real object as if it was replaced with a virtual object. Since various image data can be adopted as the object image data of the virtual object, according to the present invention, only the real object in the imaging scene can be displayed in various modes.
本発明の画像処理装置、画像処理方法、及び画像処理プログラムを説明する。なお、各図にわたって示される同じ符号は同一または同様のものを示す。 An image processing apparatus, an image processing method, and an image processing program of the present invention will be described. In addition, the same code | symbol shown over each figure shows the same or the same thing.
画像処理装置1は、例えば図1に示すように、液晶表示パネル等の表示手段3と、撮像手段5と、これらと通信可能に接続されたコンピュータと、を備えるものであり、代表的には、正面に表示手段3を有し、背面に撮像手段5を有する携帯情報端末である。基面6に置かれた台7等によりその姿勢が略一定に保持されて用いられる。
As shown in FIG. 1, for example, the image processing apparatus 1 includes a
撮像手段5は、略一定の位置及び姿勢で所定の範囲を撮像して、撮像データ21(図4)を生成するものである。この撮像手段5は、代表的には、レンズとイメージセンサを有し、所定の範囲を撮像するカメラモジュールである。生成される撮像データ21は、実オブジェクト15が配置される前の撮像データ21a(図4(a))と、実オブジェクト15が配置された後の撮像データ21b(図4(b))である。この撮像データ21は、所定のフレームレートで撮像されて生成されたものであっても良い。また、この撮像データ21は、後述する制御手段11によって取得され、不図示の内部記憶に記憶される。
The imaging means 5 captures a predetermined range at a substantially constant position and orientation, and generates imaging data 21 (FIG. 4). The imaging means 5 is typically a camera module that has a lens and an image sensor and images a predetermined range. The generated
コンピュータは、図2に示すように、記憶手段9と、制御手段11と、を備える。 As shown in FIG. 2, the computer includes storage means 9 and control means 11.
記憶手段9は、マーカ13に対応付けて仮想オブジェクト17(図4(c))のオブジェクト画像データを記憶するものであり、例えばフラッシュメモリ等の補助記憶である。マーカ13は、後述する検出部19が実オブジェクト15の存在を検出し、その配置位置及び配置姿勢を特定するために定められた所定の模様及び色彩を有するものであり、実オブジェクト15の外観に違和感なく表示されるのが好ましい。実オブジェクト15とは、検出対象として予め定められた人形、模型、文具、その他日用品等、様々な現実物品であり、その表面の全体又は部分的にマーカ13が表示されている。仮想オブジェクト17のオブジェクト画像データは、好ましくは、仮想オブジェクト17をアニメーション表示させるための動画データであるが、これに限定されず、仮想オブジェクト17の静止画データであっても良い。仮想オブジェクト17は、実オブジェクト15に関連するコンピュータグラフィックス(以下、CGという)である。好ましくは、基本的な静止形態が実オブジェクト15の形態と略同じであるCGである。しかし、これに限定されず、例えば、実オブジェクト15の色違いのCGであっても良い。さらに、実オブジェクト15と類似する物品のCGであっても良い。一のマーカ13に対応付けて記憶される仮想オブジェクト17のオブジェクト画像データは一つに限定されず、複数であってもよい。
The storage means 9 stores the object image data of the virtual object 17 (FIG. 4C) in association with the
制御手段11は、図2に示すように、記憶手段9、撮像手段5、及び表示手段3と通信可能に接続されて、これらを制御するものであり、例えば携帯情報端末内に組み込まれたSoC(System on a Chip)である。この制御手段11は、検出部19、合成部25、及び表示切換部23を有する。また、制御手段11は、不図示の内部記憶を有し、撮像データ21等のデータを必要に応じて格納し、読み出す。
As shown in FIG. 2, the control means 11 is connected to the storage means 9, the imaging means 5, and the display means 3 so as to be able to communicate therewith, and controls them, for example, an SoC incorporated in a portable information terminal. (System on a Chip). The control means 11 includes a
検出部19は、撮像データ21を取得して、実オブジェクト15の配置後に生成された撮像データ21bに含まれるマーカ13aを検出し、撮像手段5の撮像位置及び撮像姿勢に対する実オブジェクト15の配置位置及び配置姿勢を特定する。合成部25は、記憶手段9から仮想オブジェクト17のオブジェクト画像データを読み出して、これを実オブジェクト15の配置前に生成された撮像データ21aに重畳して第一合成データ27(図4(c))を生成する。表示切換部23は、実オブジェクト15の配置位置及び配置姿勢が特定されるまでは撮像データ21を表示手段3に表示し続け、実オブジェクト15の配置位置及び配置姿勢が特定された後には第一合成データ27を表示させる。
The
次に、本発明の画像処理方法は、図3に示すように、撮像ステップs10と、第一検出ステップs30と、第一合成ステップs40と、表示切換ステップとを含む。この表示切換ステップは、撮像データ表示ステップs20と、合成データ表示ステップs50と、を含む。以下、各ステップを、フローの順に説明する。 Next, as shown in FIG. 3, the image processing method of the present invention includes an imaging step s10, a first detection step s30, a first synthesis step s40, and a display switching step. This display switching step includes an imaging data display step s20 and a composite data display step s50. Hereinafter, each step will be described in the order of the flow.
撮像ステップs10は、撮像手段5が、略一定の撮像位置及び撮像姿勢で撮像し、実オブジェクト15の配置前の撮像データ21a、及び実オブジェクト15の配置後の撮像データ21bを生成するステップである。例えば、撮像手段5は、所定のフレームレートで撮像して、撮像データ21を生成する。
The imaging step s10 is a step in which the imaging means 5 captures an image at a substantially constant imaging position and orientation, and generates
撮像データ表示ステップs20は、表示切換部23が撮像データ21を取得して、この撮像データ21を表示手段3に表示し続けるステップである。撮像データ21は、後述の第一検出ステップs30において実オブジェクト15の配置位置及び配置姿勢が特定されるまで表示される。撮像データ21が、所定のフレームレートで撮像され生成される場合には、リアルタイムの映像が表示される。
The imaging data display step s20 is a step in which the
第一検出ステップs30は、検出部19が、撮像データ21を取得して、実オブジェクト15の配置後に生成された撮像データ21bに含まれるマーカ13a(図4(b))を検出して、撮像位置に対する実オブジェクト15の配置位置及び配置姿勢を特定するステップである。マーカ13aの検出は、AR技術における公知の画像認識が用いられる。例えば、撮像データ21に含まれる複数の特徴点を抽出し、各特徴点を結んで形成される図形(以下、図形A)と、記憶手段9に記憶されたマーカ13の基本図形(以下、図形B)とを比較して、マーカ13aの有無を検出することができる。また、実オブジェクト15の配置位置及び配置姿勢は、例えば、図形Aの位置、図形Bに対する図形Aの大きさ及び歪みに基づいて、マーカ13aの位置及び座標系を検出することにより特定される。特定された実オブジェクト15の配置位置及び配置姿勢は、後述の第一合成ステップs40で用いられるので内部記憶に記憶される。この様に、マーカ13aの検出が成功し、配置位置及び配置姿勢が特定された場合(s31の矢印Y)には、第一合成ステップs40に進む。一方、撮像データ21からマーカ13aが検出できない、又は配置位置と配置姿勢が特定できない場合(s31の矢印N)には、この撮像データ21を実オブジェクト15の配置前の撮像データ21aとして内部記憶に記憶する記憶ステップs32を介して撮像ステップs10に戻る。
In the first detection step s30, the
第一合成ステップs40は、合成部25が、実オブジェクト15の配置前の撮像データ21aを取得し、記憶手段9に記憶された仮想オブジェクト17のオブジェクト画像データを読み出して、取得した撮像データ21aにオブジェクト画像データを重畳して第一合成データ27を生成するステップである。オブジェクト画像データは、第一検出ステップs30にて検出されたマーカ13aの種類に対応するものが検索されて読み出される。オブジェクト画像データを重畳する際は、第一検出ステップs30により特定された実オブジェクト15の配置位置及び配置姿勢に対応する位置及び姿勢にオブジェクト画像データの重畳を行う。例えば、仮想オブジェクト17の基準点及び座標系を、検出したマーカ13aの位置及び座標系と一致させて重畳することができる。なお、オブジェクト画像データが動画データである場合には、仮想オブジェクト17の重畳開始位置及び重畳開始姿勢を実オブジェクト15の配置位置及び配置姿勢に対応させて重畳する。
In the first synthesis step s40, the
合成データ表示ステップs50は、実オブジェクト15の配置位置及び配置姿勢の特定後に、表示切換部23が合成部25から第一合成データ27を取得し、表示手段3に表示するステップである。
The composite data display step s50 is a step in which the
本発明の画像処理プログラムは、撮像手段5、表示切換部23、検出部19、及び合成部25に上記のステップを実行させるプログラムである。
The image processing program of the present invention is a program that causes the
本発明の作用及び効果を図4に基づいて説明する。なお、図4では、マーカ13を有する実オブジェクト15としてバスの模型を用いており、このバスの模型と本発明の画像処理装置1は机29上に置かれるものとする。
The operation and effect of the present invention will be described with reference to FIG. In FIG. 4, a bus model is used as the
(1)先ず、図4(a)に示すように、バスの模型が配置されていない状態では、撮像ステップs10により生成された机29aのみの撮像データ21aが、撮像データ表示ステップs20により表示手段3に表示される。また、バスの模型が撮像範囲内に配置されていないので、第一検出ステップs30によりマーカ13aは検出されない。よって、記憶ステップs32により撮像データ21aが、実オブジェクト15の配置前の撮像データ21aとして内部記憶に記憶される。そして、撮像ステップs10に戻る。
(2)次に、図4(b)に示すように、バスの模型が配置されると、第一検出ステップs30により、その配置位置及び配置姿勢が特定される。なお、配置位置及び配置姿勢が特定されるまでの間は、撮像データ表示ステップs20により、机29aとその上に置かれているバスの模型(実オブジェクト15a)を含む撮像データ21bが表示手段3に表示される。
(3)第一検出ステップs30によりバスの模型の配置位置及び配置姿勢が特定されると、第一合成ステップs40により、バスの模型が配置される前の撮像データ21aに対して、バスのCGが移動する動画データが重畳されて第一合成データ27が生成される。そして、合成データ表示ステップs50により、図4(c)に示すように、表示手段3には、破線で図示されるバス画像から実線で図示されるバス画像までの動画が表示される。なお、撮像データ21aと第一合成データ27の切り換えを自然に演出するために、切り換え中にモーフィングやクロスフェード等の映像技術を用いるのが好ましい。
(1) First, as shown in FIG. 4A, in the state where the bus model is not arranged, the
(2) Next, as shown in FIG. 4B, when the bus model is arranged, the arrangement position and the arrangement attitude are specified by the first detection step s30. Until the arrangement position and orientation are specified, the imaging data display step s20 displays the
(3) When the position and orientation of the bus model are specified in the first detection step s30, the bus CG is compared with the
上記のように、実オブジェクト15の配置前は、撮像手段5により生成された撮像データ21aが表示される。実オブジェクト15の配置後は、その位置と姿勢が特定されるまで、実オブジェクトの映像15aを含む撮像データ21bが表示される。位置及び姿勢の特定後は、実オブジェクト15の配置前の撮像データ21aを背景映像として、これに仮想オブジェクト17のオブジェクト画像データを重畳して成る第一合成データ27が表示される。
ここで、撮像手段5は一定の撮像位置及び撮像姿勢で撮像して撮像データ21a,21bを生成するので、撮像データ21a,21bは実オブジェクトの映像15aの有無を除けば同一の映像である。すなわち、表示手段3には常に同一の背景映像が表示される。
また、第一合成データ27には実オブジェクトの映像15aは表示されず、この代わりに仮想オブジェクト17が、撮像データ21b中の実オブジェクトの映像15aの表示位置及び表示姿勢で表示される。
よって、表示されていた実オブジェクトの映像15aのみが仮想オブジェクト17に置き換えられたように表示される。上記の例においては、オブジェクト画像データとして、実オブジェクト15と同じ形態のバスが走行する動画データを用いたため、机に置かれているバスがひとりでに走行し始めたように表示される。
そして、仮想オブジェクト17のオブジェクト画像データには様々な画像データを採用できるので、本発明によれば、撮像シーンにおける実オブジェクト15のみを様々な態様で表示できる。例えば、オブジェクト画像データとして、バスがロボットに変形するような動画データを採用してもよい。
As described above, the
Here, since the imaging means 5 captures images at a constant imaging position and orientation and generates
Further, the
Therefore, only the
Since various image data can be adopted as the object image data of the
本発明の画像処理装置、画像処理方法、及び画像処理プログラムは上記の態様に限定されない。 The image processing apparatus, the image processing method, and the image processing program of the present invention are not limited to the above embodiments.
例えば、本発明の画像処理装置1は、図1に示されるような位置及び姿勢の保持態様に限定されず、使用者が手に持って保持するものであっても良い。 For example, the image processing apparatus 1 of the present invention is not limited to the position and posture holding mode as shown in FIG. 1, and may be held by the user in his / her hand.
また、図5に示すように、本発明の画像処理装置31の制御手段33は、撮像状況を監視する監視部35を備えるものであっても良い。この監視部35は、撮像手段5から撮像データ21を取得し、撮像状況に応じて撮像データ21を検出部19、及び合成部25に入力する。
As shown in FIG. 5, the control means 33 of the
また、図6及び図7に示すように、本発明の画像処理方法は、監視部35が、撮像状況を監視する監視ステップs60,s70を含むものであっても良い。この監視ステップs60,s70は、代表的には、変動監視ステップ及び/又は移動体監視ステップを含む。
Further, as shown in FIGS. 6 and 7, the image processing method of the present invention may include monitoring steps s60 and s70 in which the
変動監視ステップは、監視部35が、撮像位置と撮像姿勢を監視するステップである。この変動監視ステップは、例えば、撮像手段5から所定のフレームレートで撮像データ21を取得し、連続する撮像データ21を比較して変動量を算出し、この変動量に基づいて撮像位置及び撮像姿勢の変動の有無を検出する。変動量の算出は、先ず一の撮像データ21において基準点を決定し、その座標を取得する。次に、この一の撮像データ21に連続する他の撮像データ21における前記基準点を検出し、その座標を取得する。そして、これらの撮像データ21間の基準点の座標について差分を求める。これにより変動量が算出される。変動量が所定範囲内にあって、この状態が所定時間継続する場合には、撮像位置及び撮像姿勢が変動していない、すなわち画像処理装置31自身が静止状態にあると判断される。一方、変動量が所定範囲外の場合には、撮像位置及び撮像姿勢が変動している、すなわち画像処理装置31自身が静止状態にないと判断される。
The fluctuation monitoring step is a step in which the
なお、変動監視ステップは、撮像データ21に基づいて撮像位置及び撮像姿勢を監視するものに限定されない。例えば、画像処理装置31は制御手段11と通信可能に接続された加速度センサ(不図示)を備え、監視部35は、所定のフレームレートで取得した加速度センサの出力値の差分に基づいて変動を監視しても良い。
Note that the fluctuation monitoring step is not limited to monitoring the imaging position and the imaging posture based on the
移動体監視ステップは、監視部35が、撮像範囲内を移動する物体(以下、移動体という)の有無を監視するステップである。移動体の有無は例えば次の通り検出する。先ず、撮像手段5から所定のフレームレートで撮像データ21を取得する。次に、連続する撮像データ21間の差分画像を求める。そして、差分画像内に階調値が0ではない部分(若しくは0に近い所定値以上の部分)が連続して所定面積比以上ある場合に、移動体が有ると判断する。一方、階調値が0ではない部分が連続して所定面積比以上ない場合には、移動体が無いと判断する。
The moving body monitoring step is a step in which the
なお、監視部35が監視する撮像状況は、撮像位置及び撮像姿勢の変動、並びに/又は移動体の有無に限定されない。例えば、撮像手段5から所定のフレームレートで取得した各撮像データ21を比較して撮像範囲の明るさの変化を監視するものであっても良い。
Note that the imaging state monitored by the
本発明の画像処理方法において上記の監視ステップs60は、図6に示すように、撮像データ表示ステップs20と第一検出ステップs30との間に設けられる。監視ステップs60によって変化が検出された場合には(s61の矢印N)、撮像ステップs10に戻る。一方、変化が検出されない場合には(s61の矢印Y)、第一検出ステップs30に進む。そして、第一検出ステップs30を経て、撮像データ21中のマーカ13aが検出できない場合や、配置位置と配置姿勢が特定できない場合(s31の矢印N)には記憶ステップs32に進み、撮像データ21aが内部記憶に記憶される。すなわち、記憶ステップs32は、撮像状況が変化していない場合(代表的には、撮像位置と撮像姿勢に変化がなく、かつ、撮像範囲内に移動体が無い場合)に生成された撮像データ21aを実オブジェクト15の配置前の撮像データ21aとして記憶するものである。
In the image processing method of the present invention, the monitoring step s60 is provided between the imaging data display step s20 and the first detection step s30 as shown in FIG. If a change is detected in the monitoring step s60 (arrow N in s61), the process returns to the imaging step s10. On the other hand, if no change is detected (arrow Y in s61), the process proceeds to the first detection step s30. If the
ここで、上記の変動監視ステップを含む監視ステップs60によれば、画像処理装置31に変動がない場合に第一検出ステップs30に進む。よって、静止状態になれば瞬時に実オブジェクト15の配置前の撮像データ21aを記憶することができ、使用者に気付かれずに第一合成データ27の背景映像を準備できる。
また、上記の移動体監視ステップを含む監視ステップs60によれば、撮像範囲内に移動体が有る場合には第一検出ステップs30に進まない。よって、実オブジェクト15の配置中に生成された撮像データ21は記憶されず、第一合成データ27における背景映像の対象から自動的に除外される。
Here, according to the monitoring step s60 including the above-described fluctuation monitoring step, the process proceeds to the first detection step s30 when there is no fluctuation in the
Further, according to the monitoring step s60 including the above-described moving body monitoring step, when there is a moving body within the imaging range, the process does not proceed to the first detection step s30. Therefore, the
また、上記の監視ステップs60を含む本発明の画像処理方法において、合成部25は、マーカ13aが検出される直前に内部記憶に記憶された撮像データ21aを実オブジェクト15の配置前の撮像データ21aとして用いるのが好ましい。これにより、合成直前に生成された撮像データ21aを背景映像として第一合成データ27が生成される。よって、表示切換ステップにより、表示内容が撮像データ21bから第一合成データ27に切り換えられた際、違和感なく背景映像を切り換えることができる。
Further, in the image processing method of the present invention including the monitoring step s60 described above, the
また、上記の監視ステップs70を含む本発明の画像処理方法において、表示切換ステップは、撮像状況が変化している場合に、撮像データ21を表示するものであっても良い。具体的には、監視ステップs70は、図7(a)に示すように、合成データ表示ステップs50に設けられる。この監視ステップs70によって変化が検出されない場合には(s71の矢印Y)、第一合成データ表示s51が継続される。一方、変化が検出された場合には(s71の矢印N)、合成データ表示ステップs50が終了してエンドに進み、スタートから再開される。これにより、撮像データ21が表示される。なお、監視ステップs70において撮像データ21bを用いて撮像状況の変化を監視する場合は、所定の撮像範囲を撮像して、撮像データ21bを生成する撮像ステップを監視ステップs70の前に設ける。
Further, in the image processing method of the present invention including the monitoring step s70 described above, the display switching step may display the
この監視ステップs70を含む本発明は、撮像状況が変化している場合に、第一合成データ表示s51を中断する。そして、スタートから処理が再開されることにより、撮像データ表示ステップs20により撮像データ21が表示される。このため、表示中の背景映像が撮像状況の変化に追従していないという不自然な表示を防止し、本発明の仕組みを使用者に気付かせない。
In the present invention including the monitoring step s70, the first combined data display s51 is interrupted when the imaging state changes. Then, when the process is restarted from the start, the
さらに、図7(b)に示すように、上記の監視ステップs70を含む本発明の画像処理方法は、撮像状況が変化した場合に、合成部25が第二合成データを生成する第二合成ステップs82と、表示切換部23が第二合成データから撮像データ21へと表示を切り換えるステップと、を含むものであっても良い。
Furthermore, as shown in FIG. 7B, the image processing method of the present invention including the monitoring step s70 described above is the second synthesis step in which the
第二合成データは、実オブジェクト15の配置前の撮像データ21aに、アニメーションデータが重畳されたものである。このアニメーションデータは、代表的には、マーカ13に対応付けて記憶手段9に予め記憶された仮想オブジェクト17の他のオブジェクト画像データであり、第一合成データ27に含まれる一のオブジェクト画像データとは異なるものである。この他のオブジェクト画像データは、撮像状況の変化後の実オブジェクト15の配置位置及び配置姿勢に対応する位置及び姿勢に連続的に遷移する動画データである。合成部25は、アニメーションデータを読み出して実オブジェクト15の配置前の撮像データ21aに重畳させる。この際、合成データ表示ステップs50において表示中の仮想オブジェクト17の位置及び姿勢に合わせてアニメーションデータを重畳するのが好ましい。遷移が終了した場合には、第二合成データの終了を示すフラグを設定しても良い。
The second composite data is obtained by superimposing animation data on the
撮像状況の変化後の実オブジェクト15の配置位置及び配置姿勢は、撮像状況の変化後に生成された撮像データ21に基づいて特定される。例えば、図7(b)に示すように、第二撮像ステップs80と、第二検出ステップs81により特定される。
The arrangement position and the arrangement posture of the
第二撮像ステップs80は、撮像手段5が、撮像状況の変化後に撮像して撮像データ21を生成するステップであり、監視ステップs70により変化が検出された後(s71の矢印N)に設けられる。この撮像データ21は、所定のフレームレートで撮像されて生成されたものであっても良い。
The second imaging step s80 is a step in which the imaging means 5 captures an image after the imaging state changes and generates
第二検出ステップs81は、検出部19が、撮像状況の変化後の撮像データ21に基づいて、撮像状況の変化後の撮像位置及び撮像姿勢に対する実オブジェクト15の配置位置及び配置姿勢を特定するステップである。この特定方法は、第一検出ステップs30と同じ方法で特定することができる。所定のフレームレート毎に撮像データ21を取得する場合には、その度に実オブジェクト15の配置位置及び配置姿勢を特定しても良い。
The second detection step s81 is a step in which the
表示切換ステップは、表示切換部23が、合成部25から第二合成データを取得して、第一合成データ27の表示から第二合成データの表示へと切り換えて表示する第二合成データ表示s83と、この第二合成データ表示s83から変化後の撮像データ21の表示へと切り換えるステップと、を含む。第二合成データ表示s83は、仮想オブジェクト17の遷移が終了するまで表示される(s84の矢印N)。遷移の終了は、例えば、第二合成ステップs82において設定されるフラグを参照して判断される。遷移が終了した場合には(s84の矢印Y)、合成データ表示ステップs50からエンドに進み、スタートから再開され、撮像データ21が表示される(s20)。なお、表示の切り替えを自然に演出するために、切り換え中にモーフィングやクロスフェード等の映像技術を用いるのが好ましい。
In the display switching step, the
このように、撮像状況が変化した場合に、第二合成データ表示s83が第一合成データ表示s51と変化後の撮像データ表示の間に介在するので、仮想オブジェクト17と実オブジェクト15aの切り換えが自然に表現される。
As described above, when the imaging state changes, the second composite data display s83 is interposed between the first composite data display s51 and the changed imaging data display, so that the switching between the
また、本発明の画像処理プログラムは、コンピュータに上記のステップを実行させるものである。 An image processing program of the present invention causes a computer to execute the above steps.
以上、本発明の画像処理方法、画像処理プログラム、及び画像処理装置について説明したが、本発明はその趣旨を逸脱しない範囲で、当業者の知識に基づき種々の改良、修正、変形を加えた態様で実施し得るものであり、これらの態様はいずれも本発明の範囲に属するものである。 The image processing method, the image processing program, and the image processing apparatus of the present invention have been described above. However, the present invention includes various improvements, corrections, and modifications based on the knowledge of those skilled in the art without departing from the spirit of the present invention. These embodiments are all within the scope of the present invention.
例えば、画像処理方法におけるフローは、上記のものに限定されず、例えば図8に示すフローであっても良い。図8に示すフローは、スタートからエンドまでの各ステップが1のフレームで行われ、このフローが毎フレーム実行される。 For example, the flow in the image processing method is not limited to the above, and may be the flow shown in FIG. In the flow shown in FIG. 8, each step from the start to the end is performed in one frame, and this flow is executed every frame.
先ずは、撮像ステップs10により、フレーム毎の撮像データ21が取得される。次に、監視ステップs90により、フレーム毎に撮像状況の変化が検出される。次に、表示手段3に表示させる内容を示す表示フラグと、撮像状況の監視結果と、を確認する(s91)。その結果に応じて、図8に示す(ケース1)〜(ケース4)のいずれかのフローが実行される。
(ケース1)表示フラグが撮像データ21を示し、かつ撮像状況が変化している場合には、撮像データ表示ステップs20が実行されて、そのフレームの処理が終了する。
(ケース2)表示フラグが撮像データ21を示し、かつ撮像状況が変化していない場合には、第一検出ステップs30に進み、検出が失敗した場合(s31の矢印N)には、記憶ステップs32、撮像データ表示ステップs20の順に実行されて、そのフレームの処理が終了する。一方、検出が成功した場合(s31の矢印Y)には、表示フラグが操作され(s92)、次に説明する(ケース3)の第一合成ステップs40が実行される。表示フラグの操作(s92)は、表示手段に第一合成データ27を表示することを示すフラグが設定される。
(ケース3)表示フラグが第一合成データ27を示し、かつ撮像状況が変化していない場合には、第一合成ステップs40、第一合成データ表示s51の順に実行され、そのフレームの処理が終了する。
(ケース4)表示フラグが第一合成データ27を示し、かつ撮像状況が変化している場合、又は表示フラグが第二合成データを示す場合には、第二検出ステップs81、第二合成ステップs82、第二合成データ表示s83、表示フラグの操作s93の順に実行される。表示フラグの操作s93においては、仮想オブジェクト17の遷移中の場合には、表示手段3に第二合成データを表示することを示すフラグが設定される。仮想オブジェクト17の遷移が終了したときには、表示手段に撮像データ21を表示することを示すフラグが設定される。
First,
(Case 1) When the display flag indicates the
(Case 2) If the display flag indicates the
(Case 3) When the display flag indicates the first
(Case 4) When the display flag indicates the first
また、本発明において用いられる実オブジェクト15は、一種類に限定されず、複数種類であっても良い。複数種類の実オブジェクト15は、それぞれ異なるマーカ13を有する。この場合、記憶手段9には、各マーカを識別する識別IDと、各識別IDに対応付けられてマーカ13を認識して検出するための基本図形と、各識別IDに対応付けられた仮想オブジェクト17のオブジェクト画像データが記憶される。そして、第一検出ステップs30においては、検出部19が、撮像データ21aに含まれる特徴点と基本図形とを比較して、マーカの有無を検出し、識別IDを特定する。また、第一合成ステップs40においては、合成部25が、識別IDを取得し、この識別IDに対応するオブジェクト画像データを読み出して、第一合成データ27を生成する。これにより、表示手段3には、実オブジェクト15の種類に応じた仮想オブジェクト17が様々な態様で表示される。
Further, the
1,31 … 画像処理装置
3 … 表示手段
5 … 撮像手段
7 … 台
9 … 記憶手段
11,33 … 制御手段
13 … 実オブジェクトに表示されたマーカ
13a … 撮像データ中のマーカ
15 … 現実世界にある実オブジェクト
15a … 撮像データ中の実オブジェクト
17 … 仮想オブジェクト
19 … 検出部
21 … 撮像データ
21a … 実オブジェクトの配置前の撮像データ
21b … 実オブジェクトの配置後の撮像データ
23 … 表示切換部
25 … 合成部
27 … 第一合成データ
29 … 机
29a … 撮像データ中の机
35 … 監視部
1,31… Image processing device
3… Display means
5… Imaging means
7… stand
9… Memory means
11,33… Control means
13… Marker displayed on real object
13a… Marker in imaging data
15… Real objects in the real world
15a… Real object in the imaging data
17… virtual objects
19… Detector
21… Imaging data
21a… Imaging data before placement of real object
21b… Imaging data after placement of real object
23… Display switching section
25… Synthesizer
27… First synthesis data
29… desk
29a… Desk in imaging data
35… Monitoring unit
Claims (9)
マーカを有する実オブジェクトの配置後に生成された前記撮像データに含まれる該マーカを検出して、前記撮像位置及び前記撮像姿勢に対する該実オブジェクトの配置位置及び配置姿勢を特定する第一検出ステップと、
前記マーカに対応付けて記憶手段に記憶された仮想オブジェクトのオブジェクト画像データを読み出して、該オブジェクト画像データを前記実オブジェクトの配置前に生成された前記撮像データに重畳して第一合成データを生成する第一合成ステップと、
撮像状況を監視する監視ステップと、
前記撮像状況が変化していない場合の前記撮像データを実オブジェクトの配置前の撮像データとして記憶する記憶ステップと、
表示手段に、前記実オブジェクトの配置位置及び配置姿勢が特定されるまで前記撮像データを表示し続け、該実オブジェクトの配置位置及び配置姿勢の特定後に前記第一合成データを表示する表示切換ステップと、
を含み、
前記第一検出ステップによって前記マーカが検出される直前に記憶された前記撮像データを実オブジェクトの配置前の撮像データとして用い、前記第一合成ステップにおいて、前記第一検出ステップにより特定された前記実オブジェクトの配置位置及び配置姿勢に対応する位置及び姿勢で前記オブジェクト画像データの重畳を行うことを特徴とする画像処理方法。 An imaging step in which the imaging means captures an image at a substantially constant imaging position and orientation and generates imaging data;
A first detection step of detecting the marker included in the imaging data generated after arrangement of a real object having a marker, and specifying the arrangement position and arrangement attitude of the real object with respect to the imaging position and the imaging attitude;
Reads the object image data of the virtual object stored in the storage means in association with the marker, and generates the first composite data by superimposing the object image data on the imaging data generated before the arrangement of the real object A first synthesis step to
A monitoring step for monitoring imaging conditions;
A storage step of storing the imaging data when the imaging situation has not changed as imaging data before arrangement of a real object;
A display switching step of continuously displaying the imaging data until the arrangement position and orientation of the real object are specified on the display means, and displaying the first composite data after specifying the arrangement position and orientation of the real object; ,
Including
The imaging data stored immediately before the marker is detected in the first detection step is used as imaging data before the arrangement of the real object, and the actual data identified by the first detection step in the first synthesis step is used. An image processing method, wherein the object image data is superimposed at a position and orientation corresponding to an arrangement position and orientation of an object.
前記表示切換ステップにおいて、前記第二合成データから前記撮像データへと表示を切り換えることを特徴とする請求項3に記載の画像処理方法。 Based on the imaging data generated after the imaging situation has changed, the object of the virtual object that continuously transitions to a position and orientation corresponding to the arrangement position and orientation of the real object after the imaging situation has changed Including a second synthesis step of generating second synthesized data by superimposing the image data on the imaging data before arrangement of the real object;
The image processing method according to claim 3 , wherein in the display switching step, the display is switched from the second composite data to the imaging data.
撮像手段に、略一定の撮像位置及び撮像姿勢で撮像し、撮像データを生成する撮像ステップ、
前記コンピュータの検出部に、前記マーカを有する実オブジェクトの配置後に生成された前記撮像データに含まれる該マーカを検出して、前記撮像位置及び前記撮像姿勢に対する該実オブジェクトの配置位置及び配置姿勢を特定する第一検出ステップ、
前記コンピュータの監視部に、撮像状況を監視する監視ステップ、
前記コンピュータの内部記憶に、前記撮像状況が変化していない場合の前記撮像データを実オブジェクトの配置前の撮像データとして記憶する記憶ステップ、
前記コンピュータの合成部に、前記オブジェクト画像データを読み出して、該オブジェクト画像データを前記実オブジェクトの配置前に生成された前記撮像データに重畳して第一合成データを生成する第一合成ステップ、
前記コンピュータの表示切換部に、前記実オブジェクトの配置位置及び配置姿勢が特定されるまで、表示手段に、前記撮像データを表示し続け、該実オブジェクトの配置位置及び配置姿勢の特定後に前記第一合成データを表示する表示切換ステップ、を実行させ、
前記第一検出ステップによって前記マーカが検出される直前に記憶された前記撮像データを実オブジェクトの配置前の撮像データとして用い、前記第一合成ステップにおいて、前記第一検出ステップにより特定された前記実オブジェクトの配置位置及び配置姿勢に対応する位置及び姿勢で前記オブジェクト画像データの重畳を行うことを特徴とする画像処理プログラム。 A storage step of storing object image data of the virtual object in association with the marker in a storage means of the computer;
An imaging step of imaging the imaging means at a substantially constant imaging position and orientation and generating imaging data;
The detection unit of the computer detects the marker included in the imaging data generated after the arrangement of the real object having the marker, and determines the arrangement position and the arrangement attitude of the real object with respect to the imaging position and the imaging attitude. A first detection step to identify,
A monitoring step of monitoring an imaging state in the monitoring unit of the computer;
A storage step of storing, in the internal storage of the computer, the imaging data when the imaging situation has not changed as imaging data before arrangement of a real object;
A first compositing step of reading the object image data to a compositing unit of the computer and generating the first composite data by superimposing the object image data on the imaging data generated before the arrangement of the real object;
The imaging data is continuously displayed on the display means until the arrangement position and orientation of the real object are specified on the display switching unit of the computer, and after the arrangement position and orientation of the real object are specified, the first object is displayed. A display switching step for displaying the composite data,
The imaging data stored immediately before the marker is detected in the first detection step is used as imaging data before the arrangement of the real object, and the actual data identified by the first detection step in the first synthesis step is used. An image processing program that superimposes the object image data at a position and orientation corresponding to an arrangement position and orientation of an object.
前記撮像状況が変化している場合に、前記表示切換ステップにおいて、前記撮像データを表示することを特徴とする請求項5に記載の画像処理プログラム。 Causing the monitoring unit of the computer to execute a monitoring step of monitoring an imaging state;
The image processing program according to claim 5 , wherein the imaging data is displayed in the display switching step when the imaging situation is changed.
前記表示切換ステップにおいて、前記第二合成データから前記撮像データへと表示を切り換えることを特徴とする請求項8に記載の画像処理プログラム。 Based on the imaging data generated after the imaging situation changes, the composition unit of the computer continuously detects the position and orientation corresponding to the arrangement position and orientation of the real object after the imaging situation changes. A second synthesis step of generating second synthesized data by superimposing the object image data of the virtual object transitioning to the imaging data before arrangement of the real object,
9. The image processing program according to claim 8 , wherein in the display switching step, the display is switched from the second composite data to the imaging data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014093582A JP6360348B2 (en) | 2014-04-30 | 2014-04-30 | Image processing method and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014093582A JP6360348B2 (en) | 2014-04-30 | 2014-04-30 | Image processing method and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015210763A JP2015210763A (en) | 2015-11-24 |
JP6360348B2 true JP6360348B2 (en) | 2018-07-18 |
Family
ID=54612866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014093582A Active JP6360348B2 (en) | 2014-04-30 | 2014-04-30 | Image processing method and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6360348B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006260602A (en) * | 2006-06-13 | 2006-09-28 | Sony Computer Entertainment Inc | Image processing apparatus |
JP2011095797A (en) * | 2009-10-27 | 2011-05-12 | Sony Corp | Image processing device, image processing method and program |
JP5776218B2 (en) * | 2011-02-24 | 2015-09-09 | 株式会社大林組 | Image composition method |
JP5831151B2 (en) * | 2011-11-14 | 2015-12-09 | コニカミノルタ株式会社 | Control processing program, image display apparatus, and image display method |
-
2014
- 2014-04-30 JP JP2014093582A patent/JP6360348B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015210763A (en) | 2015-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111667582B (en) | Electronic device and method for adjusting size of augmented reality three-dimensional object | |
US10001844B2 (en) | Information processing apparatus information processing method and storage medium | |
US20140118396A1 (en) | Image processing device, image processing method, and computer program product | |
JP6192483B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
JP6500355B2 (en) | Display device, display program, and display method | |
JP2018049591A (en) | Image processing apparatus, image generation method, and program | |
CN104574267A (en) | Guiding method and information processing apparatus | |
KR20170031733A (en) | Technologies for adjusting a perspective of a captured image for display | |
US9424689B2 (en) | System,method,apparatus and computer readable non-transitory storage medium storing information processing program for providing an augmented reality technique | |
US9779699B2 (en) | Image processing device, image processing method, computer readable medium | |
KR101248736B1 (en) | Augmented reality book station based augmented reality system and method, augmented reality processing apparatus for realizing the same | |
US9792730B2 (en) | Display control method, system and medium | |
JP6202981B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
JP6739847B2 (en) | Image display control device and image display control program | |
US20170046879A1 (en) | Augmented reality without a physical trigger | |
JP2014170483A5 (en) | ||
US11941763B2 (en) | Viewing system, model creation apparatus, and control method | |
US9478068B2 (en) | Computer-readable medium, image processing device, image processing system, and image processing method | |
TW201640280A (en) | Method and system for operating article-oriented augmented reality, and computer-readable storing medium | |
US20220254123A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
US10540816B2 (en) | Information display system | |
JP6632298B2 (en) | Information processing apparatus, information processing method and program | |
JP6360348B2 (en) | Image processing method and image processing program | |
CN113228117B (en) | Authoring apparatus, authoring method, and recording medium having an authoring program recorded thereon | |
US20200394845A1 (en) | Virtual object display control device, virtual object display system, virtual object display control method, and storage medium storing virtual object display control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170417 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180622 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6360348 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |