JP2020166741A - Image processing device for ar, image processing system, and program - Google Patents

Image processing device for ar, image processing system, and program Download PDF

Info

Publication number
JP2020166741A
JP2020166741A JP2019068670A JP2019068670A JP2020166741A JP 2020166741 A JP2020166741 A JP 2020166741A JP 2019068670 A JP2019068670 A JP 2019068670A JP 2019068670 A JP2019068670 A JP 2019068670A JP 2020166741 A JP2020166741 A JP 2020166741A
Authority
JP
Japan
Prior art keywords
image
mark
image processing
filter
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019068670A
Other languages
Japanese (ja)
Other versions
JP6600113B1 (en
Inventor
将次 江畑
Shoji Ebata
将次 江畑
娟 羅
Juan Luo
娟 羅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Startia Lab Inc
Original Assignee
Startia Lab Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Startia Lab Inc filed Critical Startia Lab Inc
Priority to JP2019068670A priority Critical patent/JP6600113B1/en
Application granted granted Critical
Publication of JP6600113B1 publication Critical patent/JP6600113B1/en
Publication of JP2020166741A publication Critical patent/JP2020166741A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

To highly accurately display an object in AR (Augmented Reality).SOLUTION: An image processing device includes a mark image input part to which a mark image indicating a mark which is a position for displaying the object is inputted, an imaging part which generates a plurality of input images by imaging at a plurality of time points, a filter part which performs filter processing to each of the input images, to generate a first image, an extraction part which extracts the feature point of the mark in the first image, a tracking part which tracks the feature point according to the change of the time point, a cut out part which cuts out a range including the mark from the first image, to generate a second image, a conversion matrix generation part which generates a conversion matrix on the basis of the second image and the mark image, and a display part which synthesizes the object with the input image on the basis of the conversion matrix and displays the resultant image.SELECTED DRAWING: Figure 3

Description

本発明は、AR用の画像処理装置、画像処理システム及びプログラムに関する。 The present invention relates to an image processing device, an image processing system and a program for AR.

AR(Augmented Reality、拡張現実)の技術により、撮像した画像等に、あらかじめ用意するオブジェクトを合成して表示する方法が知られている。 A method of synthesizing and displaying an object prepared in advance with an captured image or the like by AR (Augmented Reality) technology is known.

例えば、情報処理装置が、ARにより、現実空間を示す画像に対して仮想オブジェクトを適切に重畳して表示する方法等が知られている。この方法では、まず、情報処理装置は、入力画像を意味的な領域に分割する。次に、情報処理装置は、直前のフレームの入力画像及び現在のフレームの入力画像に対してオプティカルフロー(Optical Flow)を行う。このように、オプティカルフローを用いることで、情報処理装置は、実オブジェクトの次の移動を予測する。そして、情報処理装置は、仮想オブジェクトの表示領域を中心とする位置マップを作成する。次に、情報処理装置は、仮想オブジェクトの表示領域における表示領域内のスコアを重要度マップ等に基づいて総和計算する。このようにして、情報処理装置は、仮想オブジェクトを表示する位置を決定する。以上のような処理を行うことで、情報処理装置は、実オブジェクトの時間変化も考慮して仮想オブジェクトをより適切に表示させる。このような方法等が知られている(例えば、特許文献1等を参照)。 For example, there is known a method in which an information processing device appropriately superimposes and displays a virtual object on an image showing a real space by AR. In this method, the information processing apparatus first divides the input image into semantic regions. Next, the information processing apparatus performs an optical flow on the input image of the immediately preceding frame and the input image of the current frame. In this way, by using the optical flow, the information processing device predicts the next movement of the real object. Then, the information processing device creates a position map centered on the display area of the virtual object. Next, the information processing device calculates the total score in the display area of the virtual object based on the importance map or the like. In this way, the information processing device determines the position where the virtual object is displayed. By performing the above processing, the information processing apparatus displays the virtual object more appropriately in consideration of the time change of the real object. Such a method and the like are known (see, for example, Patent Document 1 and the like).

特開2016−95579号公報Japanese Unexamined Patent Publication No. 2016-95579

しかし、従来技術による方法では、オブジェクトを精度良く表示させるのが難しい場合がある。具体的には、ARでは、画像処理装置は、あらかじめオブジェクトを表示させる目印となる文字、図形、記号、立体的形状、色彩又はこれらの組み合わせ(以下単に「目印」という。)に対して、オブジェクトを合成して表示する。すなわち、画像処理装置は、目印を示す画像をあらかじめ入力すること等で目印を認識し、目印を認識した位置等に基づいてオブジェクトを合成して表示する。これに対して、従来技術による方法では、目印に対して、オブジェクトが精度良く表示されない場合がある。 However, it may be difficult to display the object with high accuracy by the method by the prior art. Specifically, in AR, the image processing device sets an object for a character, a figure, a symbol, a three-dimensional shape, a color, or a combination thereof (hereinafter, simply referred to as a “mark”) that serves as a mark for displaying the object in advance. Is combined and displayed. That is, the image processing device recognizes the mark by inputting an image indicating the mark in advance, and synthesizes and displays the object based on the position where the mark is recognized. On the other hand, in the conventional method, the object may not be displayed accurately with respect to the mark.

本発明は、上記課題に鑑み、ARにおいて、オブジェクトを精度良く表示させる画像処理装置、画像処理システム及びプログラム等を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an image processing device, an image processing system, a program, and the like for displaying an object with high accuracy in AR.

上記課題に鑑み、本発明の一実施形態に係る画像処理装置等は、
オブジェクトを表示させる位置となる目印を示す目印画像を入力する目印画像入力部と、
複数の時点で撮像して複数の入力画像を生成する撮像部と、
それぞれの前記入力画像に対してフィルタ処理を行って第1画像を生成するフィルタ部と、
前記第1画像における前記目印の特徴点を抽出する抽出部と、
前記時点の変化に対して、前記特徴点を追跡する追跡部と、
前記第1画像から、前記目印を含む範囲を切り出して第2画像を生成する切出部と、
前記第2画像及び前記目印画像に基づいて、変換行列を生成する変換行列生成部と、
前記変換行列に基づいて、前記入力画像に前記オブジェクトを合成して表示する表示部と
を含む。
In view of the above problems, the image processing apparatus or the like according to the embodiment of the present invention is
A mark image input unit for inputting a mark image indicating a mark that is a position to display an object,
An imaging unit that captures images at multiple time points and generates multiple input images,
A filter unit that performs filtering processing on each of the input images to generate a first image,
An extraction unit that extracts the feature points of the mark in the first image,
A tracking unit that tracks the feature points with respect to the change at the time point,
A cutout portion that cuts out a range including the mark from the first image to generate a second image, and
A transformation matrix generator that generates a transformation matrix based on the second image and the marker image,
A display unit that synthesizes and displays the object on the input image based on the transformation matrix is included.

ARにおいて、オブジェクトを精度良く表示させる画像処理装置、画像処理システム及びプログラム等を提供できる。 In AR, it is possible to provide an image processing device, an image processing system, a program, and the like for displaying an object with high accuracy.

画像処理装置の使用例を示す概要図である。It is a schematic diagram which shows the use example of an image processing apparatus. 画像処理装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware configuration example of an image processing apparatus. 画像処理装置が行う画像処理方法の例を示すフローチャートである。It is a flowchart which shows an example of the image processing method performed by an image processing apparatus. 画像処理方法の処理結果例を示す図である。It is a figure which shows the processing result example of the image processing method. フィルタの例を示す図である。It is a figure which shows the example of a filter. フィルタ処理の第1変形例を示す図である。It is a figure which shows the 1st modification of the filter processing. フィルタ処理の第2変形例を示す図である。It is a figure which shows the 2nd modification of the filter processing. 特徴点の抽出例を示す図である。It is a figure which shows the extraction example of a feature point. 特徴点の追跡例を示す図である。It is a figure which shows the tracking example of a feature point. 切り出し例を示す図である。It is a figure which shows the cut-out example. 変換行列を生成する処理例を示す図である。It is a figure which shows the processing example which generates the transformation matrix. 目印画像と変換画像の比較例及び比較結果の例を示す図である。It is a figure which shows the example of comparison of the mark image and the conversion image, and the example of the comparison result. 出力画像の生成例を示す図である。It is a figure which shows the generation example of an output image. 画像処理装置の機能構成例を示す機能ブロック図である。It is a functional block diagram which shows the functional configuration example of an image processing apparatus.

以下、添付する図面を参照しながら、本発明の一実施形態に係る具体例を説明する。なお、図面では、同一の構成には同一の符号を付し、重複する説明を省略する。 Hereinafter, a specific example according to an embodiment of the present invention will be described with reference to the accompanying drawings. In the drawings, the same components are designated by the same reference numerals, and duplicate description will be omitted.

<全体構成例>
図1は、画像処理装置の使用例を示す概要図である。以下、図示するように、画像処理装置がスマートフォン10である場合の例で説明する。スマートフォン10のハードウェア構成等は後述する。
<Overall configuration example>
FIG. 1 is a schematic view showing a usage example of an image processing device. Hereinafter, as illustrated, an example will be described in which the image processing device is a smartphone 10. The hardware configuration of the smartphone 10 and the like will be described later.

この例のように、ユーザURは、スマートフォン10を使用してAR表示となる出力画像IMGVを画面上等に表示させる。一方で、ユーザURは、スマートフォン10が有する撮像装置を用いて、被写体11等を撮像する。なお、撮像は、シャッタを切る操作による静止画の形式でもよいし、連続して撮像する動画の形式でもよい。 As in this example, the user UR uses the smartphone 10 to display the output image IMGV, which is an AR display, on the screen or the like. On the other hand, the user UR uses the imaging device of the smartphone 10 to image the subject 11 and the like. The imaging may be in the form of a still image by the operation of releasing the shutter, or in the form of a moving image for continuous imaging.

以下、図示するようにスマートフォン10で目印を有する被写体11を撮像する場合を例に説明する。 Hereinafter, a case where the subject 11 having a mark is imaged by the smartphone 10 as shown in the figure will be described as an example.

<画像処理装置のハードウェア構成例>
図2は、画像処理装置のハードウェア構成例を示すブロック図である。例えば、画像処理装置は、図示するように、CPU(Central Processing Unit、以下「CPU10HW1」という。)、記憶装置10HW2、インタフェース10HW3、入出力装置10HW4、通信装置10HW5及び撮像装置10HW6等を含むハードウェア構成である。
<Hardware configuration example of image processing device>
FIG. 2 is a block diagram showing a hardware configuration example of the image processing device. For example, as shown in the figure, the image processing device is hardware including a CPU (Central Processing Unit, hereinafter referred to as “CPU 10HW1”), a storage device 10HW2, an interface 10HW3, an input / output device 10HW4, a communication device 10HW5, an image pickup device 10HW6, and the like. It is a configuration.

CPU10HW1は、演算装置及び制御装置の例である。すなわち、CPU10HW1は、プログラム等に基づいて、処理を実行するため、演算又はハードウェア資源の制御等を行う。 The CPU 10HW1 is an example of an arithmetic unit and a control unit. That is, the CPU 10HW1 performs arithmetic operations, hardware resource control, and the like in order to execute processing based on a program or the like.

記憶装置10HW2は、主記憶装置及び補助記憶装置等の例である。 The storage device 10HW2 is an example of a main storage device, an auxiliary storage device, and the like.

インタフェース10HW3は、有線又は無線によって、外部装置又は記録媒体等と接続する。 The interface 10HW3 is connected to an external device, a recording medium, or the like by wire or wirelessly.

入出力装置10HW4は、例えば、タッチパネル等である。すなわち、入出力装置10HW4は、ユーザURより操作を受け付ける入力装置である。また、入出力装置10HW4は、画像又は処理結果等を出力する出力装置である。 The input / output device 10HW4 is, for example, a touch panel or the like. That is, the input / output device 10HW4 is an input device that accepts operations from the user UR. The input / output device 10HW4 is an output device that outputs an image, a processing result, or the like.

通信装置10HW5は、有線又は無線等により、ネットワークを介して外部装置とデータを送受信する装置である。例えば、通信装置10HW5は、アンテナ及び電子回路等である。 The communication device 10HW5 is a device that transmits / receives data to / from an external device via a network by wire or wirelessly. For example, the communication device 10HW5 is an antenna, an electronic circuit, or the like.

撮像装置10HW6は、例えば、光センサ及び光学部品等である。したがって、撮像装置10HW6は、ユーザURの操作等に基づいて撮像を行い、画像を生成する。 The image pickup apparatus 10HW6 is, for example, an optical sensor, an optical component, or the like. Therefore, the image pickup device 10HW6 performs image pickup based on the operation of the user UR or the like, and generates an image.

なお、ハードウェア構成は、図示するハードウェア構成に限られない。例えば、画像処理装置は、演算装置、制御装置、記憶装置、入力装置及び出力装置といった他のハードウェア資源を更に有する構成でもよい。一方で、撮像装置及び入出力装置等は、外部装置等でもよい。 The hardware configuration is not limited to the hardware configuration shown in the figure. For example, the image processing device may be configured to further include other hardware resources such as an arithmetic unit, a control device, a storage device, an input device, and an output device. On the other hand, the image pickup device, the input / output device, and the like may be an external device or the like.

また、画像処理装置は、他の種類の情報処理装置でもよい。例えば、画像処理装置は、PC(Personal Computer)、タブレット、又は、PCとカメラの組み合わせ等といった情報処理装置でもよい。 Further, the image processing device may be another type of information processing device. For example, the image processing device may be a PC (Personal Computer), a tablet, or an information processing device such as a combination of a PC and a camera.

<画像処理方法の例>
図3は、画像処理装置が行う画像処理方法の例を示すフローチャートである。
<Example of image processing method>
FIG. 3 is a flowchart showing an example of an image processing method performed by the image processing apparatus.

<オブジェクト画像の入力例>(ステップS1)
当該ステップでは、画像処理装置は、オブジェクト画像を入力する。以下、オブジェクトを示す画像を「オブジェクト画像IMGO」という。
<Object image input example> (step S1)
In this step, the image processing apparatus inputs an object image. Hereinafter, the image showing the object is referred to as "object image IMGO".

オブジェクト画像IMGOは、出力の際に、合成して表示するオブジェクトを示す画像である。オブジェクトは、例えば、3D画像、文字、図形、記号、立体的形状、色彩又はこれらの組み合わせ等である。すなわち、オブジェクトは、画像処理装置に画像で入力できる物体等であればよい。また、オブジェクトは、仮想的に表示させる物体等であるため、実在する必要はなく、CAD(Computer Aided Design)又はグラフィックツール等の描画ソフトウェアで生成された仮想的な物体等でもよい。 The object image IMGO is an image showing an object to be combined and displayed at the time of output. The object is, for example, a 3D image, a character, a figure, a symbol, a three-dimensional shape, a color, or a combination thereof. That is, the object may be an object or the like that can be input as an image to the image processing device. Further, since the object is an object or the like to be displayed virtually, it does not have to exist, and may be a virtual object or the like generated by drawing software such as CAD (Computer Aided Design) or a graphic tool.

また、オブジェクト画像IMGOは、例えば、画像ファイル等の形式で入力される。例えば、オブジェクト画像IMGOは、オブジェクトを撮像する、又は、オブジェクトを描画ソフトウェアで生成する等によって生成される。 Further, the object image IMGO is input in a format such as an image file. For example, the object image IMGO is generated by imaging an object, generating an object with drawing software, or the like.

<目印画像の入力例>(ステップS2)
当該ステップでは、画像処理装置は、目印画像を入力する。以下、目印を示す画像を「目印画像IMGT」という。
<Example of inputting a mark image> (step S2)
In this step, the image processing device inputs a marker image. Hereinafter, the image showing the mark is referred to as "mark image IMGT".

目印画像IMGTは、オブジェクトを合成する際に、オブジェクトを表示する位置、姿勢及び範囲等を決める指標となる画像である。目印は、例えば、3D画像、文字、図形、記号、立体的形状、色彩又はこれらの組み合わせ等である。すなわち、目印は、画像処理装置に画像で入力できる物体等であればよい。また、目印は、画像において位置等が把握できれば良いため、実在する必要はなく、CAD又はグラフィックツール等の描画ソフトウェアで生成された仮想的な物体等でもよい。 The landmark image IMGT is an image that serves as an index for determining the position, posture, range, and the like on which the objects are displayed when synthesizing the objects. The mark is, for example, a 3D image, a character, a figure, a symbol, a three-dimensional shape, a color, or a combination thereof. That is, the mark may be an object or the like that can be input as an image to the image processing device. Further, the mark does not need to exist as long as the position or the like can be grasped in the image, and may be a virtual object or the like generated by drawing software such as CAD or a graphic tool.

すなわち、目印は、いわゆるマーカと呼ばれる絵柄等である。 That is, the mark is a pattern or the like called a so-called marker.

また、目印画像IMGTは、例えば、画像ファイル等の形式で入力される。例えば、目印画像IMGTは、目印が描かれた物体を撮像する、又は、目印を描画ソフトウェアで生成する等によって生成される。 Further, the mark image IMGT is input in a format such as an image file. For example, the mark image IMGT is generated by imaging an object on which the mark is drawn, or generating the mark by drawing software.

<撮像例>(ステップS3)
当該ステップでは、画像処理装置は、撮像により画像を生成する。以下、撮像によって生成される画像を「入力画像IMGI」という。また、入力画像IMGIは、画像処理装置が複数回、シャッタを切ることで、複数のフレームであるとする。以下、複数生成される入力画像IMGIのうち、最近のフレームを「現フレーム」という場合がある。そして、現フレームより以前となるフレームを「前フレーム」という場合がある。以下の説明では、フレームレートが約15fps(フレーム毎秒)乃至60fps程度であるとする。そして、以下の例では「前フレーム」及び「現フレーム」が連続したフレームである場合を例に説明する。
<Imaging example> (Step S3)
In this step, the image processing apparatus generates an image by imaging. Hereinafter, the image generated by imaging is referred to as "input image IMGI". Further, the input image IMGI is assumed to be a plurality of frames when the image processing device releases the shutter a plurality of times. Hereinafter, among the plurality of generated input image IMGIs, the latest frame may be referred to as the “current frame”. Then, a frame that is earlier than the current frame may be referred to as a "previous frame". In the following description, it is assumed that the frame rate is about 15 fps (frames per second) to about 60 fps. Then, in the following example, the case where the "previous frame" and the "current frame" are continuous frames will be described as an example.

なお、撮像は、フリッカー(Flicker)対策として、照明が点灯する周波数の倍率からずれたフレームレートであるのが望ましい。具体的には、15fps、30fps又は60fps等のフレームレートであると、60Hz(ヘルツ)等の周波数と同期して撮像される可能性である。したがって、フレームレートは、0.1fps乃至0.5fps程度ずらした値に設定されるのが望ましい。 As a measure against flicker, it is desirable that the imaging be performed at a frame rate deviated from the magnification of the frequency at which the illumination is turned on. Specifically, if the frame rate is 15 fps, 30 fps, 60 fps or the like, there is a possibility that the image is taken in synchronization with the frequency such as 60 Hz (hertz). Therefore, it is desirable that the frame rate is set to a value shifted by about 0.1 fps to 0.5 fps.

<フィルタ処理例>(ステップS4)
当該ステップでは、画像処理装置は、入力画像に対してフィルタ処理を行う。フィルタ処理の詳細及び変形例等は後述する。
<Filter processing example> (step S4)
In this step, the image processing apparatus filters the input image. Details of the filtering process and examples of modifications will be described later.

以下、入力画像IMGIに対してフィルタ処理を行うと生成される画像を「第1画像IMG1」という。 Hereinafter, the image generated when the input image IMGI is filtered is referred to as "first image IMG1".

<特徴点の抽出例>(ステップS5)
当該ステップでは、画像処理装置は、第1画像IMG1に対して、特徴点を抽出する処理を行う。特徴点を抽出する処理の詳細は後述する。
<Example of extracting feature points> (step S5)
In this step, the image processing apparatus performs a process of extracting feature points on the first image IMG1. The details of the process of extracting the feature points will be described later.

以下、特徴点を抽出する処理によって、第1画像IMG1から抽出される特徴点を「特徴点PS」という。なお、特徴点PSは、1フレームの第1画像IMG1から複数抽出されてもよい。 Hereinafter, the feature points extracted from the first image IMG1 by the process of extracting the feature points are referred to as "feature point PS". A plurality of feature point PSs may be extracted from the first image IMG1 of one frame.

したがって、特徴点の抽出には、一般化ハフ変換等が用いられてもよい。つまり、特徴点は、点(すなわち、1画素分となる。)の単位でなく、円又は線のような複数の特徴点を集めた単位で抽出されてもよい。このような単位で抽出されると、画像処理装置は、より精度よく特徴点を抽出できる。 Therefore, a generalized Hough transform or the like may be used to extract the feature points. That is, the feature points may be extracted not in units of points (that is, for one pixel) but in units of a collection of a plurality of feature points such as circles or lines. When extracted in such units, the image processing apparatus can extract feature points with higher accuracy.

<特徴点の追跡例>(ステップS6)
当該ステップでは、画像処理装置は、抽出された特徴点を追跡する。特徴点を追跡する処理の詳細は後述する。以下、前フレームの第1画像(以下単に「前フレーム画像IMG11」という。)、及び、現フレームの第1画像(以下単に「現フレーム画像IMG12」という。)に同一の特徴点PSがある場合を例に説明する。
<Example of tracking feature points> (step S6)
In this step, the image processor tracks the extracted feature points. The details of the process of tracking the feature points will be described later. Hereinafter, when the first image of the previous frame (hereinafter simply referred to as "previous frame image IMG11") and the first image of the current frame (hereinafter simply referred to as "current frame image IMG12") have the same feature point PS. Will be described as an example.

<目印を含む範囲の切り出し例>(ステップS7)
当該ステップでは、画像処理装置は、目印を含む範囲を切り出して画像を生成する。以下、切り出して生成する画像を「第2画像IMG2」という。切り出しの詳細は後述する。
<Example of cutting out a range including a mark> (step S7)
In this step, the image processing apparatus cuts out a range including the mark to generate an image. Hereinafter, the image cut out and generated is referred to as "second image IMG2". The details of cutting out will be described later.

<第2画像及び目印画像に基づく変換行列の生成例>(ステップS8)
当該ステップでは、画像処理装置は、第2画像及び目印画像に基づいて、変換行列を生成する。変換行列の具体例及び変換行列を生成する処理の詳細は後述する。
<Example of generating a transformation matrix based on the second image and the marker image> (step S8)
In this step, the image processing apparatus generates a transformation matrix based on the second image and the landmark image. A specific example of the transformation matrix and details of the process for generating the transformation matrix will be described later.

<変換行列に基づく第2画像の変換例>(ステップS9)
当該ステップでは、画像処理装置は、変換行列に基づいて、第2画像を変換する。以下、変換行列に基づく変換によって生成される画像を「変換画像IMGC」という。変換の詳細は後述する。
<Example of conversion of the second image based on the transformation matrix> (step S9)
In this step, the image processing apparatus transforms the second image based on the transformation matrix. Hereinafter, the image generated by the transformation based on the transformation matrix is referred to as "transformed image IMGC". The details of the conversion will be described later.

<目印画像と変換画像の比較例>(ステップS10)
当該ステップでは、画像処理装置は、目印画像と変換画像を比較する。目印画像と変換画像を比較する処理の詳細は後述する。
<Comparison example of mark image and converted image> (step S10)
In this step, the image processing apparatus compares the marker image with the converted image. The details of the process of comparing the mark image and the converted image will be described later.

<目印があるか否かの判断例>(ステップS11)
当該ステップでは、画像処理装置は、目印画像及び変換画像の比較結果に基づいて、目印があるか否かを判断する。
<Example of determining whether or not there is a mark> (step S11)
In this step, the image processing apparatus determines whether or not there is a mark based on the comparison result of the mark image and the converted image.

そして、目印が画像内にあると判断すると(ステップS11でYESに相当する。)、画像処理装置は、ステップS12に進む。一方で、目印が画像内にないと判断すると(ステップS11でNOに相当する。)、画像処理装置は、ステップS3に進む。 Then, when it is determined that the mark is in the image (corresponds to YES in step S11), the image processing apparatus proceeds to step S12. On the other hand, if it is determined that the mark is not in the image (corresponds to NO in step S11), the image processing apparatus proceeds to step S3.

<入力画像の目印の箇所へオブジェクトを合成して表示する例>(ステップS12)
当該ステップでは、画像処理装置は、入力画像の目印の箇所へオブジェクトを合成して表示する。以下、オブジェクトを合成した結果を示す画像、すなわち、出力される画像を「出力画像IMGV」という。出力画像IMGV及び合成等の具体例は詳細を後述する。
<Example of synthesizing and displaying an object at a mark of an input image> (step S12)
In this step, the image processing device synthesizes and displays the object at the mark portion of the input image. Hereinafter, the image showing the result of synthesizing the objects, that is, the output image is referred to as "output image IMGV". Specific examples of the output image IMGV and composition will be described in detail later.

<終了するか否かの判断例>(ステップS13)
当該ステップでは、画像処理装置は、終了するか否かを判断する。すなわち、画像処理装置は、設定又はスイッチ等に基づいて、次のフレームに進むか否かを判断する。
<Example of determining whether or not to end> (step S13)
In this step, the image processing apparatus determines whether or not to terminate. That is, the image processing device determines whether or not to proceed to the next frame based on the setting, the switch, or the like.

次に、終了すると判断すると(ステップS13でYESに相当する。)、画像処理装置は、図示する画像処理方法を終了する。一方で、終了しないと判断すると(ステップS13でNOに相当する。)、画像処理装置は、ステップS3に進む。 Next, when it is determined to end (corresponding to YES in step S13), the image processing apparatus ends the illustrated image processing method. On the other hand, if it is determined that the process does not end (corresponds to NO in step S13), the image processing apparatus proceeds to step S3.

なお、図示する処理における各ステップは、連続して行われなくともよい。例えば、オブジェクト画像の入力及び目印画像の入力等は、一度行われ、画像が保存された場合には、以降に使い回されてもよい。すなわち、ステップS1及びステップS2等は、省略されてもよい。 It should be noted that each step in the illustrated process does not have to be performed continuously. For example, the input of the object image, the input of the mark image, and the like are performed once, and when the image is saved, it may be reused thereafter. That is, steps S1 and S2 and the like may be omitted.

また、画像処理方法は、図示する処理の順序に限られない。例えば、ステップS1及びステップS2は、並行、又は、図示する順序とは逆の順序等でもよい。 Further, the image processing method is not limited to the order of the illustrated processing. For example, steps S1 and S2 may be in parallel or in an order opposite to the order shown in the figure.

<画像処理方法の処理結果例>
図4は、画像処理方法の処理結果例を示す図である。図3に示す画像処理方法が行われると、例えば、図示するような処理結果となる。
<Example of processing result of image processing method>
FIG. 4 is a diagram showing an example of processing results of the image processing method. When the image processing method shown in FIG. 3 is performed, the processing result is as shown in the figure, for example.

出力画像IMGVは、図示するように、入力画像IMGIにおいて、目印がある箇所へオブジェクトを合成するようにして生成される。 As shown in the figure, the output image IMGV is generated by synthesizing an object at a place where there is a mark in the input image IMGI.

まず、入力画像IMGIに、第1被写体TG1、第2被写体TG2及び第3被写体TG32という3つの被写体が写る場合の例とする。 First, let us take an example in which three subjects, a first subject TG1, a second subject TG2, and a third subject TG32, are captured in the input image IMGI.

また、この例では、ステップS1及びステップS2により、図示するような目印画像IMGT及びオブジェクト画像IMGOが、画像処理装置にあらかじめ入力されるとする。すなわち、この例は、目印画像IMGTが示す目印TG31がある箇所へオブジェクト画像IMGOが示すオブジェクトTG41を合成させて表示する設定となる。 Further, in this example, it is assumed that the mark image IMGT and the object image IMGO as shown in the drawings are input to the image processing apparatus in advance in steps S1 and S2. That is, in this example, the object TG41 shown by the object image IMGO is combined and displayed at the place where the mark TG31 indicated by the mark image IMGT is located.

入力画像IMGIには、図示するように、オブジェクトTG41は、被写体としては存在しない。そこで、目印TG31を認識した上で、画像処理装置は、ARによりオブジェクトTG41を合成する。このようにすると、出力画像IMGV上では、画像処理装置は、オブジェクトTG41を表示できる。 In the input image IMGI, as shown in the figure, the object TG41 does not exist as a subject. Therefore, after recognizing the mark TG31, the image processing apparatus synthesizes the object TG41 by AR. In this way, the image processing device can display the object TG41 on the output image IMGV.

具体的には、図示するような入力画像IMGI及び目印画像IMGTである場合には、画像処理装置は、ステップS4乃至ステップS10等を行うと、入力画像IMGIに、目印が含まれていることを認識できる(ステップS11でYESに相当する)。そのため、認識した目印TG31を示す第3被写体TG32に合わせて、画像処理装置は、オブジェクトTG41を合成できる(ステップS12)。 Specifically, in the case of the input image IMGI and the mark image IMGT as shown in the figure, when the image processing apparatus performs steps S4 to S10 and the like, the input image IMGI includes the mark. It can be recognized (corresponds to YES in step S11). Therefore, the image processing apparatus can synthesize the object TG 41 in accordance with the third subject TG 32 indicating the recognized mark TG 31 (step S12).

図示するように、画像処理装置は、目印TG31を精度良く認識できるため、入力画像IMGIに、第1被写体TG1及び第2被写体TG2等の目印となる以外の物体等があっても、第3被写体TG32のある箇所にオブジェクトTG41を合成できる。 As shown in the figure, since the image processing device can accurately recognize the mark TG31, even if the input image IMGI has an object other than the mark such as the first subject TG1 and the second subject TG2, the third subject The object TG41 can be synthesized at a certain place of the TG32.

また、図示する例は、目印TG31と第3被写体TG32の姿勢及び大きさが異なる例である。具体的には、第3被写体TG32は、入力画像IMGIにおいて、目印画像IMGTが示す目印TG31より大きく写っている。さらに、第3被写体TG32は、目印画像IMGTが示す目印TG31に対して、いわゆるPitch角(図において、横方向を軸とした回転方向である。)がある姿勢で写っている。 Further, the illustrated example is an example in which the posture and size of the mark TG31 and the third subject TG32 are different. Specifically, the third subject TG 32 appears larger in the input image IMGI than the mark TG 31 indicated by the mark image IMGT. Further, the third subject TG 32 is photographed in a posture having a so-called Pitch angle (in the figure, a rotation direction about the horizontal direction) with respect to the mark TG 31 indicated by the mark image IMGT.

このように、目印画像IMGTに対して、いわゆるパースがある状態であっても、画像処理装置は、目印TG31を精度良く認識できる。 As described above, the image processing apparatus can accurately recognize the mark TG 31 even when there is a so-called perspective on the mark image IMGT.

また、第3被写体TG32の姿勢及び大きさ等を認識できるため、図示するように、画像処理装置は、第3被写体TG32の姿勢及び大きさに合わせて、オブジェクトTG41を変換して、変換オブジェクトTG42を表示させることができる。 Further, since the posture and size of the third subject TG32 can be recognized, as shown in the figure, the image processing device converts the object TG41 according to the posture and size of the third subject TG32, and converts the object TG42. Can be displayed.

<各手順の詳細>
画像処理方法における各手順は、例えば、以下のような処理である。
<Details of each procedure>
Each procedure in the image processing method is, for example, the following processing.

<フィルタ処理及びフィルタ処理で用いられるフィルタの例>
図5は、フィルタの例を示す図である。上記の画像処理方法におけるステップS4では、例えば、図示するようなフィルタを用いる。
<Examples of filtering and filters used in filtering>
FIG. 5 is a diagram showing an example of a filter. In step S4 in the above image processing method, for example, a filter as shown in the figure is used.

図示する例は、フィルタを3×3とする例である。フィルタの各マスには、例えば、それぞれの画素値に対して乗じる乗数が、図示するような値で設定される。具体的には、画像処理装置は、入力画像が有するそれぞれの画素値に対して、中心となる画素(図では、「41」の乗数が設定される位置にある画素となる。)の画素値を「41」の乗数を乗じる計算を行う。同様に、画像処理装置は、中心となる画素の上下左右に隣接する画素(図では、「−10」の乗数が設定される位置にある画素となる。)の画素値を「−10」の乗数を乗じる計算を行う。そして、画像処理装置は、このように計算される計算結果を総和する。このような処理を画像におけるすべての画素に対して行う、すなわち、いわゆるラスタスキャンのように行うと、画像処理装置は、いわゆるシャープネスの効果を得た第1画像を生成できる。 The example shown is an example in which the filter is 3 × 3. For each cell of the filter, for example, a multiplier for multiplying each pixel value is set with a value as shown in the figure. Specifically, the image processing device has a pixel value of a central pixel (in the figure, a pixel at a position where a multiplier of "41" is set) with respect to each pixel value of the input image. Is multiplied by a multiplier of "41". Similarly, the image processing apparatus sets the pixel value of the pixels adjacent to the top, bottom, left, and right of the center pixel (in the figure, the pixels at the position where the multiplier of "-10" is set) to "-10". Calculate by multiplying by a multiplier. Then, the image processing device sums the calculation results calculated in this way. When such processing is performed on all the pixels in the image, that is, as in the so-called raster scan, the image processing apparatus can generate a first image having the effect of so-called sharpness.

なお、フィルタは、図示するような種類に限られない。例えば、乗数は、図示する以外の値が用いられてもよい。すなわち、乗数の値を図示する値から変更することで、シャープネスの強度が調整されてもよい。さらに、フィルタ処理は、複数回行われてもよい。すなわち、より強調する場合等には、シャープネス用のフィルタ等を用いて、フィルタ処理が2回以上行われてもよい。 The filter is not limited to the type shown in the figure. For example, a value other than the one shown in the figure may be used as the multiplier. That is, the intensity of sharpness may be adjusted by changing the value of the multiplier from the value shown in the figure. Further, the filtering process may be performed a plurality of times. That is, when emphasizing more, the filter processing may be performed twice or more by using a filter for sharpness or the like.

また、フィルタは、3×3のサイズに限られず、5×5以上の大きいサイズのフィルタでもよい。 Further, the filter is not limited to the size of 3 × 3, and may be a filter having a large size of 5 × 5 or more.

<フィルタ処理の第1変形例>
図6は、フィルタ処理の第1変形例を示す図である。上記の画像処理方法におけるステップS4は、例えば、図示する処理でもよい。図示するように、第1変形例では、ステップS4のフィルタ処理を第1フィルタ処理及び第2フィルタ処理の2段階とする。
<First modification of filtering>
FIG. 6 is a diagram showing a first modification of the filtering process. Step S4 in the above image processing method may be, for example, the process shown in the figure. As shown in the figure, in the first modification, the filter processing in step S4 is divided into two stages, the first filter processing and the second filter processing.

<第1フィルタ処理>(ステップS41)
当該ステップでは、画像処理装置は、ノイズを減らすためのフィルタ処理を行う。具体的には、画像処理装置は、例えば、メディアンフィルタ等を用いて第1フィルタ処理を行う。なお、フィルタは、ノイズを減らすフィルタであればよい。したがって、フィルタは、ローパスフィルタ等でもよい。
<First filter processing> (step S41)
In this step, the image processing apparatus performs filtering processing to reduce noise. Specifically, the image processing apparatus performs the first filter processing using, for example, a median filter or the like. The filter may be a filter that reduces noise. Therefore, the filter may be a low-pass filter or the like.

撮像によって生成される入力画像IMGIには、ノイズとなる成分が入っている場合が多い。パターンマッチング等の処理では、このようなノイズとなる画素があると、ノイズの画素がマッチングされる等の現象が起きやすい。そのため、マッチング精度が悪くなる等の原因となる。そこで、ノイズを減らすフィルタを用いるフィルタ処理を行うと、フィルタ処理より後段の処理では、パターンマッチング等の認識精度を向上させることができる。 The input image IMGI generated by imaging often contains a component that causes noise. In processing such as pattern matching, if there are pixels that cause such noise, a phenomenon such as matching of noise pixels is likely to occur. Therefore, it causes deterioration of matching accuracy and the like. Therefore, if filter processing using a filter that reduces noise is performed, recognition accuracy such as pattern matching can be improved in the processing after the filter processing.

以下、入力画像IMGIに対して第1フィルタ処理を行うことで生成される画像を「第3画像IMG3」という。 Hereinafter, the image generated by performing the first filter processing on the input image IMGI is referred to as "third image IMG3".

<第2フィルタ処理>(ステップS42)
当該処理では、画像処理装置は、RGB色空間におけるG成分を強調させるためのフィルタ処理を行う。まず、第1フィルタ処理によって、第3画像IMG3が生成されると、第3画像IMG3は、RGB色空間において、R成分(赤色の成分となる。)、G成分(緑色の成分となる。)、及び、B成分(青色の成分となる。)の3つのプレーンに分けることができる。
<Second filter processing> (step S42)
In this process, the image processing device performs a filter process for emphasizing the G component in the RGB color space. First, when the third image IMG3 is generated by the first filter processing, the third image IMG3 has an R component (becomes a red component) and a G component (becomes a green component) in the RGB color space. , And the B component (which becomes the blue component) can be divided into three planes.

以下、第3画像IMG3のR成分を示すプレーンを「R成分IMG3R」という。同様に、第3画像IMG3のG成分を示すプレーンを「G成分IMG3G」という。さらに、第3画像IMG3のB成分を示すプレーンを「B成分IMG3B」という。なお、R成分IMG3R、G成分IMG3G及びB成分IMG3Bは、例えば、画像と同様のデータ形式等である。したがって、R成分IMG3R、G成分IMG3G及びB成分IMG3Bに対しては、他の画像と同様の方法でフィルタ処理等が可能である。 Hereinafter, the plane showing the R component of the third image IMG3 is referred to as "R component IMG3R". Similarly, the plane showing the G component of the third image IMG3 is referred to as "G component IMG3G". Further, the plane showing the B component of the third image IMG3 is referred to as "B component IMG3B". The R component IMG3R, the G component IMG3G, and the B component IMG3B have, for example, the same data format as the image. Therefore, the R component IMG3R, the G component IMG3G, and the B component IMG3B can be filtered by the same method as other images.

第2フィルタ処理は、R成分IMG3R、G成分IMG3G及びB成分IMG3Bのうち、G成分IMG3Gに対して行われるのが望ましい。 It is desirable that the second filter treatment is performed on the G component IMG3G among the R component IMG3R, the G component IMG3G and the B component IMG3B.

フィルタ処理(ステップS4)によって生成される第1画像IMG1は、フィルタ処理より後段では、画像の比較、画像に写る被写体を認識する処理、特徴点の抽出及び追跡等の処理が行われる。このような処理では、エッジ成分又は輝度成分等を用いる場合が多い。輝度成分(以下「Y成分」という。)は、RGB成分からすると、例えば、下記(1)式又は下記(2)式のように計算される。

Y=0.299×R+0.587×G+0.114×B (1)

Y=0.2126×R+0.7152×G+0.0722×B (2)

上記(1)式及び上記(2)式に示すように、Y成分(上記(1)式及び上記(2)式における左辺「Y」である。)は、RGB成分からすると、G成分(上記(1)式及び上記(2)式における右辺「G」である。)の割合が5割乃至8割程度となる場合が多い。すなわち、G成分は、Y成分に与える影響が大きい成分である。
In the first image IMG1 generated by the filter processing (step S4), after the filter processing, processing such as image comparison, processing for recognizing the subject appearing in the image, extraction and tracking of feature points is performed. In such processing, an edge component, a luminance component, or the like is often used. The luminance component (hereinafter referred to as “Y component”) is calculated from the RGB component as, for example, the following equation (1) or the following equation (2).

Y = 0.299 × R + 0.587 × G + 0.114 × B (1)

Y = 0.2126 × R + 0.7152 × G + 0.0722 × B (2)

As shown in the above equations (1) and (2), the Y component (the left-hand side "Y" in the above equations (1) and (2)) is a G component (above) in terms of the RGB component. In many cases, the ratio of the right-hand side “G” in the equation (1) and the above equation (2) is about 50% to 80%. That is, the G component is a component having a large influence on the Y component.

そこで、第2フィルタ処理では、画像処理装置は、第1画像IMG1において、Y成分が際立つように、G成分IMG3Gを強調するフィルタ処理を行う。例えば、画像処理装置は、G成分IMG3Gに対してシャープネスフィルタ等を用いる処理を行う。このようにすると、画像処理装置は、G成分を強調した第1画像IMG1を生成できる。 Therefore, in the second filter processing, the image processing apparatus performs a filter processing that emphasizes the G component IMG3G so that the Y component stands out in the first image IMG1. For example, the image processing apparatus performs processing using a sharpness filter or the like on the G component IMG3G. In this way, the image processing apparatus can generate the first image IMG1 in which the G component is emphasized.

このように、G成分を強調した第1画像IMG1又はG成分を強調した第1画像IMG1に基づいて生成される画像に対して、画像の比較、画像に写る被写体を認識する処理、特徴点の抽出及び追跡等の処理が行われると、エッジ又は特徴点等がはっきりしているため、処理の精度を向上させることができる。 In this way, with respect to the image generated based on the first image IMG1 in which the G component is emphasized or the first image IMG1 in which the G component is emphasized, image comparison, processing for recognizing the subject appearing in the image, and feature points When processing such as extraction and tracking is performed, the edge or feature point is clear, so that the accuracy of the processing can be improved.

<フィルタ処理の第2変形例>
図7は、フィルタ処理の第2変形例を示す図である。上記の画像処理方法におけるステップS4は、例えば、図示する処理でもよい。第1変形例と比較すると、第2変形例は、第2フィルタ処理が、YUV色空間で行われる点が異なる。以下、第1変形例と同一の構成には、同一の符号を付し、重複する説明を省略して異なる点を中心に説明する。
<Second modification of filtering>
FIG. 7 is a diagram showing a second modification of the filtering process. Step S4 in the above image processing method may be, for example, the process shown in the figure. Compared with the first modification, the second modification is different in that the second filter processing is performed in the YUV color space. Hereinafter, the same configurations as those of the first modification will be described with the same reference numerals, omitting duplicate description, and focusing on different points.

図示するように、第2変形例では、第3画像IMG3は、YUV色空間において、Y成分(輝度の成分となる。)、U成分(R成分からY成分を除いた、いわゆるCr成分となる。以下「Cr成分」という。)、及び、V成分(B成分からY成分を除いた、いわゆるCb成分となる。以下「Cb成分」という。)の3つのプレーンに分けることができる。 As shown in the figure, in the second modification, the third image IMG3 has a Y component (which is a luminance component) and a U component (the R component minus the Y component, that is, a Cr component) in the YUV color space. It can be divided into three planes: a "Cr component") and a V component (a so-called Cb component obtained by removing the Y component from the B component. Hereinafter referred to as a "Cb component").

したがって、入力画像IMGI等がRGB色空間のデータ形式である場合には、画像処理装置は、RGBのデータをYUVのデータに変換する処理を行う。例えば、変換式は、PAL(phase alternating line)、SECAM(セカム)、ITU−R BT.601、ITU−R BT.709(1250/50/2:1)、又は、ITU−R BT.709(1125/60/2:1)等で定められる変換式等が用いられる。 Therefore, when the input image IMGI or the like is in the data format of the RGB color space, the image processing apparatus performs a process of converting the RGB data into the YUV data. For example, the conversion formulas are PAL (phase alternation line), SECAM, ITU-R BT. 601. ITU-R BT. 709 (1250/50/2: 1) or ITU-R BT. A conversion formula or the like defined by 709 (1125/60/2: 1) or the like is used.

以下、第3画像IMG3のY成分を示すプレーンを「Y成分IMG3Y」という。同様に、第3画像IMG3のCr成分を示すプレーンを「Cr成分IMG3CR」という。さらに、第3画像IMG3のCb成分を示すプレーンを「Cb成分IMG3CB」という。なお、Y成分IMG3Y、Cr成分IMG3CR及びCb成分IMG3CBは、例えば、画像と同様のデータ形式等である。したがって、Y成分IMG3Y、Cr成分IMG3CR及びCb成分IMG3CBに対しては、他の画像と同様の方法でフィルタ処理等が可能である。 Hereinafter, the plane showing the Y component of the third image IMG3 is referred to as "Y component IMG3Y". Similarly, the plane showing the Cr component of the third image IMG3 is referred to as "Cr component IMG3CR". Further, the plane showing the Cb component of the third image IMG3 is referred to as "Cb component IMG3CB". The Y component IMG3Y, Cr component IMG3CR, and Cb component IMG3CB have, for example, the same data format as the image. Therefore, the Y component IMG3Y, the Cr component IMG3CR, and the Cb component IMG3CB can be filtered in the same manner as other images.

第2フィルタ処理は、Y成分IMG3Y、Cr成分IMG3CR及びCb成分IMG3CBのうち、Y成分IMG3Yに対して行われるのが望ましい。 The second filter treatment is preferably performed on the Y component IMG3Y among the Y component IMG3Y, the Cr component IMG3CR, and the Cb component IMG3CB.

第1変形例と同様に、第2変形例のフィルタ処理(ステップS4)によって生成される第1画像IMG1であっても、フィルタ処理より後段では、第1画像IMG1に対して、画像の比較、画像に写る被写体を認識する処理、特徴点の抽出及び追跡等の処理が行われる。そのため、第1画像IMG1は、Y成分が強調されているのが望ましい。 Similar to the first modification, even if the first image IMG1 is generated by the filtering process (step S4) of the second modification, in the subsequent stage after the filtering, the image is compared with the first image IMG1. Processing such as recognition of the subject in the image, extraction of feature points, and tracking is performed. Therefore, it is desirable that the Y component is emphasized in the first image IMG1.

そこで、図示するようなフィルタ処理を行うと、画像処理装置は、Y成分を強調した第1画像IMG1を生成できる。 Therefore, when the filter processing as shown in the figure is performed, the image processing apparatus can generate the first image IMG1 in which the Y component is emphasized.

このように、Y成分を強調した第1画像IMG1又はY成分を強調した第1画像IMG1に基づいて生成される画像に対して、画像の比較、画像に写る被写体を認識する処理、特徴点の抽出及び追跡等の処理が行われると、エッジ又は特徴点等がはっきりしているため、処理の精度を向上させることができる。 In this way, with respect to the image generated based on the first image IMG1 with the Y component emphasized or the first image IMG1 with the Y component emphasized, image comparison, processing for recognizing the subject appearing in the image, and feature points When processing such as extraction and tracking is performed, the edge or feature point is clear, so that the accuracy of the processing can be improved.

また、YUV422又はYUV411等のように、U成分、V成分又は両方の成分をY成分のデータより少なくしたデータ形式にすると、あまり画質を下げずに、データ容量を少なくできる。 Further, if the data format is such that the U component, the V component, or both components are smaller than the data of the Y component, such as YUV422 or YUV411, the data capacity can be reduced without significantly reducing the image quality.

そして、U成分及びV成分は、空間分解能が低い、すなわち、データがY成分より間引かれても、人の目における画質にはあまり影響しない場合が多い。そこで、U成分、V成分又は両方の成分に対して、画像処理装置は、更にローパスフィルタ等を用いる処理を行い、ノイズを減らす処理が行ってもよい。 The U component and the V component often have low spatial resolution, that is, even if the data is thinned out from the Y component, the image quality to the human eye is not significantly affected. Therefore, the image processing apparatus may further perform a process using a low-pass filter or the like on the U component, the V component, or both components to reduce noise.

なお、YUV色空間は、YCbCr色空間、YPbPr色空間又はLab色空間等でもよい。すなわち、YUVの成分は、YCbCr、YPbPr又はLabの成分であってもよい。 The YUV color space may be a YCbCr color space, a YPbPr color space, a Lab color space, or the like. That is, the component of YUV may be a component of YCbCr, YPbPr or Lab.

<特徴点の抽出例>
図8は、特徴点の抽出例を示す図である。上記の画像処理方法におけるステップS5は、例えば、図示するような処理である。
<Example of extracting feature points>
FIG. 8 is a diagram showing an example of extracting feature points. Step S5 in the above image processing method is, for example, a process as shown in the figure.

特徴点の抽出は、例えば、KPM(Key Point Matching)等で実現する。すなわち、あらかじめ入力される画像(以下「参照画像」という。)と同一のエッジ又は画素値等があると、画像処理装置は、特徴点として抽出する。そして、図示するように、第1画像IMG1に対して、KPM等の処理が行われると、特徴点PSが抽出される。また、特徴点を抽出すると、画像処理装置は、以降の処理において、抽出されたそれぞれの特徴点PSを認識できる。したがって、特徴点PSを抽出すると、画像処理装置は、特徴点PSの位置及び構成等に基づいて、目印等の第1画像IMG1等に写る被写体を認識できる。そして、特徴点PSの抽出結果により、以降の処理では、画像内に目印の有無又は目印の位置等を認識できる。 Extraction of feature points is realized by, for example, KPM (Key Point Matching) or the like. That is, if there is an edge or pixel value or the like that is the same as the image input in advance (hereinafter referred to as "reference image"), the image processing apparatus extracts it as a feature point. Then, as shown in the figure, when the first image IMG1 is subjected to processing such as KPM, the feature point PS is extracted. Further, when the feature points are extracted, the image processing apparatus can recognize each of the extracted feature point PS in the subsequent processing. Therefore, when the feature point PS is extracted, the image processing apparatus can recognize the subject reflected in the first image IMG1 or the like such as a mark based on the position and configuration of the feature point PS. Then, based on the extraction result of the feature point PS, the presence / absence of a mark or the position of the mark in the image can be recognized in the subsequent processing.

なお、特徴点の抽出は、AKAZE(Accelerated KAZE Features)又はORB(Oriented FAST and Rotated BRIEF)のアルゴリズムで抽出を行うのが望ましい。 It is desirable that the feature points are extracted by an algorithm of AKAZE (Accelerated KAZE Features) or ORB (Oriented FAST and Rotated BRIEF).

AKAZEのアルゴリズムであると、画像処理装置は、低周波領域及び高周波領域等において、ORB等より精度良く抽出ができる。 According to the AKAZE algorithm, the image processing apparatus can extract in the low frequency region, the high frequency region, and the like with higher accuracy than the ORB and the like.

ORBのアルゴリズムであると、画像処理装置は、特徴点を抽出する処理の対象となる画像、すなわち、第1画像IMG1が、参照画像に対して移動、回転、拡大縮小又はこれらの組み合わせがあっても、精度良く抽出ができる。すなわち、ORBのアルゴリズムを用いると、画像処理装置は、移動、回転又は拡大縮小等に対して高いロバスト性を確保できる。また、ORBのアルゴリズムであると、画像処理装置は、高速に処理できる。 In the ORB algorithm, the image processing apparatus has an image to be processed for extracting feature points, that is, the first image IMG1 has movement, rotation, scaling, or a combination thereof with respect to the reference image. However, it can be extracted with high accuracy. That is, by using the ORB algorithm, the image processing apparatus can ensure high robustness against movement, rotation, scaling, and the like. Further, with the ORB algorithm, the image processing apparatus can process at high speed.

なお、特徴点PSは、上記以外の方法で抽出されてもよい。例えば、特徴点PSは、エッジを抽出するフィルタ等で抽出されてもよい。 The feature point PS may be extracted by a method other than the above. For example, the feature point PS may be extracted by a filter or the like that extracts edges.

<特徴点の追跡例>
図9は、特徴点の追跡例を示す図である。上記の画像処理方法におけるステップS6は、例えば、図示するような処理である。
<Example of tracking feature points>
FIG. 9 is a diagram showing an example of tracking feature points. Step S6 in the above image processing method is, for example, a process as shown in the figure.

特徴点PSの追跡は、例えば、オプティカルフロー等で実現する。以下、図示するように、第1画像が、前フレーム画像IMG11、現フレーム画像IMG12及び現フレームの次のフレーム画像(以下「次フレーム画像IMG13」という。)という順で撮像されたとする。 Tracking of feature point PS is realized by, for example, optical flow. Hereinafter, as shown in the figure, it is assumed that the first image is captured in the order of the previous frame image IMG11, the current frame image IMG12, and the next frame image of the current frame (hereinafter referred to as "next frame image IMG13").

オプティカルフローを用いると、図示するように、特徴点PSが前フレーム画像IMG11、現フレーム画像IMG12及び次フレーム画像IMG13の間でどのように移動しているかを追跡できる。したがって、目印の特徴点PSを追跡すると、画像処理装置は、目印となる箇所を追跡できるため、精度良くオブジェクトを目印の位置に合成できる。 Using optical flow, as shown, it is possible to track how the feature point PS moves between the previous frame image IMG11, the current frame image IMG12, and the next frame image IMG13. Therefore, when the feature point PS of the mark is tracked, the image processing device can track the place that becomes the mark, so that the object can be accurately synthesized at the position of the mark.

例えば、オプティカルフローは、Lucas−Kanade法等で実現する。 For example, the optical flow is realized by the Lucas-Kanade method or the like.

なお、オプティカルフローの処理結果に基づいて、出力画像において、オブジェクトを出力するか否かが判断されてもよい。具体的には、オプティカルフローの処理結果に基づいて、目印の特徴点PSを有する被写体が、画像が示す範囲外に移動した場合等がある。いわゆる被写体がフレームアウトした場合等である。このような場合には、画像処理装置は、オプティカルフローの処理結果に基づいて、オブジェクトを出力する等といったステップS7以降の処理を省略して次のフレーム(ステップS3)に進んでもよい。 It should be noted that it may be determined whether or not to output the object in the output image based on the processing result of the optical flow. Specifically, based on the processing result of the optical flow, there is a case where the subject having the feature point PS of the mark moves out of the range indicated by the image. This is the case when the so-called subject is out of frame. In such a case, the image processing apparatus may proceed to the next frame (step S3) by omitting the processing after step S7 such as outputting an object based on the processing result of the optical flow.

<切り出し例>
図10は、切り出し例を示す図である。上記の画像処理方法におけるステップS7は、例えば、図示するような処理である。以下、図4と同様の被写体が写る場合であって、目印画像も同様の画像である場合を例に説明する。なお、図示する例では、第1画像IMG1には、フィルタ処理の結果を図面に反映せず、図4に示す入力画像IMGIと同様の画像を第1画像IMG1として説明する。
<Cutout example>
FIG. 10 is a diagram showing a cutout example. Step S7 in the above image processing method is, for example, a process as shown in the figure. Hereinafter, a case where the same subject as in FIG. 4 is captured and the mark image is also the same image will be described as an example. In the illustrated example, the result of the filter processing is not reflected in the drawing in the first image IMG1, and an image similar to the input image IMG shown in FIG. 4 will be described as the first image IMG1.

切り出しの処理では、画像処理装置は、第1画像IMG1に写る第1被写体TG1、第2被写体TG2及び第3被写体TG32の被写体のうち、第3被写体TG32、すなわち、目印の特徴点を含む範囲を切り出して第2画像IMG2を生成する。 In the cropping process, the image processing apparatus sets a range including the third subject TG32, that is, the feature point of the mark among the subjects of the first subject TG1, the second subject TG2, and the third subject TG32 reflected in the first image IMG1. It is cut out to generate a second image IMG2.

すなわち、第2画像IMG2は、例えば、目印の特徴点をすべて含む画像(マージンが設定されてもよい。)又は目印と認識される被写体の画素をすべて含むようなサイズに切り出すことで生成される。 That is, the second image IMG2 is generated, for example, by cutting out an image including all the feature points of the mark (a margin may be set) or a size including all the pixels of the subject recognized as the mark. ..

図示するように、第2画像IMG2は、第1画像IMG1等と比較するとサイズが小さい。すなわち、第2画像IMG2は、第1画像IMG1等と比較すると画素が少ない画像である。また、第2画像IMG2は、第1画像IMG1等と比較すると第1被写体TG1等が写っていない画像である。したがって、以降の処理において、第2画像IMG2を用いると、画像処理装置は、第1画像IMG1等を用いる場合と比較して、画素数等が少ないため、計算コストを少なくできる、又は、高速にマッチングの処理を行うことができる。 As shown in the figure, the size of the second image IMG2 is smaller than that of the first image IMG1 and the like. That is, the second image IMG2 is an image having fewer pixels than the first image IMG1 and the like. Further, the second image IMG2 is an image in which the first subject TG1 or the like is not captured as compared with the first image IMG1 or the like. Therefore, when the second image IMG2 is used in the subsequent processing, the image processing apparatus has a smaller number of pixels and the like as compared with the case where the first image IMG1 and the like are used, so that the calculation cost can be reduced or the calculation cost can be reduced or at high speed. Matching processing can be performed.

<変換行列を生成する処理及び変換行列に基づく変換例>
図11は、変換行列を生成する処理例を示す図である。上記の画像処理方法におけるステップS8及びステップS9は、例えば、図示するような処理である。
<Process to generate transformation matrix and conversion example based on transformation matrix>
FIG. 11 is a diagram showing a processing example for generating a transformation matrix. Steps S8 and S9 in the above image processing method are, for example, processes as shown in the figure.

例えば、変換行列MX1は、図示するように、3行3列の行列である。そして、変換行列MX1は、図示するように、対象となる画像を射影変換させる行列である。 For example, the transformation matrix MX1 is a matrix of 3 rows and 3 columns as shown in the figure. Then, as shown in the figure, the transformation matrix MX1 is a matrix that projects and transforms the target image.

変換行列MX1を用いる変換を行うと、図示するように、第2画像IMG2は、変換画像IMGCとなる。変換画像IMGCは、図示するように、目印画像IMGTが示す被写体(すなわち、目印となる。)と、被写体がほぼ同じ大きさ及び姿勢等となるように変換された画像である。 When the transformation using the transformation matrix MX1 is performed, the second image IMG2 becomes the transformed image IMGC as shown in the figure. As shown in the figure, the converted image IMGC is an image converted so that the subject (that is, the mark) indicated by the mark image IMGT and the subject have substantially the same size and posture.

以下、第2画像IMG2は、第1特徴点PS1、第2特徴点PS2及び第3特徴点PS3の3つの特徴点が抽出されたとする。目印画像IMGTにも、同様に第1特徴点PS1、第2特徴点PS2及び第3特徴点PS3の3つの特徴点があるとする。 Hereinafter, it is assumed that three feature points of the first feature point PS1, the second feature point PS2, and the third feature point PS3 are extracted from the second image IMG2. It is assumed that the marker image IMGT also has three feature points, that is, the first feature point PS1, the second feature point PS2, and the third feature point PS3.

そのため、目印画像IMGTにおける第1特徴点PS1、第2特徴点PS2及び第3特徴点PS3が、第2画像IMG2上のどこの画素に位置するかは、第2画像IMG2において、第1特徴点PS1、第2特徴点PS2及び第3特徴点PS3をそれぞれ検索する等によって特定できる。したがって、画像処理装置は、第2画像IMG2上の第1特徴点PS1、第2特徴点PS2及び第3特徴点PS3をどのように変換すると、目印画像IMGTにおける第1特徴点PS1、第2特徴点PS2及び第3特徴点PS3の位置とほぼ同様の位置に変換できるかを計算できる。このような計算結果により、画像処理装置は、変換行列MX1を生成できる。すなわち、画像処理装置は、いわゆるホモグラフィ推定等によって、変換行列MX1を生成する。 Therefore, which pixel on the second image IMG2 the first feature point PS1, the second feature point PS2, and the third feature point PS3 in the landmark image IMGT are located is determined in the second image IMG2 as the first feature point. It can be specified by searching for PS1, the second feature point PS2, and the third feature point PS3, respectively. Therefore, when the image processing apparatus converts the first feature point PS1, the second feature point PS2, and the third feature point PS3 on the second image IMG2, the first feature point PS1 and the second feature point PS1 in the landmark image IMGT are converted. It is possible to calculate whether the positions of the points PS2 and the third feature point PS3 can be converted to almost the same positions. Based on such a calculation result, the image processing apparatus can generate the transformation matrix MX1. That is, the image processing apparatus generates the transformation matrix MX1 by so-called homography estimation or the like.

次に、生成した変換行列MX1に基づいて、画像処理装置は、第2画像IMG2を変換して変換画像IMGCを生成する。 Next, based on the generated transformation matrix MX1, the image processing apparatus converts the second image IMG2 to generate the converted image IMGC.

このように、画像処理装置は、変換行列MX1によって第2画像IMG2を射影変換する。このような変換を行うと、図示するように、第2画像IMG2に写る被写体を引き延ばす等によって、目印画像IMGTと同じような状態の被写体にすることができる。このようにすると、比較等の処理において、第2画像IMG2に写る目印は、目印画像IMGTと同じような位置、大きさ及び姿勢等となる状態となる。そのため、目印画像IMGTが示す目印に対して、拡大縮小、回転及びパース等があまりなく、ORB又はAKAZE等のアルゴリズム等を用いるマッチング精度が高くできる。 In this way, the image processing apparatus projects and transforms the second image IMG2 by the transformation matrix MX1. When such conversion is performed, as shown in the figure, the subject reflected in the second image IMG2 can be stretched to obtain a subject in a state similar to that of the landmark image IMGT. In this way, in the process of comparison and the like, the mark reflected on the second image IMG2 is in a state of having the same position, size, posture and the like as the mark image IMGT. Therefore, there is not much scaling, rotation, parsing, etc. with respect to the mark indicated by the mark image IMGT, and matching accuracy using an algorithm such as ORB or AKAZE can be improved.

<目印画像と変換画像の比較例>
図12は、目印画像と変換画像の比較例及び比較結果の例を示す図である。上記の画像処理方法におけるステップS10は、例えば、図示するような処理である。
<Comparison example of mark image and converted image>
FIG. 12 is a diagram showing a comparison example of the mark image and the converted image and an example of the comparison result. Step S10 in the above image processing method is, for example, a process as shown in the figure.

図示するように、画像処理装置は、目印画像IMGTと変換画像IMGCを比較する。このように比較すると、画像処理装置は、変換画像IMGCが目印の画像であるか否かを判断できる。 As shown, the image processing apparatus compares the landmark image IMGT with the converted image IMGC. When compared in this way, the image processing apparatus can determine whether or not the converted image IMGC is a marker image.

以下、図示するように、変換画像IMGCには、4点の特徴点等である、第1点SP1、第2点SP2、第3点SP3及び第4点SP4等があるとする。そして、第1点SP1、第2点SP2、第3点SP3及び第4点SP4は、比較等の処理に特徴点画像IMGSにおいて、座標が特定されているとする。 Hereinafter, as shown in the figure, it is assumed that the converted image IMGC has four feature points, such as a first point SP1, a second point SP2, a third point SP3, and a fourth point SP4. Then, it is assumed that the coordinates of the first point SP1, the second point SP2, the third point SP3, and the fourth point SP4 are specified in the feature point image IMGS for processing such as comparison.

<入力画像にオブジェクトを合成して出力画像を生成する例>
図13は、出力画像の生成例を示す図である。以下、説明のため、特徴点等が図示されている特徴点画像IMGSを用いる場合を例に説明する。ただし、合成に用いる画像は、特徴点画像IMGSのように、第1点SP1、第2点SP2、第3点SP3及び第4点SP4が図示されている必要はなく、第2画像IMG2等でもよい。
<Example of combining an object with an input image to generate an output image>
FIG. 13 is a diagram showing an example of generating an output image. Hereinafter, for the sake of explanation, a case where a feature point image IMGS in which the feature points and the like are illustrated will be used will be described as an example. However, unlike the feature point image IMGS, the image used for compositing does not need to show the first point SP1, the second point SP2, the third point SP3, and the fourth point SP4, and the second image IMG2 or the like is also used. Good.

まず、画像処理装置は、変換行列の逆行列を計算すると、逆行列の例である逆変換行列MX2を計算できる。 First, the image processing apparatus can calculate the inverse transformation matrix MX2, which is an example of the inverse matrix, by calculating the inverse matrix of the transformation matrix.

次に、画像処理装置は、逆変換行列MX2を用いて、特徴点画像IMGSを射影変換する。このようにすると、図示するように、変換特徴点画像IMGS2を生成できる。 Next, the image processing apparatus projects and transforms the feature point image IMGS using the inverse transformation matrix MX2. In this way, as shown in the figure, the conversion feature point image IMGS2 can be generated.

続いて、画像処理装置は、逆変換行列MX2を用いて、オブジェクト画像IMGOを射影変換する。このようにすると、図示するように、変換オブジェクト画像IMGO2を生成できる。 Subsequently, the image processing apparatus projects and transforms the object image IMGO using the inverse transformation matrix MX2. In this way, the converted object image IMGO2 can be generated as shown in the figure.

上記のように、同じ行列である逆変換行列MX2を用いて、両方の変換を行うと、変換特徴点画像IMGS2及び変換オブジェクト画像IMGO2は、同じ変換によって生成される。そのため、変換特徴点画像IMGS2及び変換オブジェクト画像IMGO2では、目印及びオブジェクトが、同じような大きさ及び姿勢になりやすい。ゆえに、画像処理装置は、オブジェクトを目印に対してより自然な形となるように合成できる。 As described above, when both transformations are performed using the inverse transformation matrix MX2 which is the same matrix, the transformation feature point image IMGS2 and the transformation object image IMGO2 are generated by the same transformation. Therefore, in the conversion feature point image IMGS2 and the conversion object image IMGO2, the marks and objects tend to have the same size and orientation. Therefore, the image processor can synthesize the objects so that they have a more natural shape with respect to the landmarks.

以上のように合成すると、画像処理装置は、例えば、図4のように、オブジェクトを目印のある箇所に精度良く合成した出力画像IMGVを表示できる。 When combined as described above, the image processing apparatus can display the output image IMGV in which the object is accurately combined at the place where the mark is located, as shown in FIG. 4, for example.

<機能構成例>
図14は、画像処理装置の機能構成例を示す機能ブロック図である。例えば、画像処理装置は、図示するように、目印画像入力部10F1と、撮像部10F2と、フィルタ部10F3と、抽出部10F4と、追跡部10F5と、切出部10F6と、変換行列生成部10F7と、表示部10F8とを含む機能構成である。
<Function configuration example>
FIG. 14 is a functional block diagram showing a functional configuration example of the image processing device. For example, as shown in the figure, the image processing apparatus includes a mark image input unit 10F1, an imaging unit 10F2, a filter unit 10F3, an extraction unit 10F4, a tracking unit 10F5, a cutting unit 10F6, and a transformation matrix generation unit 10F7. It is a functional configuration including the display unit 10F8.

また、図示するように、フィルタ部10F3は、第1フィルタ部10F31及び第2フィルタ部10F32等を含む機能構成であるのが望ましい。 Further, as shown in the drawing, it is desirable that the filter unit 10F3 has a functional configuration including the first filter unit 10F31, the second filter unit 10F32, and the like.

さらに、図示するように、画像処理装置は、再抽出部10F9及び計算部10F10等を更に含む機能構成であるのが望ましい。以下、図示するような機能構成を例に説明する。 Further, as shown in the figure, it is desirable that the image processing apparatus has a functional configuration further including a re-extraction unit 10F9, a calculation unit 10F10, and the like. Hereinafter, a functional configuration as shown will be described as an example.

目印画像入力部10F1は、オブジェクトを表示させる位置等となる目印を示す目印画像を入力する目印画像入力手順を行う。例えば、目印画像入力部10F1は、インタフェース10HW3等で実現する。 The mark image input unit 10F1 performs a mark image input procedure for inputting a mark image indicating a mark that serves as a position for displaying an object. For example, the mark image input unit 10F1 is realized by the interface 10HW3 or the like.

撮像部10F2は、複数の時点で撮像して複数の入力画像を生成する撮像手順を行う。例えば、撮像部10F2は、撮像装置10HW6等で実現する。 The imaging unit 10F2 performs an imaging procedure of imaging at a plurality of time points to generate a plurality of input images. For example, the image pickup unit 10F2 is realized by an image pickup device 10HW6 or the like.

フィルタ部10F3は、それぞれの入力画像に対してフィルタ処理を行って第1画像を生成するフィルタ手順を行う。例えば、フィルタ部10F3は、CPU10HW1等で実現する。 The filter unit 10F3 performs a filter procedure for generating a first image by performing a filter process on each input image. For example, the filter unit 10F3 is realized by the CPU 10HW1 or the like.

第1フィルタ部10F31は、入力画像に対して、メディアンフィルタ等を用いる第1フィルタ手順を行う。 The first filter unit 10F31 performs the first filter procedure using a median filter or the like on the input image.

第2フィルタ部10F32は、第1フィルタ部10F31が第1フィルタ処理手順を行うことで生成する第3画像に対して、RGB色空間におけるG成分を強調するシャープネスフィルタを用いる第2フィルタ処理手順を行う。又は、第2フィルタ部10F32は、第1フィルタ部10F31が第1フィルタ処理手順を行うことで生成する第3画像に対して、YUV色空間におけるY成分を強調するシャープネスフィルタを用いる第2フィルタ処理手順を行う。 The second filter unit 10F32 performs a second filter processing procedure using a sharpness filter that emphasizes the G component in the RGB color space for the third image generated by the first filter unit 10F31 performing the first filter processing procedure. Do. Alternatively, the second filter unit 10F32 uses a sharpness filter that emphasizes the Y component in the YUV color space for the third image generated by the first filter unit 10F31 performing the first filter processing procedure. Perform the procedure.

抽出部10F4は、第1画像における目印の特徴点を抽出する抽出手順を行う。例えば、抽出部10F4は、CPU10HW1等で実現する。 The extraction unit 10F4 performs an extraction procedure for extracting feature points of marks in the first image. For example, the extraction unit 10F4 is realized by the CPU 10HW1 or the like.

追跡部10F5は、時点の変化に対して、抽出部10F4が抽出する特徴点を追跡する追跡手順を行う。例えば、追跡部10F5は、CPU10HW1等で実現する。 The tracking unit 10F5 performs a tracking procedure for tracking the feature points extracted by the extraction unit 10F4 with respect to the change at the time point. For example, the tracking unit 10F5 is realized by the CPU 10HW1 or the like.

切出部10F6は、第1画像から、目印を含む範囲を切り出して第2画像を生成する切出手順を行う。例えば、切出部10F6は、CPU10HW1等で実現する。 The cutout portion 10F6 performs a cutting procedure of cutting out a range including a mark from the first image and generating a second image. For example, the cutout portion 10F6 is realized by the CPU 10HW1 or the like.

変換行列生成部10F7は、第2画像及び目印画像に基づいて、変換行列を生成する変換行列生成手順を行う。例えば、変換行列生成部10F7は、CPU10HW1等で実現する。 The transformation matrix generation unit 10F7 performs a transformation matrix generation procedure for generating a transformation matrix based on the second image and the mark image. For example, the transformation matrix generation unit 10F7 is realized by the CPU 10HW1 or the like.

表示部10F8は、変換行列に基づいて、入力画像にオブジェクトを合成して表示する表示手順を行う。例えば、表示部10F8は、入出力装置10HW4等で実現する。 The display unit 10F8 performs a display procedure of synthesizing and displaying an object with an input image based on a transformation matrix. For example, the display unit 10F8 is realized by an input / output device 10HW4 or the like.

再抽出部10F9は、第2画像における特徴点を抽出する再抽出手順を行う。例えば、再抽出部10F9は、CPU10HW1等で実現する。 The re-extraction unit 10F9 performs a re-extraction procedure for extracting feature points in the second image. For example, the re-extraction unit 10F9 is realized by the CPU 10HW1 or the like.

計算部10F10は、再抽出部10F9が抽出した特徴点に基づいて、撮像部10F2の傾き及び目印までの距離を計算する計算手順を行う。例えば、計算部10F10は、CPU10HW1等で実現する。 The calculation unit 10F10 performs a calculation procedure for calculating the inclination of the imaging unit 10F2 and the distance to the mark based on the feature points extracted by the re-extraction unit 10F9. For example, the calculation unit 10F10 is realized by the CPU 10HW1 or the like.

<まとめ>
まず、画像処理装置は、ARによって表示させるオブジェクトを示すオブジェクト画像を入力する。さらに、画像処理装置は、オブジェクトを表示させる位置等の目印を示す目印画像を入力する。このように、オブジェクト画像及び目印画像があらかじめ入力されると、画像処理装置は、目印を認識して、オブジェクトを表示させることができる。
<Summary>
First, the image processing device inputs an object image indicating an object to be displayed by AR. Further, the image processing device inputs a mark image indicating a mark such as a position for displaying the object. In this way, when the object image and the mark image are input in advance, the image processing device can recognize the mark and display the object.

次に、画像処理装置は、撮像により、オブジェクトを合成する対象となる入力画像を生成する。 Next, the image processing device generates an input image to be combined with the object by imaging.

例えば、フィルタ部10F3は、図5に示すフィルタ等によってフィルタ処理を行う。なお、フィルタ部10F3は、第1フィルタ部10F31及び第2フィルタ部10F32等によって、例えば、図6又は図7のように、G成分又はY成分を強調するようなフィルタ処理を行ってもよい。 For example, the filter unit 10F3 performs filter processing by the filter or the like shown in FIG. The filter unit 10F3 may be filtered by the first filter unit 10F31, the second filter unit 10F32, or the like to emphasize the G component or the Y component, for example, as shown in FIG. 6 or FIG.

そして、フィルタ部10F3によるフィルタ処理によって第1画像が生成されると、画像処理装置は、目印が有する特徴点を例えば図8のように抽出する。続いて、画像処理装置は、例えば、図9に示すように、抽出した特徴点をフレーム間において追跡する。 Then, when the first image is generated by the filter processing by the filter unit 10F3, the image processing apparatus extracts the feature points of the marks as shown in FIG. 8, for example. Subsequently, the image processing apparatus tracks the extracted feature points between frames, for example, as shown in FIG.

次に、画像処理装置は、例えば、図10に示すように、第1画像において、目印を含む範囲を切り出して第2画像を生成する。このようにすると、小さいサイズの画像を生成できる。そのため、以降の処理において、計算の対象となる画素を減らすことができ、計算コストを小さくできる。 Next, the image processing apparatus cuts out a range including a mark in the first image and generates a second image, for example, as shown in FIG. In this way, a small size image can be generated. Therefore, in the subsequent processing, the number of pixels to be calculated can be reduced, and the calculation cost can be reduced.

さらに、画像処理装置は、例えば、図11に示すように、目印画像及び第2画像において、同一とされる特徴点等を用いることで、変換行列を生成する。このように、変換行列を生成すると、画像処理装置は、変換行列による変換をすることで、図12に示すように、変換画像に写る被写体と目印画像が示す目印を同じような大きさ及び姿勢等にして比較できる。そのため、入力画像において、撮像装置が傾いていたり、又は、被写体に対して距離があったりして目印を有する被写体が小さく入力画像に写る等したりしても、画像処理装置は、目印を精度良く認識できる。 Further, the image processing apparatus generates a transformation matrix by using the same feature points and the like in the mark image and the second image, for example, as shown in FIG. When the transformation matrix is generated in this way, the image processing apparatus performs the transformation by the transformation matrix, and as shown in FIG. 12, the subject reflected in the transformed image and the marker indicated by the marker image have the same size and orientation. And so on. Therefore, in the input image, even if the image pickup device is tilted or the subject having a mark is small and appears in the input image due to a distance from the subject, the image processing device accurately corrects the mark. I can recognize it well.

また、変換行列に基づいて逆行列を生成すると、画像処理装置は、例えば、図13に示すようにオブジェクトを入力画像に合成でき、自然なARの表示を行うことができる。 Further, when the inverse matrix is generated based on the transformation matrix, the image processing apparatus can synthesize an object with the input image as shown in FIG. 13, and can display a natural AR.

なお、再抽出及び計算により、図13等に示す合成とは別に処理を行ってもよい。例えば、再抽出は、抽出部10F4と同様の方法等によって特徴点を抽出する。ただし、再抽出は、抽出部10F4とは異なる画像を対象とする。そして、計算部10F10は、例えば、PnPにより、撮像部10F2の傾き及び距離を推定する。すなわち、計算部10F10は、いわゆるカメラパラメータにおける「R」及び「t」等を計算する。 In addition, the process may be performed separately from the synthesis shown in FIG. 13 and the like by re-extraction and calculation. For example, in the re-extraction, the feature points are extracted by the same method as the extraction unit 10F4. However, the re-extraction targets an image different from the extraction unit 10F4. Then, the calculation unit 10F10 estimates the inclination and the distance of the imaging unit 10F2 by, for example, PnP. That is, the calculation unit 10F10 calculates "R" and "t" in the so-called camera parameters.

つまり、「R」、すなわち、被写体が有する被写体に対して「Roll角」、「Pitch角」(「Tilt角」という場合もある。)及び「Yaw角」(「Pan角」という場合もある。)等の角度がどの程度あるかを計算した結果があると、目印が入力画像において、画像処理装置は、どのような傾きを持って写るかが推定できる。 That is, "R", that is, "Roll angle", "Pitch angle" (sometimes referred to as "Tilt angle") and "Yaw angle" (sometimes referred to as "Pan angle") with respect to the subject possessed by the subject. ) Etc., if there is a result of calculating how much the angle is, it is possible to estimate what kind of inclination the image processing device will take when the mark is the input image.

同様に、「t」、すなわち、被写体が有する被写体に対してどの程度の距離があるかを計算した結果があると、目印が入力画像において、画像処理装置は、どのような大きさで写るかが推定できる。 Similarly, if there is a result of calculating "t", that is, how far the subject is from the subject, what size does the image processing device appear in the input image as the mark? Can be estimated.

このように、画像処理装置は、目印となる被写体及び撮像装置の間において、傾き及び距離が相対的にどのような関係にあるかをPnP等によって計算する。なお、傾き及び距離が計算できれば、計算方法は、PnPに限られない。 In this way, the image processing device calculates the relative relationship between the inclination and the distance between the target subject and the image pickup device by PnP or the like. If the slope and distance can be calculated, the calculation method is not limited to PnP.

例えば、このようにして、入力画像における目印に対して、撮像部10F2がどのような傾きであるか、かつ、撮像部10F2が目印からどの程度離れているかの距離を計算するのが望ましい。このような計算結果があると、画像処理装置は、より精度良くオブジェクトを合成できる。 For example, in this way, it is desirable to calculate the inclination of the image pickup unit 10F2 with respect to the mark in the input image and the distance of the image pickup unit 10F2 from the mark. With such a calculation result, the image processing apparatus can synthesize objects with higher accuracy.

<その他の実施形態>
なお、画像処理装置及び画像処理システム等が有する各装置又は接続する外部装置は、1台の装置で実現されなくともよい。すなわち、各装置は、複数の装置で構成されてもよい。例えば、画像処理システムは、複数の情報処理装置又は撮像装置を有し、各処理を分散、並列又は冗長して行ってもよい。
<Other Embodiments>
It should be noted that each device of the image processing device, the image processing system, and the like or an external device to be connected does not have to be realized by one device. That is, each device may be composed of a plurality of devices. For example, an image processing system may have a plurality of information processing devices or imaging devices, and each processing may be performed in a distributed, parallel, or redundant manner.

なお、本発明に係る各処理の全部又は一部は、アセンブラ等の低水準言語又はオブジェクト指向言語等の高水準言語で記述され、コンピュータに画像処理方法を実行させるためのプログラムによって実現されてもよい。すなわち、プログラムは、画像処理装置及び画像処理システム等のコンピュータに各処理を実行させるためのコンピュータプログラムである。 It should be noted that all or part of each process according to the present invention is described in a low-level language such as an assembler or a high-level language such as an object-oriented language, and may be realized by a program for causing a computer to execute an image processing method. Good. That is, the program is a computer program for causing a computer such as an image processing device and an image processing system to execute each process.

したがって、プログラムに基づいて画像処理方法が実行されると、コンピュータが有する演算装置及び制御装置は、各処理を実行するため、プログラムに基づいて演算及び制御を行う。また、コンピュータが有する記憶装置は、各処理を実行するため、プログラムに基づいて、処理に用いられるデータを記憶する。 Therefore, when the image processing method is executed based on the program, the arithmetic unit and the control device of the computer perform the arithmetic and control based on the program in order to execute each process. In addition, the storage device of the computer stores the data used for the processing based on the program in order to execute each processing.

また、プログラムは、コンピュータが読み取り可能な記録媒体に記録されて頒布することができる。なお、記録媒体は、磁気テープ、フラッシュメモリ、光ディスク、光磁気ディスク又は磁気ディスク等のメディアである。さらに、プログラムは、電気通信回線を通じて頒布することができる。 In addition, the program can be recorded and distributed on a computer-readable recording medium. The recording medium is a medium such as a magnetic tape, a flash memory, an optical disk, a magneto-optical disk, or a magnetic disk. In addition, the program can be distributed over telecommunication lines.

以上、本発明の好ましい実施形態について詳述したが、本発明は、上記に説明した実施形態等に限定されるものではない。したがって、特許請求の範囲に記載された本発明の要旨の範囲内において、実施形態は、種々の変形又は変更が可能である。 Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the embodiments described above. Therefore, the embodiments can be modified or modified in various ways within the scope of the gist of the invention described in the claims.

10 スマートフォン
10F1 目印画像入力部
10F10 計算部
10F2 撮像部
10F3 フィルタ部
10F31 第1フィルタ部
10F32 第2フィルタ部
10F4 抽出部
10F5 追跡部
10F6 切出部
10F7 変換行列生成部
10F8 表示部
10F9 再抽出部
10HW1 CPU
10HW2 記憶装置
10HW3 インタフェース
10HW4 入出力装置
10HW5 通信装置
10HW6 撮像装置
11 被写体
IMG1 第1画像
IMG2 第2画像
IMG3 第3画像
IMG3Y Y成分
IMG3CB Cb成分
IMG3CR Cr成分
IMG3R R成分
IMG3G G成分
IMG3B B成分
IMG11 前フレーム画像
IMG12 現フレーム画像
IMG13 次フレーム画像
IMGC 変換画像
IMGI 入力画像
IMGO オブジェクト画像
IMGO2 変換オブジェクト画像
IMGS 特徴点画像
IMGS2 変換特徴点画像
IMGT 目印画像
IMGV 出力画像
MX1 変換行列
MX2 逆変換行列
PS 特徴点
PS1 第1特徴点
PS2 第2特徴点
PS3 第3特徴点
SP1 第1点
SP2 第2点
SP3 第3点
SP4 第4点
TG1 第1被写体
TG2 第2被写体
TG31 目印
TG32 第3被写体
TG41 オブジェクト
TG42 変換オブジェクト
UR ユーザ
10 Smartphone 10F1 Mark image input unit 10F10 Calculation unit 10F2 Imaging unit 10F3 Filter unit 10F31 First filter unit 10F32 Second filter unit 10F4 Extraction unit 10F5 Tracking unit 10F6 Cutout unit 10F7 Conversion matrix generation unit 10F8 Display unit 10F9 Re-extraction unit 10HW1 CPU
10HW2 Storage device 10HW3 Interface 10HW4 Input / output device 10HW5 Communication device 10HW6 Imaging device 11 Subject IMG1 First image IMG2 Second image IMG3 Third image IMG3Y Y component IMG3CB Cb component IMG3CR Cr component IMG3R R component IMG3G G component IMG3B Image IMG12 Current frame image IMG13 Next frame image IMGC Converted image IMGI Input image IMGO Object image IMGO2 Converted object image IMGS Feature point image IMGS2 Converted feature point image IMGT Marking image IMGV Output image MX1 Transformation matrix MX2 Inverse transformation matrix PS Feature point PS1 1st Feature point PS2 2nd feature point PS3 3rd feature point SP1 1st point SP2 2nd point SP3 3rd point SP4 4th point TG1 1st subject TG2 2nd subject TG31 Marker TG32 3rd subject TG41 Object TG42 Conversion object UR user

上記課題に鑑み、本発明の一実施形態に係る画像処理装置等は、
オブジェクトを表示させる位置となる目印を示す目印画像を入力する目印画像入力部と、
複数の時点で撮像して複数の入力画像を生成する撮像部と、
それぞれの前記入力画像に対してフィルタ処理を行って第1画像を生成するフィルタ部と、
前記第1画像における前記目印の特徴点を抽出する抽出部と、
前記時点の変化に対して、前記特徴点を追跡する追跡部と、
前記第1画像から、前記目印を含む範囲を切り出して第2画像を生成する切出部と、
前記第2画像及び前記目印画像に基づいて、変換行列を生成する変換行列生成部と、
前記変換行列に基づいて、前記入力画像に前記オブジェクトを合成して表示する表示部と
を含み、
前記変換行列に基づいて、前記第2画像を変換して変換画像を生成し、
前記目印画像と前記変換画像を比較して前記変換画像に前記目印があると判断すると、前記表示部は、前記オブジェクト及び前記目印の両方を前記変換行列の逆行列でそれぞれ変換して合成する
In view of the above problems, the image processing apparatus or the like according to the embodiment of the present invention is
A mark image input unit for inputting a mark image indicating a mark that is a position to display an object,
An imaging unit that captures images at multiple time points and generates multiple input images,
A filter unit that performs filtering processing on each of the input images to generate a first image,
An extraction unit that extracts the feature points of the mark in the first image,
A tracking unit that tracks the feature points with respect to the change at the time point,
A cutout portion that cuts out a range including the mark from the first image to generate a second image, and
A transformation matrix generator that generates a transformation matrix based on the second image and the marker image,
Based on the transformation matrix, seen including a display unit for displaying by combining the object to the input image,
Based on the transformation matrix, the second image is transformed to generate a transformed image.
When the mark image and the converted image are compared and it is determined that the converted image has the mark, the display unit converts both the object and the mark by the inverse matrix of the transformation matrix and synthesizes them .

Claims (9)

オブジェクトを表示させる位置となる目印を示す目印画像を入力する目印画像入力部と、
複数の時点で撮像して複数の入力画像を生成する撮像部と、
それぞれの前記入力画像に対してフィルタ処理を行って第1画像を生成するフィルタ部と、
前記第1画像における前記目印の特徴点を抽出する抽出部と、
前記時点の変化に対して、前記特徴点を追跡する追跡部と、
前記第1画像から、前記目印を含む範囲を切り出して第2画像を生成する切出部と、
前記第2画像及び前記目印画像に基づいて、変換行列を生成する変換行列生成部と、
前記変換行列に基づいて、前記入力画像に前記オブジェクトを合成して表示する表示部と
を含む画像処理装置。
A mark image input unit for inputting a mark image indicating a mark that is a position to display an object,
An imaging unit that captures images at multiple time points and generates multiple input images,
A filter unit that performs filtering processing on each of the input images to generate a first image,
An extraction unit that extracts the feature points of the mark in the first image,
A tracking unit that tracks the feature points with respect to the change at the time point,
A cutout portion that cuts out a range including the mark from the first image to generate a second image, and
A transformation matrix generator that generates a transformation matrix based on the second image and the marker image,
An image processing device including a display unit that synthesizes and displays the object on the input image based on the transformation matrix.
前記フィルタ部は、
前記入力画像に対して、メディアンフィルタを用いる第1フィルタ処理と、
前記第1フィルタ処理で生成される第3画像に対して、RGB色空間におけるG成分を強調するシャープネスフィルタを用いる第2フィルタ処理とを行って前記第1画像を生成し、
前記抽出部は、
前記G成分が強調された前記第1画像に基づいて抽出する
請求項1に記載の画像処理装置。
The filter unit
The first filter processing using a median filter on the input image and
The first image is generated by performing a second filter process using a sharpness filter that emphasizes the G component in the RGB color space on the third image generated by the first filter process.
The extraction unit
The image processing apparatus according to claim 1, wherein the G component is extracted based on the first image in which the G component is emphasized.
前記フィルタ部は、
前記入力画像に対して、メディアンフィルタを用いる第1フィルタ処理と、
前記第1フィルタ処理で生成される第3画像に対して、YUV色空間におけるY成分を強調するシャープネスフィルタを用いる第2フィルタ処理とを行って前記第1画像を生成し、
前記抽出部は、
前記Y成分が強調された前記第1画像に基づいて抽出する
請求項1に記載の画像処理装置。
The filter unit
The first filter processing using a median filter on the input image and
The first image is generated by performing a second filter process using a sharpness filter that emphasizes the Y component in the YUV color space on the third image generated by the first filter process.
The extraction unit
The image processing apparatus according to claim 1, wherein the Y component is emphasized and extracted based on the first image.
前記抽出部は、
AKAZE又はORBのアルゴリズムで抽出する
請求項1乃至3のいずれか1項に記載の画像処理装置。
The extraction unit
The image processing apparatus according to any one of claims 1 to 3, which is extracted by an algorithm of AKAZE or ORB.
前記変換行列に基づいて、前記第2画像を変換して変換画像を生成し、
前記目印画像と前記変換画像を比較して前記変換画像に前記目印があると判断すると、前記表示部は、前記オブジェクト及び前記目印の両方を前記変換行列の逆行列でそれぞれ変換して合成する
請求項1乃至4のいずれか1項に記載の画像処理装置。
Based on the transformation matrix, the second image is transformed to generate a transformed image.
When the mark image and the converted image are compared and it is determined that the converted image has the mark, the display unit claims that both the object and the mark are converted by the inverse matrix of the conversion matrix and synthesized. Item 2. The image processing apparatus according to any one of Items 1 to 4.
前記変換行列は、
前記第2画像における特徴点が、前記目印画像における特徴点と同一の位置となるように変換する行列である
請求項5に記載の画像処理装置。
The transformation matrix is
The image processing apparatus according to claim 5, wherein the feature points in the second image are a matrix that is converted so as to be at the same position as the feature points in the mark image.
前記第2画像における特徴点を抽出する再抽出部と、
前記再抽出部が抽出した特徴点に基づいて、前記撮像部の傾き及び前記目印までの距離を計算する計算部と
を更に含み、
前記傾き及び前記距離に基づいて、前記表示部は、前記オブジェクトを合成する
請求項1乃至6のいずれか1項に記載の画像処理装置。
A re-extraction unit that extracts feature points in the second image,
It further includes a calculation unit that calculates the inclination of the imaging unit and the distance to the mark based on the feature points extracted by the re-extraction unit.
The image processing apparatus according to any one of claims 1 to 6, wherein the display unit synthesizes the object based on the inclination and the distance.
オブジェクトを表示させる位置となる目印を示す目印画像を入力する目印画像入力部と、
複数の時点で撮像して複数の入力画像を生成する撮像部と、
それぞれの前記入力画像に対してフィルタ処理を行って第1画像を生成するフィルタ部と、
前記第1画像における前記目印の特徴点を抽出する抽出部と、
前記時点の変化に対して、前記特徴点を追跡する追跡部と、
前記第1画像から、前記目印を含む範囲を切り出して第2画像を生成する切出部と、
前記第2画像及び前記目印画像に基づいて、変換行列を生成する変換行列生成部と、
前記変換行列に基づいて、前記入力画像に前記オブジェクトを合成して表示する表示部と
を含む画像処理システム。
A mark image input unit for inputting a mark image indicating a mark that is a position to display an object,
An imaging unit that captures images at multiple time points and generates multiple input images,
A filter unit that performs filtering processing on each of the input images to generate a first image,
An extraction unit that extracts the feature points of the mark in the first image,
A tracking unit that tracks the feature points with respect to the change at the time point,
A cutout portion that cuts out a range including the mark from the first image to generate a second image, and
A transformation matrix generator that generates a transformation matrix based on the second image and the marker image,
An image processing system including a display unit that synthesizes and displays the object on the input image based on the transformation matrix.
画像処理装置に画像処理方法を実行させるためのプログラムであって、
画像処理装置が、オブジェクトを表示させる位置となる目印を示す目印画像を入力する目印画像入力手順と、
画像処理装置が、複数の時点で撮像して複数の入力画像を生成する撮像手順と、
画像処理装置が、それぞれの前記入力画像に対してフィルタ処理を行って第1画像を生成するフィルタ手順と、
画像処理装置が、前記第1画像における前記目印の特徴点を抽出する抽出手順と、
画像処理装置が、前記時点の変化に対して、前記特徴点を追跡する追跡手順と、
画像処理装置が、前記第1画像から、前記目印を含む範囲を切り出して第2画像を生成する切出手順と、
画像処理装置が、前記第2画像及び前記目印画像に基づいて、変換行列を生成する変換行列生成手順と、
画像処理装置が、前記変換行列に基づいて、前記入力画像に前記オブジェクトを合成して表示する表示手順と
を実行させるためのプログラム。
A program for causing an image processing device to execute an image processing method.
The mark image input procedure for inputting the mark image indicating the mark at which the image processing device displays the object, and
An imaging procedure in which an image processing device captures images at multiple time points and generates multiple input images.
A filter procedure in which the image processing device performs filtering processing on each of the input images to generate a first image, and
An extraction procedure in which the image processing device extracts the feature points of the mark in the first image, and
A tracking procedure in which the image processing device tracks the feature points with respect to the change at the time point.
An image processing device cuts out a range including the mark from the first image to generate a second image, and a cutting procedure.
A transformation matrix generation procedure in which the image processing apparatus generates a transformation matrix based on the second image and the landmark image, and
A program for causing an image processing apparatus to execute a display procedure of synthesizing and displaying the object on the input image based on the transformation matrix.
JP2019068670A 2019-03-29 2019-03-29 AR image processing apparatus, image processing system, and program Active JP6600113B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019068670A JP6600113B1 (en) 2019-03-29 2019-03-29 AR image processing apparatus, image processing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019068670A JP6600113B1 (en) 2019-03-29 2019-03-29 AR image processing apparatus, image processing system, and program

Publications (2)

Publication Number Publication Date
JP6600113B1 JP6600113B1 (en) 2019-10-30
JP2020166741A true JP2020166741A (en) 2020-10-08

Family

ID=68383353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019068670A Active JP6600113B1 (en) 2019-03-29 2019-03-29 AR image processing apparatus, image processing system, and program

Country Status (1)

Country Link
JP (1) JP6600113B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135355A (en) * 2003-03-28 2005-05-26 Olympus Corp Data authoring processing apparatus
JP2010287174A (en) * 2009-06-15 2010-12-24 Dainippon Printing Co Ltd Furniture simulation method, device, program, recording medium
JP2015100032A (en) * 2013-11-19 2015-05-28 株式会社Nttドコモ Video display device, video presentation method and program
JP2016162079A (en) * 2015-02-27 2016-09-05 富士通株式会社 Display control method, display control program, and information processing apparatus
JP2019032218A (en) * 2017-08-08 2019-02-28 株式会社 日立産業制御ソリューションズ Location information recording method and device
JP2019049457A (en) * 2017-09-08 2019-03-28 株式会社東芝 Image processing apparatus and ranging device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135355A (en) * 2003-03-28 2005-05-26 Olympus Corp Data authoring processing apparatus
JP2010287174A (en) * 2009-06-15 2010-12-24 Dainippon Printing Co Ltd Furniture simulation method, device, program, recording medium
JP2015100032A (en) * 2013-11-19 2015-05-28 株式会社Nttドコモ Video display device, video presentation method and program
JP2016162079A (en) * 2015-02-27 2016-09-05 富士通株式会社 Display control method, display control program, and information processing apparatus
JP2019032218A (en) * 2017-08-08 2019-02-28 株式会社 日立産業制御ソリューションズ Location information recording method and device
JP2019049457A (en) * 2017-09-08 2019-03-28 株式会社東芝 Image processing apparatus and ranging device

Also Published As

Publication number Publication date
JP6600113B1 (en) 2019-10-30

Similar Documents

Publication Publication Date Title
JP3935500B2 (en) Motion vector calculation method and camera shake correction device, imaging device, and moving image generation device using this method
US7606441B2 (en) Image processing device and a method for the same
US20200258196A1 (en) Image processing apparatus, image processing method, and storage medium
JP6610535B2 (en) Image processing apparatus and image processing method
WO2017163384A1 (en) Data processing device, data processing method, and data processing program
CN111199159A (en) Character translation and display method and device based on augmented reality and electronic equipment
JP2004072685A (en) Device, method and program for compositing image and recording medium recording the program
JP5504990B2 (en) Imaging apparatus, image processing apparatus, and program
JP4898655B2 (en) Imaging apparatus and image composition program
JP6600113B1 (en) AR image processing apparatus, image processing system, and program
JP3983623B2 (en) Image composition apparatus, image composition method, image composition program, and recording medium on which image composition program is recorded
JP2005031800A (en) Thermal image display device
JP6608311B2 (en) Image evaluation apparatus and image evaluation program
JP2010193154A (en) Image processor and method
JP6341540B2 (en) Information terminal device, method and program
WO2005059833A1 (en) Brightness correction apparatus and brightness correction method
JP3804836B2 (en) KEY SIGNAL GENERATION DEVICE, IMAGE SYNTHESIS DEVICE, KEY SIGNAL GENERATION METHOD, AND IMAGE SYNTHESIS METHOD
JP7105370B2 (en) Tracking device, learned model, endoscope system and tracking method
KR100466587B1 (en) Method of Extrating Camera Information for Authoring Tools of Synthetic Contents
JP2018010359A (en) Information processor, information processing method, and program
JP3325823B2 (en) Video still image display method and apparatus, and video still image display program storage recording medium
JP7329964B2 (en) Image processing device, image processing method and program
JP2013182478A (en) Subject tracking device, subject tracking method, and camera
JP2020035218A (en) Image processing device, method, and program
CN113805824B (en) Electronic device and method for displaying image on display apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190329

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190613

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191003

R150 Certificate of patent or registration of utility model

Ref document number: 6600113

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250