JP2012129731A - Portable terminal and image processing method - Google Patents

Portable terminal and image processing method Download PDF

Info

Publication number
JP2012129731A
JP2012129731A JP2010278346A JP2010278346A JP2012129731A JP 2012129731 A JP2012129731 A JP 2012129731A JP 2010278346 A JP2010278346 A JP 2010278346A JP 2010278346 A JP2010278346 A JP 2010278346A JP 2012129731 A JP2012129731 A JP 2012129731A
Authority
JP
Japan
Prior art keywords
sensor
shooting
photographing
state
smoothing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010278346A
Other languages
Japanese (ja)
Other versions
JP5662787B2 (en
Inventor
Manabu Ota
学 太田
Yasuo Morinaga
康夫 森永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2010278346A priority Critical patent/JP5662787B2/en
Publication of JP2012129731A publication Critical patent/JP2012129731A/en
Application granted granted Critical
Publication of JP5662787B2 publication Critical patent/JP5662787B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a portable terminal and an image processing method capable of stably composing data on a virtual object, etc. to imaging data without influences of changing an imaging range or occurrence of hand shake, etc.SOLUTION: In a portable terminal 100, a continuity detection part 103 detects a sensor value indicating the imaging range of an imaging part 101 and detects an imaging state, and a smoothing processing part 106 smooths the detected sensor value, using a smoothing parameter fixed on the basis of the detected photographing state. Then, a virtual object position determination part 108 calculates a composing position to the imaging data, on the basis of a smoothed sensor value and composes image data to the calculated composing position in the imaging data. A display part 102 is capable of displaying the imaging data to which the image data is composed.

Description

本発明は、撮影した撮影データに仮想オブジェクト等の画像データを合成して表示する携帯端末および画像処理方法に関する。   The present invention relates to a portable terminal and an image processing method for combining and displaying image data such as a virtual object on captured image data.

近年において、AR(Augmented Reality:拡張現実)技術を用いたサービスが開発・提供されている。例えば、カメラにより取得した画像中の対象物に対応付けられた付加情報を取得し、取得した付加情報を当該対象物に合成して表示する技術が知られている。この技術では、付加情報は、各ユーザの移動端末により、当該ユーザの所在位置に関連付けられて例えばサーバ装置等に投稿され、投稿された付加情報は、サーバ装置に集約されることによりユーザ間で共有される。また、このような技術に共通する技術として、構造物の名称等のデータを予め記憶しておき、カメラで撮影した構造物に、当該構造物の名称等を対応付けて表示する技術が知られている(例えば、特許文献1参照)。   In recent years, services using AR (Augmented Reality) technology have been developed and provided. For example, a technique is known in which additional information associated with an object in an image acquired by a camera is acquired, and the acquired additional information is combined with the object and displayed. In this technology, the additional information is posted by the mobile terminal of each user in association with the location of the user, for example, on a server device or the like. Shared. Further, as a technique common to such a technique, a technique is known in which data such as the name of a structure is stored in advance and the name of the structure is displayed in association with the structure photographed by the camera. (For example, refer to Patent Document 1).

特開2000−50156号公報JP 2000-50156 A

上述特許文献1に記載されているように、撮影データに、所定のデータを合成する場合、映像データの所定の位置に合わせてデータを合成する必要がある。一方で、携帯端末は、一般的には小型で手振れなどの影響を受けやすい。また、ユーザは簡単に撮影範囲を変えることができ、その際、撮影範囲を変えるスピードによっては、データの合成処理が追いつくことができず、合成対象となるデータの合成位置にばらつきが生じる。   As described in Patent Document 1 described above, when combining predetermined data with image data, it is necessary to combine the data in accordance with a predetermined position of the video data. On the other hand, mobile terminals are generally small and easily affected by camera shake. In addition, the user can easily change the shooting range. At that time, depending on the speed of changing the shooting range, the data combining process cannot catch up, and the combining position of the data to be combined varies.

そこで、本発明においては、上述の課題を解決するために、撮影範囲を変えても、また手振れなどが生じても、その影響を受けることなく、安定して仮想オブジェクト等のデータを撮影データに合成することができる携帯端末および画像処理方法を提供することを目的とする。   Therefore, in the present invention, in order to solve the above-described problem, even if the shooting range is changed or camera shake occurs, the data of the virtual object or the like can be stably converted into the shooting data without being affected by it. An object is to provide a portable terminal and an image processing method that can be combined.

上述の課題を解決するために、本発明の携帯端末は、撮影データを取り込む撮影手段と、前記撮影手段の撮影範囲を示すセンサ値を検出するセンサ手段と、前記撮影手段の撮影状態を検出する連続性検出手段と、前記連続性検出手段により検出された撮影状態に基づいて定められた平滑化パラメータを用いて、前記センサ手段により検出されたセンサ値を平滑化する平滑化手段と、前記平滑化手段により平滑化されたセンサ値に基づいて、前記撮影手段により取り込まれた撮影データに対する合成位置を算出する算出手段と、前記算出手段により算出された、撮影データにおける合成位置に、画像データを合成する合成手段と、前記合成手段により画像データが合成された撮影データを表示する表示手段と、を備えている。   In order to solve the above-described problems, a mobile terminal according to the present invention detects a photographing unit that captures photographing data, a sensor unit that detects a sensor value indicating a photographing range of the photographing unit, and a photographing state of the photographing unit. Continuity detecting means, smoothing means for smoothing the sensor value detected by the sensor means using a smoothing parameter determined based on the photographing state detected by the continuity detecting means, and the smoothing Calculation means for calculating a composite position with respect to the photographing data captured by the photographing means based on the sensor value smoothed by the conversion means; and image data at the composite position in the photographing data calculated by the calculation means. Combining means for combining, and display means for displaying photographed data obtained by combining image data by the combining means.

また、本発明の画像処理方法は、撮影データを取り込む撮影ステップと、前記撮影ステップの撮影範囲を示すセンサ値を検出するセンサステップと、前記撮影ステップの撮影状態を検出する連続性検出ステップと、前記連続性検出ステップにより検出された撮影状態に基づいて定められた平滑化パラメータを用いて、前記センサステップにより検出されたセンサ値を平滑化する平滑化ステップと、前記平滑化ステップにより平滑化されたセンサ値に基づいて、前記撮影ステップにより取り込まれた撮影データに対する合成位置を算出する算出ステップと、前記算出ステップにより算出された、撮影データにおける合成位置に、画像データを合成する合成ステップと、前記合成ステップにより画像データが合成された撮影データを表示する表示ステップと、を備えている。   Further, the image processing method of the present invention includes a photographing step for capturing photographing data, a sensor step for detecting a sensor value indicating a photographing range of the photographing step, a continuity detecting step for detecting a photographing state of the photographing step, A smoothing step for smoothing the sensor value detected by the sensor step using a smoothing parameter determined based on the photographing state detected by the continuity detecting step, and a smoothing by the smoothing step. A calculation step for calculating a combined position with respect to the shooting data captured by the shooting step based on the sensor value; a combining step for combining image data with a combined position in the shooting data calculated by the calculation step; A display for displaying the shooting data obtained by combining the image data in the combining step. Is provided with a step, a.

この発明によれば、撮影範囲を示すセンサ値を検出するとともに、撮影状態を検出し、検出された撮影状態に基づいて定められた平滑化パラメータを用いて、検出されたセンサ値を平滑化する。そして、平滑化されたセンサ値に基づいて、撮影データに対する合成位置を算出し、撮影データにおける算出された合成位置に、画像データを合成し、画像データが合成された撮影データを表示することができる。   According to the present invention, the sensor value indicating the photographing range is detected, the photographing state is detected, and the detected sensor value is smoothed using the smoothing parameter determined based on the detected photographing state. . Then, based on the smoothed sensor value, a composite position with respect to the shooting data is calculated, and the image data is combined with the calculated combined position in the shooting data, and the shooting data with the combined image data is displayed. it can.

これにより、撮影状態によっては、本来合成すべき位置から画像データがずれてしまうといったことを解消することができ、誤差の少ない合成位置に画像データを合成することができる。特に、撮影状態におけるすべての状態において、平滑化処理を行ってしまうと、即応性が低下するといった問題がある。すなわち、大きく撮影範囲が動いているときに、過去の値を利用して平滑化処理しても、その撮影範囲の動きに追従することができず、すでに過ぎ去ってしまった撮影範囲に対する位置を算出してしまう。本発明においては、撮影状態に応じて平滑化処理を行うことができるため、適切な合成位置を算出し、そのレスポンス性を向上させることができるとともに、その誤差を極力軽減することができる。   As a result, depending on the shooting state, it is possible to eliminate the fact that the image data is shifted from the position to be originally synthesized, and it is possible to synthesize the image data at the synthesis position with little error. In particular, if smoothing processing is performed in all states in the photographing state, there is a problem that the quick response is reduced. That is, when the shooting range is moving greatly, even if smoothing processing is performed using past values, the movement of the shooting range cannot be followed and the position relative to the shooting range that has already passed is calculated. Resulting in. In the present invention, since the smoothing process can be performed according to the photographing state, it is possible to calculate an appropriate composite position, improve the response, and reduce the error as much as possible.

また、本発明の携帯端末において、前記センサ手段は、撮影範囲を示すセンサ値として、加速度センサ、地磁気センサ、または位置センサの少なくともいずれか一つを検出することが好ましい。   In the mobile terminal of the present invention, it is preferable that the sensor means detects at least one of an acceleration sensor, a geomagnetic sensor, and a position sensor as a sensor value indicating a shooting range.

この発明によれば、撮影範囲を示すセンサ値として、加速度センサ、地磁気センサ、または位置センサの少なくともいずれか一つにより検出されたセンサ値であることが好ましい。これにより、撮影範囲を簡易かつ正確に取得することができ、画像データと撮影データとの合成処理を簡易かつ正確に行うことができる。   According to the present invention, the sensor value indicating the imaging range is preferably a sensor value detected by at least one of an acceleration sensor, a geomagnetic sensor, and a position sensor. As a result, the shooting range can be acquired easily and accurately, and the image data and shooting data can be combined easily and accurately.

また、本発明の携帯端末において、前記連続性検出手段は、前記センサ手段により検出されたセンサ値に基づいて撮影状態を検出することを特徴とする請求項1または2に記載の携帯端末。   The mobile terminal according to claim 1 or 2, wherein the continuity detecting unit detects a photographing state based on a sensor value detected by the sensor unit.

この発明によれば、センサ手段により検出されたセンサ値に基づいて撮影状態を検出することが好ましい。例えば、センサ値の変動によって、撮影状態が静止状態であるのか、大きく撮影範囲が変化した状態であるのか、若しくはゆっくり変化した状態であるのか判断することができる。これにより、撮影状態を判断するための特別な手段を設けることなく、撮影範囲を把握するために利用されているセンサ手段を利用することで、簡易な構成で撮影状態を判断することができる。   According to this invention, it is preferable to detect the photographing state based on the sensor value detected by the sensor means. For example, it is possible to determine whether the shooting state is a still state, a state in which the shooting range has greatly changed, or a state in which the shooting range has changed slowly depending on changes in sensor values. As a result, it is possible to determine the shooting state with a simple configuration by using the sensor means used for grasping the shooting range without providing any special means for determining the shooting state.

また、本発明の携帯端末において、前記連続性検出手段は、前記撮影手段により取り込まれた撮影データの変化の状態に応じて撮影状態を検出することが好ましい。   In the mobile terminal of the present invention, it is preferable that the continuity detecting unit detects a shooting state according to a change state of shooting data captured by the shooting unit.

この発明によれば、撮影データの変化の状態に応じて撮影状態を検出することが好ましい。例えば、撮影データの画素ごとの変動によって、撮影状態が静止状態であるのか、大きく撮影範囲が変化した状態であるのか、若しくはゆっくり変化した状態であるのか判断することができる。これにより、撮影状態を判断するための特別な手段を設けることなく、撮影データを取り込むための撮影手段を利用することで、簡易な構成で撮影状態を判断することができる。   According to the present invention, it is preferable to detect the shooting state according to the change state of the shooting data. For example, it is possible to determine whether the shooting state is a still state, a state in which the shooting range has changed significantly, or a state in which the shooting range has changed slowly, depending on the variation of the shooting data for each pixel. Accordingly, it is possible to determine the shooting state with a simple configuration by using the shooting unit for taking shooting data without providing a special unit for determining the shooting state.

また、本発明の携帯端末において、前記センサ手段は、所定間隔ごとにセンサ値を順次検出し、時系列で保持するものであって、前記平滑化処理手段は、前記時系列で保持されたセンサ値のうち、撮影状態に応じて直近から所定数抽出されたセンサ値を平滑化対象として、前記撮影状態に応じた重み付け処理を行うことが好ましい。   In the portable terminal of the present invention, the sensor means sequentially detects sensor values at predetermined intervals and holds them in time series, and the smoothing processing means is a sensor held in the time series. Of the values, it is preferable to perform weighting processing according to the shooting state, with a predetermined number of sensor values extracted according to the shooting state as a smoothing target.

この発明によれば、所定間隔ごとにセンサ値を順次検出し、時系列で保持しておき、時系列で保持されたセンサ値のうち、撮影状態に応じて直近から所定数抽出されたセンサ値を平滑化対象として、撮影状態に応じた重み付け処理を行うことが好ましい。これにより撮影状態に応じた過去の所定数のセンサ値の影響を受けることができ、直近の誤差の影響を軽減することができる。   According to the present invention, sensor values are sequentially detected at predetermined intervals, held in time series, and among sensor values held in time series, a predetermined number of sensor values extracted from the nearest according to the shooting state As a smoothing target, it is preferable to perform a weighting process according to the shooting state. Thereby, it is possible to be affected by a predetermined number of sensor values in the past according to the shooting state, and the influence of the latest error can be reduced.

また、本発明の携帯端末において、前記連続性検出手段は、ユーザによる端末操作に基づいた撮影状態が所定時間単位で所定値以上変動したか、否かに基づいて、当該撮影状態を検出し、さらに、所定時間単位で、その変動パターンが所定の変動パターンであるか否かを検出することで、撮影状態を判断することが好ましい。   Further, in the portable terminal of the present invention, the continuity detecting unit detects the shooting state based on whether or not the shooting state based on the terminal operation by the user has fluctuated by a predetermined value or more in a predetermined time unit, Furthermore, it is preferable to determine the shooting state by detecting whether or not the variation pattern is a predetermined variation pattern in a predetermined time unit.

この発明によれば、ユーザによる端末操作に基づいた撮影状態が所定時間単位で所定値以上変動したか、否かに基づいて、当該撮影状態を検出し、さらに、所定時間単位で、その振幅の有無を検出することが好ましい。これにより、適切に撮影状態を判断することができる。例えば、撮影状態が所定値以上変化した場合には、撮影範囲が急激に大きく変動したと判断することができる。また、所定値以上変化しなかった場合には、ユーザにより操作によりゆっくりと変動したものと判断することができる。さらに、変動パターンが所定の変動パターンである場合、手ぶれや外乱などにより変動したものと判断することができる。そして、これら3つの状態に応じた平滑化パラメータを利用することにより、適切な平滑化処理を行うことができる。   According to the present invention, based on whether or not the shooting state based on the terminal operation by the user has fluctuated by a predetermined value or more, the shooting state is detected, and further, the amplitude of the shooting state is determined in a predetermined time unit. It is preferable to detect the presence or absence. Thereby, it is possible to appropriately determine the shooting state. For example, when the shooting state changes by a predetermined value or more, it can be determined that the shooting range has fluctuated greatly. Moreover, when it does not change more than a predetermined value, it can be judged that it changed slowly by operation by the user. Furthermore, when the variation pattern is a predetermined variation pattern, it can be determined that the variation pattern has been varied due to camera shake or disturbance. And an appropriate smoothing process can be performed by using the smoothing parameter according to these three states.

本発明によれば、撮影状態によっては、本来合成すべき位置から画像データがずれてしまうといったことを解消することができ、誤差の少ない合成位置に画像データを合成することができる。特に、撮影状態におけるすべての状態において、平滑化処理を行ってしまうと、即応性が低下するといった問題がある。すなわち、大きく撮影範囲が動いているときに、過去の値を利用して平滑化処理しても、その撮影範囲の動きに追従することができず、すでに過ぎ去ってしまった撮影範囲に対する位置を算出してしまう。本発明においては、撮影状態に応じて平滑化処理を行うことができるため、適切な合成位置を算出し、そのレスポンス性を向上させることができるとともに、その誤差を極力軽減することができる。   According to the present invention, it is possible to eliminate the fact that the image data is shifted from the position to be originally synthesized depending on the shooting state, and it is possible to synthesize the image data at the synthesis position with little error. In particular, if smoothing processing is performed in all states in the photographing state, there is a problem that the quick response is reduced. That is, when the shooting range is moving greatly, even if smoothing processing is performed using past values, the movement of the shooting range cannot be followed and the position relative to the shooting range that has already passed is calculated. Resulting in. In the present invention, since the smoothing process can be performed according to the photographing state, it is possible to calculate an appropriate composite position, improve the response, and reduce the error as much as possible.

本実施形態の携帯端末100の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the portable terminal 100 of this embodiment. 携帯端末100のハードウェア構成図である。2 is a hardware configuration diagram of the mobile terminal 100. FIG. センサ部105(例えば、地磁気センサ)のセンサ値の変動を示した説明図である。It is explanatory drawing which showed the fluctuation | variation of the sensor value of the sensor part 105 (for example, geomagnetic sensor). 撮影データを画像解析することによりそのピクセルの移動量(変動)を示した説明図である。It is explanatory drawing which showed the movement amount (fluctuation) of the pixel by image-analyzing imaging | photography data. 平滑化パラメータDB104に記憶されているデータベースの具体例である。It is a specific example of the database memorize | stored in smoothing parameter DB104. 仮想オブジェクトを記憶する管理テーブルを示す図である。It is a figure which shows the management table which memorize | stores a virtual object. 携帯端末100の処理を示すフローチャートである。5 is a flowchart showing processing of the mobile terminal 100. 連続性検出部103における処理を示すフローチャートである。5 is a flowchart showing processing in a continuity detection unit 103. 携帯端末100の撮影状態が静止状態であるときの合成位置を比較するための説明図である。It is explanatory drawing for comparing the synthetic | combination position when the imaging | photography state of the portable terminal 100 is a stationary state. 携帯端末100の撮影状態が大きく変動しているときの合成位置を比較するための説明図である。It is explanatory drawing for comparing the synthetic | combination position when the imaging | photography state of the portable terminal 100 is changing a lot.

添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。   Embodiments of the present invention will be described with reference to the accompanying drawings. Where possible, the same parts are denoted by the same reference numerals, and redundant description is omitted.

図1は、本実施形態の携帯端末100の機能構成を示すブロック図である。図1に示すとおり、携帯端末100は、撮影部101(撮影手段)、ディスプレイ部102(表示手段)、連続性検出部103(連続性検出手段)、平滑化パラメータDB部104、センサ部105(センサ手段)、平滑化処理部106(平滑化手段)、仮想オブジェクト格納部107、および仮想オブジェクト位置決定部108(算出手段、合成手段)を含んで構成している。この携帯端末100は、図2に示すハードウェアにより構成されている。   FIG. 1 is a block diagram illustrating a functional configuration of the mobile terminal 100 according to the present embodiment. As shown in FIG. 1, the mobile terminal 100 includes an imaging unit 101 (imaging unit), a display unit 102 (display unit), a continuity detection unit 103 (continuity detection unit), a smoothing parameter DB unit 104, and a sensor unit 105 ( Sensor means), a smoothing processing unit 106 (smoothing means), a virtual object storage unit 107, and a virtual object position determination unit 108 (calculation means, composition means). The portable terminal 100 is configured by hardware shown in FIG.

図2は、携帯端末100のハードウェア構成図である。図1に示される携帯端末100は、物理的には、図2に示すように、CPU11、主記憶装置であるRAM12及びROM13、入力デバイスであるキーボード及びマウス等の入力装置14、ディスプレイ等の出力装置15、ネットワークカード等のデータ送受信デバイスである通信モジュール16、ハードディスク等の補助記憶装置17などを含むコンピュータシステムとして構成されている。図1において説明した各機能は、図2に示すCPU11、RAM12等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU11の制御のもとで入力装置14、出力装置15、通信モジュール16を動作させるとともに、RAM12や補助記憶装置17におけるデータの読み出し及び書き込みを行うことで実現される。以下、図2に示す機能ブロックに基づいて、各機能ブロックを説明する。   FIG. 2 is a hardware configuration diagram of the mobile terminal 100. As shown in FIG. 2, the portable terminal 100 shown in FIG. 1 physically includes a CPU 11, a RAM 12 and a ROM 13 that are main storage devices, an input device 14 such as a keyboard and a mouse that are input devices, and an output such as a display. The computer 15 includes a device 15, a communication module 16 that is a data transmission / reception device such as a network card, an auxiliary storage device 17 such as a hard disk, and the like. Each function described in FIG. 1 has an input device 14, an output device 15, and a communication module 16 under the control of the CPU 11 by reading predetermined computer software on hardware such as the CPU 11 and the RAM 12 shown in FIG. 2. This is realized by reading and writing data in the RAM 12 and the auxiliary storage device 17. Hereinafter, each functional block will be described based on the functional blocks shown in FIG.

撮影部101は、カメラにより撮影した撮影データを取得する部分である。取得した撮影データは、ディスプレイ部102に出力される。   The photographing unit 101 is a part that acquires photographing data photographed by a camera. The acquired shooting data is output to the display unit 102.

ディスプレイ部102は、撮影データを表示する部分である。このディスプレイ部102は、さらに、後述する仮想オブジェクト位置決定部108において、撮影部101により取り込まれた撮影データに仮想オブジェクトが合成されて得られた撮影データを表示する。   The display unit 102 is a part that displays the shooting data. The display unit 102 further displays shooting data obtained by combining a virtual object with shooting data captured by the shooting unit 101 in a virtual object position determination unit 108 described later.

連続性検出部103は、センサ部105(ジャイロセンサ、加速度センサ、地磁気センサ、または位置センサ(GPS)の少なくともいずれか一つ)から得られたセンサ値に基づいて、撮影部101において撮影された撮影データの変化の度合いを示す連続性を検出する部分である。すなわち、連続性検出部103は、ユーザが撮影部101による撮影を行う際に、その撮影範囲を大きく移動させるか、ゆっくりと撮影範囲を移動させるか、または移動させていないか、を判断する部分であり、上述したセンサ部105からのセンサ値に基づいて、そのセンサ値の変動が、所定値以上か、所定値未満(なお、0またはその近似値を含まない)か、もしくは、変動しないか(0またはその近似値を含む)を判断する。そして、所定値以上である判断すると、ユーザは撮影範囲を大きく移動させていると判断し、所定値未満であると判断すると、ユーザは撮影範囲をゆっくりと移動させていると判断し、変動していないと判断すると、ユーザは撮影範囲を移動させていないと判断する。   The continuity detection unit 103 is photographed by the photographing unit 101 based on a sensor value obtained from the sensor unit 105 (at least one of a gyro sensor, an acceleration sensor, a geomagnetic sensor, or a position sensor (GPS)). This is a part for detecting continuity indicating the degree of change of the photographing data. That is, the continuity detection unit 103 determines whether the shooting range is moved greatly, the shooting range is moved slowly, or not moved when the user performs shooting by the shooting unit 101. Whether the variation of the sensor value is greater than or equal to the predetermined value, less than the predetermined value (not including 0 or its approximate value), or does not vary based on the sensor value from the sensor unit 105 described above. (Including 0 or an approximate value thereof). If it is determined that the image capturing range is greater than or equal to the predetermined value, the user determines that the image capturing range has been moved greatly. If it is determined that it is not, the user determines that the shooting range is not moved.

この連続性検出部103の処理についてより詳細に説明する。図3は、センサ部105(例えば、地磁気センサ)のセンサ値の変動を示した説明図である。この説明図においては、縦軸が方位を示し、横軸が時間を示している。時間(1)で示されている時間帯では、センサ値は、方位180度を少し下回った位置から右肩上がりに、方位が上昇するように変動している。このような、センサ値の変動幅が小さく(所定値以下で)、上下に規則的に変動するパターンを示していない変動パターンについては、ユーザはゆっくりと撮影範囲を移動させていると判断することができる。なお、この方位は、あらかじめ定めた基準値からの角度を示すものとする。   The processing of the continuity detection unit 103 will be described in detail. FIG. 3 is an explanatory diagram showing changes in the sensor value of the sensor unit 105 (for example, a geomagnetic sensor). In this explanatory diagram, the vertical axis indicates the azimuth and the horizontal axis indicates time. In the time zone indicated by time (1), the sensor value fluctuates so that the azimuth increases from a position slightly below the azimuth 180 degrees to the right. For such a fluctuation pattern in which the fluctuation range of the sensor value is small (below a predetermined value) and does not show a pattern that fluctuates regularly in the vertical direction, the user determines that the shooting range is moved slowly. Can do. In addition, this direction shall show the angle from the predetermined reference value.

また、時間(2)で示されている時間帯では、センサ値は、方位180度から所定値以上の変動している。このような変動については、ユーザはその撮影範囲を急激に移動させていると判断することができる。   In the time zone indicated by time (2), the sensor value fluctuates by a predetermined value or more from the azimuth of 180 degrees. About such a fluctuation | variation, the user can judge that the imaging | photography range is moved rapidly.

そして、時間(3)で示されている時間帯では、センサ値は、所定範囲の振幅をもって上下に規則的に変動している。このような変動については、ユーザは撮影範囲を移動させておらず、手振れもしくは外乱の影響を受けていると判断することができる。   And in the time slot | zone shown by time (3), the sensor value is fluctuate | varied regularly up and down with the amplitude of the predetermined range. With respect to such fluctuations, the user can determine that the user has not moved the shooting range and is affected by camera shake or disturbance.

なお、図3では、センサ値の変動に基づいた判断を行っているが、これに限るものではなく、撮影部101により撮影された撮影データに基づいて撮影部101の撮影範囲の移動の判断を行うことができる。図4は、撮影データを画像解析することによりそのピクセルの移動量(変動)を示した説明図である。   In FIG. 3, the determination based on the fluctuation of the sensor value is performed. However, the determination is not limited to this, and the determination of the movement of the imaging range of the imaging unit 101 is performed based on the imaging data captured by the imaging unit 101. It can be carried out. FIG. 4 is an explanatory diagram showing the movement amount (fluctuation) of the pixel by image analysis of the photographic data.

図4(a)は、撮影部101により撮影された撮影データの画素の移動遷移を示す図である。図に示すとおり、撮影範囲を右に移動(または回転)させると、建物の屋根の角を示したマークmの位置は、左に移動していることがわかる。この移動量を判断することにより、どの程度移動をしたかを判断しようとするものである。   FIG. 4A is a diagram illustrating a movement transition of pixels of image data captured by the image capturing unit 101. As shown in the figure, when the shooting range is moved (or rotated) to the right, it can be seen that the position of the mark m indicating the corner of the roof of the building has moved to the left. By determining the amount of movement, it is determined how much the movement has been made.

図4(b)は、ピクセルの位置の移動量の変動を示した説明図である。図4(b)における時間(4)で示される時間帯では、ピクセルの位置の移動量(変動)は、所定の変動パターンをとっており、時間(5)で示される時間帯は、所定値以上の移動量(変動)があることを示し、時間(6)で示される時間帯では、センサ値の所定値未満の移動量(変動)があることを示し、時間(7)で示される時間帯は、センサ値の所定値以上の移動量(変動)があること示している。このように画像解析を行い、ピクセルの移動量を判断することにより、撮影状態を判断することができる。この図4(b)においては、時間(4)が、手ぶれなどの影響を受けている場合であり、時間(5)、(7)が、撮影範囲を大きく変動させた場合であり、時間(6)が、撮影範囲をゆっくりと変動させた場合を示している。   FIG. 4B is an explanatory diagram showing fluctuations in the movement amount of the pixel position. In the time zone indicated by time (4) in FIG. 4B, the movement amount (variation) of the pixel position has a predetermined fluctuation pattern, and the time zone indicated by time (5) is a predetermined value. It indicates that there is the above movement amount (variation), and in the time zone indicated by time (6), it indicates that there is a movement amount (variation) less than the predetermined value of the sensor value, and the time indicated by time (7). The band indicates that there is a movement amount (variation) greater than or equal to a predetermined value of the sensor value. By performing image analysis in this way and determining the amount of pixel movement, the shooting state can be determined. In FIG. 4B, the time (4) is affected by camera shake and the like, and the times (5) and (7) are cases where the photographing range is greatly changed. 6) shows a case where the photographing range is changed slowly.

図2に戻り、引き続き説明する。平滑化パラメータDB部104は、平滑化パラメータとして、重み係数A(t)および遡り値Nを、撮影状態に対応付けて記憶する部分である。図5に、平滑化パラメータDB104に記憶されているデータベースの具体例を示す。図5に示されるとおり、撮影状態として、「ゆっくり移動」、「大きく移動」、「静止」があり、それぞれ、重み係数A(t)と遡り値Nとが対応付けられている。さらに、遡り値Nの数に応じた重み係数A(t)が設定されている。例えば、図5においては、遡り値Nが2であるため、重み係数A(t)として2つの重み係数A(t)が設定されている。この利用の仕方は後述する。   Returning to FIG. The smoothing parameter DB unit 104 is a part that stores the weighting coefficient A (t) and the retroactive value N as smoothing parameters in association with the shooting state. FIG. 5 shows a specific example of the database stored in the smoothing parameter DB 104. As shown in FIG. 5, there are “moving slowly”, “moving greatly”, and “still” as shooting states, and the weighting factor A (t) and the retroactive value N are associated with each other. Furthermore, a weighting factor A (t) corresponding to the number of retroactive values N is set. For example, in FIG. 5, since the retroactive value N is 2, two weighting factors A (t) are set as the weighting factors A (t). This usage will be described later.

センサ部105は、加速度センサ、地磁気センサ、および位置センサ(GPSモジュール)の少なくとも一つから構成される部分であり、撮影部101の撮影範囲を把握するための情報として、センサ値を取得する部分である。   The sensor unit 105 includes at least one of an acceleration sensor, a geomagnetic sensor, and a position sensor (GPS module), and acquires a sensor value as information for grasping the imaging range of the imaging unit 101. It is.

平滑化処理部106は、平滑化パラメータDB部104に記憶されている重み係数A(t)および遡り値Nを用いて、センサ部105のセンサ値に対して平滑化処理を行う部分である。具体的には、以下の式(1)の演算処理を行う。

Figure 2012129731

ここでは、ある時間tのセンサ値をf(t)とし、ある時間tの平滑化したセンサ値をF(t)とする。また、どこまで遡ってセンサ値を利用するかを示す値をnとする。例えば、ある時間tにセンサ取得した前回の情報を利用する場合はn=1となる。遡ったセンサ値に対する重み付け係数をa(n)とする。iは、tを基準にして、遡った過去のセンサ値を示す。そして、F(t)の値から仮想オブジェクトをディスプレイ部102に表示する位置をX(t)とする。なお、上述のF(t)は、加速度センサ、地磁気センサ、または位置センサのうちの一つを示すものであるが、これらすべてのセンサのセンサ値に対して上述の式(1)を適用して、平滑化処理を行う。 The smoothing processing unit 106 is a part that performs a smoothing process on the sensor value of the sensor unit 105 using the weighting coefficient A (t) and the retroactive value N stored in the smoothing parameter DB unit 104. Specifically, the following arithmetic processing (1) is performed.
Figure 2012129731

Here, a sensor value at a certain time t is defined as f (t), and a smoothed sensor value at a certain time t is defined as F (t). A value indicating how far the sensor value is used is assumed to be n. For example, when using the previous information acquired by the sensor at a certain time t, n = 1. The weighting coefficient for the retroactive sensor value is a (n). i indicates a past sensor value traced back with respect to t. Then, the position where the virtual object is displayed on the display unit 102 from the value of F (t) is defined as X (t). The above F (t) indicates one of an acceleration sensor, a geomagnetic sensor, or a position sensor, and the above formula (1) is applied to the sensor values of all these sensors. Smoothing processing is performed.

図5における平滑化パラメータDB部104では、「ゆっくり移動」パターンには、重み係数A(t)として、0.2、0.1が設定されており、遡り値Nは2と設定されている。   In the smoothing parameter DB unit 104 in FIG. 5, 0.2 and 0.1 are set as the weighting coefficient A (t) in the “slow movement” pattern, and the retroactive value N is set to 2. .

そして、上述の式(1)にこれを当てはめると、
F(t)=f(t)+a(t-1)*f(t-1)+a(t-2)*f(t-2)=f(t)+0.2*f(t-1)+0.1*f(t-2)
となる。
And when applying this to the above equation (1),
F (t) = f (t) + a (t-1) * f (t-1) + a (t-2) * f (t-2) = f (t) + 0.2 * f (t-1 ) + 0.1 * f (t-2)
It becomes.

仮想オブジェクト格納部107は、仮想オブジェクトを記憶する部分である。図6に仮想オブジェクトを記憶する管理テーブルを示す。この管理テーブルでは、仮想オブジェクトのイメージデータのファイル名、距離(メートル)、配置方角(度)を対応付けて記憶している。この管理テーブルに基づいて、撮影データのどの方向の、どの位置に仮想オブジェクトを合成させるかを、仮想オブジェクト位置決定部108は判断することができる。   The virtual object storage unit 107 is a part that stores virtual objects. FIG. 6 shows a management table for storing virtual objects. In this management table, a file name, a distance (meter), and an arrangement direction (degree) of image data of the virtual object are stored in association with each other. Based on this management table, the virtual object position determination unit 108 can determine in which direction and in which position of the shooting data the virtual object is to be combined.

なお、仮想オブジェクト格納部107は、携帯端末100の位置を中心に所定範囲に存在する仮想オブジェクトを予めネットワーク等を介して取得しておき、移動機の撮影範囲等に基づいて、仮想的に生成されている管理テーブルである。よって、携帯端末100の撮影範囲が変わるごとに、この管理テーブルは書き換えられることになる。   The virtual object storage unit 107 acquires a virtual object existing in a predetermined range around the position of the mobile terminal 100 in advance via a network or the like, and virtually generates it based on the shooting range of the mobile device. Management table. Therefore, this management table is rewritten every time the shooting range of the mobile terminal 100 changes.

仮想オブジェクト位置決定部108は、仮想オブジェクト格納部107に記憶されている管理テーブルに従って、仮想オブジェクトを読み出し、撮影データに対して合成する処理を行う。合成処理に先立って、仮想オブジェクトの合成位置を決定する。この決定に際して、平滑化処理部106において、合成位置を決定するためのセンサ値が予め平滑化されており、その平滑化されたセンサ値を用いて合成位置を算出して、決定する。この仮想オブジェクト位置決定部108は、所定時間単位で繰り返し合成位置の決定処理を行うことにより、撮影範囲が移動したとしても、撮影状態に応じて仮想オブジェクトの合成表示を追従させることができる。なお、加速度センサ、地磁気センサ、位置センサなどからのセンサ値から合成位置を算出する方法は、一般的に知られたものである。   The virtual object position determination unit 108 reads out a virtual object according to the management table stored in the virtual object storage unit 107, and performs a process of synthesizing the image data. Prior to the synthesis process, the synthesis position of the virtual object is determined. In this determination, the sensor value for determining the synthesis position is smoothed in advance in the smoothing processing unit 106, and the synthesis position is calculated and determined using the smoothed sensor value. The virtual object position determination unit 108 can repeatedly perform the combined display of the virtual object according to the shooting state, even if the shooting range is moved, by repeatedly performing the combined position determination process in predetermined time units. A method for calculating a composite position from sensor values from an acceleration sensor, a geomagnetic sensor, a position sensor, and the like is generally known.

ディスプレイ部102は、仮想オブジェクトが所定の合成位置に合成された撮影データを表示する部分である。   The display unit 102 is a part that displays shooting data in which a virtual object is combined at a predetermined combining position.

つぎに、このように構成された携帯端末100の処理について説明する。図7は、携帯端末100の処理を示すフローチャートである。   Next, processing of the mobile terminal 100 configured as described above will be described. FIG. 7 is a flowchart showing processing of the mobile terminal 100.

まず、携帯端末100の撮影部101が、ユーザ操作により起動され、撮影データが取り込まれる(S101)。その起動に応じて、センサ部105が起動され(S102)、現在位置や、撮影範囲、撮影範囲が把握され、携帯端末100の位置に応じた仮想オブジェクトが無線ネットワークを介して取得され、仮想オブジェクト格納部107に記憶される。   First, the photographing unit 101 of the mobile terminal 100 is activated by a user operation, and photographing data is captured (S101). In response to the activation, the sensor unit 105 is activated (S102), the current position, the photographing range, and the photographing range are grasped, and a virtual object corresponding to the position of the mobile terminal 100 is acquired via the wireless network. Stored in the storage unit 107.

つぎに、仮想オブジェクト位置決定部108により、仮想オブジェクト格納部107において、合成すべき仮想オブジェクトの有無が判断される(S103)。ここで合成すべき仮想オブジェクトがあると判断されると、連続性検出部103による各種センサ値が平滑化処理部106に取得される(S104)。そして、連続性検出部103により、撮影データの連続性、すなわち、撮影範囲の状態変化の速さが判断される(S105)。   Next, the virtual object position determination unit 108 determines whether or not there is a virtual object to be synthesized in the virtual object storage unit 107 (S103). If it is determined here that there is a virtual object to be synthesized, various sensor values by the continuity detecting unit 103 are acquired by the smoothing processing unit 106 (S104). Then, the continuity detection unit 103 determines the continuity of the shooting data, that is, the speed of the state change of the shooting range (S105).

平滑化処理部106においては、平滑化パラメータDB部104に記憶されている平滑化パラメータである重み付け係数A(t)および遡り値Nが、連続性に基づいて抽出される(S106)。そして、抽出された平滑化パラメータを用いて、平滑化処理部106において各種センサ値が平滑化される(S107)。そして、平滑化されたセンサ値に基づいて、撮影データにおける合成位置が算出される。そして、その撮影データの合成位置に仮想オブジェクトが合成されて、ディスプレイ部102に表示される(S108)。   In the smoothing processing unit 106, the weighting coefficient A (t) and the retroactive value N, which are the smoothing parameters stored in the smoothing parameter DB unit 104, are extracted based on continuity (S106). Then, various sensor values are smoothed in the smoothing processing unit 106 using the extracted smoothing parameters (S107). Then, based on the smoothed sensor value, a composite position in the photographing data is calculated. Then, the virtual object is combined at the combined position of the shooting data and displayed on the display unit 102 (S108).

そして、こらS104からS108の処理は、撮影部101の起動状態がオフとなるまで繰り返し行われる。よって、センサ部105によるセンサ値の取得タイミングに応じて、撮影データにおける仮想オブジェクトの合成位置が定まり、撮影データと仮想オブジェクトとの合成処理が行われる。   The processes from S104 to S108 are repeated until the activation state of the photographing unit 101 is turned off. Therefore, according to the sensor value acquisition timing by the sensor unit 105, the synthesis position of the virtual object in the photographic data is determined, and the photographic data and the virtual object are synthesized.

つぎに、連続性検出部103における処理について詳細に説明する。図8は、連続性検出部103における処理を示すフローチャートである。   Next, processing in the continuity detection unit 103 will be described in detail. FIG. 8 is a flowchart showing processing in the continuity detection unit 103.

連続性検出部103において、直近のセンサ値との差が計測される(S201)。そして、所定の閾値Xと比較し、ここで直近のセンサ値が閾値X以上であると判断されると、撮影状態のパターンBと判断される(S205)。ここで撮影状態のパターンBとは、撮影範囲を大きく変化させる操作を示す。   In the continuity detection unit 103, a difference from the latest sensor value is measured (S201). Then, it is compared with a predetermined threshold value X, and if it is determined that the most recent sensor value is equal to or greater than the threshold value X, it is determined that the pattern is an imaging state B (S205). Here, the shooting state pattern B indicates an operation for greatly changing the shooting range.

また、センサ値が閾値Xより小さいと判断されると、さらに単位時間あたりのセンサ値が計測される(S203)。そして、単位時間あたりでのセンサ値の変動パターンが導き出され、所定の変動パターンをとっているか否かが判断される(S204)。ここで、所定の変動パターンをとっていると判断されると、撮影状態のパターンCであると判断される。すなわち、手ぶれや外乱による振幅であると判断される(S206)。この所定の変動パターンは、例えば、センサ値の振幅の差が所定値以下であり、そのセンサ値が規則的に上下に変動するパターンが考えられるが、そのほか手ぶれを示すような変動パターンであればよい。また、所定の変動パターンではないと判断されると、撮影状態のパターンAであると判断され、ユーザはゆっくりと撮影範囲を変えている操作をしている判断する(S207)。   If it is determined that the sensor value is smaller than the threshold value X, the sensor value per unit time is further measured (S203). Then, a variation pattern of the sensor value per unit time is derived, and it is determined whether or not a predetermined variation pattern is taken (S204). Here, if it is determined that a predetermined variation pattern is taken, it is determined that the pattern C is a shooting state. That is, it is determined that the amplitude is due to camera shake or disturbance (S206). The predetermined variation pattern may be, for example, a pattern in which the difference in amplitude of sensor values is less than or equal to a predetermined value, and the sensor values regularly vary up and down. Good. If it is determined that the pattern is not a predetermined variation pattern, it is determined that the pattern is a shooting state pattern A, and it is determined that the user is slowly changing the shooting range (S207).

なお、パターンによって、仮想オブジェクトの合成位置を構成するタイミングを変えるようにすると、消費電力を低減させる上では、好適である。   Note that it is preferable to reduce the power consumption if the timing of composing the virtual object composition position is changed depending on the pattern.

例えば、連続性のパターンとして、パターンAであると判断される場合は、ユーザはゆっくり撮影範囲を変えている操作を行っているため、ディスプレイ部102に合成された仮想オブジェクトの合成位置はゆっくり変化する。また、パターンCと判断される場合は、手ブレや外乱による影響と判断され、ディスプレイ部102に合成された仮想オブジェクトの合成位置の変化は小さい。このため、パターンA及びパターンCは、ディスプレイ部102に仮想オブジェクトの合成位置を更新する時間間隔は長くしてもよい。   For example, when it is determined that the pattern A is the continuity pattern, the user is performing an operation of slowly changing the shooting range, so the synthesis position of the virtual object synthesized on the display unit 102 changes slowly. To do. Further, when the pattern C is determined, it is determined that the influence is due to camera shake or disturbance, and the change in the combined position of the virtual object combined with the display unit 102 is small. For this reason, the pattern A and the pattern C may have a longer time interval for updating the virtual object combining position on the display unit 102.

すなわち、所定の基準値T1を定めておき、S105において、連続性のパターンとしてパターンAまたはCであると判断されると、連続性検出部103は、S106に移行する前に前回更新した時間から所定の基準値T1で定める時間が経過したかを判断し、経過した場合には、S106における抽出処理および平滑化処理が行われる。経過していない場合には、これら抽出処理、平滑化処理は行われない。   That is, a predetermined reference value T1 is set, and if it is determined in S105 that the pattern A or C is the continuity pattern, the continuity detection unit 103 starts from the time updated last time before proceeding to S106. It is determined whether the time determined by the predetermined reference value T1 has elapsed. If the time has elapsed, the extraction process and the smoothing process in S106 are performed. If it has not elapsed, the extraction process and the smoothing process are not performed.

一方、連続性のパターンとしてパターンBと判断される場合は、ユーザは撮影範囲を大きく変化させる操作を行っており、ディスプレイ部102に合成された仮想オブジェクトの合成位置の変化は大きい。このため、パターンBと判断される場合は、ディスプレイ部102に仮想オブジェクトの合成位置を更新する時間間隔は短くしてもよい。   On the other hand, when the pattern B is determined as the continuity pattern, the user performs an operation of changing the shooting range greatly, and the change in the combination position of the virtual object combined on the display unit 102 is large. For this reason, when it is determined as the pattern B, the time interval for updating the composite position of the virtual object on the display unit 102 may be shortened.

例えば、所定の基準値T2(<T1)を定めておき、S105において連続性のパターンとしてパターンBであると判断されると、連続性検出部103は、S106に移行する前に前回更新した時間から所定の基準値で定める時間が経過したかを判断し、経過した場合には、S106における抽出処理および平滑化処理を行う。経過していない場合には、抽出処理および平滑化処理は行わない。   For example, when a predetermined reference value T2 (<T1) is set and it is determined in S105 that the pattern B is the continuity pattern, the continuity detection unit 103 performs the time previously updated before the process proceeds to S106. It is determined whether the time determined by the predetermined reference value has elapsed, and if it has elapsed, the extraction process and the smoothing process in S106 are performed. If it has not elapsed, the extraction process and the smoothing process are not performed.

このように、仮想オブジェクトの合成位置を更新する時間間隔を変化させることにより、消費電力の低減させることも可能となる。なお、合成位置の更新する時間は、仮想オブジェクト位置決定部108において記憶されてもよいし、連続性検出部103において、その検出処理をした時間として記憶されてもよい。   In this way, it is possible to reduce power consumption by changing the time interval for updating the composite position of the virtual object. Note that the time for updating the composite position may be stored in the virtual object position determination unit 108, or may be stored in the continuity detection unit 103 as the time when the detection processing is performed.

このようにして、撮影状態のパターンが判断され、その撮影状態のパターンに応じた平滑化パラメータが平滑化パラメータDB104から抽出され、平滑化処理部106において処理される。   In this way, a shooting state pattern is determined, and a smoothing parameter corresponding to the shooting state pattern is extracted from the smoothing parameter DB 104 and processed by the smoothing processing unit 106.

よって、携帯端末100は、仮想オブジェクトを撮影データに合成してディスプレイ部102に表示させる際、携帯端末100の撮影範囲の移動状態に応じて、仮想オブジェクトの合成位置を平滑化して表示することができる。すなわち、撮影範囲の状態遷移スピードに応じて合成位置が平滑化され、そのスピードに応じて合成処理に対する即応性と、合成位置の誤差軽減とをバランスよく処理することができる。よって、速く撮影範囲を変えても、それに応じて直前の合成位置の影響をあまり受けることなく、合成処理が行われ、ゆっくりと撮影範囲を変えると、直前の合成位置の影響を受けつつ合成処理を行い、直近のセンサ値の誤差の影響を受けることがない。   Therefore, when the mobile terminal 100 combines the virtual object with the shooting data and causes the display unit 102 to display the virtual object, the mobile terminal 100 may display the virtual object combining position according to the moving state of the shooting range of the mobile terminal 100. it can. That is, the composite position is smoothed according to the state transition speed of the shooting range, and the quick response to the composite processing and the reduction of the composite position error can be processed in a balanced manner according to the speed. Therefore, even if the shooting range is changed quickly, the compositing process is performed without much influence of the previous combining position, and if the shooting range is changed slowly, the compositing process is affected by the previous combining position. And is not affected by the error of the latest sensor value.

つぎに、本実施形態の携帯端末100の作用効果について説明する。本実施形態の携帯端末100において、連続性検出部103が、撮影部101の撮影範囲を示すセンサ値を検出するとともに、撮影状態を検出し、平滑化処理部106は、検出された撮影状態に基づいて定められた平滑化パラメータを用いて、検出されたセンサ値を平滑化する。そして、仮想オブジェクト位置決定部108は、平滑化されたセンサ値に基づいて、撮影データに対する合成位置を算出し、撮影データにおける算出された合成位置に、画像データを合成し、ディスプレイ部102は、画像データが合成された撮影データを表示することができる。   Next, functions and effects of the mobile terminal 100 of the present embodiment will be described. In the mobile terminal 100 of the present embodiment, the continuity detection unit 103 detects a sensor value indicating the shooting range of the shooting unit 101 and also detects a shooting state, and the smoothing processing unit 106 changes to the detected shooting state. The detected sensor value is smoothed using the smoothing parameter determined on the basis thereof. Then, the virtual object position determination unit 108 calculates a combined position for the shooting data based on the smoothed sensor value, combines the image data with the calculated combined position in the shooting data, and the display unit 102 Shooting data obtained by combining image data can be displayed.

これにより、撮影状態によっては、本来合成すべき位置から画像データがずれてしまうといったことを解消することができ、誤差の少ない合成位置に画像データを合成することができる。一方で、撮影状態におけるすべての状態において、平滑化処理を行ってしまうと、即応性が低下するといった問題がある。すなわち、大きく撮影範囲が動いているときに、過去の値を利用して平滑化処理しても、その撮影範囲の動きに追従することができず、すでに過ぎ去ってしまった撮影範囲に対する位置を算出してしまう。しかしながら、本実施形態の携帯端末100においては、撮影状態に応じて平滑化処理を行うことができるため、適切な合成位置を算出し、そのレスポンス性を向上させることができるとともに、その誤差を極力軽減することができる。   As a result, depending on the shooting state, it is possible to eliminate the fact that the image data is shifted from the position to be originally synthesized, and it is possible to synthesize the image data at the synthesis position with little error. On the other hand, if the smoothing process is performed in all states in the photographing state, there is a problem that the quick response is lowered. That is, when the shooting range is moving greatly, even if smoothing processing is performed using past values, the movement of the shooting range cannot be followed and the position relative to the shooting range that has already passed is calculated. Resulting in. However, since the mobile terminal 100 according to the present embodiment can perform the smoothing process according to the shooting state, it is possible to calculate an appropriate composite position and improve the response, and minimize the error as much as possible. Can be reduced.

ここで、その本実施形態を適用した場合と適用しなかった場合のそれぞれの仮想オブジェクトと撮影データの合成位置について説明する。   Here, a description will be given of the position where the virtual object and the shooting data are combined when the embodiment is applied and when the embodiment is not applied.

携帯端末100の撮影範囲の変動が小さい場合について説明する。例えば、携帯端末100をゆっくり動かした場合や、手振れなどの影響を受けている場合である。図9は、その合成位置を比較するための説明図である。   The case where the fluctuation | variation of the imaging | photography range of the portable terminal 100 is small is demonstrated. For example, it is a case where the mobile terminal 100 is moved slowly or is affected by hand shake. FIG. 9 is an explanatory diagram for comparing the synthesis positions.

図9(a)に示す合成例では、平滑化処理を大きくした場合の合成例を示したものであり、例えば平滑化処理のセンサ値の対象を直近から所定数(例えばn)のセンサ値を対象とした例である。図9(a)に示すとおり、ディスプレイ部102には、撮影データSのほぼ中央に、仮想オブジェクトMが合成されて表示されている。ここでの例では、撮影データの中央(十字マークC)に仮想オブジェクトMが合成されたものが適正位置での合成位置であるとしている。このように平滑化処理を大きくした場合には、過去のセンサ値の影響を受けることになるため、直近のセンサ値に誤差が合ったとしてもその影響軽減し、結果的に、適正な合成位置に仮想オブジェクトは合成される。   In the synthesis example shown in FIG. 9A, a synthesis example in the case where the smoothing process is increased is shown. For example, a predetermined number (for example, n) of sensor values are selected as the target of the sensor value of the smoothing process. This is an example. As shown in FIG. 9A, a virtual object M is synthesized and displayed on the display unit 102 at substantially the center of the photographing data S. In this example, it is assumed that the combined position at the appropriate position is a combination of the virtual object M at the center (cross mark C) of the shooting data. If the smoothing process is increased in this way, it will be affected by past sensor values, so even if an error is found in the most recent sensor value, the effect will be reduced, and as a result, the appropriate synthesis position will be reduced. Virtual objects are synthesized.

図9(b)に示す合成例は、合成位置が不良な場合を示す例であり、例えば、平滑化処理のセンサ値の対象を直近から所定数(例えばm<n)のセンサ値を対象とした例である。図9(b)に示すとおり、ディスプレイ部102には、撮影データSに、仮想オブジェクトMが合成されて表示されているが、仮想オブジェクトMは、撮影データの中央(十字マークC)から少し左にずれた位置に合成されている。このように平滑化処理を小さくした場合には、直近のセンサ値の影響を大きく受けることになり、その直近のセンサ値に誤差が多く含まれている場合には、その合成位置もずれることになる。   The synthesis example shown in FIG. 9B is an example in which the synthesis position is bad. For example, the target sensor values for the smoothing process are targeted for a predetermined number (for example, m <n) of sensor values. This is an example. As shown in FIG. 9B, the display unit 102 displays the virtual object M combined with the shooting data S. The virtual object M is slightly left of the center of the shooting data (cross mark C). It is synthesized at the position shifted to. If the smoothing process is reduced in this way, it will be greatly affected by the most recent sensor value, and if the most recent sensor value contains a lot of errors, the combined position will also shift. Become.

本実施形態の携帯端末100においては、図9(b)に示されるような、撮影データにおける合成位置に仮想オブジェクトは合成されること無く、図9(a)に示される適正な合成位置に仮想オブジェクトが合成されることになる。   In the mobile terminal 100 of the present embodiment, the virtual object is not synthesized at the synthesis position in the shooting data as shown in FIG. 9B, but is virtual at the appropriate synthesis position shown in FIG. The object will be synthesized.

つぎに、携帯端末100の撮影範囲の変動が大きい場合について説明する。例えば、携帯端末100を急激に大きく動かした場合で、その撮影範囲が大きく変動した場合である。図10は、その合成位置を比較するための説明図である。この図10では、撮影範囲を左から右に回転させて停止した瞬間における撮影データを示す図である。   Next, a case where the photographing range of the mobile terminal 100 varies greatly will be described. For example, this is a case where the mobile terminal 100 has been moved abruptly and its shooting range has changed greatly. FIG. 10 is an explanatory diagram for comparing the synthesis positions. In this FIG. 10, it is a figure which shows the imaging | photography data in the moment which stopped by rotating the imaging | photography range from the left to the right.

図10(a)に示す合成例は、本実施形態の技術を適用しなかった場合の合成位置が不良な場合を示す例であって、例えば、平滑化処理のセンサ値の対象を直近から所定数(例えばn)のセンサ値を対象とした例である。この例では、図10(a)に示すとおり、ディスプレイ部102には、撮影データSの中央(十字マークC)からやや右側に、仮想オブジェクトMが合成されて表示されている。ここでの例では、急激に撮影範囲を変えたために、平滑化処理を大きくした場合には、過去のセンサ値を利用して平滑化処理をすると、その過去のセンサ値に合成位置が影響して、結果的に、仮想オブジェクトの合成位置がずれてしまう。   The synthesis example shown in FIG. 10A is an example in which the synthesis position when the technique of the present embodiment is not applied is bad. For example, the target of the sensor value of the smoothing process is determined from the nearest. This is an example for a number (for example, n) of sensor values. In this example, as shown in FIG. 10A, a virtual object M is synthesized and displayed on the display unit 102 slightly on the right side from the center (cross mark C) of the shooting data S. In this example, if the smoothing process is enlarged because the shooting range has been changed abruptly, if the smoothing process is performed using past sensor values, the combined position will affect the past sensor values. As a result, the composite position of the virtual object is shifted.

これに対して、図10(b)に示す合成例では、本実施形態の技術を適用した場合の合成位置が良好な場合を示す例である。例えば、平滑化処理のセンサ値の対象を直近から所定数(n<m)のセンサ値を対象とした例である。この例では、図10(b)に示すとおり、ディスプレイ部102には、撮影データSのほぼ中央(十字マークC)に、仮想オブジェクトMが合成されて表示されている。これは、平滑化処理をあえて小さくして、過去のセンサ値の利用を制限したため、撮影範囲の変動にその合成位置が遅れることなく、合成処理を行うことができたためである。   In contrast, the synthesis example shown in FIG. 10B is an example in which the synthesis position is good when the technique of the present embodiment is applied. For example, the sensor value target of the smoothing process is an example in which a predetermined number (n <m) of sensor values are the target. In this example, as shown in FIG. 10B, the virtual object M is displayed on the display unit 102 in a synthesized manner at substantially the center (cross mark C) of the shooting data S. This is because the smoothing process is deliberately reduced to limit the use of past sensor values, so that the combining process can be performed without delaying the combining position due to the change in the photographing range.

このようにして、本実施形態の携帯端末100はその撮影状態に応じた平滑化処理を行うことにより、撮影データと仮想オブジェクトとの適正な合成処理を行うことができる。   In this manner, the mobile terminal 100 according to the present embodiment can perform an appropriate synthesis process between the shooting data and the virtual object by performing the smoothing process according to the shooting state.

さらに、携帯端末100において、撮影範囲を示すセンサ値として、加速度センサ、地磁気センサ、または位置センサの少なくともいずれか一つにより検出されたセンサ値であることが好ましい。これにより、撮影範囲を簡易かつ正確に取得することができ、画像データと撮影データとの合成処理を簡易かつ正確に行うことができる。   Furthermore, in the mobile terminal 100, the sensor value indicating the imaging range is preferably a sensor value detected by at least one of an acceleration sensor, a geomagnetic sensor, and a position sensor. As a result, the shooting range can be acquired easily and accurately, and the image data and shooting data can be combined easily and accurately.

また、携帯端末100において、撮影範囲を判断するためのセンサ部105により検出されたセンサ値に基づいて撮影状態を検出することが好ましい。例えば、センサ値の変動によって、撮影状態が静止状態であるのか、大きく撮影範囲が変化した状態であるのか、若しくはゆっくり変化した状態であるのか判断することができる。これにより、撮影状態を判断するための特別な手段を設けることなく、撮影範囲を把握するために利用されているセンサ部105を利用することで、簡易な構成で撮影状態を判断することができる。   In portable terminal 100, it is preferable to detect a shooting state based on a sensor value detected by sensor unit 105 for determining a shooting range. For example, it is possible to determine whether the shooting state is a still state, a state in which the shooting range has greatly changed, or a state in which the shooting range has changed slowly depending on changes in sensor values. As a result, it is possible to determine the shooting state with a simple configuration by using the sensor unit 105 that is used for grasping the shooting range without providing a special means for determining the shooting state. .

また、携帯端末100において、撮影部101により取り込まれた撮影データの変化の状態に応じて撮影状態を検出することが好ましい。例えば、撮影データの画素ごとの変動によって、撮影状態が静止状態であるのか、大きく撮影範囲が変化した状態であるのか、若しくはゆっくり変化した状態であるのか判断することができる。これにより、撮影状態を判断するための特別な手段を設けることなく、撮影データを取り込むための撮影手段を利用することで、簡易な構成で撮影状態を判断することができる。   In the mobile terminal 100, it is preferable to detect the shooting state according to the change state of the shooting data captured by the shooting unit 101. For example, it is possible to determine whether the shooting state is a still state, a state in which the shooting range has changed significantly, or a state in which the shooting range has changed slowly, depending on the variation of the shooting data for each pixel. Accordingly, it is possible to determine the shooting state with a simple configuration by using the shooting unit for taking shooting data without providing a special unit for determining the shooting state.

また、携帯端末100において、センサ部105は、所定間隔ごとにセンサ値を順次検出し、時系列で保持しておき、時系列で保持されたセンサ値のうち、平滑化処理部106は、撮影状態に応じて直近から所定数抽出されたセンサ値を平滑化対象として、撮影状態に応じた重み付け処理を行うことが好ましい。これにより撮影状態に応じた過去の所定数のセンサ値の影響を受けることができ、直近の誤差の影響を軽減することができる。   Further, in the mobile terminal 100, the sensor unit 105 sequentially detects sensor values at predetermined intervals and holds them in time series, and among the sensor values held in time series, the smoothing processing unit 106 takes an image. It is preferable to perform a weighting process according to the photographing state, with a predetermined number of sensor values extracted from the latest depending on the state as a smoothing target. Thereby, it is possible to be affected by a predetermined number of sensor values in the past according to the shooting state, and the influence of the latest error can be reduced.

また、携帯端末100において、連続性検出部103は、ユーザによる端末操作に基づいた撮影状態が所定時間単位で所定値以上変動したか、否かに基づいて、当該撮影状態を検出し、さらに、所定時間単位で、その振幅の有無を検出することが好ましい。これにより、適切に撮影状態を判断することができる。例えば、撮影状態が所定値以上変化した場合には、撮影範囲が急激に大きく変動したと判断することができる。また、所定値以上変化しなかった場合には、ユーザにより操作によりゆっくりと変動したものと判断することができる。さらに、その変動パターンが所定の変動パターン(所定の振幅差をもった規則的な変動パターン)であった場合、手ぶれや外乱などにより変動したものと判断することができる。そして、これら3つの状態に応じた平滑化パラメータを利用することにより、適切な平滑化処理を行うことができる。   In the mobile terminal 100, the continuity detecting unit 103 detects the shooting state based on whether or not the shooting state based on the terminal operation by the user has fluctuated by a predetermined value or more in a predetermined time unit. It is preferable to detect the presence or absence of the amplitude in predetermined time units. Thereby, it is possible to appropriately determine the shooting state. For example, when the shooting state changes by a predetermined value or more, it can be determined that the shooting range has fluctuated greatly. Moreover, when it does not change more than a predetermined value, it can be judged that it changed slowly by operation by the user. Further, when the fluctuation pattern is a predetermined fluctuation pattern (regular fluctuation pattern having a predetermined amplitude difference), it can be determined that the fluctuation pattern has fluctuated due to camera shake or disturbance. And an appropriate smoothing process can be performed by using the smoothing parameter according to these three states.

100…携帯端末、101…撮影部、102…ディスプレイ部、102…ディスプレイ部、103…連続性検出部、104…平滑化パラメータDB部、105…センサ部、106…平滑化処理部、107…仮想オブジェクト格納部、108…仮想オブジェクト位置決定部。 DESCRIPTION OF SYMBOLS 100 ... Portable terminal, 101 ... Imaging | photography part, 102 ... Display part, 102 ... Display part, 103 ... Continuity detection part, 104 ... Smoothing parameter DB part, 105 ... Sensor part, 106 ... Smoothing process part, 107 ... Virtual Object storage unit 108... Virtual object position determination unit.

Claims (7)

撮影データを取り込む撮影手段と、
前記撮影手段の撮影範囲を示すセンサ値を検出するセンサ手段と、
前記撮影手段の撮影状態を検出する連続性検出手段と、
前記連続性検出手段により検出された撮影状態に基づいて定められた平滑化パラメータを用いて、前記センサ手段により検出されたセンサ値を平滑化する平滑化手段と、
前記平滑化手段により平滑化されたセンサ値に基づいて、前記撮影手段により取り込まれた撮影データに対する合成位置を算出する算出手段と、
前記算出手段により算出された、撮影データにおける合成位置に、画像データを合成する合成手段と、
前記合成手段により画像データが合成された撮影データを表示する表示手段と、
を備える携帯端末。
Photographing means for capturing photographing data;
Sensor means for detecting a sensor value indicating a photographing range of the photographing means;
Continuity detecting means for detecting the photographing state of the photographing means;
Smoothing means for smoothing the sensor value detected by the sensor means using a smoothing parameter determined based on the photographing state detected by the continuity detecting means;
Calculation means for calculating a composite position for the photographing data captured by the photographing means based on the sensor value smoothed by the smoothing means;
Combining means for combining the image data at the combining position in the photographing data calculated by the calculating means;
Display means for displaying photographing data obtained by combining image data by the combining means;
A mobile terminal comprising:
前記センサ手段は、撮影範囲を示すセンサ値として、ジャイロセンサ、加速度センサ、地磁気センサ、または位置センサの少なくともいずれか一つを利用することを特徴とする請求項1に記載の携帯端末。   The mobile terminal according to claim 1, wherein the sensor unit uses at least one of a gyro sensor, an acceleration sensor, a geomagnetic sensor, and a position sensor as a sensor value indicating an imaging range. 前記連続性検出手段は、前記センサ手段により検出されたセンサ値に基づいて撮影状態を検出することを特徴とする請求項1または2に記載の携帯端末。   The portable terminal according to claim 1, wherein the continuity detecting unit detects a photographing state based on a sensor value detected by the sensor unit. 前記連続性検出手段は、前記撮影手段により取り込まれた撮影データの変化の状態に応じて撮影状態を検出することを特徴とする請求項1または2に記載の携帯端末。   The portable terminal according to claim 1, wherein the continuity detecting unit detects a shooting state in accordance with a change state of shooting data captured by the shooting unit. 前記センサ手段は、所定間隔ごとにセンサ値を順次検出し、時系列で保持するものであって、
前記平滑化手段は、前記時系列で保持されたセンサ値のうち、撮影状態に応じて直近から所定数抽出されたセンサ値を平滑化対象として、前記撮影状態に応じた重み付け処理を行うことを特徴とする請求項1から4のいずれか一項に記載の携帯端末。
The sensor means sequentially detects sensor values at predetermined intervals and holds them in time series,
The smoothing means performs a weighting process according to the shooting state, with a predetermined number of sensor values extracted from the latest according to the shooting state among the sensor values held in time series as a smoothing target. The portable terminal according to any one of claims 1 to 4, wherein the portable terminal is characterized in that:
前記連続性検出手段は、ユーザによる端末操作に基づいた撮影状態が所定時間単位で所定値以上変動したか、否かに基づいて、当該撮影状態を検出し、
さらに、所定時間単位で、その変動パターンが所定の変動パターンであるか否かを検出することで、撮影状態を判断することを特徴とする請求項1から5のいずれか一項に記載の携帯端末。
The continuity detecting means detects the shooting state based on whether or not the shooting state based on the terminal operation by the user has fluctuated by a predetermined value or more in a predetermined time unit,
6. The mobile phone according to claim 1, wherein the photographing state is determined by detecting whether or not the fluctuation pattern is a predetermined fluctuation pattern in a predetermined time unit. Terminal.
撮影データを取り込む撮影ステップと、
前記撮影ステップの撮影範囲を示すセンサ値を検出するセンサステップと、
前記撮影ステップの撮影状態を検出する連続性検出ステップと、
前記連続性検出ステップにより検出された撮影状態に基づいて定められた平滑化パラメータを用いて、前記センサステップにより検出されたセンサ値を平滑化する平滑化ステップと、
前記平滑化ステップにより平滑化されたセンサ値に基づいて、前記撮影ステップにより取り込まれた撮影データに対する合成位置を算出する算出ステップと、
前記算出ステップにより算出された、撮影データにおける合成位置に、画像データを合成する合成ステップと、
前記合成ステップにより画像データが合成された撮影データを表示する表示ステップと、
を備える画像処理方法。
Shooting steps to capture shooting data,
A sensor step for detecting a sensor value indicating a photographing range of the photographing step;
A continuity detection step for detecting a shooting state of the shooting step;
A smoothing step of smoothing the sensor value detected by the sensor step using a smoothing parameter determined based on the imaging state detected by the continuity detection step;
Based on the sensor value smoothed by the smoothing step, a calculation step for calculating a combined position for the shooting data captured by the shooting step;
A synthesis step of synthesizing image data at a synthesis position in the photographing data calculated by the calculation step;
A display step for displaying photographing data obtained by combining the image data in the combining step;
An image processing method comprising:
JP2010278346A 2010-12-14 2010-12-14 Mobile terminal and image processing method Active JP5662787B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010278346A JP5662787B2 (en) 2010-12-14 2010-12-14 Mobile terminal and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010278346A JP5662787B2 (en) 2010-12-14 2010-12-14 Mobile terminal and image processing method

Publications (2)

Publication Number Publication Date
JP2012129731A true JP2012129731A (en) 2012-07-05
JP5662787B2 JP5662787B2 (en) 2015-02-04

Family

ID=46646317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010278346A Active JP5662787B2 (en) 2010-12-14 2010-12-14 Mobile terminal and image processing method

Country Status (1)

Country Link
JP (1) JP5662787B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221250A (en) * 2011-04-08 2012-11-12 Sony Corp Image processing system, display control method and program
JP2015526168A (en) * 2012-07-26 2015-09-10 クアルコム,インコーポレイテッド Method and apparatus for controlling augmented reality

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0667272A (en) * 1992-08-25 1994-03-11 Ricoh Co Ltd Camera with hand shake correcting function
JPH08331429A (en) * 1995-05-30 1996-12-13 Sony Corp Hand shake correcting device and video camera
JPH08331430A (en) * 1995-05-30 1996-12-13 Sony Corp Hand shake correcting device and video camera
JP2000270261A (en) * 1999-03-15 2000-09-29 Sanyo Electric Co Ltd Image pickup device, picture composting method and recording medium
JP2004134950A (en) * 2002-10-09 2004-04-30 Sony Corp Image compositing method and image compositing apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0667272A (en) * 1992-08-25 1994-03-11 Ricoh Co Ltd Camera with hand shake correcting function
JPH08331429A (en) * 1995-05-30 1996-12-13 Sony Corp Hand shake correcting device and video camera
JPH08331430A (en) * 1995-05-30 1996-12-13 Sony Corp Hand shake correcting device and video camera
JP2000270261A (en) * 1999-03-15 2000-09-29 Sanyo Electric Co Ltd Image pickup device, picture composting method and recording medium
JP2004134950A (en) * 2002-10-09 2004-04-30 Sony Corp Image compositing method and image compositing apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221250A (en) * 2011-04-08 2012-11-12 Sony Corp Image processing system, display control method and program
JP2015526168A (en) * 2012-07-26 2015-09-10 クアルコム,インコーポレイテッド Method and apparatus for controlling augmented reality

Also Published As

Publication number Publication date
JP5662787B2 (en) 2015-02-04

Similar Documents

Publication Publication Date Title
CN110169056B (en) Method and equipment for acquiring dynamic three-dimensional image
KR20190127838A (en) Method, apparatus and device, and storage medium for determining camera pose information
CN108537721A (en) Processing method, device and the electronic equipment of panoramic picture
US9436981B2 (en) Dictionary creation device, image processing device, image processing system, dictionary creation method, image processing method, and program
WO2023006009A1 (en) Photographing parameter determination method and apparatus, and electronic device
CN111080571A (en) Camera shielding state detection method and device, terminal and storage medium
CN112414400B (en) Information processing method and device, electronic equipment and storage medium
CN113610702B (en) Picture construction method and device, electronic equipment and storage medium
CN111145151A (en) Motion area determination method and electronic equipment
CN113438409B (en) Delay calibration method, delay calibration device, computer equipment and storage medium
JP5662787B2 (en) Mobile terminal and image processing method
CN112738405A (en) Video shooting method and device and electronic equipment
CN113034582A (en) Pose optimization device and method, electronic device and computer readable storage medium
CN115379118B (en) Camera switching method and device, electronic equipment and readable storage medium
CN112685279B (en) Script recording method, script recording device and terminal equipment
CN114339051A (en) Shooting method, shooting device, electronic equipment and readable storage medium
CN115205419A (en) Instant positioning and map construction method and device, electronic equipment and readable storage medium
CN113628284A (en) Pose calibration data set generation method, device and system, electronic equipment and medium
CN107292849B (en) Image processing method and mobile terminal
CN110830724A (en) Shooting method and electronic equipment
US9697419B2 (en) Information processing apparatus, non-transitory storage medium encoded with computer readable information processing program, information processing system, and information processing method
CN107742275B (en) Information processing method and electronic equipment
CN112565605B (en) Image display method and device and electronic equipment
JP2014222817A (en) Image display apparatus, image magnification and display method, and program
JP2012128578A (en) Portable terminal and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141205

R150 Certificate of patent or registration of utility model

Ref document number: 5662787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250