JP5747646B2 - Electronic device, data generation method, and data generation program - Google Patents

Electronic device, data generation method, and data generation program Download PDF

Info

Publication number
JP5747646B2
JP5747646B2 JP2011104474A JP2011104474A JP5747646B2 JP 5747646 B2 JP5747646 B2 JP 5747646B2 JP 2011104474 A JP2011104474 A JP 2011104474A JP 2011104474 A JP2011104474 A JP 2011104474A JP 5747646 B2 JP5747646 B2 JP 5747646B2
Authority
JP
Japan
Prior art keywords
unit
information indicating
movement
information
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011104474A
Other languages
Japanese (ja)
Other versions
JP2012234489A (en
Inventor
幹也 田中
幹也 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011104474A priority Critical patent/JP5747646B2/en
Publication of JP2012234489A publication Critical patent/JP2012234489A/en
Application granted granted Critical
Publication of JP5747646B2 publication Critical patent/JP5747646B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、電子装置、データ生成方法およびデータ生成プログラムに関する。   The present invention relates to an electronic device, a data generation method, and a data generation program.

従来、入力する画像信号中から被写体の動きを検出する方法が開示されている。例えば、特許文献1では、予め、全画面領域を所定数の検出領域に分割した設定と、輝度変化を判定するための輝度しきい値と、照明のオン/オフ切替時の輝度変化パターンを格納するステップと、入力する画像信号から、前記検出領域毎に輝度信号を選択するステップと、
画像フレーム毎に同じ検出領域の輝度信号を検出し、前記輝度しきい値と比較することで輝度変化を検出するステップと、前記輝度変化が検出された場合に前記輝度変化パターンと照合することにより、前記輝度変化パターンが照明切替時であるか否かを判別し、照明切替時ではないと判別された場合に被写体動きを検出したと判別するステップを有する被写体動き検出方法が示されている。
Conventionally, a method for detecting the movement of a subject from an input image signal has been disclosed. For example, in Patent Document 1, a setting in which the entire screen area is divided into a predetermined number of detection areas, a luminance threshold value for determining a luminance change, and a luminance change pattern at the time of lighting on / off switching are stored in advance. Selecting a luminance signal for each of the detection regions from the input image signal;
Detecting a luminance signal in the same detection region for each image frame, comparing the luminance signal with the luminance threshold value, and checking the luminance change pattern when the luminance change is detected; The subject motion detection method includes a step of determining whether or not the luminance change pattern is at the time of illumination switching and determining that the subject motion has been detected when it is determined that the brightness change pattern is not at the time of illumination switching.

一方、自装置の動きを検出するモーションセンサを備えた携帯情報処理装置が開示されている。例えば、特許文献2では、モーションセンサ部と、前記モーションセンサ部の出力に所定の処理を施す処理手段と、ユーザによる携帯情報処理装置の使用状態を検知する使用状態検知手段と、使用状態が検知されると前記モーションセンサ部および前記処理手段の少なくとも1つを停止させる制御手段とを備えている携帯情報処理装置が示されている。   On the other hand, a portable information processing device including a motion sensor that detects the movement of the device itself is disclosed. For example, in Patent Document 2, a motion sensor unit, a processing unit that performs predetermined processing on the output of the motion sensor unit, a usage state detection unit that detects a usage state of the portable information processing apparatus by a user, and a usage state are detected. When this is done, there is shown a portable information processing device comprising a control means for stopping at least one of the motion sensor section and the processing means.

特開2004−193940号公報JP 2004-193940 A 特開2005−286809号公報JP 2005-286809 A

例えば、電子装置が、モーションセンサで検出した自電子装置の動きと同じ動きをしている他の電子装置を、イメージセンサにより得られた映像の中から抽出しようとした場合、モーションセンサで検出された自装置の動きを示す波形と、映像中の他の電子装置の動きを示す波形とを比較して、それらの波形から同じ動きをしているか否か判定する必要がある。   For example, when an electronic device tries to extract another electronic device that is moving in the same manner as the movement of its own electronic device detected by the motion sensor from the image obtained by the image sensor, it is detected by the motion sensor. It is necessary to compare the waveform indicating the movement of the own device with the waveform indicating the movement of the other electronic device in the video and determine whether or not the same movement is performed from these waveforms.

しかし、そもそもモーションセンサで得られる信号の振幅と、イメージセンサで得られる映像信号の振幅とは、スケールが異なっているので、電子装置は、それらの波形を単純に比較することができなかった。
このように、異なるセンサ(例えば、モーションセンサ、イメージセンサ)から得られる信号を比較することができないという問題があった。
However, since the amplitude of the signal obtained by the motion sensor and the amplitude of the video signal obtained by the image sensor are different in the first place, the electronic apparatus cannot simply compare these waveforms.
As described above, there is a problem that signals obtained from different sensors (for example, a motion sensor and an image sensor) cannot be compared.

そこで本発明は、上記問題に鑑みてなされたものであり、異なるセンサから得られた信号を比較することを可能とする電子装置、データ生成方法およびデータ生成プログラムを提供することを課題とする。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide an electronic device, a data generation method, and a data generation program that can compare signals obtained from different sensors.

上記の課題を解決するために、本発明の一態様である電子装置は、自装置の動きを示す情報と、他装置の動きを示す情報を抽象化する抽象化部と、前記抽象化された情報を正規化する正規化部と、前記正規化された情報を比較し、該比較結果に基づいて、前記自装置の動きを示す情報と、前記他装置の動きを示す情報が同種の情報であるか否か判定する比較判定部と、を備えることを特徴とする。 In order to solve the above problems, an electronic device of one embodiment of the present invention includes information indicating the movement of the device itself, and abstraction unit to abstract and information indicating the movement of the other devices, is the abstraction a normalization unit for normalizing the information, the normalized information compared, based on the comparison result, the information indicating the movement of the own device, information and allogeneic showing the movement of the other device And a comparison / determination unit that determines whether or not the information is.

また、本発明の一態様であるデータ生成方法は、自装置の動きを示す情報と、他装置の動きを示す情報を抽象化する抽象化手順と、前記抽象化された情報を正規化する正規化手順と、前記正規化された情報を比較し、該比較結果に基づいて、前記自装置の動きを示す情報と、前記他装置の動きを示す情報が同種の情報であるか否か判定する比較判定手順と、を有することを特徴とする。 Further, the data generating method according to an embodiment of the present invention normalizes the information indicating the movement of the device itself, and abstraction procedure to abstract and information indicating the movement of another device, the abstracted information a normalization step, the normalized information compared, based on the comparison result, wherein whether the information indicating the movement of the device itself, and information indicating the movement of the other device is a same kind of information A comparison determination procedure.

また、本発明の一態様であるデータ生成プログラムは、コンピュータに、自装置の動きを示す情報と、他装置の動きを示す情報を抽象化する抽象化ステップと、前記抽象化された情報を正規化する正規化ステップと、前記正規化された情報を比較し、該比較結果に基づいて、前記自装置の動きを示す情報と、前記他装置の動きを示す情報が同種の情報であるか否か判定する比較判定ステップと、を実行させるためのデータ生成プログラムである。 A data generation program according to an aspect of the present invention includes an abstraction step for abstracting information indicating the motion of the own device and information indicating the motion of another device in a computer , and the abstracted information. a normalization step of normalizing, the normalized information compared, based on the comparison result, wherein the information indicating the movement of the device itself, the information of the other device information and the same type showing the movement of the A data generation program for executing a comparison determination step for determining whether or not there is.

本発明によれば、異なるセンサから得られた信号を比較することができる。   According to the present invention, signals obtained from different sensors can be compared.

第1の実施形態における電子装置のブロック構成図である。It is a block block diagram of the electronic device in 1st Embodiment. 第1の実施形態における画像領域抽出部の処理を説明するための図である。It is a figure for demonstrating the process of the image area extraction part in 1st Embodiment. 第1の実施形態における移動画素量算出部の処理について説明するための図である。It is a figure for demonstrating the process of the moving pixel amount calculation part in 1st Embodiment. 動きを示す情報を平滑化する抽象化部の処理を説明するための図である。It is a figure for demonstrating the process of the abstraction part which smoothes the information which shows a motion. 移動画素量を示す情報を平滑化する抽象化部の処理を説明するための図である。It is a figure for demonstrating the process of the abstraction part which smoothes the information which shows the amount of moving pixels. 抽象化部に入力される入力データの一例とその入力データから算出される自己相関関数の一例とが示された図である。It is the figure where an example of the input data input into an abstraction part and an example of the autocorrelation function calculated from the input data were shown. 1周期平均データave(n)の波形の一例が示された図である。It is the figure by which an example of the waveform of 1 period average data ave (n) was shown. 抽象化部に入力される入力データの一例と、その入力データが抽象化されたデータの一例とが示されている。An example of input data input to the abstraction unit and an example of data obtained by abstracting the input data are shown. 抽象化された相対距離を示す情報を正規化する正規化部の処理を説明するための図である。It is a figure for demonstrating the process of the normalization part which normalizes the information which shows the abstracted relative distance. 抽象化された移動画素量を示す情報を正規化する正規化部の処理を説明するための図である。It is a figure for demonstrating the process of the normalization part which normalizes the information which shows the abstracted moving pixel amount. 比較判定部による処理を説明するための図である。It is a figure for demonstrating the process by the comparison determination part. 第1の実施形態の電子装置の処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process of the electronic device of 1st Embodiment. 第2の実施形態の対象特定システムを概略図である。It is a schematic diagram of the object specific system of a 2nd embodiment. 第2の実施形態における第1の電子装置のブロック構成図である。It is a block block diagram of the 1st electronic device in 2nd Embodiment. 第2の実施形態における第2の電子装置のブロック構成図である。It is a block block diagram of the 2nd electronic device in 2nd Embodiment. 第2の実施形態の第2の電子装置sの処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process of the 2nd electronic device s of 2nd Embodiment.

<第1の実施形態>
以下、本発明の実施形態について、図面を参照して詳細に説明する。まず、第1の実施形態の電子装置1の概要について説明する。電子装置1は、予め自装置が備える動き検出部11によって検出された自装置の動きと、同じ動きで動かされている他の電子装置を撮像部12により得られた映像から抽出する。
<First Embodiment>
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. First, the outline | summary of the electronic device 1 of 1st Embodiment is demonstrated. The electronic device 1 extracts, from the video obtained by the imaging unit 12, another electronic device that is moved in the same movement as the movement of the own device detected in advance by the movement detection unit 11 included in the own device.

その際、電子装置1は、基準位置からの自装置の相対距離を示す情報および映像信号中の他の電子装置の画像領域の移動画素量を示す情報を抽象化し、抽象化されたそれらの情報を正規化し、正規化された2つの情報を比較し、該比較結果に基づいて該正規化された2つの情報が同種の情報であるか否か判定する。これにより、異なるセンサ(動き検出部、撮像部)から得られる信号を比較することができる。   At that time, the electronic device 1 abstracts the information indicating the relative distance of the device itself from the reference position and the information indicating the moving pixel amount of the image area of the other electronic device in the video signal, and the abstracted information Are compared, the two normalized information are compared, and based on the comparison result, it is determined whether or not the two normalized information are the same type of information. Thereby, signals obtained from different sensors (motion detection unit, imaging unit) can be compared.

図1は、第1の実施形態における電子装置1のブロック構成図である。電子装置1は、検出部10と、制御部20と、通信部30とを備える。
検出部10は、検出の対象から該対象の特徴を示す信号を検出する複数種類の検出部を備える。本実施形態では、一例として、検出部10は、動き検出部11と、撮像部12とを備える。
通信部30は、有線または無線方式で、他の電子装置と通信可能に構成されている。
FIG. 1 is a block configuration diagram of an electronic device 1 according to the first embodiment. The electronic device 1 includes a detection unit 10, a control unit 20, and a communication unit 30.
The detection unit 10 includes a plurality of types of detection units that detect signals indicating the characteristics of the target from the detection target. In the present embodiment, as an example, the detection unit 10 includes a motion detection unit 11 and an imaging unit 12.
The communication unit 30 is configured to be able to communicate with other electronic devices in a wired or wireless manner.

動き検出部11は、自装置の動きを検出し、検出した動きを示す情報を相対距離算出部21に出力する。ここで、動きを示す情報とは、自装置の3次元方向の動きを示す情報である。動き検出部11は、例えば、3次元加速度センサを備える。
撮像部12は、例えば、CCDイメージセンサと、ADC(ADコンバータ)とを備える。撮像部12は、CCDイメージセンサにより被写体である他の電子装置を所定のフレームレート(例えば、1秒間に30フレーム)で撮像し、撮像により得られた信号をADCによりデジタル信号に変換し、変換されたデジタル信号を画像領域抽出部22に出力する。
The motion detection unit 11 detects the motion of the device itself, and outputs information indicating the detected motion to the relative distance calculation unit 21. Here, the information indicating the movement is information indicating the movement of the own apparatus in the three-dimensional direction. The motion detection unit 11 includes, for example, a three-dimensional acceleration sensor.
The imaging unit 12 includes, for example, a CCD image sensor and an ADC (AD converter). The imaging unit 12 images another electronic device as a subject at a predetermined frame rate (for example, 30 frames per second) by the CCD image sensor, converts a signal obtained by the imaging into a digital signal by the ADC, and converts the image The digital signal thus output is output to the image region extraction unit 22.

制御部20は、相対距離算出部21と、画像領域抽出部22と、移動画素量算出部23と、抽象化部24と、正規化部25と、記憶部26と、比較判定部27とを備える。
相対距離算出部21は、動き検出部11から入力された動きを示す情報から、所定の時刻における自装置の位置を基準とした自装置の相対距離を時刻毎に算出する。そして、相対距離算出部21は、自装置の相対距離を示す情報を抽象化部24に出力する。
The control unit 20 includes a relative distance calculation unit 21, an image region extraction unit 22, a moving pixel amount calculation unit 23, an abstraction unit 24, a normalization unit 25, a storage unit 26, and a comparison determination unit 27. Prepare.
The relative distance calculation unit 21 calculates the relative distance of the own device based on the position of the own device at a predetermined time for each time from the information indicating the motion input from the motion detection unit 11. Then, the relative distance calculation unit 21 outputs information indicating the relative distance of the own device to the abstraction unit 24.

画像領域抽出部22は、撮像部12により得られたデジタル信号を用いて、撮像部12により得られた上記所定のフレームレートで撮像された映像から被写体である他の電子装置の画像領域を抽出する。   The image area extraction unit 22 uses the digital signal obtained by the imaging unit 12 to extract the image area of another electronic device that is the subject from the video imaged at the predetermined frame rate obtained by the imaging unit 12. To do.

図2は、第1の実施形態における画像領域抽出部22の処理を説明するための図である。同図において、向かって左側に、画像領域(オブジェクト)が抽出される前のk番目(kは正の整数)のフレームの画像の一例が示されている。k番目のフレームの画像内には、5つの電子装置の画像領域41〜45が示されている。   FIG. 2 is a diagram for explaining the processing of the image region extraction unit 22 in the first embodiment. In the drawing, an example of an image of a kth frame (k is a positive integer) before an image area (object) is extracted is shown on the left side. In the image of the kth frame, image areas 41 to 45 of five electronic devices are shown.

同図の向かって右側には、画像領域抽出部22の処理によって抽出された電子装置のそれぞれの画像領域41〜45を構成する座標を要素とするベクトル(それぞれ[X1,Y1]、[X2,Y2]、[X3,Y3]、[X4,Y4]、[X5,Y5])が示されている。   On the right side of the figure, on the right side are vectors ([X1, Y1], [X2, respectively] having coordinates constituting the image regions 41 to 45 of the electronic device extracted by the processing of the image region extraction unit 22 as elements. Y2], [X3, Y3], [X4, Y4], [X5, Y5]).

ここで、記憶部26には、テンプレートマッチングで参照される電子装置1が撮像された参照画像データが予め記憶されている。
例えば、画像領域抽出部22は、記憶部26からテンプレートマッチングで参照する電子装置1が撮像された参照画像データを読み出す。画像領域抽出部22は、入力されたk番目のフレームの画像データから所定の大きさの画像領域のデータを抽出し、抽出した画像データ(例えば、図2の画像領域41〜45のデータ)と読み出した参照画像データとのテンプレートマッチングを行う。
Here, the storage unit 26 stores in advance reference image data obtained by capturing an image of the electronic device 1 referred to by template matching.
For example, the image region extraction unit 22 reads reference image data obtained by capturing an image of the electronic device 1 that is referred to by template matching from the storage unit 26. The image area extraction unit 22 extracts data of an image area of a predetermined size from the input k-th frame image data, and the extracted image data (for example, data of the image areas 41 to 45 in FIG. 2) and Template matching with the read reference image data is performed.

具体的には、例えば、画像領域抽出部22は、抽出した画像領域のデータと読み出した参照画像データをそれぞれ、所定の数の行と所定の数の列(例えば、3×3)のブロックに分割する。そして、画像領域抽出部22は、分割されたブロック毎に、抽出した画像領域のデータと読み出した参照画像データとの間でRGB(赤、緑、青)それぞれの輝度値の差の絶対値を算出し、その差の絶対値の和を算出する。画像領域抽出部22は、分割されたブロック全てで、当該差の絶対値の和を算出し、その絶対値の和の総和を算出する。   Specifically, for example, the image area extraction unit 22 converts the extracted image area data and the read reference image data into blocks of a predetermined number of rows and a predetermined number of columns (for example, 3 × 3), respectively. To divide. Then, for each divided block, the image area extraction unit 22 calculates an absolute value of a difference in luminance values of RGB (red, green, blue) between the extracted image area data and the read reference image data. And the sum of the absolute values of the differences is calculated. The image region extraction unit 22 calculates the sum of absolute values of the differences in all the divided blocks, and calculates the sum of the sums of the absolute values.

そして、画像領域抽出部22は、算出した絶対値の和の総和が所定の閾値よりも小さい場合、抽出した画像領域のデータを電子装置の画像領域として抽出する。
画像領域抽出部22は、この処理を所定の画素ずらしながら画像全体で行う。これにより、画像領域抽出部22は、被写体(ここでは、電子装置)が撮像された各フレームの画像から、その被写体の画像領域を抽出することができる。
画像領域抽出部22は、抽出した被写体の画像領域の画素位置を示す情報を移動画素量算出部23に出力する。
Then, when the total sum of the calculated absolute values is smaller than a predetermined threshold, the image area extraction unit 22 extracts the extracted image area data as the image area of the electronic device.
The image area extraction unit 22 performs this process on the entire image while shifting a predetermined pixel. Thereby, the image region extraction unit 22 can extract the image region of the subject from the image of each frame in which the subject (in this case, the electronic device) is captured.
The image area extraction unit 22 outputs information indicating the pixel position of the extracted image area of the subject to the moving pixel amount calculation unit 23.

移動画素量算出部23は、抽出された各画像領域が所定のフレームにおけるそれぞれの画像領域の画素位置からの画素間隔を移動画素量として算出する。具体的には、例えば、移動画素量算出部23は、各フレームから画像領域抽出部22により抽出された画像領域それぞれについて、重心の画素位置を抽出する。そして、移動画素量算出部23は、所定のフレームにおける重心の画素位置を基準として、その基準となる重心の画素位置から各フレームにおける重心の画素位置がどれだけ離れているかを示す移動画素量を算出する。移動画素量算出部23は、算出した移動画素量を示す情報を抽象化部24に出力する。   The moving pixel amount calculation unit 23 calculates, as the moving pixel amount, a pixel interval from the pixel position of each extracted image region in each image region in a predetermined frame. Specifically, for example, the moving pixel amount calculation unit 23 extracts the pixel position of the center of gravity for each image region extracted by the image region extraction unit 22 from each frame. Then, the moving pixel amount calculation unit 23 calculates a moving pixel amount indicating how far the pixel position of the center of gravity in each frame is away from the pixel position of the center of gravity as a reference with respect to the pixel position of the center of gravity in the predetermined frame. calculate. The moving pixel amount calculation unit 23 outputs information indicating the calculated moving pixel amount to the abstraction unit 24.

図3は、第1の実施形態における移動画素量算出部23の処理について説明するための図である。同図において、向かって左側に、上からk−1番目のフレームの画像と、k番目のフレームの画像と、k+1番目のフレームの画像とが示されている。
k−1番目のフレームの画像において、電子装置の画像領域51と、その電子装置の画像領域51の重心の画素位置である基準画素位置54が示されている。
同様に、k番目のフレームの画像において、電子装置の画像領域52が示され、k+1番目のフレームの画像において、電子装置の画像領域53が示されている。
FIG. 3 is a diagram for explaining the processing of the moving pixel amount calculation unit 23 in the first embodiment. In the figure, on the left side, an image of the (k−1) th frame, an image of the kth frame, and an image of the (k + 1) th frame are shown from the top.
In the image of the (k−1) th frame, an image area 51 of the electronic device and a reference pixel position 54 that is a pixel position at the center of gravity of the image area 51 of the electronic device are shown.
Similarly, the image area 52 of the electronic device is shown in the image of the k-th frame, and the image area 53 of the electronic device is shown in the image of the k + 1-th frame.

同図において、向かって右側に、上からk−1番目のフレームにおける移動画素量0と、k番目のフレームにおける移動画素量250と、k+1番目のフレームにおける移動画素量500とが示されている。   In the figure, the moving pixel amount 0 in the (k−1) th frame from the top, the moving pixel amount 250 in the kth frame, and the moving pixel amount 500 in the (k + 1) th frame are shown on the right side. .

同図において、移動画素量算出部23は、一例として、k−1番目のフレームの画像中における電子装置の画像領域51の画素位置を示す情報を受け取り、電子装置の画像領域51の重心の画素位置である基準画素位置54を算出し、移動画素量0を算出する。
同様に、移動画素量算出部23は、一例として、k番目のフレームの画像中における電子装置の画像領域52の画素位置を示す情報を受け取り、電子装置の画像領域52の重心の画素位置を算出し、重心の画素位置が基準画素位置54から離れているピクセル数を移動画素量(ここでは、例として250)として算出する。
In the figure, as an example, the moving pixel amount calculation unit 23 receives information indicating the pixel position of the image region 51 of the electronic device in the image of the (k−1) th frame, and the pixel at the center of gravity of the image region 51 of the electronic device. A reference pixel position 54 that is a position is calculated, and a moving pixel amount 0 is calculated.
Similarly, as an example, the moving pixel amount calculation unit 23 receives information indicating the pixel position of the image area 52 of the electronic device in the image of the k-th frame, and calculates the pixel position of the center of gravity of the image area 52 of the electronic device. Then, the number of pixels in which the pixel position of the center of gravity is far from the reference pixel position 54 is calculated as a moving pixel amount (here, 250 as an example).

同様に、移動画素量算出部23は、一例として、k+1番目のフレームの画像中における電子装置の画像領域53の画素位置を示す情報を受け取り、電子装置の画像領域53の重心の画素位置を算出し、重心の画素位置が基準画素位置54から離れているピクセル数を移動画素量(ここでは、例として500)として算出する。   Similarly, as an example, the moving pixel amount calculation unit 23 receives information indicating the pixel position of the image area 53 of the electronic device in the image of the (k + 1) th frame, and calculates the pixel position of the center of gravity of the image area 53 of the electronic device. Then, the number of pixels in which the pixel position of the center of gravity is separated from the reference pixel position 54 is calculated as a moving pixel amount (here, 500 as an example).

図1に戻って、抽象化部24は、入力された情報を抽象化する。詳細には、抽象化部24は、複数種類の検出部によりそれぞれ検出された信号に基づく情報を抽象化する。まず、抽象化部24の処理の概要について説明する。   Returning to FIG. 1, the abstraction unit 24 abstracts the input information. Specifically, the abstraction unit 24 abstracts information based on signals detected by a plurality of types of detection units. First, an outline of processing of the abstraction unit 24 will be described.

図4を用いて、抽象化部24の処理の一例について説明する。図4は、動きを示す情報を平滑化する抽象化部24の処理を説明するための図である。同図の向かって左側には、動きを示す情報として、あるフレームにおける自装置の位置を基準位置とした時刻毎の自装置の相対距離が滑らかに繋がれた曲線61が示されている。同図の向かって右側には、抽象化部24により曲線61が平滑化された曲線62が示されている。   An example of processing performed by the abstraction unit 24 will be described with reference to FIG. FIG. 4 is a diagram for explaining processing of the abstraction unit 24 that smoothes information indicating motion. On the left side of the figure, as the information indicating the movement, a curve 61 is shown in which the relative distance of the own device at each time is smoothly connected with the position of the own device in a certain frame as a reference position. A curve 62 obtained by smoothing the curve 61 by the abstraction unit 24 is shown on the right side of the figure.

抽象化部24は、相対距離算出部21から入力された自装置の相対距離を示す情報を抽象化する。具体的には、例えば、抽象化部24は、自装置の相対距離を示す情報が時系列順に並んだデータの自己相関関数を算出し、該算出された自己相関関数に基づいて、自装置の相対距離を示す情報を抽象化する。抽象化部24は、抽象化した相対距離を示す情報を正規化部25に出力する。その処理の詳細は、後述する。   The abstraction unit 24 abstracts information indicating the relative distance of the own device input from the relative distance calculation unit 21. Specifically, for example, the abstraction unit 24 calculates an autocorrelation function of data in which information indicating the relative distance of the own device is arranged in time series, and based on the calculated autocorrelation function, Abstract the information indicating the relative distance. The abstraction unit 24 outputs information indicating the abstracted relative distance to the normalization unit 25. Details of the processing will be described later.

図5を用いて、抽象化部24の処理の一例について説明する。図5は、移動画素量を示す情報を平滑化する抽象化部24の処理を説明するための図である。同図の向かって左側には、移動画素量を示す情報として、時刻毎の移動画素量が滑らかに繋がれた曲線71が示されている。同図の向かって右側には、抽象化部24により曲線71が抽象化された曲線72が示されている。   An example of processing performed by the abstraction unit 24 will be described with reference to FIG. FIG. 5 is a diagram for explaining the processing of the abstraction unit 24 that smoothes the information indicating the moving pixel amount. On the left side of the figure, as the information indicating the moving pixel amount, a curve 71 in which the moving pixel amount for each time is smoothly connected is shown. A curve 72 obtained by abstracting the curve 71 by the abstraction unit 24 is shown on the right side of FIG.

抽象化部24は、移動画素量算出部23から入力された移動画素量を抽象化する。具体的には、例えば、抽象化部24は、被写体である電子装置の移動画素量を時系列順に並んだデータの自己相関関数を算出し、該算出された自己相関関数に基づいて、移動画素量を示す情報を抽象化する。そして、抽象化部24は、抽象化された移動画素量を示す情報を正規化部25に出力する。   The abstraction unit 24 abstracts the moving pixel amount input from the moving pixel amount calculation unit 23. Specifically, for example, the abstraction unit 24 calculates an autocorrelation function of data in which the moving pixel amounts of the electronic device that is the subject are arranged in chronological order, and based on the calculated autocorrelation function, the moving pixel Abstract information indicating quantity. Then, the abstraction unit 24 outputs information indicating the abstracted moving pixel amount to the normalization unit 25.

続いて、抽象化部24の処理の詳細について説明する。まず、抽象化部24により算出される自己相関関数の算出方法について説明する。図6は、抽象化部24に入力される入力データと抽象化部24により算出される自己相関関数とが示された図である。図6(a)には、抽象化部24に入力される入力データが繋がれた折れ線81が示されている。ここで、縦軸は振幅、横軸はサンプル数である。   Next, details of the processing of the abstraction unit 24 will be described. First, a method for calculating the autocorrelation function calculated by the abstraction unit 24 will be described. FIG. 6 is a diagram illustrating the input data input to the abstraction unit 24 and the autocorrelation function calculated by the abstraction unit 24. FIG. 6A shows a broken line 81 to which input data input to the abstraction unit 24 is connected. Here, the vertical axis represents amplitude, and the horizontal axis represents the number of samples.

図6(b)には、抽象化部24に算出される自己相関関数を示す折れ線82の一例が示されている。ここで、縦軸は自己相関関数の値、横軸はサンプル数である。また、自己相関関数の極大値であるピーク83と、1番目のサンプルからピーク83のサンプルまでが1周期τであることが示されている。   FIG. 6B shows an example of a polygonal line 82 indicating the autocorrelation function calculated by the abstraction unit 24. Here, the vertical axis represents the value of the autocorrelation function, and the horizontal axis represents the number of samples. Further, it is shown that the peak 83 which is the maximum value of the autocorrelation function and the period from the first sample to the sample of the peak 83 are one period τ.

例えば、図6(a)に示された抽象化部24に入力されるn項からなる入力データAが、下記の式(1)で表される。   For example, input data A composed of n terms input to the abstraction unit 24 shown in FIG. 6A is expressed by the following equation (1).

Figure 0005747646
Figure 0005747646

また、図6(a)に示された入力データAの配列の一部であるm項(m=n/2)の配列A´は、下記の式(2)で表される(nは2以上の偶数、mは正の整数)。   An array A ′ of m terms (m = n / 2), which is a part of the array of input data A shown in FIG. 6A, is expressed by the following equation (2) (n is 2 The above even numbers, m is a positive integer).

Figure 0005747646
Figure 0005747646

ここで、A´は固定である。また、図6(a)に示された入力データAの配列をt(0≦t≦n/2)だけずらしたm項の配列Bは、下記の式(3)で表される。   Here, A ′ is fixed. An array B of m terms obtained by shifting the array of input data A shown in FIG. 6A by t (0 ≦ t ≦ n / 2) is expressed by the following equation (3).

Figure 0005747646
Figure 0005747646

ここで、Bは可変である。   Here, B is variable.

抽象化部24は、このずらし幅tによって得られる配列A´と配列Bによる自己相関関数は、以下の式(4)に従って、算出する。   The abstraction unit 24 calculates the autocorrelation function based on the array A ′ and the array B obtained by the shift width t according to the following equation (4).

Figure 0005747646
Figure 0005747646

配列A´と配列Bの各要素が所定の間隔で描画された波形が似ているほど値は1に近づくこととなる。
抽象化部24は、自己相関関数R(t)上で、上に凸の頂点のデータ(ピーク値)を抽出する。そして、抽象化部24は、抽出したピーク値が所定の閾値を越えている場合、そのピーク値をとるサンプル番号(または時刻)を抽出する。抽象化部24は、ピーク値をとるサンプル番号の間隔(または時間間隔)を周期τとして抽出する。
The value becomes closer to 1 as the waveforms of the elements of the arrays A ′ and B that are drawn at predetermined intervals are more similar.
The abstraction unit 24 extracts the data (peak value) of the upwardly convex vertex on the autocorrelation function R (t). Then, when the extracted peak value exceeds a predetermined threshold, the abstraction unit 24 extracts a sample number (or time) that takes the peak value. The abstraction unit 24 extracts the interval (or time interval) between the sample numbers taking the peak values as the period τ.

抽象化部24は、入力データAを自己相関関数で求めた周期τで1周期ごとに分割する。そして、繰り返し回数numとすると、抽象化部24は、1周期平均データave(n)は以下の式(5)に従って算出する。   The abstraction unit 24 divides the input data A every period by the period τ obtained by the autocorrelation function. If the number of repetitions is num, the abstraction unit 24 calculates the one-cycle average data ave (n) according to the following equation (5).

Figure 0005747646
Figure 0005747646

図7は、1周期平均データave(n)の波形の一例と4サンプル毎の平均とが示された図である。図7(a)は、1周期平均データave(n)の波形84が示されている。図7(b)は、1周期平均データave(n)を4サンプル毎に平均された値が繋がれた線85が示されている。   FIG. 7 is a diagram showing an example of the waveform of the one-cycle average data ave (n) and the average for every four samples. FIG. 7A shows a waveform 84 of one-cycle average data ave (n). FIG. 7B shows a line 85 in which values obtained by averaging the one-cycle average data ave (n) every four samples are connected.

図8には、抽象化部24に入力される入力データの一例と、その入力データが抽象化されたデータの一例とが示されている。同図において、入力データが繋がれた折れ線81と、その入力データが抽象化されたデータが繋がれた折れ線86とが示されている。折れ線86は、1周期平均データave(n)を4サンプル毎に平均された値が繋がれた線85を1周期分のデータとして、入力データAが有する周期数だけ繋がれた折れ線である。   FIG. 8 shows an example of input data input to the abstraction unit 24 and an example of data obtained by abstracting the input data. In the figure, a broken line 81 to which input data is connected and a broken line 86 to which data obtained by abstracting the input data are connected are shown. The broken line 86 is a broken line that is connected by the number of periods of the input data A, with the line 85 connected to the average value of the one period average data ave (n) every four samples being used as data for one period.

抽象化部24は、1周期平均データave(n)を所定の分割数(例えば、4)で区切り、区切った範囲の平均値を算出する。そして、抽象化部24は、算出された区切った範囲のデータを1周期のデータとして、入力データの周期数だけデータを抽象化されたデータとして生成する。そして、抽象化部24は、抽象化されたデータを正規化部25に出力する。
これにより、抽象化部24は、入力されたデータから大きな変化を抽出した抽象化されたデータを生成することができるので、電子装置1は同じ種類のデバイスによって得られたデータを比較することができる。
The abstraction unit 24 delimits the one-cycle average data ave (n) by a predetermined number of divisions (for example, 4), and calculates an average value of the delimited range. Then, the abstraction unit 24 generates data as abstracted data by the number of periods of the input data, with the calculated range of data as one period of data. The abstraction unit 24 then outputs the abstracted data to the normalization unit 25.
As a result, the abstraction unit 24 can generate abstracted data obtained by extracting a large change from the input data, so that the electronic apparatus 1 can compare data obtained by the same type of device. it can.

なお、本実施形態では、抽象化部24は、自己相関関数の値を用いて抽象化をしたが、これに限らず、ローパスフィルタを掛けて抽象化してもよい。   In the present embodiment, the abstraction unit 24 performs the abstraction using the value of the autocorrelation function. However, the present invention is not limited to this, and the abstraction unit 24 may perform the abstraction by applying a low-pass filter.

正規化部25は、抽象化部24から入力された抽象化された相対距離を示す情報を正規化し、正規化された相対距離(正規化相対距離)を示す情報を記憶部26に記憶させる。具体的には、例えば、正規化部25は、各時刻における抽象化された相対距離を正規化し、−1から1までの値にする。   The normalizing unit 25 normalizes the information indicating the abstracted relative distance input from the abstracting unit 24 and stores the information indicating the normalized relative distance (normalized relative distance) in the storage unit 26. Specifically, for example, the normalization unit 25 normalizes the abstracted relative distance at each time to obtain a value from −1 to 1.

図9を用いて、その処理について説明する。図9は、抽象化された相対距離を示す情報を正規化する正規化部25の処理を説明するための図である。同図の向かって左側には、各時刻における平滑化された相対距離が滑らかに繋がれた曲線62が示されている。同図の向かって右側には、正規化部25により、各時刻における正規化された相対距離が滑らかに繋がれた曲線63が示されている。   The process will be described with reference to FIG. FIG. 9 is a diagram for explaining processing of the normalization unit 25 that normalizes information indicating the abstracted relative distance. On the left side of the figure, a curve 62 is shown in which the smoothed relative distances at each time are smoothly connected. On the right side of the figure, a curve 63 in which the normalized relative distances at each time are smoothly connected by the normalizing unit 25 is shown.

また、正規化部25は、抽象化部24から入力された抽象化された移動画素量を示す情報を正規化する。具体的には、例えば、正規化部25は、各時刻における抽象化された移動画素量を正規化し、−1から1までの値にする。   The normalization unit 25 normalizes information indicating the abstracted moving pixel amount input from the abstraction unit 24. Specifically, for example, the normalization unit 25 normalizes the abstracted moving pixel amount at each time to obtain a value from −1 to 1.

図10を用いて、その処理について説明する。図10は、抽象化された移動画素量を示す情報を正規化する正規化部25の処理を説明するための図である。同図の向かって左側には、各時刻における平滑化された移動画素量が滑らかに繋がれた曲線72が示されている。同図の向かって右側には、正規化部25により、各時刻における正規化された移動画素量が滑らかに繋がれた曲線73が示されている。   The process will be described with reference to FIG. FIG. 10 is a diagram for explaining the processing of the normalization unit 25 that normalizes information indicating the abstracted moving pixel amount. On the left side of the figure, a curved line 72 in which smoothed moving pixel amounts at each time are smoothly connected is shown. On the right side of the figure, a curve 73 in which the normalized moving pixel amount at each time is smoothly connected by the normalizing unit 25 is shown.

正規化部25は、正規化された移動画素量(正規化移動画素量)を示す情報を比較判定部27に出力する。
以上、正規化部25は、抽象化されたデータを正規化することにより、電子装置1は異なる種類のデバイスによって得られたデータを比較することができる。
The normalization unit 25 outputs information indicating the normalized moving pixel amount (normalized moving pixel amount) to the comparison determination unit 27.
As described above, the normalization unit 25 normalizes the abstracted data, so that the electronic apparatus 1 can compare data obtained by different types of devices.

図1に戻って、比較判定部27は、正規化された相対距離Nmを示す情報を記憶部26から読み出す。そして、比較判定部27は、正規化された相対距離Ndと正規化移動画素量Nmとに基づいて、動き検出部11により検出された動きと同種の動きをしている画像領域を特定する。   Returning to FIG. 1, the comparison / determination unit 27 reads information indicating the normalized relative distance Nm from the storage unit 26. Then, the comparison / determination unit 27 identifies an image region that has the same type of motion as the motion detected by the motion detection unit 11 based on the normalized relative distance Nd and the normalized moving pixel amount Nm.

図11は、比較判定部27による処理を説明するための図である。各時刻における正規化相対距離を示す曲線63と、各時刻における正規化移動画素量を示す曲線73とが示されている。例えば、比較判定部27は、各時刻における正規化相対距離と各時刻における正規化移動画素量との差の絶対値を算出し、算出した各時刻における差の絶対値の総和を差算出する。そして、比較判定部27は、その差の絶対値の総和が所定の閾値以下の場合、その正規化移動画素量が算出された画像領域を、動き検出部11により検出された動きと同種の動きをしている画像領域と判定する。比較判定部27は、判定結果を示す情報を自装置の外部に出力する。   FIG. 11 is a diagram for explaining processing by the comparison determination unit 27. A curve 63 indicating the normalized relative distance at each time and a curve 73 indicating the normalized moving pixel amount at each time are shown. For example, the comparison determination unit 27 calculates the absolute value of the difference between the normalized relative distance at each time and the normalized moving pixel amount at each time, and calculates the sum of the calculated absolute values of the differences at each time. Then, when the sum of the absolute values of the differences is equal to or less than a predetermined threshold, the comparison determination unit 27 uses the same type of motion as the motion detected by the motion detection unit 11 for the image region in which the normalized moving pixel amount is calculated. It is determined that the image area is being processed. The comparison determination unit 27 outputs information indicating the determination result to the outside of the own device.

なお、本実施形態では、比較判定部27は、正規化された相対距離Ndと正規化移動画素量Nmとを比較したがこれに限らず、比較判定部27は、正規化された情報を2つ以上比較し、該比較結果に基づいて該2つ以上の正規化された情報が同種の情報であるか否か判定すればよい。   In the present embodiment, the comparison / determination unit 27 compares the normalized relative distance Nd with the normalized moving pixel amount Nm. However, the comparison / determination unit 27 does not limit the normalized information to 2 Two or more may be compared, and based on the comparison result, it may be determined whether the two or more normalized information is the same type of information.

図12は、第1の実施形態の電子装置1の処理の流れを示したフローチャートである。まず、動き検出部11は、自装置の動きを検出する(ステップS101)。次に、相対距離算出部21は、相対距離を示す情報を算出する(ステップS102)。次に、抽象化部24は、相対距離を示す情報を抽象化する(ステップS103)。   FIG. 12 is a flowchart illustrating a processing flow of the electronic device 1 according to the first embodiment. First, the motion detection unit 11 detects the motion of its own device (step S101). Next, the relative distance calculation unit 21 calculates information indicating the relative distance (step S102). Next, the abstraction unit 24 abstracts information indicating the relative distance (step S103).

次に、正規化部25は、抽象化された相対距離を示す情報を正規化する(ステップS104)。次に、正規化部25は、正規化により得られた相対距離を示す情報を記憶部26に記憶させる(ステップS105)。
次に、撮像部12は、所定の数のフレーム数だけ、ユーザにより振られている複数の電子装置を1枚の画像に入るように撮像する(ステップS106)。次に、画像領域抽出部22は、全てのフレームにおいて、複数の電子装置が撮像された画像領域を、それぞれ抽出する(ステップS107)。
Next, the normalization unit 25 normalizes information indicating the abstracted relative distance (step S104). Next, the normalization unit 25 stores information indicating the relative distance obtained by normalization in the storage unit 26 (step S105).
Next, the imaging unit 12 captures a plurality of electronic devices shaken by the user by a predetermined number of frames so as to be included in one image (step S106). Next, the image area extraction unit 22 extracts image areas in which a plurality of electronic devices are captured in all frames (step S107).

次に、移動画素量算出部23は、一の電子装置の画像領域の移動画素量を算出する(ステップS108)。次に、抽象化部24は、一の電子装置の画像領域の移動画素量を抽象化する(ステップS109)。次に、正規化部25は、抽象化した移動画素量を正規化する(ステップS110)。次に、比較判定部27は、正規化相対距離を示す情報を記憶部26から読み出す(ステップS111)。   Next, the moving pixel amount calculation unit 23 calculates the moving pixel amount of the image area of one electronic device (step S108). Next, the abstraction unit 24 abstracts the moving pixel amount of the image area of one electronic device (step S109). Next, the normalization unit 25 normalizes the abstracted moving pixel amount (step S110). Next, the comparison determination unit 27 reads information indicating the normalized relative distance from the storage unit 26 (step S111).

次に、比較判定部27は、正規化相対距離と正規化移動画素量の差の絶対値の和が閾値以下であるか否か判定する(ステップS112)。当該差の絶対値の和が閾値以下の場合(ステップS112 YES)、比較判定部27は、一の電子装置が、動き検出部11で検出された動きと同種の動きをしていると判定する(ステップS113)。
一方、当該差の絶対値の和が閾値を越える場合(ステップS112 NO)、比較判定部27は、一の電子装置が、動き検出部11で検出された動きと異種の動きをしていると判定する(ステップS114)。
Next, the comparison / determination unit 27 determines whether or not the sum of the absolute values of the differences between the normalized relative distance and the normalized moving pixel amount is equal to or less than a threshold (step S112). If the sum of the absolute values of the differences is equal to or less than the threshold (YES in step S112), the comparison determination unit 27 determines that the one electronic device is moving in the same type as the movement detected by the movement detection unit 11. (Step S113).
On the other hand, when the sum of the absolute values of the differences exceeds the threshold (NO in step S112), the comparison determination unit 27 indicates that one electronic device moves differently from the movement detected by the movement detection unit 11. Determination is made (step S114).

次に、電子装置1は、他の電子装置が撮像された全ての画像領域で上記判定をしたか否か判定する(ステップS114)。他の電子装置が撮像された全ての画像領域で上記判定をしていない場合(ステップS114 NO)、電子装置1は、ステップS108の処理に戻る。一方、他の電子装置が撮像された全ての画像領域で上記判定をした場合(ステップS114 YES)、電子装置1は、その処理を終了する。   Next, the electronic device 1 determines whether or not the above determination has been made for all image regions in which other electronic devices have been imaged (step S114). If the above determination has not been made for all image regions in which other electronic devices have been imaged (NO in step S114), the electronic device 1 returns to the processing in step S108. On the other hand, when the above determination is made in all image regions where other electronic devices have been imaged (YES in step S114), the electronic device 1 ends the process.

以上、電子装置1は、自装置の相対距離を抽象化し、正規化した正規化相対距離と、撮像により得られた他の電子装置の移動画素量を抽象化し正規化した正規化移動画素量とを比較する。
これにより、電子装置1は、異なるセンサで検出された情報をそれぞれ抽象化し正規化することにより、異なるセンサで検出した情報を比較することができる。
As described above, the electronic device 1 abstracts the relative distance of its own device and normalizes the normalized relative distance, and the normalized moving pixel amount that abstracts and normalizes the moving pixel amount of another electronic device obtained by imaging. Compare
Thereby, the electronic device 1 can compare information detected by different sensors by abstracting and normalizing information detected by different sensors.

なお、本実施形態では、電子装置1は、情報を抽象化した後に、抽象化した情報を正規化したが、これに限らず、情報を正規化した後に、抽象化してもよい。   In the present embodiment, the electronic apparatus 1 normalizes the abstracted information after abstracting the information. However, the present invention is not limited to this, and the information may be abstracted after normalizing the information.

<第2の実施形態>
続いて、第2の実施形態について説明する。上述の第1の実施形態では、電子装置1は、自装置が備える2種類の検出部により順番に検出された情報を比較することにより、自装置が過去に動かされた動きと同種の動きをしている他の電子装置を映像から特定した。第2の実施形態では、第1の電子装置2_1がユーザに動かされている最中に、第2の電子装置2_2は、第1の電子装置2_1が動かされている動きと同種の動きをしている他の電子装置を映像からリアルタイムで特定する。
<Second Embodiment>
Next, the second embodiment will be described. In the first embodiment described above, the electronic apparatus 1 compares the information sequentially detected by the two types of detection units included in the own apparatus, thereby performing the same kind of movement as the movement of the own apparatus in the past. I identified other electronic devices in the video. In the second embodiment, while the first electronic device 2_1 is being moved by the user, the second electronic device 2_2 performs the same kind of movement as the movement of the first electronic device 2_1. Identify other electronic devices in real time from the video.

図13は、第2の実施形態の対象特定システム2を概略図である。対象特定システム2は、第1の電子装置2_1と、第2の電子装置2_2とを備える。同図において、第1の電子装置2_1は、ユーザにより振られる方向が示されている。第1の電子装置2_1は、ユーザにより振られている最中に、正規化相対距離Ndを示す情報を第2の電子装置2_2に無線で送信する。   FIG. 13 is a schematic diagram of the target identification system 2 according to the second embodiment. The target identification system 2 includes a first electronic device 2_1 and a second electronic device 2_2. In the same figure, the direction in which the first electronic device 2_1 is swung by the user is shown. The first electronic device 2_1 wirelessly transmits information indicating the normalized relative distance Nd to the second electronic device 2_2 while being shaken by the user.

図14は、第2の実施形態における第1の電子装置2_1のブロック構成図である。なお、図1と共通する要素には同一の符号を付し、その具体的な説明を省略する。図14の電子装置2_1の構成は、図1の電子装置1の構成に対して、検出部10が検出部10bに変更され、制御部20が制御部20bに変更され、通信部30が通信部30bに変更されたものとなっている。   FIG. 14 is a block configuration diagram of the first electronic device 2_1 in the second embodiment. Elements common to those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted. The configuration of the electronic device 2_1 in FIG. 14 is different from the configuration of the electronic device 1 in FIG. 1 in that the detection unit 10 is changed to the detection unit 10b, the control unit 20 is changed to the control unit 20b, and the communication unit 30 is the communication unit. It has been changed to 30b.

検出部10bは、動き検出部11を備える。動き検出部11は、第1の実施形態と同様に、自装置の動きを検出する。
制御部20bは、相対距離算出部21と、抽象化部24と、正規化部24bとを備える。
正規化部24bは、自装置の動きに基づき正規化相対距離Ndを示す情報を通信部30bに出力する。
通信部30bは、正規化部24bから入力された正規化相対距離Ndを示す情報を符号化し、符号化した正規化相対距離Ndを示す情報を無線で第2の電子装置2_2に送信する。
The detection unit 10 b includes a motion detection unit 11. The motion detection unit 11 detects the motion of its own device, as in the first embodiment.
The control unit 20b includes a relative distance calculation unit 21, an abstraction unit 24, and a normalization unit 24b.
The normalizing unit 24b outputs information indicating the normalized relative distance Nd to the communication unit 30b based on the movement of the own device.
The communication unit 30b encodes information indicating the normalized relative distance Nd input from the normalization unit 24b, and wirelessly transmits the information indicating the encoded normalized relative distance Nd to the second electronic device 2_2.

図15は、第2の実施形態における第2の電子装置2_2のブロック構成図である。なお、図1と共通する要素には同一の符号を付し、その具体的な説明を省略する。図15の電子装置2_2の構成は、図1の電子装置1の構成に対して、検出部10が検出部10cに変更され、制御部20が制御部20cに変更され、記憶部26が記憶部26cに変更され、通信部30が通信部30cに変更されたものとなっている。   FIG. 15 is a block configuration diagram of the second electronic device 2_2 in the second embodiment. Elements common to those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted. The configuration of the electronic device 2_2 in FIG. 15 is different from the configuration of the electronic device 1 in FIG. 1 in that the detection unit 10 is changed to the detection unit 10c, the control unit 20 is changed to the control unit 20c, and the storage unit 26 is the storage unit. The communication unit 30 is changed to the communication unit 30c.

検出部10bは、撮像部12を備える。撮像部12は、第1の実施形態と同様に、被写体を撮像する。
通信部30cは、第1の電子装置2_1から送信された符号化された正規化相対距離Ndを受信し、受信した符号化された正規化相対距離Ndを復号し、復号した正規化相対距離Ndを示す情報を記憶部26cに記憶させる。
The detection unit 10 b includes an imaging unit 12. The imaging unit 12 images a subject as in the first embodiment.
The communication unit 30c receives the encoded normalized relative distance Nd transmitted from the first electronic device 2_1, decodes the received encoded normalized relative distance Nd, and decodes the normalized normalized relative distance Nd. Is stored in the storage unit 26c.

図16は、第2の実施形態の第2の電子装置2_2の処理の流れを示したフローチャートである。まず、通信部30cは、符号化された正規化相対距離Ndを示す情報を第1の電子装置2_1から受信する(ステップS201)。ステップS202からステップS207までの処理は、図12のステップS106からステップS111までの処理と同一であるので、その説明を省略する。   FIG. 16 is a flowchart illustrating a processing flow of the second electronic device 2_2 of the second embodiment. First, the communication unit 30c receives information indicating the encoded normalized relative distance Nd from the first electronic device 2_1 (step S201). Since the processing from step S202 to step S207 is the same as the processing from step S106 to step S111 in FIG. 12, the description thereof is omitted.

次に、ステップS208において、比較判定部27は、正規化相対距離と正規化移動画素量の差の絶対値の和が閾値以下か否か判定する。正規化相対距離と正規化移動画素量の差の絶対値の和が閾値以下の場合(ステップS208 YES)、比較判定部27は、抽出された電子装置の画像領域は、電子装置2_1で検出された動きと同種の動きをしていると判定する(ステップS209)。一方、正規化相対距離と正規化移動画素量の差の絶対値の和が閾値を超える場合(ステップS208 NO)、比較判定部27は、抽出された電子装置の画像領域は、電子装置2_1で検出された動きとは異なる種類の動きをしていると判定する(ステップS210)。   Next, in step S208, the comparison determination unit 27 determines whether the sum of absolute values of differences between the normalized relative distance and the normalized moving pixel amount is equal to or less than a threshold value. When the sum of the absolute values of the differences between the normalized relative distance and the normalized moving pixel amount is equal to or smaller than the threshold (YES in step S208), the comparison determination unit 27 detects the extracted image area of the electronic device by the electronic device 2_1. It is determined that the same type of movement is performed (step S209). On the other hand, when the sum of the absolute values of the differences between the normalized relative distance and the normalized moving pixel amount exceeds the threshold (NO in step S208), the comparison determination unit 27 determines that the extracted image area of the electronic device is the electronic device 2_1. It is determined that the type of movement is different from the detected movement (step S210).

次に、電子装置2_2は、他の電子装置が撮像された全ての画像領域で上記判定をしたか否か判定する(ステップS211)。他の電子装置が撮像された全ての画像領域で上記判定をしていない場合(ステップS211 NO)、電子装置2_2は、ステップS204の処理に戻る。一方、他の電子装置が撮像された全ての画像領域で上記判定をした場合(ステップS211 YES)、電子装置2_2は、その処理を終了する。   Next, the electronic device 2_2 determines whether or not the above determination has been made for all image regions in which other electronic devices have been imaged (step S211). If the above determination has not been made in all image regions in which other electronic devices have been imaged (NO in step S211), the electronic device 2_2 returns to the process in step S204. On the other hand, when the above determination is made in all image regions where other electronic devices have been imaged (YES in step S211), the electronic device 2_2 ends the process.

以上、第2の実施形態では、ユーザにより振られている第1の電子装置2_1が、自装置が備える動き検出部11により自装置の動きを検出し、自装置の動きに基づき正規化相対距離Ndを示す情報を第2の電子装置2_2に無線で送信する。
そして、第2の電子装置2_2は、自装置が備える撮像部12によって他の電子装置の映像を取得し、他の電子装置の画像領域から算出された正規化移動画素量と、第1の電子装置2_1から受信した正規化相対距離Ndとを比較する。
As described above, in the second embodiment, the first electronic device 2_1 shaken by the user detects the motion of the own device by the motion detection unit 11 included in the own device, and the normalized relative distance based on the motion of the own device. Information indicating Nd is wirelessly transmitted to the second electronic device 2_2.
Then, the second electronic device 2_2 acquires the image of the other electronic device by the imaging unit 12 included in the own device, the normalized moving pixel amount calculated from the image area of the other electronic device, and the first electronic device The normalized relative distance Nd received from the device 2_1 is compared.

これにより、第2の電子装置2_2は、第1の電子装置2_1が動かされている最中に、第1の電子装置2_1の動きと同種の動きをしている他の電子装置を映像からリアルタイムに特定することができる。   As a result, the second electronic device 2_2 performs real-time monitoring of other electronic devices that are moving in the same type as the movement of the first electronic device 2_1 while the first electronic device 2_1 is being moved. Can be specified.

また、本実施形態の電子装置1の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、電子装置1に係る上述した種々の処理を行ってもよい。   Further, by recording a program for executing each process of the electronic device 1 of the present embodiment on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium, You may perform the various process which concerns on the electronic device 1 mentioned above.

なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。     Further, the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the concrete structure is not restricted to this embodiment, The design etc. of the range which does not deviate from the summary of this invention are included.

1 電子装置
2 対象特定システム
2_1 第1の電子装置
2_2 第2の電子装置
10、10b、10c 検出部
11 動き検出部
12 撮像部
20、20b、20c 制御部
21 相対距離算出部
22 画像領域抽出部
23 移動画素量算出部
24、24b 抽象化部
25 正規化部
26、26c 記憶部
27 比較判定部
30、30b、30c 通信部
DESCRIPTION OF SYMBOLS 1 Electronic device 2 Target identification system 2_1 1st electronic device 2_2 2nd electronic device 10, 10b, 10c Detection part 11 Motion detection part 12 Imaging part 20, 20b, 20c Control part 21 Relative distance calculation part
22 Image region extraction unit 23 Moving pixel amount calculation unit
24, 24b Abstraction unit 25 Normalization unit 26, 26c Storage unit 27 Comparison determination unit 30, 30b, 30c Communication unit

Claims (6)

自装置の動きを示す情報と、他装置の動きを示す情報を抽象化する抽象化部と、
前記抽象化された情報を正規化する正規化部と、
前記正規化された情報を比較し、該比較結果に基づいて、前記自装置の動きを示す情報と、前記他装置の動きを示す情報が同種の情報であるか否か判定する比較判定部と、
を備えることを特徴とする電子装置。
Information indicating the movement of the device itself, and abstraction unit to abstract and information indicating the movement of the other device,
A normalization unit for normalizing the abstracted information;
The normalized information compared, based on the comparison result, the own device and information indicating the movement of said other device and information indicating the motion determines the comparison determination whether or not the information of the same type of And
An electronic device comprising:
自装置の動きと他装置の動きとを検出する複数種類の検出部を備え、
前記抽象化部は、前記複数種類の検出部によりそれぞれ検出された、前記自装置の動きを示す情報と、前記他装置の動きを示す情報を抽象化する
ことを特徴とする請求項1に記載電子装置。
Provided with a plurality of types of detection units that detect the movement of its own device and the movement of other devices ,
The abstraction unit, the respectively detected by the plurality of types of detector, and the information indicating the movement of the self-device, to claim 1, wherein the abstracting and information indicating the movement of the other device The electronic device described.
前記検出部は、撮像部と、自装置の動きを検出する動き検出部とを備え、
前記動き検出部により検出された自装置の動きを示す情報から所定の時刻における自装置の位置を基準とした自装置の相対距離を時刻毎に算出する相対距離算出部と、
前記撮像部により得られた映像から他装置の画像領域を抽出する画像領域抽出部と、
前記抽出された各画像領域が所定のフレームにおける画像領域を基準として移動した移動画素量を算出する移動画素量算出部と、
を備え、
前記抽象化部は、前記算出された相対距離と、前記算出された移動画素量を抽象化し、
前記正規化部は、前記抽象化された相対距離と、前記抽象化された移動画素量を正規化し、
前記比較判定部は、前記正規化された相対距離と前記正規化された移動画素量とに基づいて、前記動き検出部により検出された動きと同種の動きをしている画像領域を特定する
とを特徴とする請求項2に記載の電子装置。
Wherein the detection unit is provided with an imaging unit, a motion detector for detecting motion of the apparatus,
A relative distance calculation unit that calculates the relative distance of the own device based on the position of the own device at a predetermined time from information indicating the movement of the own device detected by the motion detection unit;
An image region extraction unit that extracts an image region of another device from the video obtained by the imaging unit;
A moving pixel amount calculation unit that calculates a moving pixel amount in which each of the extracted image regions has moved with reference to the image region in a predetermined frame;
With
The abstraction unit abstracts relative the calculated distance and a moving pixel amount the calculated,
The normalization unit, the relative distances the abstract, and the abstracted moved pixel amount normalized,
The comparison / determination unit identifies an image region having the same type of motion as the motion detected by the motion detection unit, based on the normalized relative distance and the normalized moving pixel amount.
The electronic device according to claim 2, wherein the this.
前記抽象化部は、前記自装置の動きを示す情報及び前記他装置の動きを示す情報の自己相関関数に基づいて、前記自装置の動きを示す情報と、前記他装置の動きを示す情報を抽象化する
とを特徴とする請求項1から請求項のいずれか1項に記載の電子装置。
Information the abstraction unit, on the basis of the autocorrelation function number information indicating the motion information and the other device indicating movement of the apparatus, showing the information indicating the movement of the own device, the movement of the other device And abstract
Electronic device according to any one of claims 3 and this claim, wherein.
自装置の動きを示す情報と、他装置の動きを示す情報を抽象化する抽象化手順と、
前記抽象化された情報を正規化する正規化手順と、
前記正規化された情報を比較し、該比較結果に基づいて、前記自装置の動きを示す情報と、前記他装置の動きを示す情報が同種の情報であるか否か判定する比較判定手順と、
を有することを特徴とするデータ生成方法。
Information indicating the movement of the device itself, and abstraction procedure to abstract and information indicating the movement of the other device,
A normalization procedure for normalizing the abstracted information;
The normalized information compared, based on the comparison result, the own device and information indicating the movement of said other device and information indicating the motion determines the comparison determination whether or not the information of the same type of Procedure and
A data generation method characterized by comprising:
コンピュータに、
自装置の動きを示す情報と、他装置の動きを示す情報を抽象化する抽象化ステップと、
前記抽象化された情報を正規化する正規化ステップと、
前記正規化された情報を比較し、該比較結果に基づいて、前記自装置の動きを示す情報と、前記他装置の動きを示す情報が同種の情報であるか否か判定する比較判定ステップと、
を実行させるためのデータ生成プログラム。
On the computer,
Information indicating the movement of the device itself, and abstraction step to abstract and information indicating the movement of the other device,
A normalization step of normalizing the abstracted information;
The normalized information compared, based on the comparison result, the own device and information indicating the movement of said other device and information indicating the motion determines the comparison determination whether or not the information of the same type of Steps,
Data generation program for executing
JP2011104474A 2011-05-09 2011-05-09 Electronic device, data generation method, and data generation program Active JP5747646B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011104474A JP5747646B2 (en) 2011-05-09 2011-05-09 Electronic device, data generation method, and data generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011104474A JP5747646B2 (en) 2011-05-09 2011-05-09 Electronic device, data generation method, and data generation program

Publications (2)

Publication Number Publication Date
JP2012234489A JP2012234489A (en) 2012-11-29
JP5747646B2 true JP5747646B2 (en) 2015-07-15

Family

ID=47434723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011104474A Active JP5747646B2 (en) 2011-05-09 2011-05-09 Electronic device, data generation method, and data generation program

Country Status (1)

Country Link
JP (1) JP5747646B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116300415A (en) * 2022-09-07 2023-06-23 瑞声开泰声学科技(上海)有限公司 Output consistency control method and device for multiple vibrators and electronic equipment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8610787B2 (en) * 2007-06-22 2013-12-17 Panasonic Corporation Camera device including privacy protection method
US8565535B2 (en) * 2007-08-20 2013-10-22 Qualcomm Incorporated Rejecting out-of-vocabulary words
JP4504452B1 (en) * 2009-01-15 2010-07-14 株式会社東芝 Video viewing apparatus, video playback control method, and recording / playback program
JP5303355B2 (en) * 2009-05-21 2013-10-02 学校法人 中央大学 Periodic gesture identification device, periodic gesture identification method, periodic gesture identification program, and recording medium

Also Published As

Publication number Publication date
JP2012234489A (en) 2012-11-29

Similar Documents

Publication Publication Date Title
JP6287047B2 (en) Image processing apparatus, image processing method, and image processing program
US7554575B2 (en) Fast imaging system calibration
CN105681627B (en) Image shooting method and electronic equipment
JP7223079B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND IMAGING APPARATUS
JP2016151955A (en) Image processing apparatus, imaging device, distance measuring device, and image processing method
JP2012089929A (en) Object detection apparatus, object detection method, monitoring camera system and program
CN109313805A (en) Image processing apparatus, image processing system, image processing method and program
CN109313806A (en) Image processing apparatus, image processing system, image processing method and program
US8284292B2 (en) Probability distribution constructing method, probability distribution constructing apparatus, storage medium of probability distribution constructing program, subject detecting method, subject detecting apparatus, and storage medium of subject detecting program
JP2012057974A (en) Photographing object size estimation device, photographic object size estimation method and program therefor
CN111028276A (en) Image alignment method and device, storage medium and electronic equipment
JP2016103806A (en) Imaging apparatus, image processing apparatus, imaging system, image processing method, and program
JP5395650B2 (en) Subject area extraction device and control method thereof, subject tracking device, and program
JP5264457B2 (en) Object detection device
KR101982258B1 (en) Method for detecting object and object detecting apparatus
CN109816628A (en) Face evaluation method and Related product
JP5747646B2 (en) Electronic device, data generation method, and data generation program
JP6099973B2 (en) Subject area tracking device, control method thereof, and program
JP5708305B2 (en) Image recognition apparatus, image recognition method, and computer program for image recognition
JP4312185B2 (en) Game mat, card game system, image analysis apparatus, and image analysis method
JP5884759B2 (en) Image processing apparatus, image processing method, and program
JP5882883B2 (en) Telop detection device, telop detection method, and telop detection program
JP2007080108A (en) Card
KR20140106310A (en) Uneven pattern image acquisition apparatus and method
US20170365063A1 (en) Image processing apparatus and method for controlling the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150427

R150 Certificate of patent or registration of utility model

Ref document number: 5747646

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250