JP2012227865A - Electronic device, synthesis method, and synthesis program - Google Patents

Electronic device, synthesis method, and synthesis program Download PDF

Info

Publication number
JP2012227865A
JP2012227865A JP2011095986A JP2011095986A JP2012227865A JP 2012227865 A JP2012227865 A JP 2012227865A JP 2011095986 A JP2011095986 A JP 2011095986A JP 2011095986 A JP2011095986 A JP 2011095986A JP 2012227865 A JP2012227865 A JP 2012227865A
Authority
JP
Japan
Prior art keywords
pattern
unit
electronic device
synthesis
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011095986A
Other languages
Japanese (ja)
Inventor
Mikiya Tanaka
幹也 田中
Yuji Moto
優司 茂藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011095986A priority Critical patent/JP2012227865A/en
Priority to PCT/JP2012/057134 priority patent/WO2012133028A1/en
Publication of JP2012227865A publication Critical patent/JP2012227865A/en
Priority to US14/029,421 priority patent/US20140098992A1/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To richly express detected information.SOLUTION: The electronic device comprises: a plurality of detectors 11 and 12 which detect from an object to be detected a plurality of signals showing features of the object; an extraction part 21 which extracts, from the plurality of signals detected by the plurality of detectors 11 and 12, respective patterns of the signals which appear repeatedly; and a synthesis part 26 which synthesizes the respective patterns extracted.

Description

本発明は、電子装置、合成方法および合成プログラムに関する。   The present invention relates to an electronic device, a synthesis method, and a synthesis program.

従来、音曲のリズムを抽出する方法が知られている。例えば、特許文献1では、人体に取付けられ取付け個所の動きを検出するセンサ手段と、センサ手段により検出された検出値の検出テンポを抽出するテンポ抽出手段と、音曲を出力する音曲出力手段と、音曲のリズムを抽出するリズム抽出手段と、テンポ抽出手段により抽出された検出テンポがリズム抽出手段により抽出された音曲リズムに同期しているかを評価する評価手段とを備えるビデオゲーム装置が示されている。   Conventionally, a method for extracting the rhythm of a musical piece is known. For example, in Patent Document 1, a sensor unit that is attached to a human body and detects a movement of an attachment location, a tempo extraction unit that extracts a detection tempo of a detection value detected by the sensor unit, a music output unit that outputs a music, There is shown a video game apparatus comprising rhythm extracting means for extracting a rhythm of a musical piece, and evaluation means for evaluating whether the detected tempo extracted by the tempo extracting means is synchronized with the musical rhythm extracted by the rhythm extracting means. Yes.

特開2006−192276号公報JP 2006-192276 A

従来、電子装置は、自装置が備える加速度センサなどの動きを検出するセンサから検出された信号からテンポを抽出し、そのテンポを示す情報を表示装置に表示させることができる。しかしながら、そのテンポは、操作者の動きという情報のみしか反映していないので、表現のバリエーションが少ないという問題があった。   Conventionally, an electronic device can extract a tempo from a signal detected from a sensor that detects a motion such as an acceleration sensor included in the device, and display information indicating the tempo on a display device. However, since the tempo reflects only the information of the operator's movement, there is a problem that there are few variations in expression.

そこで本発明は、上記問題に鑑みてなされたものであり、検出された情報を豊かに表現することを可能とする技術を提供することを課題とする。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of expressing detected information richly.

上記の課題を解決するために、本発明の一態様である電子装置は、検出の対象から該対象の特徴を示す複数の信号を検出する複数の検出部と、前記複数の検出部により検出された複数の信号から、繰り返し現れる該信号のパターンをそれぞれ抽出する抽出部と、前記抽出された各パターンを合成する合成部と、を備えることを特徴とする。   In order to solve the above problems, an electronic device according to one embodiment of the present invention is detected by a plurality of detection units that detect a plurality of signals indicating characteristics of the target from the detection target, and the plurality of detection units. In addition, an extraction unit that extracts each signal pattern that repeatedly appears from a plurality of signals, and a synthesis unit that synthesizes the extracted patterns are provided.

また、本発明の一態様である合成方法は、検出の対象から該対象の特徴を示す複数の信号を検出する複数の検出手順と、前記複数の検出手順により検出された複数の信号から、繰り返し現れる該信号のパターンをそれぞれ抽出する抽出手順と、前記抽出された各パターンを合成する合成手順と、を有することを特徴とする。   Further, the synthesis method according to one aspect of the present invention includes a plurality of detection procedures for detecting a plurality of signals indicating characteristics of the target from the detection target, and a plurality of signals detected by the plurality of detection procedures. It has an extraction procedure for extracting each pattern of the signal that appears, and a synthesis procedure for synthesizing the extracted patterns.

また、本発明の一態様である合成プログラムは、複数の検出部により検出された複数の信号を示す情報が記憶されている記憶部を備えるコンピュータに、前記記憶部から複数の信号を示す情報を読み出し、該読み出された複数の信号を示す情報から繰り返し現れる該信号のパターンをそれぞれ抽出する抽出ステップと、前記抽出された各パターンを合成する合成ステップと、を実行させるための合成プログラムである。   In addition, a synthesis program that is one embodiment of the present invention provides information indicating a plurality of signals from the storage unit to a computer including a storage unit that stores information indicating a plurality of signals detected by the plurality of detection units. A synthesis program for executing an extraction step for extracting each of the signal patterns that repeatedly appear from information indicating the plurality of read signals and a synthesis step for synthesizing the extracted patterns. .

本発明によれば、検出された情報を豊かに表現することができる。   According to the present invention, it is possible to express the detected information richly.

本実施形態における電子装置のブロック構成図である。It is a block block diagram of the electronic device in this embodiment. 本実施形態における電子装置が振られる方向について説明するための図である。It is a figure for demonstrating the direction in which the electronic device in this embodiment is shaken. パターン抽出部の処理を説明するための図である。It is a figure for demonstrating the process of a pattern extraction part. パターン抽出部に入力される正規化後の動きを示す信号の別の一例とパターン抽出部により算出される自己相関関数とが示された図である。It is the figure by which another example of the signal which shows the motion after the normalization input into a pattern extraction part, and the autocorrelation function calculated by a pattern extraction part. 正規化部の処理を説明するための図である。It is a figure for demonstrating the process of the normalization part. 合成部の処理について説明するための図である。It is a figure for demonstrating the process of a synthetic | combination part. 第1の実施形態の電子装置の処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process of the electronic device of 1st Embodiment. 第2の実施形態における通信システム2の構成例である。It is a structural example of the communication system 2 in 2nd Embodiment. 第2の実施形態における電子装置のブロック構成図である。It is a block block diagram of the electronic device in 2nd Embodiment. データ抽出部の処理について説明するための図である。It is a figure for demonstrating the process of a data extraction part. 動き映像合成部の処理について説明するための図である。It is a figure for demonstrating the process of a motion image | video synthetic | combination part. 雰囲気データ記憶部に記憶されているテーブルT1の一例が示された図である。It is the figure by which an example of table T1 memorize | stored in the atmosphere data storage part was shown. 第2の実施形態の電子装置の処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process of the electronic device of 2nd Embodiment.

以下、本発明の実施形態について、図面を参照して詳細に説明する。図1は、本実施形態における電子装置1のブロック構成図である。
電子装置1は、検出部10と、制御部20と、パターン記憶部25と、出力部30とを備える。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram of an electronic device 1 according to this embodiment.
The electronic device 1 includes a detection unit 10, a control unit 20, a pattern storage unit 25, and an output unit 30.

まず、本実施形態の電子装置1の概要について説明する。電子装置1は、自装置が操作者により握られて振られているときに、自装置の動きと自装置の側面に加えられる圧力を検出し、検出された動きを示す信号と圧力を示す信号から、繰り返し現れるそれらの信号のパターンをそれぞれ抽出し、抽出された各パターンを合成する。これにより、電子装置1は、複数のパターンを合成することにより合成されたパターンのバリエーションを増やすことができ、その合成されたパターンを出力部30を介して外部に報知するようにするので、自装置により検出された情報を豊かに表現することができる。   First, the outline | summary of the electronic device 1 of this embodiment is demonstrated. When the electronic device 1 is held and shaken by the operator, the electronic device 1 detects the movement of the own device and the pressure applied to the side surface of the own device, and the signal indicating the detected movement and the signal indicating the pressure Then, the signal patterns that repeatedly appear are extracted, and the extracted patterns are synthesized. As a result, the electronic device 1 can increase variations of the synthesized pattern by synthesizing a plurality of patterns, and informs the synthesized pattern to the outside via the output unit 30. Information detected by the apparatus can be expressed richly.

以下、各部の処理について説明する。検出部10は、検出の対象(例えば、自装置)から該対象の特徴(例えば、自装置の動き、自装置の側面にかかる圧力)を示す複数の信号を検出する。ここで、検出部10は、動き検出部11と圧力検出部12とを備える。
動き検出部11は、自装置の動きを検出し、検出した動きを示す信号をパターン抽出部23に供給する。具体的には、例えば、動き検出部11は、自装置が操作者により握られて動かされているときの自装置の動きを検出する。動き検出部11としては、例えば、加速度センサが設けられている。
Hereinafter, processing of each unit will be described. The detection unit 10 detects a plurality of signals indicating the characteristics of the target (for example, the movement of the self device and the pressure applied to the side surface of the self device) from the detection target (for example, the self device). Here, the detection unit 10 includes a motion detection unit 11 and a pressure detection unit 12.
The motion detection unit 11 detects the motion of the own device and supplies a signal indicating the detected motion to the pattern extraction unit 23. Specifically, for example, the movement detection unit 11 detects the movement of the own apparatus when the own apparatus is being held and moved by the operator. As the motion detection unit 11, for example, an acceleration sensor is provided.

圧力検出部12は、電子装置1の側面に配置され、側面に加えられる圧力を検出し、検出した圧力を示す信号をパターン抽出部23に出力する。具体的には、例えば、圧力検出部12は、自装置が操作者により握られて動かされているときに、自装置に側面に加えられる圧力を所定の段階(例えば、256段階)で検出する。例えば、圧力検出部12が5点に分割されているとすると、圧力検出部12は5点で、圧力を検出することができる。圧力検出部12としては、例えば、静電容量型の圧力感知センサが設けられている。   The pressure detection unit 12 is disposed on the side surface of the electronic device 1, detects the pressure applied to the side surface, and outputs a signal indicating the detected pressure to the pattern extraction unit 23. Specifically, for example, the pressure detection unit 12 detects, in a predetermined stage (for example, 256 stages), the pressure applied to the side surface of the own apparatus when the own apparatus is being held and moved by the operator. . For example, if the pressure detection unit 12 is divided into five points, the pressure detection unit 12 can detect the pressure at five points. As the pressure detection unit 12, for example, a capacitance type pressure detection sensor is provided.

動き検出部11と圧力検出部12の処理を、図2の具体例を用いて説明する。
図2は、電子装置1が自装置の操作者(ユーザ)により握られて振られる方向について説明するための図である。同図におけるxyz座標系において、電子装置1が振られる方向41が示され、電子装置1がz軸方向に振られることが示されている。また、電子装置1の側面には、圧力検出部22が設けられている。
The processing of the motion detection unit 11 and the pressure detection unit 12 will be described using a specific example of FIG.
FIG. 2 is a diagram for explaining a direction in which the electronic apparatus 1 is gripped and shaken by an operator (user) of the own apparatus. In the xyz coordinate system in the figure, a direction 41 in which the electronic device 1 is swung is shown, and the electronic device 1 is swung in the z-axis direction. A pressure detector 22 is provided on the side surface of the electronic device 1.

同図の例において、例えば、動き検出部11は、3次元加速度センサを備え、3軸(x、y、z軸)の加速度を検出する。動き検出部11は、3軸の加速度を示す信号を制御部20の後述するパターン抽出部23に出力する。
圧力検出部12は、操作者(ユーザ)により自装置が握られたときの、自装置の側面にかかる圧力を検出し、検出した圧力を示す信号をパターン抽出部23に出力する。
In the example of the figure, for example, the motion detection unit 11 includes a three-dimensional acceleration sensor and detects acceleration of three axes (x, y, z axes). The motion detection unit 11 outputs a signal indicating triaxial acceleration to the pattern extraction unit 23 described later of the control unit 20.
The pressure detection unit 12 detects the pressure applied to the side surface of the device when the device is held by an operator (user), and outputs a signal indicating the detected pressure to the pattern extraction unit 23.

図1に戻って、制御部20は、抽出部21と合成部26とを備える。抽出部21は、複数の検出部(本実施形態では、動き検出部11と圧力検出部12)により検出された複数の信号から、繰り返し現れる該信号のパターンをそれぞれ抽出する。ここで、抽出部21は、パターン抽出部23と正規化部24とを備える。   Returning to FIG. 1, the control unit 20 includes an extraction unit 21 and a synthesis unit 26. The extraction unit 21 extracts the pattern of the signal repeatedly appearing from the plurality of signals detected by the plurality of detection units (in this embodiment, the motion detection unit 11 and the pressure detection unit 12). Here, the extraction unit 21 includes a pattern extraction unit 23 and a normalization unit 24.

続いて、パターン抽出部23による処理の概要について説明する。パターン抽出部23は、動きを示す信号と圧力を示す信号とから、繰り返し現れるパターンをそれぞれ動きのパターンと圧力のパターンとして抽出する。パターン抽出部23は、抽出した動きのパターンを示す情報と圧力のパターンを示す情報とを正規化部24に出力する。   Next, an outline of processing by the pattern extraction unit 23 will be described. The pattern extraction unit 23 extracts a pattern that repeatedly appears as a motion pattern and a pressure pattern from a signal indicating motion and a signal indicating pressure, respectively. The pattern extraction unit 23 outputs information indicating the extracted movement pattern and information indicating the pressure pattern to the normalization unit 24.

上記パターン抽出部23の処理の例について、図3を用いて説明する。図3は、パターン抽出部23の処理を説明するための図である。ここでは、自装置が操作者(ユーザ)によりz軸方向に一定のパターンで繰り返し振られている場合を想定する。また、本実施形態では、説明を分かりやすくするために、z軸方向の加速度についてのみ説明する。   An example of processing of the pattern extraction unit 23 will be described with reference to FIG. FIG. 3 is a diagram for explaining the processing of the pattern extraction unit 23. Here, it is assumed that the own device is repeatedly shaken in a constant pattern in the z-axis direction by an operator (user). In the present embodiment, only the acceleration in the z-axis direction will be described for easy understanding.

同図の上側には、動き検出部11によって検出されたz軸方向の加速度の時間変化を表す曲線W42が示されている。また、曲線W42は、破線により3つの時間領域に分けられ、1つの時間領域における正規化後の加速度の時間変化が繰り返されていることが示されている。
同図の下側には、パターン抽出部23により抽出されたパターンを示す曲線W43が示されている。同図の例において、パターン抽出部23は、動きを示す信号から、繰り返し現れる時間変化を動きのパターンとして抽出する。
On the upper side of the figure, there is shown a curve W42 representing the time change of acceleration in the z-axis direction detected by the motion detector 11. Further, the curve W42 is divided into three time regions by broken lines, and it is shown that the temporal change in acceleration after normalization in one time region is repeated.
A curve W43 indicating a pattern extracted by the pattern extraction unit 23 is shown on the lower side of FIG. In the example shown in the figure, the pattern extraction unit 23 extracts a temporal change that repeatedly appears as a motion pattern from a signal indicating motion.

続いて、パターン抽出部23によるパターン抽出の処理の詳細について説明する。図4は、パターン抽出部23に入力される動きを示す信号の別の一例とパターン抽出部23により算出される自己相関関数とが示された図である。図4(a)には、パターン抽出部23に入力される動きを示す信号の別の一例を示す曲線W51が示されている。ここで、縦軸は振幅、横軸はサンプル数である。   Next, details of pattern extraction processing by the pattern extraction unit 23 will be described. FIG. 4 is a diagram showing another example of the signal indicating the motion input to the pattern extraction unit 23 and the autocorrelation function calculated by the pattern extraction unit 23. FIG. 4A shows a curve W51 showing another example of the signal indicating the motion input to the pattern extraction unit 23. Here, the vertical axis represents amplitude, and the horizontal axis represents the number of samples.

図4(b)には、パターン抽出部23によって、曲線W51を構成する各点から算出される自己相関関数を示す曲線W52の一例が示されている。ここで、縦軸は自己相関関数の値、横軸はサンプル数である。また、自己相関関数の極大値であるピークP53と、1番目のサンプルからピークP53のサンプルまでが1周期τであることが示されている。   FIG. 4B shows an example of a curve W52 indicating an autocorrelation function calculated from each point constituting the curve W51 by the pattern extraction unit 23. Here, the vertical axis represents the value of the autocorrelation function, and the horizontal axis represents the number of samples. It is also shown that the peak P53, which is the maximum value of the autocorrelation function, and the period from the first sample to the sample of the peak P53 are one period τ.

例えば、図4(a)に示されたパターン抽出部23に入力されるn項からなる入力データAが、下記の式(1)で表される。   For example, input data A composed of n terms input to the pattern extraction unit 23 shown in FIG. 4A is expressed by the following equation (1).

Figure 2012227865
Figure 2012227865

また、図4(a)に示された入力データAの配列の一部であるm項(m=n/2)の配列A´は、下記の式(2)で表される(nは2以上の偶数、mは正の整数)。   An array A ′ of m terms (m = n / 2), which is a part of the array of input data A shown in FIG. 4A, is expressed by the following equation (2) (n is 2). The above even numbers, m is a positive integer).

Figure 2012227865
Figure 2012227865

ここで、A´は固定である。また、図4(a)に示された入力データAの配列をt(0≦t≦n/2)だけずらしたm項の配列Bは、下記の式(3)で表される。   Here, A ′ is fixed. Further, an array B of m terms obtained by shifting the array of the input data A shown in FIG. 4A by t (0 ≦ t ≦ n / 2) is expressed by the following equation (3).

Figure 2012227865
Figure 2012227865

ここで、Bは可変である。   Here, B is variable.

パターン抽出部23は、このずらし幅tによって得られる配列A´と配列Bによる自己相関関数を、以下の式(4)に従って算出する。   The pattern extraction unit 23 calculates the autocorrelation function by the array A ′ and the array B obtained by the shift width t according to the following equation (4).

Figure 2012227865
Figure 2012227865

ここで、iは各配列の要素のインデックスである。また、配列A´と配列Bの各要素が所定の間隔で描画された波形が似ているほど値は1に近づくこととなる。
パターン抽出部23は、自己相関関数R(t)上で、上に凸の頂点のデータ(ピーク値)を抽出する。そして、パターン抽出部23は、抽出したピーク値が所定の閾値を越えている場合、そのピーク値をとるサンプル番号(または時刻)を抽出する。パターン抽出部23は、ピーク値をとるサンプル間隔(または時間間隔)を周期τとして抽出する。
Here, i is an index of an element of each array. In addition, the value approaches 1 as the waveforms of the elements of the arrays A ′ and B that are drawn at a predetermined interval are more similar.
The pattern extraction unit 23 extracts data (peak value) of an upwardly convex vertex on the autocorrelation function R (t). Then, when the extracted peak value exceeds a predetermined threshold, the pattern extraction unit 23 extracts a sample number (or time) that takes the peak value. The pattern extraction unit 23 extracts a sample interval (or time interval) that takes a peak value as the period τ.

パターン抽出部23は、入力データAを自己相関関数で求めた周期τで1周期ごとに分割する。そして、繰り返し回数numとすると、パターン抽出部23は、1周期平均データave(n)を、以下の式(5)に従って算出する。   The pattern extraction unit 23 divides the input data A every period by the period τ obtained by the autocorrelation function. If the number of repetitions is num, the pattern extraction unit 23 calculates the one-cycle average data ave (n) according to the following equation (5).

Figure 2012227865
Figure 2012227865

ここで、kは整数である。1周期平均データave(n)は、パターン抽出部23の出力データであり、図3の曲線W43に相当する。パターン抽出部23は、算出した1周期平均データave(n)を動きのパターンを示す情報として正規化部24に出力する。同様に、パターン抽出部23は、圧力についても、1周期平均データave(n)を算出し、算出した1周期平均データave(n)を圧力のパターンを示す情報として正規化部24に出力する。   Here, k is an integer. The one-cycle average data ave (n) is output data of the pattern extraction unit 23 and corresponds to the curve W43 in FIG. The pattern extraction unit 23 outputs the calculated one-cycle average data ave (n) to the normalization unit 24 as information indicating a motion pattern. Similarly, the pattern extraction unit 23 also calculates the one-cycle average data ave (n) for the pressure, and outputs the calculated one-cycle average data ave (n) to the normalization unit 24 as information indicating the pressure pattern. .

正規化部24は、動きのパターンを示す情報と圧力のパターンを示す情報とを並列で、所定の範囲の値(例えば、−1から1までの値)に正規化し、正規化後の動きのパターンを示す情報と正規化後の圧力のパターンを示す情報とをパターン記憶部25に記憶させる。   The normalizing unit 24 normalizes the information indicating the motion pattern and the information indicating the pressure pattern in parallel to a value in a predetermined range (for example, a value from −1 to 1). Information indicating the pattern and information indicating the pressure pattern after normalization are stored in the pattern storage unit 25.

上記正規化部24の処理の例について、図5を用いて説明する。図5は、正規化部の処理を説明するための図である。同図の上側には、パターンを示す曲線W43が示されている。縦軸はz軸方向の加速度であり、横軸は時刻である。同図の下側には、z軸方向の加速度が−1から1までの値に正規化された後の加速度の時間変化を示す曲線W44が示されている。縦軸は正規化された後の加速度であり、横軸は時刻である。
同図の例において、正規化部24は、3軸の加速度を示す信号のうち、z軸方向の加速度を示す信号を−1から1までの値に正規化する。
An example of the processing of the normalization unit 24 will be described with reference to FIG. FIG. 5 is a diagram for explaining the processing of the normalization unit. On the upper side of the figure, a curve W43 indicating a pattern is shown. The vertical axis is the acceleration in the z-axis direction, and the horizontal axis is the time. On the lower side of the figure, there is shown a curve W44 showing the time change of the acceleration after the acceleration in the z-axis direction is normalized to a value from −1 to 1. The vertical axis represents normalized acceleration, and the horizontal axis represents time.
In the example shown in the figure, the normalization unit 24 normalizes a signal indicating acceleration in the z-axis direction to a value from −1 to 1 among signals indicating triaxial acceleration.

また、本実施形態では、正規化部24は、動きを示す信号と圧力を示す信号とを並列に正規化したが、これに限ったものではなく、順番に正規化してもよい。その場合、正規化部24は、動きを示す信号と圧力を示す信号とのいずれかの信号を正規化部24が備える遅延素子により、遅延させることにより、ハードウェアのみで構成してもよい。また、正規化部24は、動きを示す信号と圧力を示す信号とのいずれかの信号をデジタル信号に変換し、変換したデジタル信号を正規化部24が備えるバッファに一時的に保存し、順次保存されたデジタル信号を読み出して、読み出したデジタル信号を正規化してもよい。   In the present embodiment, the normalization unit 24 normalizes the signal indicating motion and the signal indicating pressure in parallel, but the present invention is not limited to this, and normalization may be performed in order. In that case, the normalization unit 24 may be configured only by hardware by delaying either a signal indicating motion or a signal indicating pressure by a delay element included in the normalization unit 24. Further, the normalization unit 24 converts one of the signal indicating motion and the signal indicating pressure into a digital signal, temporarily stores the converted digital signal in a buffer included in the normalization unit 24, and sequentially The stored digital signal may be read and the read digital signal may be normalized.

合成部26は、バターン記憶部25から正規化後の動きのパターンを示す情報と正規化後の圧力のパターンを示す情報とを読み出す。合成部26は、各パターンの振幅がいずれも所定の閾値(例えば、0.5)よりも大きくなっている場合、各パターンの振幅に基づいて、合成により得られるパターンの振幅を決定し、各パターンを合成する。   The synthesizing unit 26 reads information indicating the motion pattern after normalization and information indicating the pressure pattern after normalization from the pattern storage unit 25. When the amplitude of each pattern is larger than a predetermined threshold (for example, 0.5), the synthesis unit 26 determines the amplitude of the pattern obtained by synthesis based on the amplitude of each pattern, Synthesize the pattern.

図6を用いて、上記合成部26の処理の一例について説明する。図6は、合成部26の処理について説明するための図である。同図において、縦軸は正規化された振幅であり、横軸は時刻である。同図において、正規化後の動きのパターンを示す曲線W51と、正規化後の圧力のパターンを示す曲線W52と、正規化後の動きのパターンと正規化後の圧力のパターンとが合成部26により合成された後の合成信号を示す曲線W53とが示されている。   An example of the processing of the synthesis unit 26 will be described with reference to FIG. FIG. 6 is a diagram for explaining the processing of the synthesis unit 26. In the figure, the vertical axis represents normalized amplitude, and the horizontal axis represents time. In the figure, a curve W51 indicating a motion pattern after normalization, a curve W52 indicating a pressure pattern after normalization, a motion pattern after normalization, and a pressure pattern after normalization are combined into a combining unit 26. The curve W53 which shows the synthetic | combination signal after synthesize | combining is shown.

例えば、合成部26は、正規化後の動きのパターンの曲線W51上の値0.6と、正規化後の圧力のパターンの曲線W52上の値0.8とを加算し、加算により得られた値1.4に、各パターンの振幅の組み合わせ(0.6と0.8)に応じた係数0.8を乗じた値1.12を、合成信号を示す曲線W53上のピークP54の振幅とする。   For example, the synthesis unit 26 adds the value 0.6 on the curve W51 of the normalized motion pattern and the value 0.8 on the curve W52 of the normalized pressure pattern, and obtains the result by addition. The value 1.12 obtained by multiplying the obtained value 1.4 by the coefficient 0.8 corresponding to the combination of amplitudes (0.6 and 0.8) of each pattern is the amplitude of the peak P54 on the curve W53 indicating the combined signal. And

同様に、例えば、合成部26は、正規化後の動きのパターンの曲線W51上の値0.8と、正規化後の圧力のパターンの曲線W52上の値0.8とを加算し、加算により得られた値1.6に、各パターンの振幅の組み合わせ(0.8と0.8)に応じた係数0.85を乗じた値1.36を、合成信号を示す曲線W53上のピークP55の振幅とする。
同様に、例えば、合成部26は、正規化後の動きのパターンの曲線W51上の値1.0と、正規化後の圧力のパターンの曲線W52上の値0.8とを加算し、加算により得られた値1.8に各パターンの振幅の組み合わせ(1.0と0.8)に応じた係数0.9を乗じた値1.62を、合成信号を示す曲線W53上のピークP56の振幅とする。
Similarly, for example, the synthesis unit 26 adds the value 0.8 on the curve W51 of the normalized motion pattern and the value 0.8 on the curve W52 of the normalized pressure pattern, and adds The value 1.36 obtained by multiplying the value 1.6 obtained by the above by a coefficient 0.85 corresponding to the combination of amplitudes of each pattern (0.8 and 0.8) is a peak on the curve W53 indicating the synthesized signal. The amplitude is P55.
Similarly, for example, the synthesis unit 26 adds the value 1.0 on the curve W51 of the normalized motion pattern and the value 0.8 on the curve W52 of the normalized pressure pattern, and adds A value 1.62 obtained by multiplying the value 1.8 obtained by the above by a coefficient 0.9 corresponding to the combination (1.0 and 0.8) of the amplitude of each pattern is a peak P56 on the curve W53 indicating the combined signal. The amplitude of.

合成部26は、合成後のパターンに基づく画像データを出力部30の後述する表示部31に出力する。また、合成部26は、合成後のパターンに基づいて電気信号を生成し、電気信号を音声出力部32に出力する。   The combining unit 26 outputs image data based on the combined pattern to the display unit 31 described later of the output unit 30. The synthesizing unit 26 generates an electric signal based on the combined pattern and outputs the electric signal to the audio output unit 32.

出力部30は、合成部26により合成されたパターンに基づいて自装置の外部に報知する。ここで、出力部30は、表示部31と音声出力部32とを備える。
表示部31は、合成部26から入力されたに基づく画像データを表示する。
音声出力部32は、合成部26から供給された電気信号に基づき、音声を外部に出力する。
The output unit 30 notifies the outside of the device itself based on the pattern synthesized by the synthesis unit 26. Here, the output unit 30 includes a display unit 31 and an audio output unit 32.
The display unit 31 displays image data based on the input from the synthesis unit 26.
The audio output unit 32 outputs audio based on the electrical signal supplied from the synthesis unit 26.

図7は、第1の実施形態の電子装置1の処理の流れを示したフローチャートである。まず、検出部10は、自装置の動きと自装置の側面にかかる圧力とを検出する(ステップS101)。次に、パターン抽出部23は、動きのパターンを抽出する(ステップS102)。それと並行して、パターン抽出部23は、圧力のパターンを抽出する(ステップS103)。   FIG. 7 is a flowchart illustrating a processing flow of the electronic device 1 according to the first embodiment. First, the detection unit 10 detects the movement of the own device and the pressure applied to the side surface of the own device (step S101). Next, the pattern extraction unit 23 extracts a motion pattern (step S102). In parallel with this, the pattern extraction unit 23 extracts a pressure pattern (step S103).

次に、正規化部24は、動きのパターンを正規化する(ステップS104)。それと並行して、正規化部24は、圧力のパターンを正規化する(ステップS105)。次に、合成部26は、動きのパターンと圧力のパターンを合成する(ステップS106)。次に、表示部31は、合成したパターンに基づく画像を表示する(ステップS107)。次に、音声出力部32は、合成したパターンに基づく音声を出力する(ステップS108)。以上で、本フローチャートの処理を終了する。   Next, the normalization unit 24 normalizes the motion pattern (step S104). In parallel with this, the normalization unit 24 normalizes the pressure pattern (step S105). Next, the synthesis unit 26 synthesizes the motion pattern and the pressure pattern (step S106). Next, the display unit 31 displays an image based on the combined pattern (step S107). Next, the sound output unit 32 outputs sound based on the synthesized pattern (step S108). Above, the process of this flowchart is complete | finished.

以上、本実施形態の電子装置1は、自装置が操作者により握られて振られているときに、自装置の動きと自装置の側面に加えられる圧力を検出し、検出された動きを示す信号と圧力を示す信号から、繰り返し現れる当該信号のパターンをそれぞれ抽出する。そして、電子装置1は、抽出された各パターンを正規化し、正規化された各パターンを、それぞれの振幅に基づいて合成する。   As described above, the electronic device 1 according to the present embodiment detects the movement of the own device and the pressure applied to the side surface of the own device when the own device is gripped and shaken by the operator, and indicates the detected movement. A pattern of the signal that repeatedly appears is extracted from the signal and the signal indicating the pressure. And the electronic device 1 normalizes each extracted pattern, and synthesize | combines each normalized pattern based on each amplitude.

これにより、電子装置1は、複数のパターンを合成することにより合成されたパターンのバリエーションを増やすことができ、その合成されたパターンに基づいて、出力部30により外部に報知できるので、自装置により検出された情報を豊かに表現することができる。   Thereby, the electronic apparatus 1 can increase the variation of the synthesized pattern by synthesizing a plurality of patterns, and can notify the outside by the output unit 30 based on the synthesized pattern. The detected information can be expressed richly.

<第2の実施形態>
続いて、第2の実施形態における通信システム2について説明する。図8は、第2の実施形態における通信システム2の構成例である。通信システム2は、複数の電子装置100を備える。
図8(A)には、通信システムの構成例として、電子装置100−2が、自装置の検出部により検出された信号のパターンを示す情報を電子装置100−1に送信する場合の構成例が示されている。
<Second Embodiment>
Next, the communication system 2 in the second embodiment will be described. FIG. 8 is a configuration example of the communication system 2 in the second embodiment. The communication system 2 includes a plurality of electronic devices 100.
In FIG. 8A, as a configuration example of the communication system, a configuration example in which the electronic device 100-2 transmits information indicating a signal pattern detected by the detection unit of the own device to the electronic device 100-1. It is shown.

また、図8(B)には、通信システムの別の構成例として、複数の電子装置100−2、100−3、100−4が電子装置100−1に、自装置の検出部により検出された信号のパターンを示す情報を送信する場合の構成例が示されている。図8に示されているように、電子装置100−1は、1つ又は複数の他の電子装置から、自装置の検出部により検出された信号のパターンを示す情報を受信する。   In FIG. 8B, as another configuration example of the communication system, a plurality of electronic devices 100-2, 100-3, and 100-4 are detected in the electronic device 100-1 by the detection unit of the own device. A configuration example in the case of transmitting information indicating a signal pattern is shown. As illustrated in FIG. 8, the electronic device 100-1 receives information indicating the pattern of the signal detected by the detection unit of the own device from one or more other electronic devices.

図9は、第2の実施形態における電子装置100−I(Iは正の整数)のブロック構成図である。なお、図1と共通する要素には同一の符号を付し、その具体的な説明を省略する。
図9の電子装置100−Iの構成は、図1の電子装置1の構成に対して、検出部10が検出部10bに変更され、制御部20が制御部20bに変更され、雰囲気データ記憶部28と通信部40とが追加されたものになっている。
検出部10bは、図1の検出部10の構成に対して、圧力検出部12が除かれ、イメージセンサ13が追加されたものになっている。
FIG. 9 is a block diagram of the electronic device 100-I (I is a positive integer) in the second embodiment. Elements common to those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted.
The configuration of the electronic device 100-I in FIG. 9 is different from the configuration of the electronic device 1 in FIG. 1 in that the detection unit 10 is changed to the detection unit 10b, the control unit 20 is changed to the control unit 20b, and the atmosphere data storage unit. 28 and a communication unit 40 are added.
The detection unit 10b is obtained by removing the pressure detection unit 12 and adding an image sensor 13 to the configuration of the detection unit 10 of FIG.

イメージセンサ13は、被写体を撮像する。具体的には、例えば、1つ又は複数の他の電子装置100が、それぞれ1人または複数の操作者により所定の方向に振られている場合を想定すると、イメージセンサ13は、当該1つ又は複数の他の電子装置100―J(JはI以外の正の整数)を被写体として撮像する。
イメージセンサ13は、撮像により得られた映像信号を抽出部21bの後述するデータ抽出部22に供給する。イメージセンサ13としては、例えば、CCDイメージセンサが設けられている。
The image sensor 13 images a subject. Specifically, for example, assuming that one or more other electronic devices 100 are swung in a predetermined direction by one or more operators, the image sensor 13 is A plurality of other electronic devices 100-J (J is a positive integer other than I) are imaged as subjects.
The image sensor 13 supplies a video signal obtained by imaging to a data extraction unit 22 described later of the extraction unit 21b. As the image sensor 13, for example, a CCD image sensor is provided.

制御部20bは、図1の制御部20の構成に対して、抽出部21が抽出部21bに変更され、合成部26が合成部26bに変更され、動き映像合成部27と、照合部29とが追加されたものになっている。
抽出部21bは、データ抽出部22と、正規化部23bと、パターン抽出部24bとを備える。
The control unit 20b is different from the configuration of the control unit 20 in FIG. 1 in that the extraction unit 21 is changed to the extraction unit 21b, the synthesis unit 26 is changed to the synthesis unit 26b, the motion video synthesis unit 27, the matching unit 29, Has been added.
The extraction unit 21b includes a data extraction unit 22, a normalization unit 23b, and a pattern extraction unit 24b.

データ抽出部22は、イメージセンサ13から供給された映像信号から、フレームの対角線上の画素に相当する信号を抽出する。そして、データ抽出部22は、抽出した信号(抽出映像信号)をパターン抽出部に出力する。   The data extraction unit 22 extracts a signal corresponding to a pixel on a diagonal line of the frame from the video signal supplied from the image sensor 13. Then, the data extraction unit 22 outputs the extracted signal (extracted video signal) to the pattern extraction unit.

上記、データ抽出部22の処理について図10を用いて説明する。図10は、データ抽出部22の処理について説明するための図である。同図の向かって左側に、p−1番目のフレームの画像(pは整数)と、p番目のフレームの画像と、p+1番目のフレームの画像とが示されている。また、各フレームにおいて、左上の画素と右下の画素を結ぶ対角線上の画素が示されている。   The processing of the data extraction unit 22 will be described with reference to FIG. FIG. 10 is a diagram for explaining the processing of the data extraction unit 22. On the left side of the figure, an image of the (p-1) th frame (p is an integer), an image of the pth frame, and an image of the (p + 1) th frame are shown. In each frame, pixels on the diagonal line connecting the upper left pixel and the lower right pixel are shown.

同図の向かって右側に、データ抽出部22により抽出されたフレーム内の対角線上の画素の輝度値から構成される抽出映像信号を示す曲線W122が示されている。この曲線W122を構成する各点は、同図の向かって左側の各フレームにおける左上の画素と右下の画素を結ぶ対角線上の画素の輝度信号をフレームの順に並べたものである。
同図の例において、データ抽出部22は、各フレームにおいて、左上の画素と右下の画素を結ぶ対角線上の画素の輝度値を抽出し、抽出した輝度値のデータ列を抽出映像信号としてパターン抽出部23bに出力する。
On the right side of the figure, a curve W122 indicating an extracted video signal composed of luminance values of pixels on diagonal lines in the frame extracted by the data extraction unit 22 is shown. Each point constituting this curve W122 is obtained by arranging the luminance signals of pixels on the diagonal line connecting the upper left pixel and the lower right pixel in each frame on the left side in the drawing in the order of the frames.
In the example of the figure, the data extraction unit 22 extracts the luminance value of the pixel on the diagonal line connecting the upper left pixel and the lower right pixel in each frame, and patterns the extracted luminance value data string as an extracted video signal. It outputs to the extraction part 23b.

図9に戻って、パターン抽出部23bは、第1の実施形態のパターン抽出部23と同様に、動き検出部11から供給された動きを示す信号から自己相関関数R(t)を算出し、算出した自己相関関数R(t)に基づいて、動きのパターンを算出する。そして、パターン抽出部23bは、算出した動きのパターンを示す情報を正規化部24bに出力する。   Returning to FIG. 9, the pattern extraction unit 23b calculates the autocorrelation function R (t) from the signal indicating the motion supplied from the motion detection unit 11, similarly to the pattern extraction unit 23 of the first embodiment. A motion pattern is calculated based on the calculated autocorrelation function R (t). Then, the pattern extraction unit 23b outputs information indicating the calculated movement pattern to the normalization unit 24b.

また、パターン抽出部23bは、第1の実施形態のパターン抽出部23と同様の方法により、データ抽出部22から供給された抽出映像信号から自己相関関数R(t)を算出し、算出した自己相関関数R(t)に基づいて、映像のパターンを算出する。そして、パターン抽出部23bは、算出した映像のパターンを示す情報を正規化部24bに出力する。   The pattern extraction unit 23b calculates the autocorrelation function R (t) from the extracted video signal supplied from the data extraction unit 22 by the same method as the pattern extraction unit 23 of the first embodiment, and calculates the calculated self A video pattern is calculated based on the correlation function R (t). Then, the pattern extraction unit 23b outputs information indicating the calculated video pattern to the normalization unit 24b.

正規化部24bは、第1の実施形態の正規化部24と同様に、パターン抽出部23bから入力された動きのパターンを示す情報を−1から1までの値に正規化する。そして、正規化部24bは、正規化後の動きのパターンを示す情報Rm_Iをパターン記憶部25に記憶させる。   Similar to the normalization unit 24 of the first embodiment, the normalization unit 24b normalizes information indicating the motion pattern input from the pattern extraction unit 23b to a value from −1 to 1. Then, the normalization unit 24b stores information Rm_I indicating the motion pattern after normalization in the pattern storage unit 25.

また、正規化部24bは、パターン抽出部23bから入力された映像のパターンを示す情報を−1から1までの値に正規化する。そして、正規化部24bは、正規化後の映像のパターンを示す情報Rvをパターン記憶部25に記憶させる。   Further, the normalization unit 24b normalizes information indicating the video pattern input from the pattern extraction unit 23b to a value from −1 to 1. Then, the normalization unit 24b causes the pattern storage unit 25 to store information Rv indicating the normalized video pattern.

制御部20bは、パターン記憶部25から正規化後の動きのパターンを示す情報Rm_Iを読み出し、読み出した正規化後の動きのパターンを示す情報Rm_Iを通信部40に出力する。そして、制御部20bは、正規化後の動きのパターンを示す情報Rm_Iを通信部40から他の電子装置100−J(JはI以外の整数)に送信するよう制御する。   The control unit 20b reads information Rm_I indicating the motion pattern after normalization from the pattern storage unit 25, and outputs the read information Rm_I indicating the motion pattern after normalization to the communication unit 40. Then, the control unit 20b performs control to transmit information Rm_I indicating the motion pattern after normalization from the communication unit 40 to another electronic device 100-J (J is an integer other than I).

通信部40は、有線または無線方式で、他の電子装置100−Jと通信可能に構成されている。通信部40は、他の電子装置100−Jの正規化後の動きのパターンを示す情報Rm_Jを他の電子装置100−Jから受信し、受信した正規化後の動きのパターンを示す情報Rm_Jを合成部26bに出力する。   The communication unit 40 is configured to be communicable with another electronic device 100-J in a wired or wireless manner. The communication unit 40 receives information Rm_J indicating the motion pattern after normalization of the other electronic device 100-J from the other electronic device 100-J, and receives the received information Rm_J indicating the motion pattern after normalization. The data is output to the combining unit 26b.

合成部26bは、第1の実施形態の合成部26と同様に、パターン記憶部25から正規化後の動きのパターンを示す情報Rm_Iを読み出す。また、合成部26bは、第1の実施形態における合成部26と同様の方法により、読み出した正規化後の動きのパターンを示す情報Rm_Iと、通信部40により入力された正規化後の動きのパターンを示す情報Rm_Jとを、各振幅値に応じて合成する。   The synthesizing unit 26b reads information Rm_I indicating the normalized motion pattern from the pattern storage unit 25 in the same manner as the synthesizing unit 26 of the first embodiment. In addition, the synthesizing unit 26b uses the same method as the synthesizing unit 26 in the first embodiment to read the information Rm_I indicating the read motion pattern after normalization and the motion after normalization input by the communication unit 40. The information Rm_J indicating the pattern is synthesized according to each amplitude value.

これにより、合成部26bは、自装置の動きのパターンと他の電子装置100−Jの動きのパターンを合成したパターンを生成することができる。
そして、合成部26bは、合成により得られたパターンを集合の動きのパターンを示す情報Raとして動き映像合成部27に出力する。
Thereby, the synthetic | combination part 26b can produce | generate the pattern which synthesize | combined the movement pattern of the own apparatus, and the movement pattern of the other electronic device 100-J.
Then, the synthesizing unit 26b outputs the pattern obtained by the synthesizing to the motion video synthesizing unit 27 as information Ra indicating the motion pattern of the set.

動き映像合成部27は、パターン記憶部25から正規化後の映像のパターンを示す情報Rvを読み出す。動き映像合成部27は、合成部26bにより合成された集合の動きのパターンと、抽出された映像のパターンとを合成する。具体的には、動き映像合成部27は、合成部26bから入力された集合の動きのパターンを示す情報Raと、読み出した正規化後の映像のパターンを示す情報Rvとを、それらの振幅に応じて合成する。   The motion video composition unit 27 reads information Rv indicating the normalized video pattern from the pattern storage unit 25. The motion video synthesis unit 27 synthesizes the motion pattern of the set synthesized by the synthesis unit 26b and the extracted video pattern. Specifically, the motion video synthesizing unit 27 uses the information Ra indicating the motion pattern of the set input from the synthesizing unit 26b and the information Rv indicating the read normalized video pattern as their amplitudes. Synthesize accordingly.

図11を用いて、上記、動き映像合成部27の処理について説明する。図11は、動き映像合成部27の処理について説明するための図である。同図において、縦軸は正規化された振幅であり、横軸は時刻である。同図において、集合の動きパターンを示す曲線W121と、正規化後の映像のパターンを示す曲線W122と、動き映像合成部27により合成された合成パターンを示す曲線W123とが示されている。   The process of the motion video composition unit 27 will be described with reference to FIG. FIG. 11 is a diagram for explaining processing of the motion video composition unit 27. In the figure, the vertical axis represents normalized amplitude, and the horizontal axis represents time. In the same figure, a curve W121 indicating the motion pattern of the set, a curve W122 indicating the normalized video pattern, and a curve W123 indicating the synthesized pattern synthesized by the motion video synthesizing unit 27 are shown.

例えば、動き映像合成部27は、集合の動きパターンを示す曲線W121上の値0.6と、正規化後の映像のパターンを示す曲線W122上の値0.8とを加算し、加算により得られた値1.4に各パターンの振幅の組み合わせ(0.6と0.8)に応じた係数0.8を乗じることにより得られる値1.12を、合成パターンを示す曲線W123上のピークP124の振幅とする。
図1に戻って、動き映像合成部27は、合成により得られた合成パターンを場のパターンを示す情報Rpとして照合部29に出力する。
For example, the motion video composition unit 27 adds a value 0.6 on the curve W121 indicating the motion pattern of the set and a value 0.8 on the curve W122 indicating the normalized video pattern, and obtains the result by addition. The value 1.12 obtained by multiplying the obtained value 1.4 by the coefficient 0.8 corresponding to the combination of amplitudes (0.6 and 0.8) of each pattern is the peak on the curve W123 indicating the composite pattern. The amplitude is P124.
Returning to FIG. 1, the motion video synthesis unit 27 outputs the synthesis pattern obtained by the synthesis to the matching unit 29 as information Rp indicating the field pattern.

雰囲気データ記憶部28は、場のパターンを示す情報Rpと、雰囲気を示す情報Aとが関連付けられて記憶されている。図12は、雰囲気データ記憶部28に記憶されているテーブルT1の一例が示された図である。
テーブルT1には、場のパターン固有の識別情報(ID)と、場のパターンと、雰囲気とが関連付けられている。例えば、IDが1の場合、場のパターン(0.1、0.3、…、0.1)に対して、明るい雰囲気が関連付けられている。
The atmosphere data storage unit 28 stores information Rp indicating the field pattern and information A indicating the atmosphere in association with each other. FIG. 12 is a diagram showing an example of the table T1 stored in the atmosphere data storage unit 28. As shown in FIG.
In the table T1, identification information (ID) unique to the field pattern, the field pattern, and the atmosphere are associated. For example, when the ID is 1, a bright atmosphere is associated with the field pattern (0.1, 0.3,..., 0.1).

図9に戻って、照合部29は、動き映像合成部27から入力された場のパターンを示す情報Rpに対応する雰囲気を示す情報Aをデータ記憶部28から読み出す。そして、照合部29は、読み出した雰囲気を示す情報Aを表示部31に出力する。また、照合部29は、雰囲気を示す情報Aに基づく電気信号を音声出力部32に出力する。   Returning to FIG. 9, the collation unit 29 reads out information A indicating the atmosphere corresponding to the information Rp indicating the field pattern input from the motion video synthesis unit 27 from the data storage unit 28. Then, the verification unit 29 outputs information A indicating the read atmosphere to the display unit 31. Further, the collation unit 29 outputs an electrical signal based on the information A indicating the atmosphere to the audio output unit 32.

なお、照合部29は、場のパターンを示す情報Rpに対応する雰囲気を示す情報Aがデータ記憶部28のレコードに存在しない場合、当該場のパターンを示す情報Rpに最も近い場のパターンを抽出し、抽出した場のパターンに対応する雰囲気を示す情報Aをデータ記憶部28から読み出してもよい。   When the information A indicating the atmosphere corresponding to the information Rp indicating the field pattern does not exist in the record of the data storage unit 28, the matching unit 29 extracts the field pattern closest to the information Rp indicating the field pattern. The information A indicating the atmosphere corresponding to the extracted field pattern may be read from the data storage unit 28.

表示部31は、照合部29から入力された雰囲気を示す情報Aに基づいて、雰囲気を示す情報を表示する。また、音声出力部32は、照合部29から入力された電気信号に基づいて、音声を出力する。   The display unit 31 displays information indicating the atmosphere based on the information A indicating the atmosphere input from the verification unit 29. The voice output unit 32 outputs a voice based on the electrical signal input from the verification unit 29.

図13は、第2の実施形態の電子装置100―Iの処理の流れを示したフローチャートである。まず、検出部10bは、自装置の動きを検出し、並行して他の電子装置100―Jを被写体とする映像を取得する(ステップS201)。
次に、パターン抽出部23bは、自装置の動きから動きのパターンを抽出する(ステップS202)。パターン抽出部23bは、並行して、取得された映像のパターンを抽出する(ステップS203)。
FIG. 13 is a flowchart illustrating a processing flow of the electronic device 100-I according to the second embodiment. First, the detection unit 10b detects the movement of the device itself, and acquires an image having another electronic device 100-J as a subject in parallel (step S201).
Next, the pattern extraction unit 23b extracts a movement pattern from the movement of the own apparatus (step S202). The pattern extraction unit 23b extracts the acquired video pattern in parallel (step S203).

次に、正規化部24bは、抽出された動きのパターンを正規化する(ステップS204)。正規化部24bは、並行して、抽出された映像のパターンを正規化する(ステップS205)。   Next, the normalizing unit 24b normalizes the extracted motion pattern (step S204). The normalizing unit 24b normalizes the extracted video pattern in parallel (step S205).

次に、通信部40は、正規化後の他の電子装置の動きのパターンを示す情報を他の電子装置から受信する(ステップS206)。次に、合成部26bは、正規化後の自装置の動きのパターンと、正規化後の他の電子装置の動きのパターンとを合成した集合の動きパターンを生成する(ステップS207)。   Next, the communication unit 40 receives information indicating the movement pattern of the other electronic device after normalization from the other electronic device (step S206). Next, the synthesizing unit 26b generates a motion pattern of a set obtained by synthesizing the motion pattern of the own device after normalization and the motion pattern of another electronic device after normalization (step S207).

次に、動き映像合成部27は、集合の動きパターンと映像のパターンとを合成する(ステップS208)。照合部29は、動き映像合成部27により合成された場のパターンに対応する雰囲気を示す情報を読み出す(ステップS209)。次に、表示部31は、読み出した雰囲気を示す情報を表示する(ステップS210)。次に、音声出力部32は、雰囲気を示す情報に基づく音声を出力する(ステップS211)。以上で、本フローチャートの処理を終了する。   Next, the motion video synthesizing unit 27 synthesizes the motion pattern of the set and the video pattern (step S208). The collation unit 29 reads out information indicating an atmosphere corresponding to the field pattern synthesized by the motion video synthesis unit 27 (step S209). Next, the display unit 31 displays information indicating the read atmosphere (step S210). Next, the sound output unit 32 outputs sound based on information indicating the atmosphere (step S211). Above, the process of this flowchart is complete | finished.

以上、第2の実施形態における電子装置100―Iは、個々の電子装置100―Iの動きから動きのパターンを抽出する。そして、電子装置100―Iは、自装置の動きパターンと、他の電子装置100―Jの動きパターンを合成して、集合の動きパターンを生成する。電子装置100―Iは、生成した集合の動きパターンと、被写体である他の電子装置100―Jを撮像した映像から得られる輝度変化に基づく映像パターンとを更に合成することにより、被写体が存在するその場のパターンを生成する。そして、電子装置100―Iは、雰囲気データ記憶部28からその場のパターンに対応する雰囲気を示す情報を読み出す。   As described above, the electronic device 100-I according to the second embodiment extracts the movement pattern from the movements of the individual electronic devices 100-I. Then, the electronic device 100-I combines the motion pattern of the own device and the motion pattern of the other electronic device 100-J to generate a set motion pattern. The electronic device 100-I further synthesizes the generated motion pattern of the set and the video pattern based on the luminance change obtained from the video obtained by imaging the other electronic device 100-J, which is the subject, so that the subject exists. Generate an in-situ pattern. Then, the electronic device 100 -I reads out information indicating the atmosphere corresponding to the pattern on the spot from the atmosphere data storage unit 28.

これにより、電子装置100―Iは、その場を撮像した映像信号と、自装置および他の電子装置100―Jの動きを示す情報とから、その場のパターンを生成することができる。その結果、電子装置100―Iは、生成されたその場のパターンからその場の雰囲気を推定することができる。   Thereby, the electronic device 100-I can generate a pattern of the spot from the video signal obtained by imaging the spot and the information indicating the movement of the own apparatus and the other electronic device 100-J. As a result, the electronic device 100-I can estimate the in-situ atmosphere from the generated in-situ pattern.

なお、本実施形態において、電子装置100―Iは、自装置の動きのパターンと他の電子装置の動きのパターンを合成したが、これに限ったものではない。例えば、電子装置100―Iは、自装置の側面にかかる圧力のパターンと、他の電子装置100―Jの側面にかかる圧力のパターンを合成してもよい。   In the present embodiment, the electronic device 100-I combines the movement pattern of its own device and the movement pattern of another electronic device, but this is not a limitation. For example, the electronic device 100-I may combine the pressure pattern applied to the side surface of the device itself and the pressure pattern applied to the side surface of the other electronic device 100-J.

本実施形態において、動き映像合成部27は、各パターンの振幅がいずれも所定の閾値よりも大きくなっている場合、各パターンの振幅に基づいて、合成により得られるパターンの振幅を決定したが、これに限ったものではない。動き映像合成部27は、各パターンの平均値を、合成により得られるパターンの振幅としてもよい。   In the present embodiment, the motion video composition unit 27 determines the amplitude of the pattern obtained by the synthesis based on the amplitude of each pattern when the amplitude of each pattern is greater than a predetermined threshold. It is not limited to this. The motion video synthesis unit 27 may use the average value of each pattern as the amplitude of the pattern obtained by synthesis.

また、全ての実施形態において、合成部(26、26b)は、各パターンの振幅がいずれも所定の閾値よりも大きくなっている場合、各パターンの振幅に基づいて、合成により得られるパターンの振幅を決定したが、これに限ったものではない。合成部(26、26b)は、各パターンの平均値を、合成により得られるパターンの振幅としてもよい。   In all the embodiments, the synthesis unit (26, 26b) determines the amplitude of the pattern obtained by synthesis based on the amplitude of each pattern when the amplitude of each pattern is larger than a predetermined threshold. However, it is not limited to this. The synthesis unit (26, 26b) may use the average value of each pattern as the amplitude of the pattern obtained by synthesis.

全ての実施形態において、出力部30は、画像と音声とを用いて外部に報知したがこれに限らず、光または振動によって、外部に報知するようにしてもよい。   In all the embodiments, the output unit 30 notifies the outside using an image and sound. However, the present invention is not limited to this, and the output unit 30 may notify the outside by light or vibration.

また、本実施形態の制御部(20、20b)の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、制御部(20、20b)に係る上述した種々の処理を行ってもよい。その場合、記録媒体には、複数の検出部により検出された複数の信号を示す情報が記憶されているものとする。   Further, a program for executing each process of the control unit (20, 20b) of the present embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. By doing so, you may perform the various process mentioned above which concerns on a control part (20, 20b). In this case, it is assumed that information indicating a plurality of signals detected by a plurality of detection units is stored in the recording medium.

なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。     Further, the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the concrete structure is not restricted to this embodiment, The design etc. of the range which does not deviate from the summary of this invention are included.

1、100−I 電子装置
2 通信システム
10、10b 検出部
11 動き検出部
12 圧力検出部
13 イメージセンサ
21、21b 抽出部
22 データ抽出部
23 パターン抽出部
24 正規化部
25 パターン記憶部
26、26b 合成部
27 動き映像合成部
28 雰囲気データ記憶部
29 照合部
30 出力部
31 表示部
32 音声出力部
40 通信部
DESCRIPTION OF SYMBOLS 1, 100-I Electronic device 2 Communication system 10, 10b Detection part 11 Motion detection part 12 Pressure detection part 13 Image sensor 21, 21b Extraction part 22 Data extraction part 23 Pattern extraction part 24 Normalization part 25 Pattern storage part 26, 26b Composition unit 27 Motion image composition unit 28 Atmosphere data storage unit 29 Verification unit 30 Output unit 31 Display unit 32 Audio output unit 40 Communication unit

Claims (9)

検出の対象から該対象の特徴を示す複数の信号を検出する複数の検出部と、
前記複数の検出部により検出された複数の信号から、繰り返し現れる該信号のパターンをそれぞれ抽出する抽出部と、
前記抽出された各パターンを合成する合成部と、
を備えることを特徴とする電子装置。
A plurality of detection units for detecting a plurality of signals indicating the characteristics of the target from the detection target;
An extraction unit that extracts patterns of the signal repeatedly appearing from the plurality of signals detected by the plurality of detection units;
A synthesis unit that synthesizes the extracted patterns;
An electronic device comprising:
検出の対象から該対象の特徴を示す信号を検出する検出部と、
前記検出部により検出された信号から、繰り返し現れる該信号のパターンを抽出する抽出部と、
他の電子装置により検出された信号のパターンを示す情報を受信する通信部と、
前記通信部により受信されたパターンと、前記抽出部により抽出されたパターンとを合成する合成部と、
を備えることを特徴とする電子装置。
A detection unit for detecting a signal indicating the feature of the target from the target of detection;
An extraction unit for extracting a pattern of the signal repeatedly appearing from the signal detected by the detection unit;
A communication unit that receives information indicating a pattern of a signal detected by another electronic device;
A synthesis unit that synthesizes the pattern received by the communication unit and the pattern extracted by the extraction unit;
An electronic device comprising:
前記合成部は、前記各パターンの振幅がいずれも所定の閾値よりも大きくなっている場合、前記各パターンの振幅に基づいて、合成により得られるパターンの振幅を決定することを特徴とする請求項1または請求項2に記載の電子装置。   The synthesis unit determines the amplitude of a pattern obtained by synthesis based on the amplitude of each pattern when the amplitude of each of the patterns is larger than a predetermined threshold. The electronic device according to claim 1 or 2. 前記合成部は、前記各パターンの平均値を、合成により得られるパターンの振幅とすることを特徴とする請求項1または請求項2に記載の電子装置。   The electronic device according to claim 1, wherein the synthesis unit sets an average value of the patterns as an amplitude of a pattern obtained by synthesis. 前記合成部により合成されたパターンに基づき自装置の外部に報知する出力部を更に備えることを特徴とする請求項1から請求項4のいずれか1項に記載の電子装置。   The electronic device according to claim 1, further comprising an output unit that notifies the outside of the device based on the pattern synthesized by the synthesis unit. 前記検出部は、自装置の動きを検出し、
前記抽出部は、前記検出された動きから自装置の動きのパターンを抽出し、
前記通信部は、他の電子装置により検出された他の電子装置の動きのパターンを示す情報を受信し、
前記合成部は、自装置の動きのパターンと、他の電子装置の動きのパターンとを合成することを特徴とする請求項2に記載の電子装置。
The detection unit detects the movement of the device itself,
The extraction unit extracts a motion pattern of the device from the detected motion,
The communication unit receives information indicating a movement pattern of another electronic device detected by the other electronic device;
The electronic device according to claim 2, wherein the synthesizing unit synthesizes a motion pattern of the own device and a motion pattern of another electronic device.
前記検出部は、被写体を撮影し、
前記抽出部は、前記検出部による撮影により得られた映像から映像のパターンを抽出し、
前記合成部により合成された動きのパターンと、前記抽出された映像のパターンとを合成する動き映像合成部を備えることを特徴とする請求項6に記載の電子装置。
The detection unit photographs a subject,
The extraction unit extracts a video pattern from a video obtained by photographing by the detection unit,
The electronic apparatus according to claim 6, further comprising a motion video synthesis unit that synthesizes the motion pattern synthesized by the synthesis unit and the extracted video pattern.
検出の対象から該対象の特徴を示す複数の信号を検出する複数の検出手順と、
前記複数の検出手順により検出された複数の信号から、繰り返し現れる該信号のパターンをそれぞれ抽出する抽出手順と、
前記抽出された各パターンを合成する合成手順と、
を有することを特徴とする合成方法。
A plurality of detection procedures for detecting a plurality of signals indicating the characteristics of the target from the target of detection;
An extraction procedure for extracting a pattern of the signal repeatedly appearing from the plurality of signals detected by the plurality of detection procedures;
A synthesis procedure for synthesizing the extracted patterns;
A synthesis method characterized by comprising:
複数の検出部により検出された複数の信号を示す情報が記憶されている記憶部を備えるコンピュータに、
前記記憶部から複数の信号を示す情報を読み出し、該読み出された複数の信号を示す情報から繰り返し現れる該信号のパターンをそれぞれ抽出する抽出ステップと、
前記抽出された各パターンを合成する合成ステップと、
を実行させるための合成プログラム。
A computer including a storage unit storing information indicating a plurality of signals detected by a plurality of detection units,
An extraction step of reading information indicating a plurality of signals from the storage unit, and extracting each pattern of the signal repeatedly appearing from the information indicating the plurality of read signals,
A synthesis step of synthesizing the extracted patterns;
A synthesis program for running
JP2011095986A 2011-03-25 2011-04-22 Electronic device, synthesis method, and synthesis program Withdrawn JP2012227865A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011095986A JP2012227865A (en) 2011-04-22 2011-04-22 Electronic device, synthesis method, and synthesis program
PCT/JP2012/057134 WO2012133028A1 (en) 2011-03-25 2012-03-21 Electronic apparatus, selection method, acquisition method, electronic device, combination method and combination program
US14/029,421 US20140098992A1 (en) 2011-03-25 2013-09-17 Electronic divice, selection method, acquisition method, electronic appratus, synthesis method and synthesis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011095986A JP2012227865A (en) 2011-04-22 2011-04-22 Electronic device, synthesis method, and synthesis program

Publications (1)

Publication Number Publication Date
JP2012227865A true JP2012227865A (en) 2012-11-15

Family

ID=47277539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011095986A Withdrawn JP2012227865A (en) 2011-03-25 2011-04-22 Electronic device, synthesis method, and synthesis program

Country Status (1)

Country Link
JP (1) JP2012227865A (en)

Similar Documents

Publication Publication Date Title
JP6904963B2 (en) Techniques for directing audio in augmented reality systems
JP5260705B2 (en) 3D augmented reality provider
US9664772B2 (en) Sound processing device, sound processing method, and sound processing program
JP6464449B2 (en) Sound source separation apparatus and sound source separation method
CN112165590B (en) Video recording implementation method and device and electronic equipment
JP2018524072A (en) System and method for spoof detection and liveness analysis
WO2012133028A1 (en) Electronic apparatus, selection method, acquisition method, electronic device, combination method and combination program
JP2021526698A (en) Image generation methods and devices, electronic devices, and storage media
EP3549030A1 (en) Distributed audio capturing techniques for virtual reality (vr), augmented reality (ar), and mixed reality (mr) systems
JP6216169B2 (en) Information processing apparatus and information processing method
US20130194402A1 (en) Representing visual images by alternative senses
KR20050100646A (en) Method and device for imaged representation of acoustic objects, a corresponding information program product and a recording support readable by a corresponding computer
JP2011033993A (en) Information presenting apparatus and method for presenting information
KR101095360B1 (en) Image generating apparatus and program
CN109887494B (en) Method and apparatus for reconstructing a speech signal
JP2016103806A (en) Imaging apparatus, image processing apparatus, imaging system, image processing method, and program
US20170215005A1 (en) Audio refocusing methods and electronic devices utilizing the same
JP2009239348A (en) Imager
KR101976937B1 (en) Apparatus for automatic conference notetaking using mems microphone array
JP6249754B2 (en) IMAGING DEVICE, IMAGING SYSTEM, COMMUNICATION DEVICE, IMAGING METHOD, AND IMAGING PROGRAM
CN113744750A (en) Audio processing method and electronic equipment
JP2012227865A (en) Electronic device, synthesis method, and synthesis program
WO2013008869A1 (en) Electronic device and data generation method
KR101155610B1 (en) Apparatus for displaying sound source location and method thereof
JP2010245886A (en) Image processing apparatus, program and method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701