JPWO2012147970A1 - Position context acquisition device, position context acquisition program, and position context acquisition method - Google Patents

Position context acquisition device, position context acquisition program, and position context acquisition method Download PDF

Info

Publication number
JPWO2012147970A1
JPWO2012147970A1 JP2013512499A JP2013512499A JPWO2012147970A1 JP WO2012147970 A1 JPWO2012147970 A1 JP WO2012147970A1 JP 2013512499 A JP2013512499 A JP 2013512499A JP 2013512499 A JP2013512499 A JP 2013512499A JP WO2012147970 A1 JPWO2012147970 A1 JP WO2012147970A1
Authority
JP
Japan
Prior art keywords
position context
context acquisition
environment
model data
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013512499A
Other languages
Japanese (ja)
Inventor
永哉 若山
永哉 若山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2012147970A1 publication Critical patent/JPWO2012147970A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Telephone Function (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

位置コンテキスト取得装置(100)は、環境の特徴を表すモデルデータと、当該環境を説明する位置コンテキストと、を対応付けて複数記憶する記憶部130を備える。また、位置コンテキスト取得装置(100)は、環境を測定するセンサが出力した測定結果を表すセンサ情報を取得するセンサ情報取得部(120)と、センサ情報取得部(120)により取得されたセンサ情報で表される測定結果の特徴とどの程度類似しているかを表す類似度が所定値以上の特徴を表すモデルデータを特定し、特定したモデルデータに対応付けられた位置コンテキストを取得する制御部(140)と、を備える。The position context acquisition device (100) includes a storage unit 130 that stores a plurality of model data representing environmental characteristics and a position context that describes the environment in association with each other. The position context acquisition device (100) includes a sensor information acquisition unit (120) that acquires sensor information representing a measurement result output by a sensor that measures the environment, and sensor information acquired by the sensor information acquisition unit (120). A control unit that identifies model data representing features whose similarity is equal to or greater than a predetermined value indicating how similar to the feature of the measurement result represented by (2), and acquires a position context associated with the identified model data ( 140).

Description

本発明は、位置コンテキスト取得装置、位置コンテキスト取得プログラムを記録したコンピュータ読み取り可能な記録媒体、及び位置コンテキスト取得方法に関する。   The present invention relates to a position context acquisition device, a computer-readable recording medium in which a position context acquisition program is recorded, and a position context acquisition method.

近年、位置を検出し、検出した位置を含む地図画像を表示するシステム及び装置が広く利用されている。具体例としては、GPS(Global Positioning System)を使って位置を検出し、検出した位置と目的地までの経路とを地図に表示するカーナビゲーションシステムが挙げられる。   In recent years, systems and apparatuses that detect a position and display a map image including the detected position have been widely used. A specific example is a car navigation system that detects a position using GPS (Global Positioning System) and displays the detected position and a route to a destination on a map.

また、無線基地局を識別する識別情報と当該無線基地局から電波を受信可能な位置とを記憶した位置データベースを有し、受信した電波から得た識別情報に基づき検索した位置を用いてナビゲーション機能を発揮する携帯電話が挙げられる。   In addition, the navigation system has a position database that stores identification information for identifying a radio base station and a position where radio waves can be received from the radio base station, and uses a position searched based on the identification information obtained from the received radio waves. Mobile phones that demonstrate

また、GPSや位置データベースを用いずに位置を検出するシステムとして、特許文献1には、無線LAN(Local Area Network)アクセスポイントが定期的に送信するビーコン信号を検出するセンサを用いてユーザの行動範囲を特定する装置が開示されている。この装置は、複数のビーコン信号それぞれの特徴と、当該複数のビーコン信号をそれぞれ受信可能な複数の位置を経由する移動経路と、を記憶しており、ビーコン信号から検出した特徴に基づいてユーザの移動経路を特定する。   In addition, as a system for detecting a position without using a GPS or a position database, Patent Document 1 discloses a user action using a sensor that detects a beacon signal periodically transmitted by a wireless LAN (Local Area Network) access point. An apparatus for identifying a range is disclosed. This device stores the characteristics of each of a plurality of beacon signals and the movement paths that pass through a plurality of positions at which the plurality of beacon signals can be received, respectively. Based on the characteristics detected from the beacon signals, Identify travel routes.

特開2009−159336号公報JP 2009-159336 A

しかし、GPSを用いたカーナビゲーションや、位置データベースを用いた携帯電話や、特許文献1に記載の装置では、位置や経路を検出できるが、検出した位置や経路上の位置がどのような環境であるかを特定できなかった。ここで、環境とは、施設や設備などの位置に関わるコンテキストで説明される。   However, the car navigation using GPS, the mobile phone using the position database, and the device described in Patent Document 1 can detect the position and route, but in what environment the detected position and the position on the route are. I couldn't identify it. Here, the environment is described in the context relating to the location of facilities, equipment, and the like.

本発明はこのような問題に鑑みてなされたものであり、センサが存在する位置の環境を説明する位置コンテキストを取得できる位置コンテキスト取得装置、位置コンテキスト取得プログラムを記録したコンピュータ読み取り可能な記録媒体、及び位置コンテキスト取得方法を提供することを目的とする。   The present invention has been made in view of such problems, a position context acquisition device that can acquire a position context that describes an environment of a position where a sensor exists, a computer-readable recording medium that records a position context acquisition program, It is another object of the present invention to provide a location context acquisition method.

上記目的を達成するため、本発明の第1の観点に係る位置コンテキスト取得装置は、
環境の特徴を表すモデルデータと、当該環境を説明する位置コンテキストと、を対応付けて複数記憶する記憶手段と、
環境を測定するセンサが出力した測定結果を表すセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報取得手段により取得されたセンサ情報で表される測定結果の特徴とどの程度類似しているかを表す類似度が所定値以上の特徴を表すモデルデータを特定し、特定したモデルデータに対応付けられた位置コンテキストを取得する位置コンテキスト取得手段と、を備える、
ことを特徴とする。
In order to achieve the above object, a position context acquisition apparatus according to the first aspect of the present invention provides:
Storage means for storing a plurality of model data representing the characteristics of the environment and location contexts describing the environment in association with each other;
Sensor information acquisition means for acquiring sensor information representing a measurement result output by a sensor that measures the environment;
Identifies model data representing features whose similarity is equal to or greater than a predetermined value indicating how similar to the feature of the measurement result represented by the sensor information acquired by the sensor information acquisition means, and corresponds to the specified model data A position context acquisition means for acquiring the attached position context;
It is characterized by that.

上記目的を達成するため、本発明の第2の観点に係るコンピュータ読み取り可能な記録媒体に記録された位置コンテキスト取得プログラムは、
コンピュータを、
環境の特徴を表すモデルデータと、当該環境を説明する位置コンテキストと、を対応付けて複数記憶する記憶手段、
環境を測定するセンサが出力した測定結果の特徴とどの程度類似しているかを表す類似度が所定値以上の特徴を表すモデルデータを特定し、特定したモデルデータに対応付けられた位置コンテキストを取得する位置コンテキスト取得手段、として機能させる、
ことを特徴とする。
In order to achieve the above object, a position context acquisition program recorded on a computer-readable recording medium according to the second aspect of the present invention includes:
Computer
Storage means for storing a plurality of model data representing the features of the environment and positional contexts describing the environment in association with each other;
Identifies model data that represents features whose degree of similarity is greater than or equal to a predetermined value indicating how similar to the features of the measurement results output by the sensor that measures the environment, and obtains the position context associated with the identified model data Function as location context acquisition means,
It is characterized by that.

上記目的を達成するため、本発明の第3の観点に係る位置コンテキスト取得方法は、
環境を測定するセンサが出力した測定結果を表すセンサ情報を取得するセンサ情報取得ステップと、
環境の特徴を表すモデルデータと、当該環境を説明する位置コンテキストと、を対応付けて複数記憶する記憶手段から、前記センサ情報取得ステップにより取得されたセンサ情報で表される測定結果の特徴とどの程度類似しているかを表す類似度が所定値以上のモデルデータを特定し、当該特定したモデルデータに対応付けられた位置コンテキストを取得する位置コンテキスト取得ステップと、を有する、
ことを特徴とする。
In order to achieve the above object, a location context acquisition method according to a third aspect of the present invention includes:
A sensor information acquisition step for acquiring sensor information representing a measurement result output by a sensor for measuring the environment;
What are the characteristics of the measurement results represented by the sensor information acquired by the sensor information acquisition step from the storage means that stores a plurality of model data representing the characteristics of the environment and positional contexts that explain the environment in association with each other? A position context acquisition step of identifying model data having a similarity equal to or greater than a predetermined value indicating whether they are similar to each other and acquiring a position context associated with the identified model data,
It is characterized by that.

本発明に係る位置コンテキスト取得装置、位置コンテキスト取得プログラムを記録したコンピュータ読み取り可能な記録媒体、及び位置コンテキスト取得方法によれば、センサが存在する位置の環境を説明する位置コンテキストを取得できる。   According to the position context acquisition apparatus, the computer-readable recording medium in which the position context acquisition program is recorded, and the position context acquisition method according to the present invention, it is possible to acquire the position context that describes the environment of the position where the sensor exists.

実施形態1に係る位置コンテキスト取得装置を表すブロック図である。It is a block diagram showing the position context acquisition apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る位置コンテキスト取得装置に記憶された位置コンテキスト類推辞書を表す図である。It is a figure showing the position context analogy dictionary memorize | stored in the position context acquisition apparatus which concerns on Embodiment 1. FIG. 実施形態1で位置コンテキスト取得装置が実行する位置コンテキスト取得処理を表すフローチャートである。6 is a flowchart illustrating a position context acquisition process executed by the position context acquisition apparatus according to the first embodiment. 実施形態2に係る位置コンテキスト取得装置を表すブロック図である。It is a block diagram showing the position context acquisition apparatus which concerns on Embodiment 2. FIG. 実施形態2に係る位置コンテキスト取得装置が記憶する位置コンテキスト類推辞書を表す図である。It is a figure showing the position context analogy dictionary which the position context acquisition apparatus which concerns on Embodiment 2 memorize | stores. 実施形態2に係る位置コンテキスト取得装置が実行する位置コンテキスト取得処理を表すフローチャートである。10 is a flowchart illustrating a position context acquisition process executed by the position context acquisition apparatus according to the second embodiment. 位置コンテキスト取得装置が記憶するセンサ動作停止テーブルを表す図である。It is a figure showing the sensor operation stop table which a position context acquisition device memorizes. 実施形態3に係る位置コンテキスト取得システムを表すブロック図である。It is a block diagram showing the position context acquisition system which concerns on Embodiment 3. FIG. 実施形態3に係る位置コンテキスト取得装置が記憶する位置コンテキスト類推辞書を表す図である。It is a figure showing the position context analogy dictionary which the position context acquisition apparatus concerning Embodiment 3 memorize | stores. 実施形態3に係る位置コンテキスト取得装置が実行する位置コンテキスト取得処理を表すフローチャートである。10 is a flowchart illustrating a position context acquisition process executed by the position context acquisition apparatus according to the third embodiment. 実施形態3に係る位置コンテキスト取得装置101が実行する位置関連情報取得処理と位置コンテキスト取得装置102が実行する位置関連情報出力処理を表すフローチャートである。10 is a flowchart illustrating a position related information acquisition process executed by a position context acquisition apparatus 101 according to a third embodiment and a position related information output process executed by a position context acquisition apparatus 102. 位置関連情報取得処理で出力される位置関連情報取得要求のデータフォーマットを表す図である。It is a figure showing the data format of the position relevant information acquisition request output by a position relevant information acquisition process. 位置関連情報出力処理で出力される位置関連情報取得応答のデータフォーマットを表す図である。It is a figure showing the data format of the position relevant information acquisition response output by a position relevant information output process. 実施形態3の変形例3に係る位置コンテキスト取得装置に記憶された位置コンテキスト類推辞書を表す図である。It is a figure showing the position context analogy dictionary memorize | stored in the position context acquisition apparatus which concerns on the modification 3 of Embodiment 3. FIG.

以下、発明の実施形態を通じて本発明を説明するが、以下の実施形態は、特許請求の範囲にかかる発明を限定するものではなく、また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。実施形態にて示した図面および具体的な数値および内容は本発明の一例にすぎず、発明を狭く解釈するために用いてはならない。   Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the invention according to the claims, and all combinations of features described in the embodiments. However, this is not always essential for the solution of the invention. The drawings and specific numerical values and contents shown in the embodiments are merely examples of the present invention and should not be used to narrowly interpret the invention.

(実施形態1)
以下、実施形態1に係る位置コンテキスト取得装置100について、図面を参照しながら説明する。
(Embodiment 1)
Hereinafter, the position context acquisition apparatus 100 according to the first embodiment will be described with reference to the drawings.

位置コンテキスト取得装置100は、サーバである外部装置900に接続されている。位置コンテキスト取得装置100は、音声を収集し、収集した音声に基づいて、当該音声が生じる施設若しくは当該音声を発する設備を特定する。ここで、例えば、「位置コンテキスト取得装置100が在る位置の環境は、トイレが所定距離内に在る(トイレの個室の中を含む)環境である」というように、施設若しくは設備で環境が説明される。このため、位置コンテキスト取得装置100は、特定した施設若しくは設備の普通名称を位置コンテキストとし、位置コンテキストを表す情報(以下、位置コンテキスト情報という)と、位置コンテキスト取得装置100を識別する識別情報と、を外部装置900へ出力する。   The location context acquisition device 100 is connected to an external device 900 that is a server. The position context acquisition apparatus 100 collects sound, and identifies the facility where the sound is generated or the facility that emits the sound based on the collected sound. Here, for example, “the environment where the position context acquisition device 100 is located is an environment where the toilet is within a predetermined distance (including a private room of the toilet)”. Explained. For this reason, the location context acquisition device 100 uses the specified facility or the common name of the equipment as the location context, information indicating the location context (hereinafter referred to as location context information), identification information for identifying the location context acquisition device 100, Is output to the external device 900.

外部装置900は、出力された識別情報と位置コンテキスト情報と、これら情報の出力日時と、に基づいて、位置コンテキスト取得装置100を携帯するユーザの移動状況などを特定し、特定した移動状況を表示する。   The external device 900 specifies the movement status of the user carrying the position context acquisition device 100 based on the output identification information, position context information, and the output date and time of these information, and displays the specified movement status To do.

位置コンテキスト取得装置100は、図1に示すように、センサ110と、センサ情報取得部120と、記憶部130と、制御部140と、通信部150と、で構成される。   As illustrated in FIG. 1, the position context acquisition device 100 includes a sensor 110, a sensor information acquisition unit 120, a storage unit 130, a control unit 140, and a communication unit 150.

センサ110は、動電型のマイクロフォン(つまり、音センサ)である。センサ110は、周囲の音を電気信号に変換し、電気信号(以下、音響信号という)をセンサ情報取得部120に出力する。   The sensor 110 is an electrodynamic microphone (that is, a sound sensor). The sensor 110 converts ambient sound into an electrical signal and outputs the electrical signal (hereinafter referred to as an acoustic signal) to the sensor information acquisition unit 120.

センサ情報取得部120は、A/D(Analog/Digital)コンバータで構成される。センサ情報取得部120は、制御部140からの要求に従い、センサ110から出力された音響信号を所定周期でサンプリング及び量子化することで、音響信号をデジタルデータ(以下、センサ情報という)に変換する。   The sensor information acquisition unit 120 includes an A / D (Analog / Digital) converter. The sensor information acquisition unit 120 converts the acoustic signal into digital data (hereinafter referred to as sensor information) by sampling and quantizing the acoustic signal output from the sensor 110 at a predetermined period in accordance with a request from the control unit 140. .

記憶部130は、ハードディスクである外部記憶装置、及び、RAM(Random Access Memory)である内部記憶装置で構成される記憶装置である。記憶部130の外部記憶装置は、制御部140が実行するプログラムやプログラムの実行に用いられる位置コンテキスト類推辞書1310等の各種データを記憶する。記憶部130の内部記憶装置は、制御部140がプログラムを実行する際にワークメモリとして機能する。   The storage unit 130 is a storage device that includes an external storage device that is a hard disk and an internal storage device that is a RAM (Random Access Memory). The external storage device of the storage unit 130 stores various data such as a program executed by the control unit 140 and a position context analogy dictionary 1310 used for execution of the program. The internal storage device of the storage unit 130 functions as a work memory when the control unit 140 executes a program.

位置コンテキスト類推辞書1310は、図2に示すように、特定の環境で生じる音声の特徴を表すデータ(以下、モデルデータという)と、当該特定環境を説明する位置コンテキストと、が対応付けられた複数のデータで構成される。   As shown in FIG. 2, the position context analogy dictionary 1310 includes a plurality of data in which data (hereinafter referred to as model data) representing the characteristics of speech generated in a specific environment and a position context that describes the specific environment are associated with each other. It consists of data.

この特定の環境は、トイレ、台所、浴室、居間、及び寝室、及び校庭、体育館、プール、及び学校、並びに道路、駅、港、及び空港等の特定の施設若しくは設備が在る環境を含む。   This particular environment includes toilets, kitchens, bathrooms, living rooms and bedrooms, and environments with schoolyards, gymnasiums, pools, and schools, and certain facilities or equipment such as roads, stations, ports, and airports.

尚、モデルデータは、特定環境で収集された音声を表す複数の学習用データ(以下、「サンプルデータ」という)において、「音圧平均」、「音圧最大値」、及び「音圧の分散」といった、サンプルデータに共通した特徴量を表すデータである。このモデルデータは、音声認識で使用される隠れマルコフモデル(HMM: Hidden Markov Model)を用いてサンプルデータから学習されたモデルパラメータとして取得され、工場出荷前に予め記憶部130に保存される。   Note that the model data is “sound pressure average”, “sound pressure maximum value”, and “sound pressure variance” in a plurality of learning data (hereinafter referred to as “sample data”) representing speech collected in a specific environment. ", Which is a feature amount common to the sample data. This model data is acquired as model parameters learned from sample data using a Hidden Markov Model (HMM) used in speech recognition, and is stored in the storage unit 130 in advance before factory shipment.

図2に示す位置コンテキスト類推辞書1310は、電子レンジのボタン押下音の特徴量を表すモデルデータ「microwave_beep.hmm」と、当該音が生じることが多い環境は、所定範囲内に台所が在る環境であると説明する位置コンテキストと、が対応づけられたデータを有する。また、位置コンテキスト類推辞書1310は、トイレの流水音の特徴量を表すモデルデータ「toilet_flushing.hmm」と、当該音が生じることが多い環境は、所定範囲内にトイレが在る環境であると説明する位置コンテキストと、が対応付けられデータを有する。   The position context analogy dictionary 1310 shown in FIG. 2 includes model data “microwave_beep.hmm” representing the feature amount of a button press sound of a microwave oven and an environment in which the sound is often generated is an environment in which a kitchen is within a predetermined range. And the position context described as being have data associated with each other. In addition, the position context analogy dictionary 1310 explains that the model data “toilet_flushing.hmm” representing the feature value of the running water sound of the toilet and the environment in which the sound often occurs is an environment in which the toilet is within a predetermined range. The position context is associated with data.

また、記憶部130には、後述する制御部140によってセンサ情報から生成され、かつサンプルデータと比較される音響データを格納するための領域(以下、音響データ格納領域という)が用意されている。   In addition, the storage unit 130 is provided with an area (hereinafter referred to as an acoustic data storage area) for storing acoustic data that is generated from sensor information by the control unit 140 described later and is compared with sample data.

制御部140は、プロセッサで構成される。制御部140は、記憶部130に格納されているプログラムに従って、センサ情報取得部120から出力されるセンサ情報を、例えば、5秒などいった再生時間が所定時間のWAV形式やRAW形式のデータ(以下、音響データという)に変換する。   The control unit 140 includes a processor. In accordance with a program stored in the storage unit 130, the control unit 140 converts the sensor information output from the sensor information acquisition unit 120 into WAV format or RAW format data (for example, 5 seconds) with a playback time of 5 seconds. Hereinafter referred to as acoustic data).

この音響データは、センサ110が、位置コンテキスト取得装置100が在る位置の音声環境を測定した測定結果を表すデータであるため、測定結果データとも称される。   This acoustic data is also referred to as measurement result data because the sensor 110 is data representing a measurement result obtained by measuring the sound environment at the position where the position context acquisition device 100 is located.

制御部140は、測定結果データの作成日時を、測定結果の測定日時として、測定結果データ(つまり、音響データ)と対応付けて記憶部130の音響データ格納領域に保存する。   The control unit 140 stores the creation date / time of the measurement result data in the acoustic data storage area of the storage unit 130 as the measurement date / time of the measurement result in association with the measurement result data (that is, acoustic data).

また、制御部140は、プログラムに従って、音響データと位置コンテキスト類推辞書1310とを用いて位置コンテキストを取得する位置コンテキスト取得処理を実行する。   Moreover, the control part 140 performs the position context acquisition process which acquires a position context using acoustic data and the position context analogy dictionary 1310 according to a program.

通信部150は、無線LANカードなどの通信装置で構成される。通信部150は、制御部140からの要求に従い、位置コンテキスト情報などの各種情報を外部装置と通信する。   The communication unit 150 includes a communication device such as a wireless LAN card. The communication unit 150 communicates various types of information such as position context information with an external device in accordance with a request from the control unit 140.

次に、図1に示した構成を有する位置コンテキスト取得装置100の動作について説明する。   Next, the operation of the position context acquisition apparatus 100 having the configuration shown in FIG. 1 will be described.

位置コンテキスト取得装置100に電源が投入されると、センサ110は、音を音響信号に変換し、音響信号をセンサ情報取得部120に出力する。センサ情報取得部120は、制御部140からの要求に従い、音響信号をデジタルデータであるセンサ情報に変換する。制御部140は、センサ情報を音響データに変換し、音響データと音響データの作成日時とを対応付けて記憶部130に格納する。   When the position context acquisition apparatus 100 is turned on, the sensor 110 converts sound into an acoustic signal and outputs the acoustic signal to the sensor information acquisition unit 120. The sensor information acquisition unit 120 converts the acoustic signal into sensor information that is digital data in accordance with a request from the control unit 140. The control unit 140 converts the sensor information into acoustic data, and stores the acoustic data and the creation date of the acoustic data in the storage unit 130 in association with each other.

その後、通信部150は、記憶部130に格納した音響データに基づいて取得した位置コンテキスト情報の送信を命じる位置コンテキスト送信命令を、外部装置900から受信する。   Thereafter, the communication unit 150 receives, from the external device 900, a location context transmission command that instructs transmission of location context information acquired based on the acoustic data stored in the storage unit 130.

制御部140は、通信部150が位置コンテキスト送信命令を受信すると、図3に示す位置コンテキスト取得処理の実行を開始する。   When the communication unit 150 receives the position context transmission command, the control unit 140 starts executing the position context acquisition process illustrated in FIG.

位置コンテキスト取得処理が開始されると、制御部140は、記憶部130から音響データ格納領域に格納された最新の音響データを取得する(ステップS101)。   When the position context acquisition process is started, the control unit 140 acquires the latest acoustic data stored in the acoustic data storage area from the storage unit 130 (step S101).

次に、制御部140は、位置コンテキスト類推辞書1310に格納されているモデルデータを複数取得する(ステップS102)。   Next, the control unit 140 acquires a plurality of model data stored in the position context analogy dictionary 1310 (step S102).

その後、制御部140は、ステップS101で取得した音響データから、音響データで表される音声の音圧平均、音圧最大値、及び音圧の分散という特徴量を抽出する(ステップS103)。   After that, the control unit 140 extracts feature amounts such as sound pressure average, sound pressure maximum value, and sound pressure variance of the sound represented by the sound data from the sound data acquired in Step S101 (Step S103).

そして、制御部140は、隠れマルコフモデルを用いたパターン認識手法により、ステップS103で抽出した特徴量と、ステップS102で取得された各モデルデータそれぞれで表される特徴量と、がどの程度類似しているかを表す類似度を算出する(ステップS104)。   Then, the control unit 140 uses the pattern recognition method using the hidden Markov model to determine how similar the feature amount extracted in step S103 and the feature amount represented by each model data acquired in step S102 are. Similarity indicating whether or not the image is present is calculated (step S104).

そして、制御部140は、算出した類似度の中で、最も類似度の高いモデルデータを特定し、特定されたモデルデータに対応付けられた位置コンテキストを、図2に示した位置コンテキスト類推辞書1310から取得する(ステップS105)。   Then, the control unit 140 identifies model data having the highest similarity among the calculated similarities, and the position context associated with the identified model data is represented by the position context analogy dictionary 1310 illustrated in FIG. (Step S105).

具体的には、制御部140は、位置コンテキスト類推辞書1310のモデルデータ「microwave_beep.hmm」で表される特徴量と音響データの特徴量との類似度、及び、モデルデータ「toilet_flushing.hmm」で表される特徴量と音響データの特徴量との類似度、を算出する。次に、制御部140は、モデルデータ「microwave_beep.hmm」と音響データとの類似度の方がモデルデータ「toilet_flushing.hmm」と音響データとの類似度より高いと判別する。その後、制御部140は、モデルデータ「microwave_beep.hmm」に対応付けられた位置コンテキスト「台所」を取得し、位置コンテキスト取得装置100が台所に在る可能性が高いと判別する。   Specifically, the control unit 140 uses the similarity between the feature amount represented by the model data “microwave_beep.hmm” in the position context analogy dictionary 1310 and the feature amount of the acoustic data, and the model data “toilet_flushing.hmm”. The similarity between the represented feature value and the feature value of the acoustic data is calculated. Next, the control unit 140 determines that the similarity between the model data “microwave_beep.hmm” and the acoustic data is higher than the similarity between the model data “toilet_flushing.hmm” and the acoustic data. Thereafter, the control unit 140 acquires the position context “kitchen” associated with the model data “microwave_beep.hmm”, and determines that the position context acquisition apparatus 100 is likely to be in the kitchen.

ステップS105の後に、制御部140は、位置コンテキスト取得装置100を識別する識別情報を記憶部130から読み出し、識別情報と、取得した位置コンテキストを表す位置コンテキスト情報と、を通信部150へ出力する(ステップS106)。その後、制御部140は、位置コンテキスト取得処理の実行を終了する。尚、通信部150は、位置コンテキスト情報と識別情報とを外部装置に送信する。   After step S105, the control unit 140 reads identification information for identifying the position context acquisition device 100 from the storage unit 130, and outputs the identification information and the position context information representing the acquired position context to the communication unit 150 ( Step S106). Thereafter, the control unit 140 ends the execution of the position context acquisition process. Note that the communication unit 150 transmits the position context information and the identification information to the external device.

これらの構成によれば、位置コンテキスト取得装置100は、音声を収集し、収集した音声の特徴と類似した特徴を有する音声が生じる施設若しくは設備を特定する。また、位置コンテキスト取得装置100は、位置コンテキスト取得装置100が在る位置の環境を、特定した施設若しくは設備の在る環境であると説明する位置コンテキスト情報を出力する。このため、位置コンテキスト情報は、施設若しくは設備を表す普通名称でセンサ110が存在する位置の環境を説明するので、緯度及び経度や住所よりも、ユーザにとって、センサ110の位置や環境を意味的若しくは概念的に理解し易い。   According to these configurations, the position context acquisition apparatus 100 collects sound, and specifies a facility or equipment in which sound having characteristics similar to the characteristics of the collected sound is generated. In addition, the position context acquisition apparatus 100 outputs position context information explaining that the environment of the position where the position context acquisition apparatus 100 exists is an environment where the specified facility or equipment is present. For this reason, since the position context information describes the environment of the position where the sensor 110 exists with a common name representing a facility or equipment, the position or environment of the sensor 110 is more meaningful to the user than the latitude, longitude, and address. Easy to understand conceptually.

ここで、例えば、電子レンジは、通常、台所に設置され、電子レンジのボタン押下音は、電子レンジの使用により通常生じる音である。また、トイレの流水音は、トイレの使用により通常生じる音である。また、ボタン押下音のモデルデータは、台所という環境でそれぞれサンプリングされたボタン押下音を表す複数のサンプルデータに共通する特徴量を表す。同様に、トイレの流水音のモデルデータは、トイレという環境でそれぞれサンプリングされた流水音を表す複数のサンプルデータに共通する特徴量を表す。よって、これらのため、位置コンテキスト取得装置100は、携帯され得る全ての位置についてモデルデータを記憶しなくとも、位置コンテキスト取得装置100が携帯された位置の環境を説明する位置コンテキストを取得できる。   Here, for example, a microwave oven is usually installed in a kitchen, and a button press sound of the microwave oven is a sound normally generated by using the microwave oven. In addition, the running water sound of a toilet is a sound normally generated by using the toilet. Further, the model data of the button press sound represents a feature amount common to a plurality of sample data representing the button press sounds sampled in the environment of the kitchen. Similarly, the model data of the running water sound of the toilet represents a feature amount common to a plurality of sample data representing the running water sound sampled in the environment of the toilet. Therefore, for these reasons, the position context acquisition apparatus 100 can acquire a position context that describes the environment of the position where the position context acquisition apparatus 100 is carried without storing model data for all positions that can be carried.

また、位置コンテキスト取得装置100は、モデルデータと音響データとに基づいて算出した類似度に基づいて位置コンテキストを取得するので、サンプルデータで表される特徴量と音響データの特徴量とに相違があっても位置コンテキストを取得できる。例えば、ある複数のメーカのトイレでそれぞれ生じる流水音に共通した特徴をモデルデータが表しており、音響データが他のメーカのトイレで生じる流水音を表す場合であっても、位置コンテキスト取得装置100は、音響データで表される音が生じる施設若しくは設備がトイレであることを特定できる。   Further, since the position context acquisition device 100 acquires the position context based on the similarity calculated based on the model data and the acoustic data, there is a difference between the feature amount represented by the sample data and the feature amount of the acoustic data. Even if it exists, the position context can be acquired. For example, even if the model data represents features common to running water sounds generated by toilets of a plurality of manufacturers, and the acoustic data represents flowing water sounds generated by toilets of other manufacturers, the position context acquisition device 100 Can specify that the facility or equipment that generates the sound represented by the acoustic data is a toilet.

(実施形態1の変形例1)
実施形態1では、位置コンテキストは、施設若しくは設備の普通名称を表すとして説明したが、これに限定される訳ではない。コンテキスト情報は、「位置コンテキスト取得装置100が在る位置の環境は、トイレが所定距離内に在る環境である」というように、施設若しくは設備の普通名称を用いて環境を説明する文若しくは文章を表す情報であっても良い。
(Modification 1 of Embodiment 1)
In the first embodiment, the position context has been described as representing a common name of a facility or equipment, but is not limited thereto. The context information is a sentence or a sentence that describes the environment using the common name of the facility or equipment, such as “the environment where the position context acquisition device 100 is located is an environment where the toilet is within a predetermined distance”. It may be information indicating.

(実施形態1の変形例2)
実施形態1では、位置コンテキスト取得装置100は、マイクロフォンであるセンサ110を有するとして説明したが、これに限定される訳ではない。本変形例では、位置コンテキスト取得装置100は、赤外線センサを有する。位置コンテキスト取得装置100の記憶部は、テレビリモコンから出力される制御信号の特徴量を表すモデルデータと、テレビが所定範囲内に在る環境であることを説明する位置コンテキストと、を対応付けて記憶している。制御部140は、赤外線センサが受信した赤外線の特徴量と、モデルデータで表される特徴量と、の類似度を算出する。制御部140は、赤外線センサが受信した赤外線の特徴量との類似度が最も高い特徴量を表すモデルデータが、テレビリモコンから出力される制御信号の特徴量を表す場合に、テレビが所定範囲内に在る環境であることを説明する位置コンテキストを取得する。
(Modification 2 of Embodiment 1)
In the first embodiment, the position context acquisition apparatus 100 has been described as including the sensor 110 that is a microphone. However, the present invention is not limited to this. In this modification, the position context acquisition apparatus 100 includes an infrared sensor. The storage unit of the position context acquisition apparatus 100 associates model data representing the feature amount of the control signal output from the TV remote controller with a position context that explains that the TV is in a predetermined range. I remember it. The control unit 140 calculates the degree of similarity between the infrared feature quantity received by the infrared sensor and the feature quantity represented by the model data. When the model data representing the feature quantity having the highest similarity with the infrared feature quantity received by the infrared sensor represents the feature quantity of the control signal output from the television remote controller, the control unit 140 is within the predetermined range. Get the location context that describes the environment at.

(実施形態1の変形例3)
本実施形態1では、位置コンテキスト取得装置100は、音響データで表される音声の特徴量として、音圧平均、音圧最大値、及び音圧の分散を用いるとして説明した。これに対して、本変形例では、位置コンテキスト取得装置100は、音圧平均、音圧最大値、及び音圧の分散だけでなく、音声の立ち上がり時間、急峻性、減衰時間、音響信号エンベロープ、ゼロ点交差数、ピーク周波数、ピッチ、周波数スペクトル、周波数スペクトルのエンベロープ、周波数スペクトルのフィルタバンク分析値、MFCC(Mel-Frequency Cepstral Coefficients)、及びMP(Matching Pursuit)、並びにこれらの一次差分及び二次差分のいずれか1つ以上を音声の特徴量として使用する。
(Modification 3 of Embodiment 1)
In the first embodiment, the position context acquisition apparatus 100 has been described as using the sound pressure average, the sound pressure maximum value, and the sound pressure variance as the sound feature amount represented by the sound data. On the other hand, in the present modification, the position context acquisition device 100 not only has the sound pressure average, the sound pressure maximum value, and the sound pressure dispersion, but also the voice rise time, steepness, decay time, acoustic signal envelope, Number of zero crossings, peak frequency, pitch, frequency spectrum, frequency spectrum envelope, frequency spectrum filter bank analysis value, MFCC (Mel-Frequency Cepstral Coefficients), MP (Matching Pursuit), and their primary difference and secondary Any one or more of the differences are used as audio feature values.

また、位置コンテキスト取得装置100は、音響データから抽出する音声の特徴量の種別を、比較対象とされるモデルデータに応じて、モデルデータで表される特徴量の種別に変更しても良い。   Further, the position context acquisition apparatus 100 may change the type of the feature amount of the voice extracted from the acoustic data to the feature amount type represented by the model data according to the model data to be compared.

(実施形態1の変形例4)
本実施形態1では、位置コンテキスト取得装置100は、隠れマルコフモデルを用いたパターン認識手法により、音響データで表される音声の特徴量と、モデルデータで表される特徴量と、がどの程度類似しているかを表す「類似度」を算出するとして説明した。これに対して、本変形例では、位置コンテキスト取得装置100は、他のパターン認識手法を用いて、「類似度」ないし「尤度」を算出するようにしてもよい。たとえば、位置コンテキスト取得装置100は、GMM(Gaussian Mixture Model)、SVM(Support Vector Machine)、ベイズ推定などの統計モデルによる尤度算出手法を用いて尤度を算出する。尚、類似度及び尤度は、0から1までの度数(小数点以下を含む数値)で表されても良いし、1よりも大きい値で表されても良い。
(Modification 4 of Embodiment 1)
In the first embodiment, the position context acquisition apparatus 100 uses a pattern recognition method using a hidden Markov model to determine how similar the audio feature amount represented by the acoustic data and the feature amount represented by the model data are. In the above description, the “similarity” indicating whether or not it is calculated. On the other hand, in this modification, the position context acquisition apparatus 100 may calculate “similarity” or “likelihood” using another pattern recognition method. For example, the position context acquisition apparatus 100 calculates the likelihood using a likelihood calculation method based on a statistical model such as GMM (Gaussian Mixture Model), SVM (Support Vector Machine), or Bayesian estimation. The similarity and likelihood may be represented by a frequency from 0 to 1 (a numerical value including a decimal point) or a value greater than 1.

尚、モデルデータは、特定環境で収集された音声を表す複数の学習用データ(つまり、サンプルデータ)から、類似度ないし尤度の算出に用いられるパターン認識手法に応じた手法を用いて学習され、サンプルデータに共通した特徴量を表し、工場出荷前に予め記憶部130に保存されている。   The model data is learned from a plurality of learning data (that is, sample data) representing speech collected in a specific environment by using a method corresponding to a pattern recognition method used for calculating similarity or likelihood. Represents a feature amount common to the sample data, and is stored in the storage unit 130 in advance before shipment from the factory.

(実施形態1の変形例5)
実施形態1では、位置コンテキスト取得装置100は、最も高い類似度の算出に用いられたモデルデータに対応付けられた位置コンテキストを取得すると説明した。これに対して、本変形例では、位置コンテキスト取得装置100は、モデルデータ毎に算出された類似度の全てが所定の閾値を下回る場合には、位置コンテキストを取得できないと判断する。その後、位置コンテキスト取得装置100は、位置コンテキストを取得せず、位置コンテキストを取得できなかった旨を表す情報を外部装置900へ返信する。
(Modification 5 of Embodiment 1)
In the first embodiment, the position context acquisition apparatus 100 has been described as acquiring the position context associated with the model data used for calculating the highest similarity. On the other hand, in this modification, the position context acquisition device 100 determines that the position context cannot be acquired when all the similarities calculated for each model data are below a predetermined threshold. Thereafter, the position context acquisition apparatus 100 does not acquire the position context and returns information indicating that the position context has not been acquired to the external apparatus 900.

これらの構成によれば、位置コンテキスト取得装置100は、モデルデータ毎に算出された類似度の全てが所定の閾値を下回る場合には、位置コンテキストを取得しない。このため、位置コンテキスト取得装置100は、モデルデータの全てが、現在の環境と異なる環境で生じる音声の特徴を表す場合に、環境を誤って説明する位置コンテキストを取得することを回避できる。従って、精度良く位置コンテキストを取得できる。   According to these configurations, the position context acquisition device 100 does not acquire a position context when all the similarities calculated for each model data are below a predetermined threshold. For this reason, the position context acquisition apparatus 100 can avoid acquiring a position context that erroneously describes the environment when all of the model data represents a feature of speech that occurs in an environment different from the current environment. Therefore, the position context can be acquired with high accuracy.

(実施形態1の変形例6)
実施形態1の変形例5では、位置コンテキスト取得装置100は、モデルデータ毎に算出された類似度の全てが所定の閾値を下回る場合には、位置コンテキストを取得しないと説明した。これに対して、本変形例では、位置コンテキスト取得装置100は、モデルデータ毎に算出された類似度の全てが所定の閾値を下回る場合には、類似度の算出に用いられた音響データとは別の音響データを用いて、位置コンテキスト取得処理を再度実行する。
(Modification 6 of Embodiment 1)
In the fifth modification of the first embodiment, it has been described that the position context acquisition device 100 does not acquire a position context when all the similarities calculated for each model data are below a predetermined threshold. On the other hand, in the present modification, the position context acquisition device 100 determines the acoustic data used for calculating the similarity when all the similarities calculated for each model data are below a predetermined threshold. The position context acquisition process is executed again using another acoustic data.

位置コンテキスト取得装置100は、別の音響データとして、例えば、より古い作成日時と対応付けられた音響データ、若しくは、新たに格納される音響データを用いる。この構成によれば、例えば、位置コンテキスト取得処理の実行時に位置コンテキスト取得装置100が在る位置の環境で通常生じる音声が生じなかった場合であっても、過去に生じた当該音声を用いて位置コンテキスト取得処理が実行される。若しくは、当該音声が発生するまで位置コンテキスト取得処理が繰り返えされる。このため、位置コンテキスト取得装置100は、確実に位置コンテキストを取得できる。   The position context acquisition apparatus 100 uses, for example, acoustic data associated with an older creation date or time, or newly stored acoustic data, as another acoustic data. According to this configuration, for example, even when there is no sound that normally occurs in the environment where the position context acquisition device 100 is present when the position context acquisition process is performed, the position using the sound generated in the past is used. Context acquisition processing is executed. Alternatively, the position context acquisition process is repeated until the sound is generated. For this reason, the position context acquisition apparatus 100 can acquire a position context reliably.

(実施形態1の変形例7)
実施形態1では、位置コンテキスト取得装置100は、位置コンテキスト取得処理を1回実行することにより位置コンテキストを取得すると説明した。これに対して、本変形例では、位置コンテキスト取得装置100は、タイマ割込等を使用して所定時間間隔で複数回に亘って位置コンテキスト取得処理を実行する。位置コンテキスト取得装置100は、所定の回数以上同じ位置コンテキストが得られた場合に、位置コンテキスト取得装置100の在る位置の環境を最も正確に説明する位置コンテキストとして、当該位置コンテキストを取得する。また、位置コンテキスト取得装置100は、一定時間内に取得した複数の位置コンテキストの中で、最も多く取得した位置コンテキストを、位置コンテキスト取得装置100が在る位置の環境を最も正確に説明する位置コンテキストとして取得してもよい。これらの構成によれば、位置コンテキスト取得装置100は、センサ情報に発生したノイズや偶発的なイベント等の影響を抑制し、位置コンテキストを精度良く取得できる。
(Modification 7 of Embodiment 1)
In the first embodiment, it has been described that the position context acquisition apparatus 100 acquires a position context by executing the position context acquisition process once. On the other hand, in the present modification, the position context acquisition device 100 executes a position context acquisition process over a plurality of times at predetermined time intervals using a timer interrupt or the like. When the same location context is obtained a predetermined number of times or more, the location context acquisition device 100 acquires the location context as the location context that most accurately describes the environment of the location where the location context acquisition device 100 is located. In addition, the position context acquisition device 100 most accurately describes the position context acquired most frequently among a plurality of position contexts acquired within a certain time, and describes the environment of the position where the position context acquisition device 100 is located most accurately. You may get as According to these configurations, the position context acquisition apparatus 100 can acquire the position context with high accuracy by suppressing the influence of noise generated in the sensor information, an accidental event, or the like.

(実施形態1の変形例8)
実施形態1では、位置コンテキスト取得装置100は、図3のステップS104で、音響データで表される音声の特徴量と、モデルデータで表される特徴量と、の類似度を、隠れマルコフモデルを用いたパターン認識手法を用いて算出するとして説明した。しかし、これに限定される訳ではなく、位置コンテキスト取得装置100は、DP(Dynamic Programing)マッチング、DTW(Dynamic Time Warping)などのデータ間距離推定による類似度算出手法を用いて類似度を算出しても良い。
(Modification 8 of Embodiment 1)
In the first embodiment, the position context acquisition apparatus 100 uses the hidden Markov model as a hidden Markov model in step S104 in FIG. 3 to determine the similarity between the audio feature amount represented by the acoustic data and the feature amount represented by the model data. The calculation is described using the pattern recognition method used. However, the present invention is not limited to this, and the position context acquisition apparatus 100 calculates the similarity using a similarity calculation method based on the distance estimation between data such as DP (Dynamic Programming) matching and DTW (Dynamic Time Warping). May be.

(実施形態1の変形例9)
本変形例において、位置コンテキスト取得装置100は、位置コンテキスト類推辞書1310を更新(つまり、書き換え)若しくは追加する機能を備える。位置コンテキスト取得装置100は、ネットワークを介して新たな位置コンテキスト類推辞書(以下、更新情報という)を取得しても良い。また、位置コンテキスト取得装置100は、データカードリーダを有し、ユーザがデータカードリーダに挿入したデータカードから更新情報を取得しても良い。これらの構成によれば、位置コンテキスト取得装置100は、特定の環境に一般に設置される設備や施設が変化しても、当該変化後の環境で生じる音声の特徴を表す位置コンテキスト類推辞書に基づいて位置コンテキストを取得できる。このため、位置コンテキスト類推辞書1310を更新することで、位置コンテキスト取得装置100は、位置コンテキストを精度良く取得し続けることができる。
(Modification 9 of Embodiment 1)
In this modification, the position context acquisition apparatus 100 has a function of updating (that is, rewriting) or adding the position context analogy dictionary 1310. The location context acquisition apparatus 100 may acquire a new location context analogy dictionary (hereinafter referred to as update information) via a network. The position context acquisition apparatus 100 may have a data card reader and acquire update information from a data card inserted by the user into the data card reader. According to these configurations, the position context acquisition device 100 is based on the position context analogy dictionary that represents the characteristics of speech that occurs in the environment after the change even if the equipment or facility generally installed in the specific environment changes. You can get the location context. For this reason, by updating the position context analogy dictionary 1310, the position context acquisition apparatus 100 can continue to acquire the position context with high accuracy.

(実施形態1の変形例10)
位置コンテキスト取得装置100は、位置コンテキスト取得処理の実行により取得された位置コンテキスト(以下、実行結果という)を表示するディスプレイなどの表示部をさらに備えていてもよい。また、位置コンテキスト取得装置100は、USB(Universal Serial Bus)ポート等のインタフェース部をさらに備え、取得した位置コンテキスト情報を記憶部130へ保存する構成を採用できる。この構成において、位置コンテキスト取得装置100は、インタフェース部にケーブルが挿入されると、ケーブルで接続された他の装置へ記憶部130に保存した位置コンテキスト情報を送信する。これらの構成によれば、表示部に表示された位置コンテキスト、若しくは、他の装置に表示された位置コンテキストをユーザが視認できるため利便性が向上する。
(Modification 10 of Embodiment 1)
The position context acquisition apparatus 100 may further include a display unit such as a display that displays a position context acquired by executing the position context acquisition process (hereinafter referred to as an execution result). Further, the position context acquisition device 100 can further include an interface unit such as a USB (Universal Serial Bus) port, and can store the acquired position context information in the storage unit 130. In this configuration, when a cable is inserted into the interface unit, the position context acquisition device 100 transmits the location context information stored in the storage unit 130 to another device connected by the cable. According to these configurations, since the user can visually recognize the position context displayed on the display unit or the position context displayed on another device, convenience is improved.

(実施形態1の変形例11)
実施形態1で説明した位置コンテキスト取得装置100は、外部装置900から受信した命令に従って動作するとして説明した。本変形例では、位置コンテキスト取得装置100は、外部装置900などの他の機器から独立して動作するスタンドアローン型の装置である。位置コンテキスト取得装置100は、制御部140に対し所定時間間隔で割込信号を出力するタイマをさらに備え、制御部140はタイマから割込信号が出力されると、図3に示した位置コンテキスト取得処理を実行する。そして、制御部140は、位置コンテキスト取得処理が終了する度に、取得した位置コンテキスト情報と、取得日時を表す情報と、を対応付けて記憶部130に保存する。また、制御部140は、表示部をさらに備え、位置コンテキスト取得処理が終了する度に、取得した位置コンテキスト情報と、取得日時を表す情報と、を対応付けて表示部に表示しても良い。
(Modification 11 of Embodiment 1)
The position context acquisition apparatus 100 described in the first embodiment has been described as operating in accordance with a command received from the external apparatus 900. In this modification, the position context acquisition device 100 is a stand-alone device that operates independently from other devices such as the external device 900. The position context acquisition apparatus 100 further includes a timer that outputs an interrupt signal at a predetermined time interval to the control unit 140. When the interrupt signal is output from the timer, the control unit 140 acquires the position context illustrated in FIG. Execute the process. Then, every time the position context acquisition process ends, the control unit 140 stores the acquired position context information and information indicating the acquisition date and time in association with each other in the storage unit 130. The control unit 140 may further include a display unit, and each time the position context acquisition process ends, the acquired position context information and information indicating the acquisition date / time may be displayed in association with each other on the display unit.

(実施形態1の変形例12)
実施形態1では、位置コンテキスト取得装置100は、マイクロフォンであるセンサ110を備え、環境を説明する位置コンテキストと、当該環境で生じる音声の特徴量を表すモデルデータと、を対応付けて記憶すると説明した。これに対し、本変形例において、位置コンテキスト取得装置100は、画像や映像を撮像し、撮像した画像や映像を表す信号を出力するイメージセンサを有する。位置コンテキスト取得装置100が記憶する位置コンテキスト類推辞書1310は、環境を説明する位置コンテキストと、当該環境で撮像される映像の特徴量を表すモデルデータと、を対応付けたデータを複数有する。
(Modification 12 of Embodiment 1)
In the first embodiment, the position context acquisition apparatus 100 includes the sensor 110 that is a microphone, and is described to store the position context describing the environment and the model data representing the feature amount of the sound generated in the environment in association with each other. . On the other hand, in the present modification, the position context acquisition apparatus 100 includes an image sensor that captures an image or video and outputs a signal representing the captured image or video. The position context analogy dictionary 1310 stored in the position context acquisition apparatus 100 includes a plurality of data in which a position context that describes an environment and model data that represents a feature amount of a video captured in the environment are associated with each other.

(実施形態1の変形例13)
本変形例において、位置コンテキスト取得装置100は、電波を受信する無線アンテナ及び受信された電波を電気信号に変換し、電気信号を出力する信号処理回路で構成される電波センサを有する。位置コンテキスト取得装置100が記憶する位置コンテキスト類推辞書1310は、環境を説明する位置コンテキストと、当該環境で受信可能な電波の特徴量を表すモデルデータと、を対応付けたデータを複数有する。
(Modification 13 of Embodiment 1)
In the present modification, the position context acquisition apparatus 100 includes a radio sensor that includes a radio antenna that receives radio waves and a signal processing circuit that converts the received radio waves into electrical signals and outputs the electrical signals. The position context analogy dictionary 1310 stored in the position context acquisition apparatus 100 has a plurality of data in which a position context that describes the environment and model data that represents a feature quantity of radio waves that can be received in the environment are associated with each other.

(実施形態1の変形例14)
本変形例において、位置コンテキスト取得装置100は、温度、湿度、及び照度のいずれか1つ以上を計測し、計測した温度を表す信号、湿度を表す信号、及び照度を表す信号のいずれか1つ以上を出力する複合センサを有する。位置コンテキスト取得装置100が記憶する位置コンテキスト類推辞書1310は、環境を説明する位置コンテキストと、当該環境の温度、湿度、及び照度のいずれか1つ以上の特徴量を表すモデルデータと、を対応付けたデータを複数有する。
(Modification 14 of Embodiment 1)
In this modification, the position context acquisition apparatus 100 measures any one or more of temperature, humidity, and illuminance, and any one of a signal that represents the measured temperature, a signal that represents humidity, and a signal that represents illuminance. It has a composite sensor that outputs the above. The position context analogy dictionary 1310 stored in the position context acquisition apparatus 100 associates a position context that describes an environment with model data that represents one or more feature quantities of temperature, humidity, and illuminance of the environment. Have multiple data.

(実施形態1の変形例15)
実施形態1では、位置コンテキスト取得装置100の通信部150は、外部装置900と無線通信を行う無線LANカードで構成されると説明した。無線通信に用いられるプロトコルは、Bluetooth(登録商標)やZigbee(登録商標)であっても他の通信プロトコルであっても良い。また、位置コンテキスト取得装置100の通信部150は、Ethernet(登録商標)を介した通信、電力線を介した通信(つまり、PLC(Power Line Communications))、若しくはUSBケーブルを介した通信を、外部装置900と行う通信カードであっても良い。
(Modification 15 of Embodiment 1)
In the first embodiment, it has been described that the communication unit 150 of the location context acquisition apparatus 100 includes a wireless LAN card that performs wireless communication with the external apparatus 900. The protocol used for wireless communication may be Bluetooth (registered trademark), Zigbee (registered trademark), or another communication protocol. Further, the communication unit 150 of the position context acquisition apparatus 100 performs communication via Ethernet (registered trademark), communication via a power line (that is, PLC (Power Line Communications)), or communication via a USB cable. 900 may be used.

(実施形態1の変形例16)
実施形態1では、位置コンテキスト取得装置100がセンサ110及びセンサ情報取得部120で構成されるとして説明した。これに対して、本変形例では、位置コンテキスト取得装置100は、センサ110及びセンサ情報取得部120を有さないサーバである。また、位置コンテキスト取得装置100から独立した別の装置であり、センサ110及びセンサ情報取得部120を有し、センサ情報を送信するインタフェース及び機能を有するセンサ端末から、位置コンテキスト取得装置100は、センサ情報を取得する。
(Modification 16 of Embodiment 1)
In the first embodiment, the position context acquisition device 100 has been described as including the sensor 110 and the sensor information acquisition unit 120. On the other hand, in this modification, the position context acquisition device 100 is a server that does not include the sensor 110 and the sensor information acquisition unit 120. The position context acquisition apparatus 100 is another apparatus independent of the position context acquisition apparatus 100, includes a sensor 110 and a sensor information acquisition unit 120, and has an interface and a function for transmitting sensor information. Get information.

(実施形態2)
実施形態1では、位置コンテキスト取得装置100は、1つのセンサ110を有し、当該センサ110で収集された音声の特徴に基づいて位置コンテキストを取得すると説明した。本実施形態では、図4に示すような、2つのセンサ111及び112を有し、センサ111で収集される音声の特徴及びセンサ112で収集される映像の特徴に基づいて位置コンテキストを取得する。以下、実施形態1との相違点について主に説明する。
(Embodiment 2)
In the first embodiment, it has been described that the position context acquisition apparatus 100 has one sensor 110 and acquires a position context based on the voice characteristics collected by the sensor 110. In this embodiment, as shown in FIG. 4, two sensors 111 and 112 are provided, and the position context is acquired based on the audio characteristics collected by the sensor 111 and the video characteristics collected by the sensor 112. Hereinafter, differences from the first embodiment will be mainly described.

センサ111は、マイクロフォンである。センサ112は、CCD(Charge Coupled Device)などのイメージセンサである。センサ111は、周囲の音を音響信号に変換し、音響信号をセンサ情報取得部120に出力し、センサ112は、周囲の光を電気信号(以下、映像信号という)に変換し、映像信号をセンサ情報取得部120に出力する。尚、センサ112は、CMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサであっても良い。   The sensor 111 is a microphone. The sensor 112 is an image sensor such as a CCD (Charge Coupled Device). The sensor 111 converts ambient sound into an acoustic signal, and outputs the acoustic signal to the sensor information acquisition unit 120. The sensor 112 converts ambient light into an electrical signal (hereinafter referred to as a video signal), and converts the video signal. Output to the sensor information acquisition unit 120. The sensor 112 may be an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor).

センサ情報取得部120は、センサ111用のA/Dコンバータと、センサ112用のA/Dコンバータで構成される。センサ情報取得部120は、制御部140の要求に従い、センサ111から出力された音響信号及びセンサ112から出力された映像信号をそれぞれデジタルデータに変換し、デジタルデータをセンサ情報として制御部140へ出力する。   The sensor information acquisition unit 120 includes an A / D converter for the sensor 111 and an A / D converter for the sensor 112. The sensor information acquisition unit 120 converts the acoustic signal output from the sensor 111 and the video signal output from the sensor 112 into digital data according to the request of the control unit 140, and outputs the digital data to the control unit 140 as sensor information. To do.

記憶部130には、音響データを格納するための音響データ格納領域と、映像を表すデジタルデータに基づいて制御部140が生成する所定時間の映像を表す映像データを格納するための映像データ格納領域と、が用意されている。   The storage unit 130 stores an audio data storage area for storing audio data, and a video data storage area for storing video data representing video for a predetermined time generated by the control unit 140 based on digital data representing video. And are prepared.

位置コンテキスト類推辞書1310は、図5に示すような、特定の環境の特徴を表すモデルデータ及び当該環境を説明する位置コンテキストに加え、環境を測定するセンサの種別(以下、センサ種別という)を、さらに関連付けて生成したデータである。   The position context analogy dictionary 1310 includes, as shown in FIG. 5, model data representing characteristics of a specific environment and a position context that describes the environment, and a sensor type (hereinafter referred to as a sensor type) that measures the environment. Further, it is data generated in association with each other.

図5に示す位置コンテキスト類推辞書1310では、センサ種別がマイクロフォンであることを表すセンサ種別情報「音」と、マイクロフォンが収集するボタン押下音の特徴量を表すモデルデータ「microwave_beep.hmm」及び「台所」を表す位置コンテキスト情報と、が対応づけられている。また、位置コンテキスト類推辞書1310では、センサ種別情報「音」と、モデルデータ「toilet_flushing.hmm」と、「トイレ」を表す位置コンテキスト情報と、が対応付けられている。   In the position context analogy dictionary 1310 shown in FIG. 5, sensor type information “sound” indicating that the sensor type is a microphone, model data “microwave_beep.hmm” and “kitchen” indicating the feature amount of the button press sound collected by the microphone. Is associated with the position context information indicating "." In the position context analogy dictionary 1310, sensor type information “sound”, model data “toilet_flushing.hmm”, and position context information representing “toilet” are associated with each other.

さらに、位置コンテキスト類推辞書1310では、センサ種別がイメージセンサであることを表すセンサ種別情報「映像」と、電子レンジの映像の特徴量を表すモデルデータ「microwave_image.hmm」及び「台所」を表す位置コンテキスト情報と、が対応づけられている。また、位置コンテキスト類推辞書1310では、センサ種別情報「映像」と、ガスコンロの映像の特徴量を表すモデルデータ「stove_image.hmm」及び「台所」を表す位置コンテキスト情報と、が対応づけられている。さらに、位置コンテキスト類推辞書1310では、センサ種別情報「映像」と、トイレの映像の特徴量を表すモデルデータ「toilet_image.hmm」及び「トイレ」を表す位置コンテキスト情報と、が対応づけられている。   Further, in the position context analogy dictionary 1310, sensor type information “video” indicating that the sensor type is an image sensor, and model data “microwave_image.hmm” and “kitchen” indicating feature values of the video of the microwave oven. Context information is associated. Further, in the position context analogy dictionary 1310, sensor type information “video” is associated with position context information indicating model data “stove_image.hmm” and “kitchen” representing the feature amount of the gas stove video. Further, in the position context analogy dictionary 1310, sensor type information “video” is associated with position context information representing model data “toilet_image.hmm” and “toilet” representing the feature amount of the toilet video.

位置コンテキスト取得装置100のその他の構成については、実施形態1と同じであるので説明を省略する。以下、本実施形態における位置コンテキスト取得装置100の動作について説明する。   Since the other configuration of the position context acquisition apparatus 100 is the same as that of the first embodiment, the description thereof is omitted. Hereinafter, the operation of the position context acquisition apparatus 100 in the present embodiment will be described.

位置コンテキスト取得装置100に電源が投入されると、センサ111およびセンサ112は、周辺の音及び光をそれぞれ音響信号及び映像信号に変換し、センサ情報取得部120に出力する。センサ情報取得部120は制御部140の要求に従い、音響信号及び映像信号をデジタルデータであるセンサ情報に変換する。制御部140は、センサ情報を音響データ及び映像データに変換し、記憶部130の音響データ格納領域及び映像データ格納領域にそれぞれ格納する。   When the position context acquisition apparatus 100 is turned on, the sensor 111 and the sensor 112 convert surrounding sound and light into an acoustic signal and a video signal, respectively, and output them to the sensor information acquisition unit 120. The sensor information acquisition unit 120 converts the audio signal and the video signal into sensor information that is digital data in accordance with a request from the control unit 140. The control unit 140 converts the sensor information into audio data and video data, and stores them in the audio data storage area and the video data storage area of the storage unit 130, respectively.

ここで、制御部140は、通信部150が位置コンテキスト送信命令を受信すると、図6に示す位置コンテキスト取得処理の実行を開始する。   Here, when the communication unit 150 receives the position context transmission command, the control unit 140 starts execution of the position context acquisition process illustrated in FIG.

先ず、制御部140は、図3に示した実施形態1のステップS101の処理と同一の処理を実行することで、記憶部130から最新の音響データを取得する。   First, the control unit 140 acquires the latest acoustic data from the storage unit 130 by executing the same process as the process of step S101 of the first embodiment illustrated in FIG.

次に、制御部140は、センサ101のセンサ種別を表す「音」に対応付けられた複数のモデルデータを、位置コンテキスト類推辞書1310から取得する(ステップS201)。   Next, the control unit 140 acquires a plurality of model data associated with “sound” representing the sensor type of the sensor 101 from the position context analogy dictionary 1310 (step S201).

その後、制御部140は、図3に示したステップS103及びステップS104の処理と同一の処理を実行する。これにより、制御部140は、音響データで表される音声の特徴量を抽出し、当該特徴量と、ステップS201で読み出された複数のモデルデータでそれぞれ表される特徴量との類似度を算出する。   Thereafter, the control unit 140 executes the same processing as the processing in steps S103 and S104 shown in FIG. As a result, the control unit 140 extracts the feature amount of the voice represented by the acoustic data, and determines the similarity between the feature amount and the feature amount represented by each of the plurality of model data read in step S201. calculate.

その後、制御部140は、記憶部130の映像データ格納領域から最新の映像データを取得する(ステップS202)。そして、制御部140は、位置コンテキスト類推辞書1310から、センサ102のセンサ種別を表す「映像」に対応付けられた複数のモデルデータを取得する(ステップS203)。続いて、制御部140は、映像データから、当該映像データで表される映像の特徴量を抽出する(ステップS204)。   Thereafter, the control unit 140 acquires the latest video data from the video data storage area of the storage unit 130 (step S202). Then, the control unit 140 acquires a plurality of model data associated with the “video” representing the sensor type of the sensor 102 from the position context analogy dictionary 1310 (step S203). Subsequently, the control unit 140 extracts the feature amount of the video represented by the video data from the video data (step S204).

制御部140は、映像の特徴量として、映像を構成する静止画の輝度平均、輝度の分散、輝度分布、RGB各色成分の平均値、及びRGB各色成分の分布、並びにこれらの主走査方向及び副走査方向における一次差分および二次差分等のいずれか1つ以上を算出する。   The control unit 140 includes, as the feature amount of the video, the luminance average of the still images constituting the video, the luminance distribution, the luminance distribution, the average value of the RGB color components, the distribution of the RGB color components, and the main scanning direction and the subordinate thereof. Any one or more of a primary difference and a secondary difference in the scanning direction is calculated.

その後、制御部140は、隠れマルコフモデルを用いたパターン認識手法によって、ステップS203で取得したモデルデータそれぞれで表される特徴量と映像データの特徴量との類似度を算出する(ステップS205)。   Thereafter, the control unit 140 calculates the similarity between the feature amount represented by each of the model data acquired in step S203 and the feature amount of the video data by a pattern recognition method using a hidden Markov model (step S205).

その後、制御部140は、各位置コンテキストについて、同じ位置コンテキストに対応付けられ、かつ異なるセンサ種別に対応付けられたモデルデータの組み合わせを特定する(ステップS206a)。具体的には、制御部140は、図5に示した位置コンテキスト類推辞書1310を参照し、「台所」を表す位置コンテキストに対応付けられたモデルデータ「microwave_beep.hmm」と、モデルデータ「microwave_image.hmm」と、の組み合わせ1を特定する。また、制御部140は、「台所」を表す位置コンテキストに対応付けられたモデルデータ「microwave_beep.hmm」と、モデルデータ「stove_image.hmm」と、の組み合わせ2を特定する。さらに、制御部140は、「トイレ」を表す位置コンテキストに対応付けられたモデルデータ「toilet_flushing.hmm」と、モデルデータ「toilet _image.hmm」と、の組み合わせ3を特定する。   Thereafter, the control unit 140 identifies a combination of model data associated with the same position context and associated with different sensor types for each position context (step S206a). Specifically, the control unit 140 refers to the position context analogy dictionary 1310 illustrated in FIG. 5, and models data “microwave_beep.hmm” associated with the position context representing “kitchen” and the model data “microwave_image. The combination 1 with “hmm” is specified. Further, the control unit 140 specifies a combination 2 of the model data “microwave_beep.hmm” associated with the position context representing “kitchen” and the model data “stove_image.hmm”. Further, the control unit 140 specifies the combination 3 of the model data “toilet_flushing.hmm” associated with the position context representing “toilet” and the model data “toilet_image.hmm”.

その後、制御部140は、特定した各組み合わせについて、組み合わせを構成する2つモデルデータをそれぞれ用いて算出された2つの類似度の和を算出する(ステップS206b)。具体的には、制御部140は、組み合わせ1について、モデルデータ「microwave_beep.hmm」を用いて算出された類似度と、モデルデータ「microwave_image.hmm」を用いて算出された類似度と、の和(以下、組み合わせ1の類似度和という)を算出する。また、制御部140は、組み合わせ2について、モデルデータ「microwave_beep.hmm」を用いて算出された類似度と、モデルデータ「stove_image.hmm」を用いて算出された類似度と、の和(以下、組み合わせ2の類似度和という)を算出する。さらに、制御部140は、組み合わせ3について、モデルデータ「toilet_flushing.hmm」を用いて算出された類似度と、モデルデータ「toilet _image.hmm」を用いて算出された類似度と、の和を算出する。   Thereafter, the control unit 140 calculates, for each identified combination, the sum of the two similarities calculated using the two model data constituting the combination (step S206b). Specifically, for the combination 1, the control unit 140 calculates the sum of the similarity calculated using the model data “microwave_beep.hmm” and the similarity calculated using the model data “microwave_image.hmm”. (Hereinafter referred to as the sum of similarities of combination 1) is calculated. In addition, for the combination 2, the control unit 140 adds the similarity calculated using the model data “microwave_beep.hmm” and the similarity calculated using the model data “stove_image.hmm” (hereinafter, (Similarity sum of combinations 2) is calculated. Further, the control unit 140 calculates the sum of the similarity calculated using the model data “toilet_flushing.hmm” and the similarity calculated using the model data “toilet_image.hmm” for the combination 3. To do.

その後、制御部140は、各位置コンテキストについて、算出された和の最大値を新たな類似度とする(ステップS206c)。具体的には、組み合わせ1と組み合わせ2とは、双方とも、「台所」を表す位置コンテキストに対応付けられたモデルデータの組み合わせであるため、制御部140は、組み合わせ1の類似度和と組み合わせ2の類似度和との内で大きい方の和を新たな類似度とする。   Thereafter, the control unit 140 sets the maximum value of the calculated sum for each position context as a new similarity (step S206c). Specifically, since both combination 1 and combination 2 are combinations of model data associated with the position context representing “kitchen”, the control unit 140 uses the similarity sum of combination 1 and combination 2 The larger sum of the similarity sums is set as the new similarity.

その後、制御部140は、新たな類似度が最も高い位置コンテキストを取得する(ステップS207)。その後、制御部140は、図3に示したステップS106と同様の処理を実行することで、位置コンテキストを表す情報と、位置コンテキスト取得装置100の識別情報と、を、通信部150へ出力した後に、位置コンテキスト取得処理の実行を終了する。尚、通信部150は、出力された情報を外部装置900へ送信し、外部装置900は、受信した情報を表示する。   Thereafter, the control unit 140 acquires a new position context having the highest similarity (step S207). Thereafter, the control unit 140 performs the same processing as step S106 illustrated in FIG. 3, and thereby outputs the information indicating the position context and the identification information of the position context acquisition device 100 to the communication unit 150. Then, the execution of the position context acquisition process is terminated. The communication unit 150 transmits the output information to the external device 900, and the external device 900 displays the received information.

本実施形態によれば、位置コンテキスト取得装置100は、複数のセンサからのセンサ情報に基づいて位置コンテキストを取得するので、精度良く位置コンテキストを取得できる。   According to this embodiment, since the position context acquisition apparatus 100 acquires a position context based on sensor information from a plurality of sensors, the position context can be acquired with high accuracy.

(実施形態2の変形例1)
本変形例では、位置コンテキスト取得装置100は、取得した位置コンテキストに基づいて特定のセンサを機能停止させる。
(Modification 1 of Embodiment 2)
In this modification, the position context acquisition device 100 stops the function of a specific sensor based on the acquired position context.

位置コンテキスト取得装置100は、図7に示すようなセンサ動作停止テーブルを記憶部130に記憶している。センサ動作停止テーブルには、位置コンテキストと、当該位置コンテキストで表される環境において停止させるセンサのセンサ種別と、が対応付けられたデータが複数保存されている。   The position context acquisition apparatus 100 stores a sensor operation stop table as shown in FIG. The sensor operation stop table stores a plurality of data in which a position context and a sensor type of a sensor to be stopped in an environment represented by the position context are associated with each other.

位置コンテキスト取得装置100は、図6のステップS207で取得した位置コンテキストが、センサ動作停止テーブルに保存された位置コンテキストのいずれかと一致するか否かを判別する。このとき、位置コンテキスト取得装置100は、取得した位置コンテキストがセンサ動作停止情報テーブルに保存された位置コンテキストのいずれかと一致したと判別すると、当該位置コンテキストに対応付けられたセンサ種別を取得する。その後、位置コンテキスト取得装置100は、取得したセンサ種別のセンサをすべて停止する。   The position context acquisition apparatus 100 determines whether the position context acquired in step S207 of FIG. 6 matches any of the position contexts stored in the sensor operation stop table. At this time, if the position context acquisition apparatus 100 determines that the acquired position context matches any of the position contexts stored in the sensor operation stop information table, the position context acquisition apparatus 100 acquires a sensor type associated with the position context. Thereafter, the position context acquisition device 100 stops all the sensors of the acquired sensor type.

図7に示すように、センサ動作停止情報テーブルには、浴室、更衣室、及びトイレをそれぞれ表す位置コンテキスト情報と、浴室、更衣室、及びトイレで動作を停止させるセンサの種別「映像」とが対応付けられて保存されている。このため、位置コンテキスト取得装置100は、現在の環境が「浴室」、「更衣室」、若しくは「トイレ」が所定範囲内に在る(浴室内、更衣室内、若しくはトイレ内を含む)環境であると説明する位置コンテキストを取得すると、周囲の映像を取得するイメージセンサを停止する。   As shown in FIG. 7, the sensor operation stop information table includes position context information representing the bathroom, the changing room, and the toilet, and the sensor type “video” for stopping the operation in the bathroom, the changing room, and the toilet. Stored in association. Therefore, the position context acquisition apparatus 100 is an environment in which the current environment is “bathroom”, “changing room”, or “toilet” within a predetermined range (including in the bathroom, changing room, or in the toilet). When the position context described as follows is acquired, the image sensor that acquires surrounding video is stopped.

これらの構成によれば、位置コンテキスト取得装置100は、不要なセンサ情報の取得を防ぐことができ、電力の消費を抑制できる。また、センサ101若しくはセンサ102が存在する環境と同じ環境に居る他人のプライバシの侵害を防止できる。   According to these configurations, the position context acquisition device 100 can prevent acquisition of unnecessary sensor information and can suppress power consumption. In addition, it is possible to prevent privacy infringement of another person who is in the same environment as the environment where the sensor 101 or the sensor 102 exists.

(実施形態2の変形例2)
実施形態2では、位置コンテキスト取得装置100の制御部140は、図6のステップS206bにおいて、組み合わせを構成する2つモデルデータをそれぞれ用いて算出された2つの類似度の和を算出すると説明した。これに対し、本変形例では、制御部140は、2つの類似度の重み付け平均を算出する。
(Modification 2 of Embodiment 2)
In the second embodiment, it has been described that the control unit 140 of the position context acquisition apparatus 100 calculates the sum of two similarities calculated using the two model data constituting the combination in step S206b of FIG. On the other hand, in the present modification, the control unit 140 calculates a weighted average of two similarities.

具体的には、記憶部130は、音響データとモデルデータとに基づいて算出される類似度(以下、音響類似度という)に対して予め定められた重み「0.3」を記憶している。また、記憶部130は、映像データとモデルデータとに基づいて算出される類似度(以下、映像類似度という)に対して予め定められた重み「0.7」と、を記憶している。   Specifically, the storage unit 130 stores a predetermined weight “0.3” for the similarity calculated based on the acoustic data and the model data (hereinafter referred to as acoustic similarity). In addition, the storage unit 130 stores a weight “0.7” that is predetermined for the similarity calculated based on the video data and the model data (hereinafter referred to as video similarity).

ここで、制御部140が、音響データとモデルデータ「microwave_beep.hmm」とを基に音響類似度「A」を算出し、映像データとモデルデータ「microwave_image.hmm」とを基に算出される映像類似度「B」を算出した場合を例に挙げて説明する。この例において、制御部140は、音響類似度の重み「0.3」と、映像類似度の重み「0.7」と、を、記憶部130から読み出し、読み出した重みを用いて音響類似度「A」と映像類似度「B」との重み付け平均「0.3×A+0.7×B」を算出する。その後、制御部140は、算出された重み付け平均を新たな類似度とする。   Here, the control unit 140 calculates the acoustic similarity “A” based on the acoustic data and the model data “microwave_beep.hmm”, and the video calculated based on the video data and the model data “microwave_image.hmm” A case where the similarity “B” is calculated will be described as an example. In this example, the control unit 140 reads out the acoustic similarity weight “0.3” and the video similarity weight “0.7” from the storage unit 130, and uses the read weights as the acoustic similarity “A”. The weighted average “0.3 × A + 0.7 × B” with the video similarity “B” is calculated. Thereafter, the control unit 140 sets the calculated weighted average as a new similarity.

(実施形態2の変形例3)
実施形態2では、位置コンテキスト取得装置100の制御部140は、音響類似度と映像類似度との和を新たな類似度として算出すると説明した。これに対して、本変形例では、制御部140は、音響類似度と映像類似度とを用いた他の計算式若しくは統計的手法に基づいて新たな類似度を算出してもよい。一例として、制御部140は、音響類似度と映像類似度との積算値を新たな類似度としても良いし、音響類似度と映像類似度との重み付き積算値を新たな類似度としても良い。
(Modification 3 of Embodiment 2)
In the second embodiment, it has been described that the control unit 140 of the position context acquisition apparatus 100 calculates the sum of the acoustic similarity and the video similarity as a new similarity. On the other hand, in the present modification, the control unit 140 may calculate a new similarity based on another calculation formula or statistical method using the acoustic similarity and the video similarity. As an example, the control unit 140 may use the integrated value of the acoustic similarity and the video similarity as a new similarity, or may set the weighted integrated value of the acoustic similarity and the video similarity as a new similarity. .

(実施形態2の変形例4)
実施形態2では、位置コンテキスト取得装置100の制御部140は、音響類似度と映像類似度との和を新たな類似度として算出し、最も高い新たな類似度の算出に用いられたモデルデータに対応した位置コンテキストを取得すると説明した。本変形例では、制御部140は、算出した複数の音響類似度及び複数の映像類似度の内で、最も高い類似度の算出に用いられたモデルデータに対応した位置コンテキストを取得する。
(Modification 4 of Embodiment 2)
In the second embodiment, the control unit 140 of the position context acquisition apparatus 100 calculates the sum of the acoustic similarity and the video similarity as a new similarity, and uses the model data used for the calculation of the highest new similarity. It has been explained that the corresponding position context is acquired. In the present modification, the control unit 140 acquires a position context corresponding to the model data used for calculating the highest similarity among the calculated plurality of acoustic similarities and the plurality of video similarities.

(実施形態2の変形例5)
本変形例では、制御部140は、センサ種別「音」に対応付けられた複数のモデルデータのそれぞれに対して、音響データとの音響類似度を算出し、算出した複数の音響類似度のいずれか1つ以上が、所定の閾値を超えるか否かを判別する。このとき、制御部140は、音響類似度のいずれか1つ以上が所定の閾値を超えると判別すると、最も高い音響類似度の算出に用いられたモデルデータに対応した位置コンテキストを取得する。
(Modification 5 of Embodiment 2)
In the present modification, the control unit 140 calculates the acoustic similarity with the acoustic data for each of the plurality of model data associated with the sensor type “sound”, and any of the calculated plurality of acoustic similarities. It is determined whether or not one or more exceeds a predetermined threshold. At this time, if it is determined that any one or more of the acoustic similarities exceed a predetermined threshold, the control unit 140 acquires a position context corresponding to the model data used for calculating the highest acoustic similarity.

これに対して、制御部140は、音響類似度の全てが所定の閾値以下であると判別すると、センサ種別「映像」に対応付けられた複数のモデルデータのそれぞれに対して、映像データとの映像類似度を算出し、算出した複数の映像類似度のいずれか1つ以上が、所定の閾値を超えるか否かを判別する。このとき、制御部140は、映像類似度のいずれか1つ以上が所定の閾値を超えると判別すると、最も高い映像類似度の算出に用いられたモデルデータに対応した位置コンテキストを取得する。これに対して、制御部140は、映像類似度の全てが所定の閾値以下であると判別すると、位置コンテキストを取得できないと判定し、位置コンテキストを取得しない。   In contrast, if the control unit 140 determines that all of the acoustic similarities are equal to or less than a predetermined threshold value, the control unit 140 determines that each of the plurality of model data associated with the sensor type “video” is The video similarity is calculated, and it is determined whether any one or more of the calculated plurality of video similarities exceed a predetermined threshold. At this time, if it is determined that any one or more of the video similarity exceeds a predetermined threshold, the control unit 140 acquires a position context corresponding to the model data used for calculating the highest video similarity. On the other hand, when determining that all the video similarity degrees are equal to or less than the predetermined threshold, the control unit 140 determines that the position context cannot be acquired and does not acquire the position context.

尚、制御部140は、複数の音響類似度のいずれか1つ以上が所定の閾値を超えると判別すると、映像類似度の算出をせずに、最も高い音響類似度の算出に用いられたモデルデータに対応した位置コンテキストを取得しても良い。   Note that if the control unit 140 determines that any one or more of the plurality of acoustic similarities exceed a predetermined threshold, the model used for calculating the highest acoustic similarity is not calculated without calculating the video similarity. You may acquire the position context corresponding to data.

また、制御部140は、複数の映像類似度のいずれか1つ以上が所定の閾値を超えると判別すると、音響類似度の算出をせずに、最も高い映像類似度の算出に用いられたモデルデータに対応した位置コンテキストを取得しても良い。   If the controller 140 determines that one or more of the plurality of video similarities exceed a predetermined threshold, the model used for calculating the highest video similarity is not calculated without calculating the acoustic similarity. You may acquire the position context corresponding to data.

これらの構成によれば、位置コンテキストを取得するために全てのモデルデータに対して類似度を算出する場合と比べて、位置コンテキストを取得するために生じる処理負荷及び処理時間を削減できる。   According to these configurations, it is possible to reduce the processing load and the processing time generated for acquiring the position context, compared to the case where the similarity is calculated for all model data in order to acquire the position context.

(実施形態2の変形例6)
実施形態2では、制御部140は、音響データで表される音声の複数の特徴量とモデルデータで表される複数の特徴量との類似度と、映像データで表される映像の複数の特徴量とモデルデータで表される複数の特徴量との類似度と、をそれぞれ算出するとして説明した。本変形例では、制御部140は、音響データで表される音声の複数の特徴量を各次元の要素で表すベクトル(以下、音響特徴量ベクトルという)と、映像データで表される映像の複数の特徴量を各次元の要素で表すベクトル(以下、映像特徴量ベクトルという)と、1つの特徴量ベクトルとみなして類似度を算出する。
(Modification 6 of Embodiment 2)
In the second embodiment, the control unit 140 has a similarity between a plurality of feature amounts of audio represented by acoustic data and a plurality of feature amounts represented by model data, and a plurality of features of a video represented by video data. The description has been given assuming that the similarity between the quantity and the plurality of feature quantities represented by the model data is calculated. In the present modification, the control unit 140 includes a vector (hereinafter referred to as an acoustic feature vector) representing a plurality of feature quantities of audio represented by acoustic data as elements of each dimension, and a plurality of videos represented by video data. The degree of similarity is calculated by regarding the feature amount as a vector representing the feature amount of each dimension (hereinafter referred to as a video feature amount vector) and one feature amount vector.

具体例として、音響特徴量ベクトル「VA」が要素(m,m,・・・,m)を有するa次元のベクトルであり、映像特徴量ベクトル「VB」が要素(n,n,・・・,n)を有するb次元のベクトルである場合を挙げて説明する。制御部140は、音響特徴量ベクトル「VA」と映像特徴量ベクトル「VB」と、を1つの特徴量ベクトルとみなした(m,m,・・・,m,n,n,・・・,n)を要素とするa+b次元のベクトル「VAB」を生成する。As a specific example, the acoustic feature vector “VA” is an a-dimensional vector having elements (m 1 , m 2 ,..., M a ), and the video feature vector “VB” is an element (n 1 , n 2 ,..., N b ) will be described as an example of a b-dimensional vector. The control unit 140 regards the acoustic feature vector “VA” and the video feature vector “VB” as one feature vector (m 1 , m 2 ,..., M a , n 1 , n 2. ,..., N b ), an a + b dimensional vector “VAB” is generated.

また、本変形例の位置コンテキスト類推辞書1310には、図5に示した辞書において、同じ位置コンテキストに対応付けられ、かつ互いに異なるセンサ種別に対応付けられた2つのモデルデータを1つのデータとした新たなモデルデータと、当該位置コンテキストと、が対応付けられている。   Further, in the position context analogy dictionary 1310 of this modification, two model data associated with the same position context and associated with different sensor types in the dictionary illustrated in FIG. 5 are used as one data. New model data and the position context are associated with each other.

具体例として、図5に示した辞書において、「台所」を表す位置コンテキストに対応付けられ、かつ互いに異なるセンサ種別に対応付けられたモデルデータ「microwave_beep.hmm」及びモデルデータ「microwave_image.hmm」を例に挙げて説明する。本変形例の位置コンテキスト類推辞書1310には、モデルデータ「microwave_beep.hmm」で表される複数の特徴量と、モデルデータ「microwave_image.hmm」で表される複数の特徴量と、の双方を表す新たなモデルデータと、「台所」を表す位置コンテキストと、が対応付けられている。   As a specific example, in the dictionary shown in FIG. 5, model data “microwave_beep.hmm” and model data “microwave_image.hmm” that are associated with the position context representing “kitchen” and associated with different sensor types are stored. An example will be described. The position context analogy dictionary 1310 of this modification represents both a plurality of feature amounts represented by model data “microwave_beep.hmm” and a plurality of feature amounts represented by model data “microwave_image.hmm”. New model data is associated with a position context representing “kitchen”.

そして、制御部140は、新たな特徴量ベクトルと新たなモデルデータとを用いて類似度を算出する。これにより、位置コンテキスト取得装置100は、異なる種類のセンサから出力される異なる種類の環境測定値を統合的に扱うため、環境を説明する位置コンテキストを精度良く取得できる。   And the control part 140 calculates a similarity degree using a new feature-value vector and new model data. Thereby, since the position context acquisition apparatus 100 handles different types of environmental measurement values output from different types of sensors in an integrated manner, the position context that describes the environment can be acquired with high accuracy.

(実施形態2の変形例7)
本実施形態では、図6に示した位置コンテキスト取得処理において、位置コンテキスト取得装置100の制御部140は、先ず、音響データ及びセンサ種別情報「音」に対応付けられたモデルデータのいずれか1以上を処理対象とすると説明した(ステップS101、S201、S103、及びS104)。次に、制御部140は、映像データ及びセンサ種別情報「映像」に対応付けられたモデルデータのいずれか1以上を処理対象とすると説明した(ステップS202、S203、S204、及びS205)。
(Modification 7 of Embodiment 2)
In the present embodiment, in the position context acquisition process illustrated in FIG. 6, the control unit 140 of the position context acquisition apparatus 100 firstly selects one or more of the acoustic data and the model data associated with the sensor type information “sound”. Is described as a processing target (steps S101, S201, S103, and S104). Next, it has been described that the control unit 140 processes at least one of the video data and the model data associated with the sensor type information “video” (steps S202, S203, S204, and S205).

しかし、これに限定される訳ではなく、位置コンテキスト取得装置100の制御部140は、先ず、ステップS202、S203、S204、及びS205を実行してから、ステップS101、S201、S103、及びS104を実行しても良い。すなわち、制御部140は、映像データ及びセンサ種別情報「映像」に対応付けられたモデルデータのいずれか1以上を処理対象としてから、音響データ及びセンサ種別情報「音」に対応付けられたモデルデータのいずれか1以上を処理対象としても良い。   However, the present invention is not limited to this, and the control unit 140 of the position context acquisition apparatus 100 first executes steps S202, S203, S204, and S205, and then executes steps S101, S201, S103, and S104. You may do it. That is, the control unit 140 sets one or more of the model data associated with the video data and the sensor type information “video” as a processing target, and then model data associated with the acoustic data and the sensor type information “sound”. Any one or more of these may be processed.

(実施形態2の変形例8)
位置コンテキスト取得装置100の制御部140は、図6に示したステップS202、S203、S204、及びS205と、ステップS101、S201、S103、及びS104と、を並列的に実行しても良い。すなわち、制御部140は、映像データ及びセンサ種別情報「映像」に対応付けられたモデルデータのいずれか1以上の処理対象と、音響データ及びセンサ種別情報「音」に対応付けられたモデルデータのいずれか1以上の処理対象と、を、マルチスレッド若しくはマルチプロセスを用いて並列的に実行しても良い。
(Modification 8 of Embodiment 2)
The control unit 140 of the position context acquisition apparatus 100 may execute steps S202, S203, S204, and S205 and steps S101, S201, S103, and S104 shown in FIG. 6 in parallel. That is, the control unit 140 selects one or more processing targets of the model data associated with the video data and the sensor type information “video” and the model data associated with the acoustic data and the sensor type information “sound”. Any one or more processing targets may be executed in parallel using multithreads or multiprocesses.

(実施形態3)
実施形態1及び2では、1台の位置コンテキスト取得装置100で位置コンテキストを取得すると説明した。本実施形態では、位置コンテキスト取得装置101の位置を、位置コンテキスト取得装置102の位置を用いて説明する位置コンテキストを、位置コンテキスト取得装置101及び102が互いに連携して取得する。以下、実施形態1との相違点について主に説明する。
(Embodiment 3)
In the first and second embodiments, it has been described that the position context is acquired by one position context acquisition apparatus 100. In the present embodiment, the position context acquisition apparatuses 101 and 102 acquire a position context that explains the position of the position context acquisition apparatus 101 using the position of the position context acquisition apparatus 102 in cooperation with each other. Hereinafter, differences from the first embodiment will be mainly described.

図8に示すような2台の位置コンテキスト取得装置101及び位置コンテキスト取得装置102は、通常徒歩で移動可能な距離だけ離れて行動する2人のユーザによってそれぞれ携帯され、位置コンテキスト取得システム200を構成する。   The two position context acquisition apparatuses 101 and 102 as shown in FIG. 8 are normally carried by two users who are separated by a distance that can be moved by walking, and constitute a position context acquisition system 200. To do.

位置コンテキスト取得装置101は、センサ111と、センサ情報取得部121と、記憶部131と、制御部141と、通信部151と、で構成される。位置コンテキスト取得装置102は、センサ112と、センサ情報取得部122と、記憶部132と、制御部142と、通信部152と、で構成される。   The position context acquisition apparatus 101 includes a sensor 111, a sensor information acquisition unit 121, a storage unit 131, a control unit 141, and a communication unit 151. The position context acquisition device 102 includes a sensor 112, a sensor information acquisition unit 122, a storage unit 132, a control unit 142, and a communication unit 152.

位置コンテキスト取得装置101を構成する記憶部131は、図9に示す位置コンテキスト類推辞書1311を記憶している。位置コンテキスト類推辞書1311は、人、動物、若しくは機械の動作により生じる音声の特徴量を表すモデルデータと、当該音声の生じる環境を説明する位置コンテキストと、が対応付けられたデータを複数有する。具体例としては、位置コンテキスト類推辞書1311は、スリッパを履いた人が歩く際に生じる音の特徴量を表すモデルデータ「slippers.hmm」と、当該音が生じる環境を説明する位置コンテキスト「人がスリッパを履いて歩く環境」と、が対応付けられたデータを有している。尚、位置コンテキスト取得装置102を構成する記憶部132は、位置コンテキスト類推辞書1311と同様のデータを有する位置コンテキスト類推辞書1312を記憶している。   The storage unit 131 constituting the position context acquisition apparatus 101 stores a position context analogy dictionary 1311 shown in FIG. The position context analogy dictionary 1311 includes a plurality of pieces of data in which model data representing the feature amount of a sound generated by the operation of a person, an animal, or a machine is associated with a position context that describes the environment in which the sound is generated. As a specific example, the position context analogy dictionary 1311 includes model data “slippers.hmm” representing a feature amount of sound generated when a person wearing slippers walks, and a position context “person who describes the environment in which the sound is generated” “Environment walking with slippers” is associated with the data. Note that the storage unit 132 constituting the position context acquisition device 102 stores a position context analogy dictionary 1312 having data similar to the position context analogy dictionary 1311.

位置コンテキスト取得装置101を構成する制御部141は、位置コンテキストを取得する位置コンテキスト取得処理のほか、位置コンテキスト取得装置102から通信部151が受信した位置関連情報を取得する位置関連情報取得処理を実行する。これに対して、位置コンテキスト取得装置102を構成する制御部142は、位置関連情報を通信部152に出力する位置関連情報出力処理を実行する。尚、通信部152は、制御部142から出力された位置関連情報を位置コンテキスト取得装置101へ送信する。   The control unit 141 configuring the position context acquisition device 101 executes a position related information acquisition process for acquiring the position related information received by the communication unit 151 from the position context acquisition device 102 in addition to the position context acquisition process for acquiring the position context. To do. On the other hand, the control part 142 which comprises the position context acquisition apparatus 102 performs the position relevant information output process which outputs position relevant information to the communication part 152. FIG. Note that the communication unit 152 transmits the position related information output from the control unit 142 to the position context acquisition apparatus 101.

ここで、位置関連情報とは、位置コンテキストの取得に用いられる情報、若しくは、位置コンテキスト情報そのものであり、センサ情報、センサ情報から生成された音響データ、及び音響データから抽出された特徴量を表す情報、並びに
位置コンテキスト情報を含む。
Here, the position related information is information used for acquiring the position context or the position context information itself, and represents sensor information, acoustic data generated from the sensor information, and a feature amount extracted from the acoustic data. Information, as well as location context information.

位置コンテキスト取得装置101及び102のその他の構成については、実施形態1の位置コンテキスト取得装置100の構成と同じであるので説明を省略する。   Other configurations of the position context acquisition apparatuses 101 and 102 are the same as the configuration of the position context acquisition apparatus 100 according to the first embodiment, and thus the description thereof is omitted.

以下、位置コンテキスト取得システム200の動作について説明する。
位置コンテキスト取得装置101及び102にそれぞれ電源が投入されると、センサ111及び112は、それぞれ位置コンテキスト取得装置101の装置周辺の音及び位置コンテキスト取得装置102の装置周辺の音を音響信号に変換し、音響信号をセンサ情報取得部121及び122へそれぞれ出力する。センサ情報取得部121及び122は、それぞれ制御部141及び142の要求に従い、音響信号をセンサ情報に変換する。制御部141及び142は、それぞれセンサ情報取得部121及び122からセンサ情報を取得し、取得したセンサ情報を音響データに変換し、音響データと音響データの作成日時とをそれぞれ記憶部131及び132に順次格納する。
Hereinafter, the operation of the position context acquisition system 200 will be described.
When the power is supplied to the position context acquisition devices 101 and 102, the sensors 111 and 112 convert the sound around the device of the position context acquisition device 101 and the sound around the device of the position context acquisition device 102 into acoustic signals, respectively. The acoustic signal is output to the sensor information acquisition units 121 and 122, respectively. The sensor information acquisition units 121 and 122 convert acoustic signals into sensor information in accordance with requests from the control units 141 and 142, respectively. The control units 141 and 142 acquire sensor information from the sensor information acquisition units 121 and 122, respectively, convert the acquired sensor information into acoustic data, and store the acoustic data and the creation date and time of the acoustic data in the storage units 131 and 132, respectively. Store sequentially.

ここで、位置コンテキスト取得装置101の制御部141は、通信部151が位置コンテキスト送信命令を外部装置900から受信すると、図10に示す位置コンテキスト取得処理の実行を開始する。   Here, when the communication unit 151 receives a position context transmission command from the external device 900, the control unit 141 of the position context acquisition apparatus 101 starts executing the position context acquisition process illustrated in FIG.

以下、実施形態3において、制御部141が実行する位置コンテキスト取得処理について、制御部141が、位置関連情報として音響データを取得する場合を例に挙げて説明する。   Hereinafter, in the third embodiment, the position context acquisition process executed by the control unit 141 will be described by taking as an example a case where the control unit 141 acquires acoustic data as the position related information.

制御部141は、図3のステップS101からステップS104と同一の処理を実行することで、最新の音響データで表される音声の特徴量と、各モデルデータで表される特徴量と、の類似度を算出する。   The control unit 141 executes the same processing as that in steps S101 to S104 in FIG. 3, so that the similarity between the audio feature amount represented by the latest acoustic data and the feature amount represented by each model data is similar. Calculate the degree.

次に、制御部141は、算出した類似度の中で、最も高い類似度の算出に用いられたモデルデータ(以下、第1モデルデータという)を特定する(ステップS301)。続いて、制御部141は、最も高い類似度の算出に用いられたモデルデータ(つまり、第1モデルデータ)と、最も高い類似度の算出に用いられた音響データ(以下、第1音響データという)の作成日時と、を記憶部131に保存する(ステップS302)。   Next, the control unit 141 identifies model data (hereinafter referred to as first model data) used for calculating the highest similarity among the calculated similarities (step S301). Subsequently, the control unit 141 uses model data (that is, first model data) used for calculating the highest similarity and acoustic data (hereinafter referred to as first acoustic data) used for calculating the highest similarity. ) And the creation date and time are stored in the storage unit 131 (step S302).

次に、位置コンテキスト取得装置101の制御部141は、図11に示す位置関連情報取得処理を実行する。これにより、制御部141は、他の位置コンテキスト取得装置102から、第1音響データの作成日時(以下、第1作成日時という)から所定時間以内に作成された音響データと、音響データの作成日時と、を取得する。   Next, the control part 141 of the position context acquisition apparatus 101 performs the position relevant information acquisition process shown in FIG. Thereby, the control unit 141 generates the acoustic data created within a predetermined time from the creation date and time of the first acoustic data (hereinafter referred to as the first creation date and time) and the creation date and time of the acoustic data from the other position context acquisition device 102. And get.

以下、図11のフローチャートを参照して、位置コンテキスト取得装置101の制御部141が、位置コンテキスト取得装置102から位置関連情報を取得するために実行する位置関連情報取得処理について説明する。   Hereinafter, with reference to the flowchart of FIG. 11, a position related information acquisition process executed by the control unit 141 of the position context acquisition apparatus 101 to acquire position related information from the position context acquisition apparatus 102 will be described.

制御部141は、ステップS302で保存した第1作成日時よりも所定時間前の日時から、第1作成日時よりも所定時間後の日時までに位置コンテキスト取得装置102で作成された位置関連情報の送信を求める位置関連情報取得要求を生成する。   The control unit 141 transmits the location-related information created by the location context acquisition device 102 from the date / time before the first creation date / time stored in step S302 to the date / time after the first creation date / time. A position-related information acquisition request for requesting is generated.

その後、制御部141は、生成した位置関連情報取得要求を通信部151へ出力する(ステップS401)。その後、通信部151は、位置関連情報取得要求を位置コンテキスト取得装置102へ送信する。   Thereafter, the control unit 141 outputs the generated position related information acquisition request to the communication unit 151 (step S401). Thereafter, the communication unit 151 transmits a position related information acquisition request to the position context acquisition apparatus 102.

位置コンテキスト取得装置102は、位置関連情報取得要求を受信すると、第1作成日時より所定時間前の日時から第1作成日時より所定時間後の日時までに作成された音響データと、当該音響データの生成日時と、を記憶部132から複数取得する。その後、位置コンテキスト取得装置102は、取得した音響データと生成日時とを複数含む位置関連情報取得応答を生成し、生成した位置関連情報取得応答を位置コンテキスト取得装置101へ送信する。   When receiving the position-related information acquisition request, the position context acquisition device 102 receives the acoustic data created from the date / time before the first creation date / time to the date / time after the first creation date / time, and the date / time after the first creation date / time. A plurality of generation dates and times are acquired from the storage unit 132. Thereafter, the position context acquisition apparatus 102 generates a position related information acquisition response including a plurality of acquired acoustic data and generation date and time, and transmits the generated position related information acquisition response to the position context acquisition apparatus 101.

ステップS401を実行した後に、位置コンテキスト取得装置101の制御部141は、通信部151が位置コンテキスト取得装置102から位置関連情報取得応答を受信したか否かを判別する(ステップS402)。このとき、制御部141は、通信部151が位置関連情報取得応答を受信しなかったと判別すると(ステップS402;No)、所定時間経過後にステップS402の処理を繰り返す。   After executing step S401, the control unit 141 of the position context acquisition apparatus 101 determines whether or not the communication unit 151 has received a position related information acquisition response from the position context acquisition apparatus 102 (step S402). At this time, if the control unit 141 determines that the communication unit 151 has not received the position-related information acquisition response (step S402; No), the control unit 141 repeats the process of step S402 after a predetermined time has elapsed.

これに対して、制御部141は、通信部151が位置関連情報取得応答を受信したと判別すると(ステップS402;Yes)、位置関連情報取得応答を通信部151から取得する。次に、制御部141は、位置関連情報取得応答に含まれる位置関連情報と当該位置関連情報の生成日時とを複数記憶部131に格納してから(ステップS403)、位置関連情報取得処理の実行を終了する。   In contrast, when determining that the communication unit 151 has received the position related information acquisition response (step S402; Yes), the control unit 141 acquires the position related information acquisition response from the communication unit 151. Next, the control unit 141 stores the position related information included in the position related information acquisition response and the generation date and time of the position related information in the plurality of storage units 131 (step S403), and then executes the position related information acquisition process. Exit.

図10のフローチャートに戻り、位置コンテキスト取得装置101の制御部141は、位置関連情報取得処理によって位置コンテキスト取得装置102から取得された音響データ(以下、取得音響データという)と生成日時とを、記憶部131から複数取得する(ステップS303)。   Returning to the flowchart of FIG. 10, the control unit 141 of the position context acquisition apparatus 101 stores the acoustic data (hereinafter referred to as acquired acoustic data) acquired from the position context acquisition apparatus 102 by the position related information acquisition process and the generation date and time. A plurality of items are acquired from the unit 131 (step S303).

続いて、制御部141は、複数の取得音響データのそれぞれから特徴量を抽出する(ステップS304)。その後、制御部141は、記憶部131からステップ301で保存された第1モデルデータを取得する。次に、制御部141は、複数の取得音響データそれぞれについて、隠れマルコフモデルを用いたパターン認識手法により、第1モデルデータとの類似度を算出する(ステップS305)。   Subsequently, the control unit 141 extracts a feature amount from each of the plurality of acquired acoustic data (step S304). Thereafter, the control unit 141 acquires the first model data stored in step 301 from the storage unit 131. Next, the control unit 141 calculates the degree of similarity with the first model data for each of the plurality of acquired acoustic data by a pattern recognition method using a hidden Markov model (step S305).

その後、制御部141は、第1モデルデータとの類似度が最も高く、最も第1作成日時と近い日時に作成された取得音響データ(以下、第2音響データという)を特定する(ステップS306a)。   Thereafter, the control unit 141 specifies acquired acoustic data (hereinafter referred to as second acoustic data) created at the date and time closest to the first creation date and time with the highest similarity to the first model data (step S306a). .

次に、制御部141は、第1モデルデータに対応付けられた位置コンテキストを、図9に示した位置コンテキスト類推辞書1311から取得する(ステップS306b)。   Next, the control unit 141 acquires the position context associated with the first model data from the position context analogy dictionary 1311 illustrated in FIG. 9 (step S306b).

その後、制御部141は、第1音響データの生成日時である第1生成日時と、第2音響データの生成日時(以下、第2生成日時という)と、の時間差を算出する(ステップS306c)。   Thereafter, the control unit 141 calculates a time difference between the first generation date and time that is the generation date and time of the first acoustic data and the generation date and time of the second acoustic data (hereinafter referred to as the second generation date and time) (step S306c).

次に、制御部141は、ステップS306bで取得した位置コンテキストを、位置コンテキスト取得装置101の在る位置の環境を、算出した時間差を用いてより詳細に説明するコンテキストに修正する(ステップS306d)。尚、制御部141は、ステップS306bで取得した位置コンテキストに、位置コンテキスト取得装置101の在る位置の環境を、算出した時間差を用いてより詳細に説明するコンテキストを追加しても良い。   Next, the control unit 141 corrects the position context acquired in step S306b to a context that describes the environment of the position where the position context acquisition apparatus 101 is located in more detail using the calculated time difference (step S306d). Note that the control unit 141 may add, to the position context acquired in step S306b, a context that explains the environment of the position where the position context acquisition apparatus 101 is located in more detail using the calculated time difference.

具体例としては、ステップS301で特定された第1モデルデータが、スリッパを履いた人が歩く際に生じる音の特徴量を表すモデルデータ「slippers.hmm」である場合を例に挙げて説明する。   As a specific example, the case where the first model data identified in step S301 is model data “slippers.hmm” representing the feature amount of sound generated when a person wearing slippers walks will be described as an example. .

この場合に、制御部141は、ステップS306bにおいて、モデルデータ「slippers.hmm」と対応付けられた位置コンテキスト「スリッパを履いて人が歩く環境」を、図9に示した位置コンテキスト類推辞書1311から取得する。次に、ステップS306cにおいて、制御部141は、ステップS302で記憶部131に保存した第1作成日時と、ステップS306aで類似度が最も高いと特定された第2音響データの作成日時と、の時間差「1秒」を算出したとする。この場合に、ステップS306dにおいて、制御部141は、位置コンテキスト「スリッパを履いて人が歩く環境」を、「位置コンテキスト取得装置102の位置から人が歩いて1秒の距離に在る環境」に修正等する。   In this case, in step S306b, the control unit 141 uses the position context analogy dictionary 1311 shown in FIG. 9 to indicate the position context “environment where a person walks in slippers” associated with the model data “slippers.hmm”. get. Next, in step S306c, the control unit 141 determines the time difference between the first creation date and time saved in the storage unit 131 in step S302 and the creation date and time of the second acoustic data identified as having the highest similarity in step S306a. Assume that “1 second” is calculated. In this case, in step S306d, the control unit 141 changes the position context “environment in which a person walks in slippers” to “environment in which a person walks from the position of the position context acquisition apparatus 102 and is at a distance of 1 second”. Make corrections.

ステップS306dの後に、位置コンテキスト取得装置101は、修正等した位置コンテキストを表す位置コンテキスト情報を通信部151へ出力した後に(ステップS106)、位置コンテキスト取得処理を終了する。尚、通信部151は、位置コンテキストを外部装置200に送信する。   After step S306d, the position context acquisition apparatus 101 outputs position context information representing the corrected position context to the communication unit 151 (step S106), and then ends the position context acquisition process. Note that the communication unit 151 transmits the location context to the external device 200.

位置コンテキスト得装置102は、ステップS401で位置コンテキスト取得装置101から送信された位置関連情報取得要求を受信すると、図11に示す位置関連情報出力処理の実行を開始する。位置関連情報取得要求に従って、位置関連情報である音響データを位置コンテキスト取得装置101に送信するためである。   When receiving the position related information acquisition request transmitted from the position context acquisition apparatus 101 in step S401, the position context acquisition apparatus 102 starts executing the position related information output process shown in FIG. This is because the acoustic data as the position related information is transmitted to the position context acquisition apparatus 101 in accordance with the position related information acquisition request.

位置関連情報出力処理の実行を開始すると、位置コンテキスト得装置102の制御部142は、受信された位置関連情報送信要求を通信部152から取得し、取得した位置関連情報送信要求を解析する(ステップS411)。   When the execution of the position related information output process is started, the control unit 142 of the position context obtaining apparatus 102 acquires the received position related information transmission request from the communication unit 152, and analyzes the acquired position related information transmission request (step). S411).

ここで、位置コンテキスト得装置101から送信される位置関連情報送信要求は、図12に示すデータフォーマットに従っている。位置関連情報取得要求は、位置関連情報取得要求を送信する送信元となる装置を識別する送信元装置情報を含み、送信元装置情報は、例えば、位置コンテキスト取得装置101のIP(Internet Protocol)アドレスで表される。また、位置関連情報取得要求は、位置関連情報取得要求の宛先とされる装置を識別する宛先装置情報をさらに含み、宛先装置情報は、位置コンテキスト取得装置102のIPアドレスで表される。さらにまた、位置関連情報取得要求は、送信を要求する位置関連情報の種別を表す位置関連情報種別情報を含み、位置関連情報種別情報は、要求する位置関連情報の種類が音響データであることを表す。またさらに、位置関連情報取得要求は、上述の第1作成日時を表す第1作成日時情報をさらに含む。尚、実施形態2で説明したように、位置関連情報がセンサ種別と対応付けられている場合には、位置関連情報種別情報は、要求する位置関連情報の種類としてセンサ種別をさらに指定する情報であっても良い。   Here, the position related information transmission request transmitted from the position context obtaining apparatus 101 follows the data format shown in FIG. The location related information acquisition request includes transmission source device information that identifies a transmission source device that transmits the location related information acquisition request, and the transmission source device information is, for example, an IP (Internet Protocol) address of the location context acquisition device 101. It is represented by The location related information acquisition request further includes destination device information for identifying a destination device of the location related information acquisition request, and the destination device information is represented by the IP address of the location context acquisition device 102. Furthermore, the location related information acquisition request includes location related information type information indicating the type of location related information for which transmission is requested, and the location related information type information indicates that the type of location related information requested is acoustic data. Represent. Furthermore, the position related information acquisition request further includes first creation date and time information representing the first creation date and time described above. As described in the second embodiment, when the position-related information is associated with the sensor type, the position-related information type information is information that further specifies the sensor type as the type of requested position-related information. There may be.

このため、制御部142は、位置関連情報取得要求に含まれる位置関連情報種別情報に基づいて、送信が要求された位置関連情報が音響データであることを特定する。次に、制御部142は、位置関連情報取得要求に含まれる第1作成日時情報で表される第1作成日時を特定する。   For this reason, the control unit 142 specifies that the position related information requested to be transmitted is acoustic data based on the position related information type information included in the position related information acquisition request. Next, the control unit 142 specifies the first creation date and time represented by the first creation date and time information included in the position related information acquisition request.

その後、制御部142は、例えば、1分といった所定時間だけ第1作成日時よりも前の日時から当該所定時間だけ第1作成日時よりも後の日時までに作成された音響データと音響データの作成日時とを記憶部132から複数取得する(ステップS412)。   Thereafter, the control unit 142 creates acoustic data and acoustic data created from a date and time before the first creation date and time to a date and time after the first creation date and time for a predetermined time such as 1 minute. A plurality of dates and times are acquired from the storage unit 132 (step S412).

そして、制御部142は、図13に示すデータフォーマットに従って、位置関連情報取得応答を作成し、取得した複数の音響データと作成日時とを位置関連情報取得応答へ格納する(ステップS413a)。次に、制御部142は、位置関連情報取得応答を通信部152へ出力し(ステップS413b)、通信部152は、位置関連情報取得応答を位置コンテキスト取得装置101へ送信する。その後、制御部142は、位置関連情報出力処理の実行を終了する。   Then, the control unit 142 creates a position related information acquisition response in accordance with the data format shown in FIG. 13, and stores the acquired plurality of acoustic data and creation date and time in the position related information acquisition response (step S413a). Next, the control unit 142 outputs a position related information acquisition response to the communication unit 152 (step S413b), and the communication unit 152 transmits the position related information acquisition response to the position context acquisition device 101. Thereafter, the control unit 142 ends the execution of the position related information output process.

尚、送信される位置関連情報取得応答には、位置コンテキスト取得装置102のIPアドレス等で表される送信元送信情報、位置コンテキスト取得装置101のIPアドレス等で表される宛先装置情報、及び取得した複数の音響データ及び作成日時である通知情報が含まれている。   The location-related information acquisition response to be transmitted includes transmission source transmission information represented by the IP address of the location context acquisition device 102, destination device information represented by the IP address of the location context acquisition device 101, and acquisition. A plurality of acoustic data and notification information that is the creation date and time are included.

これらの構成によれば、位置コンテキスト取得システム200は、位置コンテキスト取得装置101の位置を、位置コンテキスト取得装置102の位置を用いて説明する位置コンテキストを取得できる。   According to these configurations, the position context acquisition system 200 can acquire a position context that describes the position of the position context acquisition apparatus 101 using the position of the position context acquisition apparatus 102.

(実施形態3の変形例1)
実施形態3では、第1音響データの作成日時と、第2音響データの作成日時と、の時間差に基づいて、位置コンテキスト取得装置101が在る位置の環境を説明する位置コンテキストを取得すると説明した。
(Modification 1 of Embodiment 3)
In the third embodiment, it has been described that the position context that describes the environment of the position where the position context acquisition device 101 is located is acquired based on the time difference between the creation date and time of the first acoustic data and the creation date and time of the second acoustic data. .

つまり、実施形態3では、記憶部131は、図9に示したように、人等の動作により生じる音声の特徴を表すモデルデータと、当該音声の生じる環境を説明する位置コンテキストと、を対応付けた位置コンテキスト類推辞書1311を記憶する。位置コンテキスト取得装置101の制御部141は、図10のステップS306bで第1モデルデータに対応付けられた位置コンテキストを取得する。次に、制御部141は、ステップS306cで、第1音響データの作成日時と、第2音響データの作成日時と、の時間差を算出する。その後、制御部141は、ステップS306dで、算出された時間差を用いて位置コンテキスト取得装置101の位置を説明する位置コンテキストを修正等すると説明した。   That is, in the third embodiment, as illustrated in FIG. 9, the storage unit 131 associates model data representing the characteristics of a sound generated by the action of a person or the like with a position context describing the environment in which the sound is generated. The position context analogy dictionary 1311 is stored. The control unit 141 of the position context acquisition apparatus 101 acquires the position context associated with the first model data in step S306b of FIG. Next, in step S306c, the control unit 141 calculates a time difference between the creation date / time of the first acoustic data and the creation date / time of the second acoustic data. Thereafter, the control unit 141 has been described in step S306d as correcting the position context describing the position of the position context acquisition apparatus 101 using the calculated time difference.

本変形例では、第1音響データの作成に用いられた音響信号の強度と、第2音響データの作成に用いられた音響信号の強度と、の大小関係に基づいて、位置コンテキスト取得装置101が在る位置の環境を説明する位置コンテキストを修正等する。以下、実施形態3との相違点について主に説明する。   In the present modification, the position context acquisition apparatus 101 is based on the magnitude relationship between the intensity of the acoustic signal used for creating the first acoustic data and the intensity of the acoustic signal used for creating the second acoustic data. Modify the location context describing the environment at the location. Hereinafter, differences from the third embodiment will be mainly described.

本変形例において、記憶部131は、図2に示したように、特定の環境に設置される設備等で生じる音声の特徴量を表すモデルデータと、当該音声の生じる環境を説明する位置コンテキストと、を対応付けた位置コンテキスト類推辞書1311を記憶する。   In the present modification, as shown in FIG. 2, the storage unit 131 includes model data that represents a feature amount of voice generated in equipment or the like installed in a specific environment, and a position context that describes the environment in which the voice is generated. Are stored in the position context analogy dictionary 1311.

位置コンテキスト取得装置101の制御部141は、図10のステップS306bで第1モデルデータに対応付けられた位置コンテキストを取得する。   The control unit 141 of the position context acquisition apparatus 101 acquires the position context associated with the first model data in step S306b of FIG.

制御部141は、ステップS400で、位置コンテキスト取得装置102から音響データと、音響データの生成に用いられたセンサ情報と、音響データの作成日時と、を取得する。その後、制御部141は、ステップS306cで、第1音響データの作成日時と、第2音響データの作成日時と、の時間差を算出した後に、時間差が「0」であるか否かを判別する。   In step S400, the control unit 141 acquires the acoustic data, the sensor information used for generating the acoustic data, and the creation date and time of the acoustic data from the position context acquisition apparatus 102. Thereafter, in step S306c, the control unit 141 calculates a time difference between the creation date / time of the first acoustic data and the creation date / time of the second acoustic data, and then determines whether or not the time difference is “0”.

このとき、制御部141は、時間差が「0」でないと判別すると、ステップS306d及びステップS106の処理を実行した後に、位置コンテキスト取得処理の実行を終了する。これに対して、制御部141は、時間差が「0」であると判別すると、第1音響データの作成に用いられたセンサ情報(以下、第1センサ情報という)と、第2音響データの作成に用いられたセンサ情報(以下、第2センサ情報という)と、を特定する。   At this time, when the control unit 141 determines that the time difference is not “0”, the control unit 141 ends the execution of the position context acquisition process after executing the processes of step S306d and step S106. On the other hand, when the control unit 141 determines that the time difference is “0”, the sensor information used for creating the first acoustic data (hereinafter referred to as first sensor information) and the second acoustic data are created. Sensor information (hereinafter referred to as second sensor information) used in the above.

その後、制御部141は、第1センサ情報で表される音響信号(以下、第1音響信号という)の強度が、第2センサ情報で表される音響信号(以下、第2音響信号という)の強度よりも大きいか否かを判別する。   Thereafter, the control unit 141 has an intensity of the acoustic signal represented by the first sensor information (hereinafter referred to as the first acoustic signal) of the acoustic signal represented by the second sensor information (hereinafter referred to as the second acoustic signal). It is determined whether or not it is greater than the strength.

このとき、制御部141は、第1音響信号の強度が、第2音響信号の強度よりも大きいと判別すると、これらの音響信号で表される音声の発生源に対して位置コンテキスト取得装置101の方が位置コンテキスト取得装置102よりも近いと判別する。   At this time, if the control unit 141 determines that the intensity of the first acoustic signal is greater than the intensity of the second acoustic signal, the control unit 141 performs the position context acquisition device 101 on the sound source represented by these acoustic signals. Is determined to be closer than the position context acquisition device 102.

これに対して、制御部141は、第1音響信号の強度が、第2音響信号の強度よりも小さいと判別すると、これらの音響信号で表される音声の発生源に対して位置コンテキスト取得装置101の方が位置コンテキスト取得装置102よりも遠いと判別する。   On the other hand, when the control unit 141 determines that the intensity of the first acoustic signal is smaller than the intensity of the second acoustic signal, the control unit 141 performs a position context acquisition device for the sound source represented by these acoustic signals. It is determined that 101 is farther than the position context acquisition device 102.

またこのとき、制御部141は、第1音響信号の強度が、第2音響信号の強度と同じだと判別すると、これらの音響信号で表される音声の発生源に対して位置コンテキスト取得装置101と位置コンテキスト取得装置102とは同じ距離にあると判別する。   At this time, if the controller 141 determines that the intensity of the first acoustic signal is the same as the intensity of the second acoustic signal, the position context acquisition device 101 for the sound source represented by these acoustic signals. And the position context acquisition device 102 are determined to be at the same distance.

その後、制御部141は、判別結果の説明を追加するように、ステップS306bで取得した位置コンテキストを修正等した後に(ステップS306d)、ステップS106を実行してから位置コンテキスト取得処理の実行を終了する。   Thereafter, the control unit 141 corrects the position context acquired in step S306b so as to add a description of the determination result (step S306d), and then ends the execution of the position context acquisition process after executing step S106. .

具体例として、制御部141は、ステップS306bで、位置コンテキスト取得装置101が在る位置の環境は、トイレが所定範囲内に在る環境であると説明する位置コンテキストを取得した場合を挙げて説明を行う。   As a specific example, the control unit 141 will be described with reference to a case where, in step S306b, the environment at the position where the position context acquisition device 101 is located acquires a position context that is described as an environment where the toilet is within a predetermined range. I do.

制御部141は、第1音響信号の強度が第2音響信号の強度よりも大きいと判別すると、位置コンテキスト取得装置101の位置環境を説明する位置コンテキストを、位置コンテキスト取得装置102よりもトイレに近いと説明する位置コンテキストへ修正等する。   When the control unit 141 determines that the intensity of the first acoustic signal is greater than the intensity of the second acoustic signal, the position context describing the position environment of the position context acquisition apparatus 101 is closer to the toilet than the position context acquisition apparatus 102 To the position context described as follows.

これに対して、制御部141は、第1音響信号の強度が第2音響信号の強度よりも小さいと判別すると、位置コンテキストを、位置コンテキスト取得装置102よりもトイレから遠いと説明する位置コンテキストへ修正等する。   On the other hand, when the control unit 141 determines that the intensity of the first acoustic signal is smaller than the intensity of the second acoustic signal, the control unit 141 changes the position context to a position context that is farther from the toilet than the position context acquisition device 102. Make corrections.

またさらに、制御部141は、第1音響信号の強度が第2音響信号の強度と同じであると判別すると、位置コンテキストを、位置コンテキスト取得装置102と同じだけトイレから離れていると説明する位置コンテキストへ修正等する。   Furthermore, if the control unit 141 determines that the intensity of the first acoustic signal is the same as the intensity of the second acoustic signal, the position that explains that the position context is as far away from the toilet as the position context acquisition device 102 is. Modify to context.

これらの構成によれば、位置コンテキスト取得装置101が在る位置の環境を当該環境に在る施設若しくは設備と、位置コンテキスト取得装置102と、の位置関係に基づいて説明する位置コンテキストを取得できる。   According to these configurations, it is possible to acquire a position context that describes the environment of the position where the position context acquisition apparatus 101 exists based on the positional relationship between the facility or equipment in the environment and the position context acquisition apparatus 102.

(実施形態3の変形例2)
実施形態3の変形例1では、第1音響信号の強度と第2音響信号の強度との大小関係基づいて、位置コンテキスト取得装置101と位置コンテキスト取得装置102とのいずれが音源に近いかを説明する位置コンテキストを取得すると説明した。これに対して、本変形例では、音響信号の強度に基づいて推測される音源の位置を説明する位置コンテキストを取得する。以下、実施形態3の変形例1との相違点について主に説明する。
(Modification 2 of Embodiment 3)
In the first modification of the third embodiment, which of the position context acquisition apparatus 101 and the position context acquisition apparatus 102 is closer to the sound source is described based on the magnitude relationship between the intensity of the first acoustic signal and the intensity of the second acoustic signal. Explained that the position context to get. On the other hand, in the present modification, a position context that describes the position of the sound source estimated based on the intensity of the acoustic signal is acquired. Hereinafter, differences from the first modification of the third embodiment will be mainly described.

本実施例において、位置コンテキスト取得システム200は、互いに接続された位置コンテキスト取得装置101、102、及び103で構成される。   In the present embodiment, the position context acquisition system 200 includes position context acquisition apparatuses 101, 102, and 103 connected to each other.

位置コンテキスト取得装置101の制御部141は、第1音響信号の強度に基づいて、施設若しくは設備の音源から位置コンテキスト取得装置101までの距離を推測する。   The control unit 141 of the position context acquisition apparatus 101 estimates the distance from the sound source of the facility or equipment to the position context acquisition apparatus 101 based on the intensity of the first acoustic signal.

また、制御部141は、位置コンテキスト取得装置102から取得した複数の音響データの内で、第1モデルデータとの類似度が最も高い音響データ(つまり、第2音響データ)の作成に用いられた第2センサ情報を特定する。その後、制御部141は、第2センサ情報の作成に用いられた第2音響信号の強度を特定し、音源から位置コンテキスト取得装置102までの距離を推測する。同様に、制御部141は、音源から位置コンテキスト取得装置103までの距離を推測する。   In addition, the control unit 141 is used to create acoustic data (that is, second acoustic data) having the highest similarity to the first model data among the plurality of acoustic data acquired from the position context acquisition device 102. The second sensor information is specified. Thereafter, the control unit 141 identifies the intensity of the second acoustic signal used for creating the second sensor information, and estimates the distance from the sound source to the position context acquisition device 102. Similarly, the control unit 141 estimates the distance from the sound source to the position context acquisition device 103.

その後、制御部141は、三点測位によって音源の位置を特定し、特定した位置の説明を追加するように、ステップS306bで取得した位置コンテキストを修正等する。   Thereafter, the control unit 141 identifies the position of the sound source by three-point positioning, and corrects the position context acquired in step S306b so as to add a description of the identified position.

(実施形態3の変形例3)
実施形態3では、位置コンテキスト取得装置101の制御部141は、図10のステップS306cにおいて、第1音響データの作成日時と、第2音響データの作成日時と、の時間差を用いて位置コンテキストを修正等すると説明した。これに対して、本変形例では、第1音響データの作成日時と、人、物、若しくは動物が、第1音響データで表される音声を生じさせた後にさらに生させる音声を表す音響データの作成日時と、の時間差を用いて位置コンテキストを修正等する。
(Modification 3 of Embodiment 3)
In the third embodiment, the control unit 141 of the position context acquisition apparatus 101 corrects the position context using the time difference between the creation date and time of the first acoustic data and the creation date and time of the second acoustic data in step S306c of FIG. Explained. On the other hand, in this modified example, the date and time of creation of the first acoustic data and the acoustic data representing the sound that a person, thing, or animal further produces after producing the sound represented by the first acoustic data. The position context is corrected using the time difference between the creation date and time.

本変形例では、記憶部131は、図14に示す位置コンテキスト類推辞書1311を記憶している。この位置コンテキスト類推辞書1311は、人等の動作により生じる音声の特徴を表すモデルデータと、当該音声の生じる環境を説明する位置コンテキストと、当該人等が当該音声を生させた後に生じさせる音声の特徴を表す関連モデルデータと、を対応付けたデータを複数有する。以下、実施形態3との相違について主に説明する。   In the present modification, the storage unit 131 stores a position context analogy dictionary 1311 shown in FIG. The position context analogy dictionary 1311 includes model data representing the characteristics of speech generated by the action of a person, a position context that describes the environment in which the sound is generated, and a sound generated after the person or the like has generated the sound. There are a plurality of pieces of data in which related model data representing features are associated with each other. Hereinafter, differences from the third embodiment will be mainly described.

位置コンテキスト取得装置101の制御部141は、図10のステップS301で、第1モデルデータを特定した後に、図10に示した位置コンテキスト類推辞書1311から第1モデルデータに対応付けられた関連モデルデータを取得する。   The control unit 141 of the position context acquisition apparatus 101 identifies the first model data in step S301 of FIG. 10, and then relates model data associated with the first model data from the position context analogy dictionary 1311 illustrated in FIG. To get.

具体例として、制御部141が、ステップS301で、ドアの開閉音の特徴を表すモデルデータ「door.hmm」を第1モデルデータと特定した場合を例に挙げて説明する。   As a specific example, the case where the control unit 141 specifies the model data “door.hmm” representing the characteristics of the door opening / closing sound in step S301 as the first model data will be described as an example.

ステップS301の後に、制御部141は、ドアの開閉音の後に生じる確率の高いスリッパを履いた人の足音の特徴を表す関連モデルデータ「slippers.hmm」を取得する。人がドアを開けて入室した後に、スリッパを履いて部屋を移動することが多いためである。   After step S <b> 301, the control unit 141 acquires related model data “slippers.hmm” representing the characteristics of the footsteps of a person who wears slippers with a high probability of being generated after the door opening / closing sound. This is because, after a person opens a door and enters the room, he often wears slippers and moves around the room.

次に、制御部141は、図10のステップS302にて、第1モデルデータ「door.hmm」と、第1音響データの作成日時(つまり、第1作成日時)と、第1モデルデータに対応付けられた関連モデルデータ(以下、第1関連モデルデータという)「slippers.hmm」と、を、記憶部131に保存する。   Next, in step S302 of FIG. 10, the control unit 141 corresponds to the first model data “door.hmm”, the creation date / time of the first acoustic data (that is, the first creation date / time), and the first model data. The attached related model data (hereinafter referred to as first related model data) “slippers.hmm” is stored in the storage unit 131.

次に、制御部141は、ステップS400、ステップS303、及びステップS304を実行する。その後、制御部141は、ステップS305で、第1モデルデータ「door.hmm」ではなく、第1関連モデルデータ「slippers.hmm」で表される特徴量と、位置コンテキスト取得装置102から取得した音響データの特徴量と、の類似度を算出する。   Next, the control part 141 performs step S400, step S303, and step S304. After that, in step S <b> 305, the control unit 141 stores the feature amount represented by the first related model data “slippers.hmm”, not the first model data “door.hmm”, and the sound acquired from the position context acquisition device 102. The degree of similarity with the data feature amount is calculated.

その後、制御部141は、ステップS306aで、類似度が最も高い音響データを第2音響データとして特定する。その後、制御部141は、ステップS306bで、第1モデルデータ「door.hmm」に対応付けられた位置コンテキスト「ドアが所定範囲内に在る環境」と、関連モデルデータ「slippers.hmm」に対応付けられた位置コンテキスト「スリッパを履いて人が歩く環境」と、を取得する。   Thereafter, in step S306a, the control unit 141 identifies the acoustic data having the highest similarity as the second acoustic data. Thereafter, in step S306b, the control unit 141 corresponds to the position context “environment where the door is within a predetermined range” associated with the first model data “door.hmm” and the related model data “slippers.hmm”. The attached position context “environment where a person walks in slippers” is acquired.

その後、制御部141は、ステップS306bで、第1音響データの作成日時と、第2音響データの作成日時と、の時間差を算出する。ここでは、時間差を「3秒」と算出したとして説明を行う。   Thereafter, in step S306b, the control unit 141 calculates a time difference between the creation date / time of the first acoustic data and the creation date / time of the second acoustic data. Here, description will be made assuming that the time difference is calculated as “3 seconds”.

次に、制御部141は、位置コンテキスト「ドアが所定範囲内に在る環境」を、位置コンテキスト「スリッパを履いて人が歩く環境」と時間差「3秒」とを用いて修正等する。具体的には、制御部141は、位置コンテキスト取得装置101が在る位置の環境が、「ドアから、歩いて3秒の距離だけ離れた環境」であると説明する位置コンテキストを取得する。   Next, the control unit 141 corrects the position context “environment where the door is within a predetermined range” by using the position context “environment where a person walks in a slipper” and the time difference “3 seconds”. Specifically, the control unit 141 acquires a position context that explains that the environment of the position where the position context acquisition apparatus 101 is “an environment away from the door by a distance of 3 seconds”.

その後、制御部141は、ステップS106の処理を実行した後に、位置コンテキスト取得処理の実行を終了する。   Thereafter, the control unit 141 ends the execution of the position context acquisition process after executing the process of step S106.

(実施形態3の変形例4)
実施形態3では、位置コンテキスト取得装置101と位置コンテキスト取得装置102は、図11に示した位置関連情報取得処理及び位置関連情報出力処理において、位置関連情報として音響データを送受信すると説明した。本変形例では、位置コンテキスト取得装置101と位置コンテキスト取得装置102は、位置関連情報として音響データの特徴量を送受信する。
(Modification 4 of Embodiment 3)
In the third embodiment, the position context acquisition apparatus 101 and the position context acquisition apparatus 102 have been described as transmitting and receiving acoustic data as position related information in the position related information acquisition process and the position related information output process illustrated in FIG. In this modification, the position context acquisition apparatus 101 and the position context acquisition apparatus 102 transmit / receive the feature quantity of acoustic data as position related information.

これらの構成によれば、音響データと比べて音響データの特徴量の方がデータ量が少ないため、位置コンテキスト取得装置101と位置コンテキスト取得装置102との間で通信される通信量を削減できる。また、位置コンテキスト取得装置101は、音響データを受信した後に、音響データから特徴量を抽出する処理を省略できるため、位置コンテキストを取得するために位置コンテキスト取得装置101が実行する処理を分散化及び軽量化できる。   According to these configurations, since the feature amount of the acoustic data is smaller than the acoustic data, the communication amount communicated between the position context acquisition device 101 and the position context acquisition device 102 can be reduced. Further, since the position context acquisition apparatus 101 can omit the process of extracting the feature amount from the acoustic data after receiving the acoustic data, the process executed by the position context acquisition apparatus 101 to acquire the position context is distributed and Weight can be reduced.

(実施形態3の変形例5)
実施形態3では、位置コンテキスト取得装置101と位置コンテキスト取得装置102は、位置関連情報として音響データを送受信すると説明した。本変形例では、位置コンテキスト取得装置101と位置コンテキスト取得装置102は、位置関連情報として位置コンテキスト情報を送受信する。
(Modification 5 of Embodiment 3)
In the third embodiment, the position context acquisition apparatus 101 and the position context acquisition apparatus 102 have been described as transmitting and receiving acoustic data as position related information. In this modification, the position context acquisition apparatus 101 and the position context acquisition apparatus 102 transmit / receive position context information as position related information.

本変形例では、位置コンテキスト取得装置102は、音響データを生成する度に、図3に示した位置コンテキスト取得処理を実行し、取得した位置コンテキストと、音響データの作成日時と、を対応付けて複数記憶部132に保存する。   In this modification, the position context acquisition device 102 executes the position context acquisition process shown in FIG. 3 every time the acoustic data is generated, and associates the acquired position context with the creation date and time of the acoustic data. Save in the multiple storage unit 132.

位置コンテキスト取得装置102は、位置コンテキスト取得装置101から位置関連情報取得要求を受信すると、第1作成日時より所定時間前から第1作成日時より所定時間後までの作成日時と対応付けられた位置コンテキストを記憶部132から複数取得する。その後、位置コンテキスト取得装置102は、取得した位置コンテキストと作成日時とを対応付けたデータを複数含む位置関連情報取得応答を位置コンテキスト取得装置101へ送信する。   When the position context acquisition apparatus 102 receives the position related information acquisition request from the position context acquisition apparatus 101, the position context associated with the creation date and time from a predetermined time before the first creation date to a predetermined time after the first creation date and time. Are obtained from the storage unit 132. Thereafter, the position context acquisition apparatus 102 transmits a position related information acquisition response including a plurality of data in which the acquired position context is associated with the creation date and time to the position context acquisition apparatus 101.

位置コンテキスト取得装置101は、取得した位置コンテキストの内で、第1モデルデータに対応付けられた位置コンテキストと同じ1若しくは複数の位置コンテキストを特定する。次に、位置コンテキスト取得装置101は、特定された1若しくは複数の位置コンテキストにそれぞれ対応付けられた作成日時の内で、最も第1作成日時と近い作成日時(以下、第2作成日時という)を特定する。   The position context acquisition apparatus 101 identifies one or more position contexts that are the same as the position context associated with the first model data, among the acquired position contexts. Next, the location context acquisition apparatus 101 selects a creation date and time (hereinafter referred to as a second creation date and time) closest to the first creation date and time among the creation dates and times associated with the specified one or more location contexts. Identify.

その後、位置コンテキスト取得装置101は、第1作成日時と第2作成日時との時間差を算出し、算出した時間差を用いて、上記の特定された位置コンテキストを修正等する。   After that, the location context acquisition apparatus 101 calculates a time difference between the first creation date and the second creation date and corrects the identified location context using the calculated time difference.

これらの構成によれば、音響データと比べて位置コンテキスト情報の方が、データ量が少ないため、位置コンテキスト取得装置101と位置コンテキスト取得装置102との間で通信される通信量を削減できる。また、位置コンテキスト取得装置101は、音響データを受信した後に、音響データから特徴量を抽出する処理や特徴量を用いて類似度を算出する処理を省略できるため、位置コンテキストを取得するために位置コンテキスト取得装置101が実行する処理を分散化及び軽量化できる。   According to these configurations, the amount of data of the position context information is smaller than that of the acoustic data, so that the communication amount communicated between the position context acquisition device 101 and the position context acquisition device 102 can be reduced. In addition, since the position context acquisition apparatus 101 can omit the process of extracting the feature amount from the sound data and the process of calculating the similarity using the feature amount after receiving the sound data, the position context acquisition device 101 can acquire the position context. The processing executed by the context acquisition device 101 can be distributed and reduced in weight.

(実施形態3の変形例6)
実施形態3の変形例5では、位置コンテキスト取得装置102は、音響データを生成する度に、位置コンテキスト取得処理を実行し、取得した位置コンテキストと、音響データの作成日時と、を対応付けて複数記憶部132に保存すると説明した。本変形例では、位置コンテキスト取得装置102は、位置コンテキスト取得装置101から位置関連情報取得要求を受信すると、第1作成日時より所定時間前から第1作成日時より所定時間後までの作成日時と対応付けられた音響データを記憶部132から複数取得する。次に、位置コンテキスト取得装置102は、取得した複数の音響データのそれぞれについて、図3に示した位置コンテキスト取得処理を実行する。その後、位置コンテキスト取得装置102は、取得した位置コンテキストと作成日時とを対応付けたデータを複数含む位置関連情報取得応答を位置コンテキスト取得装置101へ送信する。
(Modification 6 of Embodiment 3)
In the fifth modification of the third embodiment, the position context acquisition device 102 executes a position context acquisition process every time acoustic data is generated, and associates the acquired position context with the creation date and time of the acoustic data. It has been described that the data is stored in the storage unit 132. In this modification, when the position context acquisition apparatus 102 receives a position related information acquisition request from the position context acquisition apparatus 101, the position context acquisition apparatus 102 corresponds to a creation date and time from a predetermined time before the first creation date to a predetermined time after the first creation date and time. A plurality of attached acoustic data is acquired from the storage unit 132. Next, the position context acquisition apparatus 102 performs the position context acquisition process shown in FIG. 3 for each of the acquired plurality of acoustic data. Thereafter, the position context acquisition apparatus 102 transmits a position related information acquisition response including a plurality of data in which the acquired position context is associated with the creation date and time to the position context acquisition apparatus 101.

実施形態1、実施形態1の変形例1から変形例16、実施形態2、及び実施形態2の変形例1から変形例6の位置コンテキスト取得装置100、実施形態3、及び実施形態3の変形例1から変形例6の位置コンテキスト取得装置101及び102、並びに実施形態3の変形例2位置コンテキスト取得装置103は、専用のシステムによらず、通常のコンピュータシステムを用いても実現可能である。例えば、上述の動作を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に格納して配布し、該プログラムをコンピュータにインストールして、上述の処理を実行することによって位置コンテキスト取得装置100から103を構成してもよい。また、インターネット等のネットワーク上のサーバ装置が備えるディスク装置に格納しておき、例えばコンピュータにダウンロード等できるようにしてもよい。また、上述の動作を、OSとアプリケーションソフトとの共同により実現してもよい。この場合には、OS以外の部分のみを媒体に格納して配布してもよく、また、コンピュータにダウンロード等してもよい。   Modifications of Embodiment 1, Modification 1 to Modification 16 of Embodiment 1, Embodiment 2, and Modification 1 to Modification 6 of Embodiment 2 of Position Context Acquisition Device 100, Embodiment 3, and Modification of Embodiment 3 The position context acquisition apparatuses 101 and 102 of the first to sixth modifications and the second modification of the position context acquisition apparatus 103 of the third embodiment can be realized using a normal computer system, not a dedicated system. For example, the location context acquisition devices 100 to 103 are stored by distributing a program for executing the above-described operation in a computer-readable recording medium, installing the program in a computer, and executing the above-described processing. It may be configured. Further, it may be stored in a disk device provided in a server device on a network such as the Internet so that it can be downloaded to a computer, for example. Further, the above-described operation may be realized by joint operation of the OS and application software. In this case, only the part other than the OS may be stored and distributed in a medium, or may be downloaded to a computer.

上記プログラムを記録する記録媒体としては、USBメモリ、フレキシブルディスク、CD、DVD、Blu−ray Disc(登録商標)、MO、SDカード、メモリースティック(登録商標)、その他、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ、磁気テープ等のコンピュータ読取可能な記録媒体を使用することができる。また、HDD(ハードディスク)やSSD(ソリッドステートドライブ)等、通常、システム又は装置に固定して使用する記録媒体を使用することもできる。   As a recording medium for recording the program, USB memory, flexible disk, CD, DVD, Blu-ray Disc (registered trademark), MO, SD card, Memory Stick (registered trademark), magnetic disk, optical disk, magneto-optical disk Computer-readable recording media such as semiconductor memory and magnetic tape can be used. In addition, it is also possible to use a recording medium that is usually fixed to a system or apparatus, such as an HDD (hard disk) or an SSD (solid state drive).

実施形態1、実施形態1の変形例1から変形例16、実施形態2、実施形態2の変形例1から変形例6、実施形態3、及び実施形態3の変形例1から変形例6は、互いにそれぞれ組み合わせることができる。本発明に係る位置コンテキスト取得方法は、本発明に係る位置コンテキスト取得装置100から103を用いて実施できる。   Embodiment 1, Modification 1 to Modification 16 of Embodiment 1, Embodiment 2, Modification 1 to Modification 6 of Embodiment 2, Embodiment 3, and Modification 1 to Modification 6 of Embodiment 3 Each can be combined with each other. The position context acquisition method according to the present invention can be implemented using the position context acquisition apparatuses 100 to 103 according to the present invention.

以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。   Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed. Further, the above-described embodiment is for explaining the present invention, and does not limit the scope of the present invention. That is, the scope of the present invention is shown not by the embodiments but by the claims. Various modifications within the scope of the claims and within the scope of the equivalent invention are considered to be within the scope of the present invention.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。   A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.

(付記1)
環境の特徴を表すモデルデータと、当該環境を説明する位置コンテキストと、を対応付けて複数記憶する記憶手段と、
環境を測定するセンサが出力した測定結果を表すセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報取得手段により取得されたセンサ情報で表される測定結果の特徴とどの程度類似しているかを表す類似度が所定値以上の特徴を表すモデルデータを特定し、特定したモデルデータに対応付けられた位置コンテキストを取得する位置コンテキスト取得手段と、を備える、
ことを特徴とする位置コンテキスト取得装置。
(Appendix 1)
Storage means for storing a plurality of model data representing the characteristics of the environment and location contexts describing the environment in association with each other;
Sensor information acquisition means for acquiring sensor information representing a measurement result output by a sensor that measures the environment;
Identifies model data representing features whose similarity is equal to or greater than a predetermined value indicating how similar to the feature of the measurement result represented by the sensor information acquired by the sensor information acquisition means, and corresponds to the specified model data A position context acquisition means for acquiring the attached position context;
A position context acquisition device characterized by that.

(付記2)
前記記憶手段は、前記環境を測定するセンサの種別を、前記環境の特徴を表すモデルデータ及び前記環境を説明する位置コンテキストに対応付けてさらに記憶し、
前記位置コンテキスト取得手段は、前記センサ情報で表される測定結果を出力したセンサの種別と、前記センサの種別に対応付けられたモデルデータで表される特徴と前記センサ情報で表される測定結果の特徴との類似度と、に基づいて、位置コンテキストを取得する、
ことを特徴とする付記1に記載の位置コンテキスト取得装置。
(Appendix 2)
The storage means further stores a type of a sensor for measuring the environment in association with model data representing the characteristics of the environment and a position context describing the environment,
The position context acquisition means includes a sensor type that outputs a measurement result represented by the sensor information, a feature represented by model data associated with the sensor type, and a measurement result represented by the sensor information. Based on the degree of similarity to the feature of
The position context acquisition apparatus according to supplementary note 1, wherein:

(付記3)
前記記憶手段は、前記環境を説明する位置コンテキストと、前記環境において動作を停止させるセンサと、を対応付けて複数記憶し、
前記位置コンテキスト取得手段は、前記位置コンテキスト取得手段で取得された位置コンテキストに、前記動作を停止させるセンサが対応付けられている場合に、前記センサの動作を停止する、
ことを特徴とする付記1又は2に記載の位置コンテキスト取得装置。
(Appendix 3)
The storage means stores a plurality of positional contexts that explain the environment and sensors that stop operation in the environment in association with each other,
The position context acquisition unit stops the operation of the sensor when the position context acquired by the position context acquisition unit is associated with a sensor that stops the operation.
The position context acquisition apparatus according to Supplementary Note 1 or 2, characterized by:

(付記4)
前記位置コンテキスト取得手段は、前記記憶手段が記憶するモデルデータと位置コンテキストとを更新する、
ことを特徴とする付記1から3のいずれか一つに記載の位置コンテキスト取得装置。
(Appendix 4)
The position context acquisition means updates the model data and the position context stored in the storage means;
The position context acquisition device according to any one of supplementary notes 1 to 3, characterized in that:

(付記5)
通信先の装置から、当該通信先の装置が取得したセンサ情報で表される測定結果を受信する通信手段をさらに備え、
前記位置コンテキスト取得手段は、前記通信手段によって受信された測定結果の特徴と、前記センサ情報取得手段により取得されたセンサ情報で表される測定結果の特徴と、に基づいて、前記取得した位置コンテキストを修正する、
ことを特徴とする付記1から4のいずれか一つに記載の位置コンテキスト取得装置。
(Appendix 5)
A communication means for receiving a measurement result represented by sensor information acquired by the communication destination device from the communication destination device;
The position context acquisition unit is configured to acquire the position context acquired based on the characteristic of the measurement result received by the communication unit and the characteristic of the measurement result represented by the sensor information acquired by the sensor information acquisition unit. To fix the
The position context acquisition device according to any one of supplementary notes 1 to 4, wherein

(付記6)
前記通信手段は、前記通信先の装置から、当該通信先の装置が取得したセンサ情報で表される測定結果に対して、当該測定結果の測定日時を対応付けて複数受信し、
前記位置コンテキスト取得手段は、前記通信手段によって受信された複数の測定結果の特徴から、前記特定したモデルデータで表される特徴との類似度が所定値以上の特徴を有する測定結果を特定し、当該特定した測定結果の測定日時と、前記センサ情報取得手段により取得されたセンサ情報で表される測定結果の測定日時と、の時間差が生じる環境を説明するように、前記取得した位置コンテキストを修正する、
ことを特徴とする付記5に記載の位置コンテキスト取得装置。
(Appendix 6)
The communication means receives a plurality of measurement results represented by the sensor information acquired by the communication destination device from the communication destination device in association with the measurement date and time of the measurement result,
The position context acquisition unit specifies a measurement result having a feature whose similarity to the feature represented by the specified model data is a predetermined value or more from the features of the plurality of measurement results received by the communication unit, The acquired position context is corrected so as to explain an environment in which a time difference occurs between the measurement date and time of the specified measurement result and the measurement date and time of the measurement result represented by the sensor information acquired by the sensor information acquisition unit. To
The position context acquisition device according to supplementary note 5, wherein

(付記7)
前記通信手段は、前記通信先の装置に、前記センサ情報取得手段により取得されたセンサ情報で表される測定結果と、当該測定結果の測定日時と、を対応付けて複数送信する、
ことを特徴とする付記6に記載の位置コンテキスト取得装置。
(Appendix 7)
The communication unit transmits a plurality of measurement results represented by the sensor information acquired by the sensor information acquisition unit and the measurement date and time of the measurement results in association with the communication destination device.
Item 7. The position context acquisition device according to appendix 6.

(付記8)
コンピュータを、
環境の特徴を表すモデルデータと、当該環境を説明する位置コンテキストと、を対応付けて複数記憶する記憶手段、
環境を測定するセンサが出力した測定結果の特徴とどの程度類似しているかを表す類似度が所定値以上の特徴を表すモデルデータを特定し、特定したモデルデータに対応付けられた位置コンテキストを取得する位置コンテキスト取得手段、として機能させる、
ことを特徴とする位置コンテキスト取得プログラムを記録したコンピュータ読み取り可能な記録媒体。
(Appendix 8)
Computer
Storage means for storing a plurality of model data representing the features of the environment and positional contexts describing the environment in association with each other;
Identifies model data that represents features whose degree of similarity is greater than or equal to a predetermined value indicating how similar to the features of the measurement results output by the sensor that measures the environment, and obtains the position context associated with the identified model data Function as location context acquisition means,
The computer-readable recording medium which recorded the position context acquisition program characterized by the above-mentioned.

(付記9)
環境を測定するセンサが出力した測定結果を表すセンサ情報を取得するセンサ情報取得ステップと、
環境の特徴を表すモデルデータと、当該環境を説明する位置コンテキストと、を対応付けて複数記憶する記憶手段から、前記センサ情報取得ステップにより取得されたセンサ情報で表される測定結果の特徴とどの程度類似しているかを表す類似度が所定値以上のモデルデータを特定し、当該特定したモデルデータに対応付けられた位置コンテキストを取得する位置コンテキスト取得ステップと、を有する、
ことを特徴とする位置コンテキスト取得方法。
(Appendix 9)
A sensor information acquisition step for acquiring sensor information representing a measurement result output by a sensor for measuring the environment;
What are the characteristics of the measurement results represented by the sensor information acquired by the sensor information acquisition step from the storage means that stores a plurality of model data representing the characteristics of the environment and positional contexts that explain the environment in association with each other? A position context acquisition step of identifying model data having a similarity equal to or greater than a predetermined value indicating whether they are similar to each other and acquiring a position context associated with the identified model data,
A position context acquisition method characterized by that.

本発明は、2011年4月28日に出願された日本国特許出願2011−101969に基づく。本明細書中に日本国特許出願2011−101969の明細書、特許請求の範囲、図面全体を参照として取り込むものとする。   The present invention is based on Japanese Patent Application 2011-101969 filed on April 28, 2011. In this specification, the specification, claims, and entire drawings of Japanese Patent Application No. 2011-101969 are incorporated by reference.

本発明は、センサの存在する位置の環境を説明する位置コンテキストを取得する位置コンテキスト取得装置に適する。   The present invention is suitable for a position context acquisition apparatus that acquires a position context that describes an environment of a position where a sensor exists.

100、101、102、103 位置コンテキスト取得装置
110、111、112 センサ
120、121、122 センサ情報取得部
130、131、132 記憶部
1310、1311、1312 位置コンテキスト類推辞書
140、141、142 制御部
150、151、152 通信部
200 位置コンテキスト取得システム
900 サーバ
100, 101, 102, 103 Position context acquisition device 110, 111, 112 Sensor 120, 121, 122 Sensor information acquisition unit 130, 131, 132 Storage unit 1310, 1311, 1312 Position context analogy dictionary 140, 141, 142 Control unit 150 151, 152 Communication unit 200 Location context acquisition system 900 server

本発明は、位置コンテキスト取得装置、位置コンテキスト取得プログラム、及び位置コンテキスト取得方法に関する。 The present invention positions the context acquisition unit, position context acquisition program, and to position the context acquisition method.

本発明はこのような問題に鑑みてなされたものであり、センサが存在する位置の環境を説明する位置コンテキストを取得できる位置コンテキスト取得装置、位置コンテキスト取得プログラム、及び位置コンテキスト取得方法を提供することを目的とする。 The present invention has been made in view of such a problem, the sensor can acquire the position context describing the location of the environment in which there is located a context acquisition device provides a position context acquisition program, and location context acquisition method For the purpose.

上記目的を達成するため、本発明の第2の観点に係る位置コンテキスト取得プログラムは、
コンピュータを、
環境の特徴を表すモデルデータと、当該環境を説明する位置コンテキストと、を対応付けて複数記憶する記憶手段、
環境を測定するセンサが出力した測定結果の特徴とどの程度類似しているかを表す類似度が所定値以上の特徴を表すモデルデータを特定し、特定したモデルデータに対応付けられた位置コンテキストを取得する位置コンテキスト取得手段、として機能させる、
ことを特徴とする。
To achieve the above object, engagement Ru position context acquisition program to a second aspect of the present invention,
Computer
Storage means for storing a plurality of model data representing the features of the environment and positional contexts describing the environment in association with each other;
Identifies model data that represents features whose degree of similarity is greater than or equal to a predetermined value indicating how similar to the features of the measurement results output by the sensor that measures the environment, and obtains the position context associated with the identified model data Function as location context acquisition means,
It is characterized by that.

本発明に係る位置コンテキスト取得装置、位置コンテキスト取得プログラム、及び位置コンテキスト取得方法によれば、センサが存在する位置の環境を説明する位置コンテキストを取得できる。 Position context acquiring apparatus according to the present invention, according to the position context acquisition program, and location context acquisition method can obtain the location context to explain the position of the environment in which the sensor is present.

Claims (9)

環境の特徴を表すモデルデータと、当該環境を説明する位置コンテキストと、を対応付けて複数記憶する記憶手段と、
環境を測定するセンサが出力した測定結果を表すセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報取得手段により取得されたセンサ情報で表される測定結果の特徴とどの程度類似しているかを表す類似度が所定値以上の特徴を表すモデルデータを特定し、特定したモデルデータに対応付けられた位置コンテキストを取得する位置コンテキスト取得手段と、を備える、
ことを特徴とする位置コンテキスト取得装置。
Storage means for storing a plurality of model data representing the characteristics of the environment and location contexts describing the environment in association with each other;
Sensor information acquisition means for acquiring sensor information representing a measurement result output by a sensor that measures the environment;
Identifies model data representing features whose similarity is equal to or greater than a predetermined value indicating how similar to the feature of the measurement result represented by the sensor information acquired by the sensor information acquisition means, and corresponds to the specified model data A position context acquisition means for acquiring the attached position context;
A position context acquisition device characterized by that.
前記記憶手段は、前記環境を測定するセンサの種別を、前記環境の特徴を表すモデルデータ及び前記環境を説明する位置コンテキストに対応付けてさらに記憶し、
前記位置コンテキスト取得手段は、前記センサ情報で表される測定結果を出力したセンサの種別と、前記センサの種別に対応付けられたモデルデータで表される特徴と前記センサ情報で表される測定結果の特徴との類似度と、に基づいて、位置コンテキストを取得する、
ことを特徴とする請求項1に記載の位置コンテキスト取得装置。
The storage means further stores a type of a sensor for measuring the environment in association with model data representing the characteristics of the environment and a position context describing the environment,
The position context acquisition means includes a sensor type that outputs a measurement result represented by the sensor information, a feature represented by model data associated with the sensor type, and a measurement result represented by the sensor information. Based on the degree of similarity to the feature of
The position context acquisition apparatus according to claim 1.
前記記憶手段は、前記環境を説明する位置コンテキストと、前記環境において動作を停止させるセンサと、を対応付けて複数記憶し、
前記位置コンテキスト取得手段は、前記位置コンテキスト取得手段で取得された位置コンテキストに、前記動作を停止させるセンサが対応付けられている場合に、前記センサの動作を停止する、
ことを特徴とする請求項1又は2に記載の位置コンテキスト取得装置。
The storage means stores a plurality of positional contexts that explain the environment and sensors that stop operation in the environment in association with each other,
The position context acquisition unit stops the operation of the sensor when the position context acquired by the position context acquisition unit is associated with a sensor that stops the operation.
The position context acquisition apparatus according to claim 1, wherein the position context acquisition apparatus is provided.
前記位置コンテキスト取得手段は、前記記憶手段が記憶するモデルデータと位置コンテキストとを更新する、
ことを特徴とする請求項1から3のいずれか一項に記載の位置コンテキスト取得装置。
The position context acquisition means updates the model data and the position context stored in the storage means;
The position context acquisition apparatus according to any one of claims 1 to 3, wherein the position context acquisition apparatus is provided.
通信先の装置から、当該通信先の装置が取得したセンサ情報で表される測定結果を受信する通信手段をさらに備え、
前記位置コンテキスト取得手段は、前記通信手段によって受信された測定結果の特徴と、前記センサ情報取得手段により取得されたセンサ情報で表される測定結果の特徴と、に基づいて、前記取得した位置コンテキストを修正する、
ことを特徴とする請求項1から4のいずれか一項に記載の位置コンテキスト取得装置。
A communication means for receiving a measurement result represented by sensor information acquired by the communication destination device from the communication destination device;
The position context acquisition unit is configured to acquire the position context acquired based on the characteristic of the measurement result received by the communication unit and the characteristic of the measurement result represented by the sensor information acquired by the sensor information acquisition unit. To fix the
The position context acquisition apparatus according to any one of claims 1 to 4, wherein the position context acquisition apparatus is provided.
前記通信手段は、前記通信先の装置から、当該通信先の装置が取得したセンサ情報で表される測定結果に対して、当該測定結果の測定日時を対応付けて複数受信し、
前記位置コンテキスト取得手段は、前記通信手段によって受信された複数の測定結果の特徴から、前記特定したモデルデータで表される特徴との類似度が所定値以上の特徴を有する測定結果を特定し、当該特定した測定結果の測定日時と、前記センサ情報取得手段により取得されたセンサ情報で表される測定結果の測定日時と、の時間差が生じる環境を説明するように、前記取得した位置コンテキストを修正する、
ことを特徴とする請求項5に記載の位置コンテキスト取得装置。
The communication means receives a plurality of measurement results represented by the sensor information acquired by the communication destination device from the communication destination device in association with the measurement date and time of the measurement result,
The position context acquisition unit specifies a measurement result having a feature whose similarity to the feature represented by the specified model data is a predetermined value or more from the features of the plurality of measurement results received by the communication unit, The acquired position context is corrected so as to explain an environment in which a time difference occurs between the measurement date and time of the specified measurement result and the measurement date and time of the measurement result represented by the sensor information acquired by the sensor information acquisition unit. To
The position context acquisition apparatus according to claim 5.
前記通信手段は、前記通信先の装置に、前記センサ情報取得手段により取得されたセンサ情報で表される測定結果と、当該測定結果の測定日時と、を対応付けて複数送信する、
ことを特徴とする請求項6に記載の位置コンテキスト取得装置。
The communication unit transmits a plurality of measurement results represented by the sensor information acquired by the sensor information acquisition unit and the measurement date and time of the measurement results in association with the communication destination device.
The position context acquisition apparatus according to claim 6.
コンピュータを、
環境の特徴を表すモデルデータと、当該環境を説明する位置コンテキストと、を対応付けて複数記憶する記憶手段、
環境を測定するセンサが出力した測定結果の特徴とどの程度類似しているかを表す類似度が所定値以上の特徴を表すモデルデータを特定し、特定したモデルデータに対応付けられた位置コンテキストを取得する位置コンテキスト取得手段、として機能させる、
ことを特徴とする位置コンテキスト取得プログラムを記録したコンピュータ読み取り可能な記録媒体。
Computer
Storage means for storing a plurality of model data representing the features of the environment and positional contexts describing the environment in association with each other;
Identifies model data that represents features whose degree of similarity is greater than or equal to a predetermined value indicating how similar to the features of the measurement results output by the sensor that measures the environment, and obtains the position context associated with the identified model data Function as location context acquisition means,
The computer-readable recording medium which recorded the position context acquisition program characterized by the above-mentioned.
環境を測定するセンサが出力した測定結果を表すセンサ情報を取得するセンサ情報取得ステップと、
環境の特徴を表すモデルデータと、当該環境を説明する位置コンテキストと、を対応付けて複数記憶する記憶手段から、前記センサ情報取得ステップにより取得されたセンサ情報で表される測定結果の特徴とどの程度類似しているかを表す類似度が所定値以上のモデルデータを特定し、当該特定したモデルデータに対応付けられた位置コンテキストを取得する位置コンテキスト取得ステップと、を有する、
ことを特徴とする位置コンテキスト取得方法。
A sensor information acquisition step for acquiring sensor information representing a measurement result output by a sensor for measuring the environment;
What are the characteristics of the measurement results represented by the sensor information acquired by the sensor information acquisition step from the storage means that stores a plurality of model data representing the characteristics of the environment and positional contexts that explain the environment in association with each other? A position context acquisition step of identifying model data having a similarity equal to or greater than a predetermined value indicating whether they are similar to each other and acquiring a position context associated with the identified model data,
A position context acquisition method characterized by that.
JP2013512499A 2011-04-28 2012-04-27 Position context acquisition device, position context acquisition program, and position context acquisition method Pending JPWO2012147970A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011101969 2011-04-28
JP2011101969 2011-04-28
PCT/JP2012/061483 WO2012147970A1 (en) 2011-04-28 2012-04-27 Position context acquisition device, computer-readable recording medium on which position context acquisition program is recorded, and position context acquisition method

Publications (1)

Publication Number Publication Date
JPWO2012147970A1 true JPWO2012147970A1 (en) 2014-07-28

Family

ID=47072481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013512499A Pending JPWO2012147970A1 (en) 2011-04-28 2012-04-27 Position context acquisition device, position context acquisition program, and position context acquisition method

Country Status (2)

Country Link
JP (1) JPWO2012147970A1 (en)
WO (1) WO2012147970A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150199610A1 (en) * 2014-01-10 2015-07-16 Qualcomm Incorporated Determining indoor location using pattern matching of proximal peer-to-peer devices
CN111132000B (en) * 2018-10-15 2023-05-23 上海博泰悦臻网络技术服务有限公司 Method and system for sharing positions
JP7297712B2 (en) * 2020-03-27 2023-06-26 Kddi株式会社 Information processing device, information processing method, and program
JP7352523B2 (en) 2020-07-28 2023-09-28 Kddi株式会社 Information processing device and information processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010011079A (en) * 2008-06-26 2010-01-14 Kyocera Corp Portable electronic device and communication system
JP5176992B2 (en) * 2009-01-30 2013-04-03 日本電気株式会社 Portable terminal device, situation estimation method and program

Also Published As

Publication number Publication date
WO2012147970A1 (en) 2012-11-01

Similar Documents

Publication Publication Date Title
JP6731894B2 (en) Device control method and electronic device
JP6107409B2 (en) Position specifying processing apparatus and position specifying processing program
TWI500003B (en) Positioning and mapping based on virtual landmarks
JP4840395B2 (en) Information processing apparatus, program, information processing method, and information processing system
US20190383620A1 (en) Information processing apparatus, information processing method, and program
US9268006B2 (en) Method and apparatus for providing information based on a location
CN110088833A (en) Audio recognition method and device
JP2016513311A (en) Location-based process monitoring
US20170307393A1 (en) Information processing apparatus, information processing method, and program
CN112788540A (en) Proactive actions on mobile devices using uniquely identifiable and unmarked locations
JP2016507747A (en) Landmark-based positioning by language input
WO2015194081A1 (en) Apparatus, method and program to position building infrastructure through user information
JP2008271465A (en) Portable communication terminal, position specification system, and position specification server
WO2012147970A1 (en) Position context acquisition device, computer-readable recording medium on which position context acquisition program is recorded, and position context acquisition method
WO2015187890A1 (en) Mobile device position uncertainty based on a measure of potential hindrance of an estimated trajectory
WO2014125689A1 (en) Information processing device, information processing method, and program
Pipelidis et al. A novel lightweight particle filter for indoor localization
JP2018206385A (en) Method and device for actively providing information suitable for position and space for user
US9602589B1 (en) Systems and methods for determining room types for regions of a map
EP2629261A1 (en) Multimedia service system and method for operating the same
US10219127B2 (en) Information processing apparatus and information processing method
US20210224066A1 (en) Information processing device and information processing method
EP3678126A1 (en) Information processing device, information processing method, and program
JP6036258B2 (en) Information processing apparatus and information processing program
EP4131266A1 (en) Information processing device, information processing method, and information processing program