JP7025480B2 - Information processing equipment, information processing methods and information processing programs - Google Patents

Information processing equipment, information processing methods and information processing programs Download PDF

Info

Publication number
JP7025480B2
JP7025480B2 JP2020097204A JP2020097204A JP7025480B2 JP 7025480 B2 JP7025480 B2 JP 7025480B2 JP 2020097204 A JP2020097204 A JP 2020097204A JP 2020097204 A JP2020097204 A JP 2020097204A JP 7025480 B2 JP7025480 B2 JP 7025480B2
Authority
JP
Japan
Prior art keywords
information
user
sensor
position information
sensor information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020097204A
Other languages
Japanese (ja)
Other versions
JP2021189383A (en
Inventor
孝太 坪内
潤一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2020097204A priority Critical patent/JP7025480B2/en
Publication of JP2021189383A publication Critical patent/JP2021189383A/en
Application granted granted Critical
Publication of JP7025480B2 publication Critical patent/JP7025480B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method and an information processing program.

所定の空間における音を種別ごとに集積した音統計データベースを構成する技術が開示されている。 A technique for constructing a sound statistical database in which sounds in a predetermined space are collected for each type is disclosed.

特開2016-180791号公報Japanese Unexamined Patent Publication No. 2016-180791

しかしながら、上記の従来技術では、所定の空間に設置した録音装置等を用いた定点観測を想定している。そのため、建物の室内等の特定の場所の環境分析はできても、建物の上下階や隣同士の部屋のように天井や壁等の障害物(遮蔽物等)があり空間的に連続していない箇所において、空間的な連続性や壁等の障害物の存在を認識することはできなかった。 However, in the above-mentioned conventional technique, fixed point observation using a recording device or the like installed in a predetermined space is assumed. Therefore, even if it is possible to analyze the environment of a specific place such as the interior of a building, there are obstacles (shields, etc.) such as ceilings and walls such as the upper and lower floors of the building and rooms next to each other, and they are spatially continuous. It was not possible to recognize the presence of obstacles such as spatial continuity and walls in places where there was no space.

本願は、上記に鑑みてなされたものであって、障害物の有無に関する空間的な連続性を認識することを目的とする。 The present application has been made in view of the above and aims to recognize the spatial continuity of the presence or absence of obstacles.

本願に係る情報処理装置は、環境音、気圧、及び照度を検知するセンサを有するユーザの端末装置が同時期に取得したセンサ情報と位置情報とを取得する取得部と、各ユーザの前記センサ情報と前記位置情報とに基づいて空間的な連続性を判断する判断部と、前記センサ情報と、前記位置情報が示す位置で得られると予想されるセンサ情報とが異なる場合には、前記位置情報を修正する修正部と、を備え、前記修正部は、位置情報に基づいて、前記位置情報が示す位置で過去に取得されたセンサ情報、又は前記位置情報が示す位置から所定範囲内に存在する他のユーザの端末装置から取得したセンサ情報を用いて、前記位置情報が示す位置で得られると予想されるセンサ情報を推定し、前記位置情報が示す位置で得られると予想されるセンサ情報とユーザの端末装置から取得したセンサ情報とが異なる場合、前記位置情報を前記ユーザの端末装置から取得したセンサ情報に応じた位置情報に修正することを特徴とする。 The information processing device according to the present application includes an acquisition unit that acquires sensor information and position information acquired at the same time by a user's terminal device having sensors that detect environmental sounds, pressure pressure, and illuminance, and the sensor information of each user. If the sensor information and the sensor information expected to be obtained at the position indicated by the position information are different from the determination unit that determines the spatial continuity based on the position information and the position information, the position information The correction unit is provided with a correction unit for correcting the above, and the correction unit exists within a predetermined range from the sensor information acquired in the past at the position indicated by the position information or the position indicated by the position information based on the position information. Using the sensor information acquired from the terminal device of another user, the sensor information expected to be obtained at the position indicated by the position information is estimated, and the sensor information expected to be obtained at the position indicated by the position information is used. When the sensor information is different from the sensor information acquired from the user's terminal device, the position information is modified to the position information corresponding to the sensor information acquired from the user's terminal device .

実施形態の一態様によれば、障害物の有無に関する空間的な連続性を認識することができる。 According to one aspect of the embodiment, it is possible to recognize the spatial continuity regarding the presence or absence of obstacles.

図1は、実施形態に係る情報処理方法の概要を示す説明図である。FIG. 1 is an explanatory diagram showing an outline of an information processing method according to an embodiment. 図2は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 2 is a diagram showing a configuration example of an information processing system according to an embodiment. 図3は、実施形態に係る端末装置の構成例を示す図である。FIG. 3 is a diagram showing a configuration example of the terminal device according to the embodiment. 図4は、実施形態に係る情報提供装置の構成例を示す図である。FIG. 4 is a diagram showing a configuration example of the information providing device according to the embodiment. 図5は、ユーザ情報データベースの一例を示す図である。FIG. 5 is a diagram showing an example of a user information database. 図6は、センサ情報データベースの一例を示す図である。FIG. 6 is a diagram showing an example of a sensor information database. 図7は、地図情報データベースの一例を示す図である。FIG. 7 is a diagram showing an example of a map information database. 図8は、実施形態に係る処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure according to the embodiment. 図9は、ハードウェア構成の一例を示す図である。FIG. 9 is a diagram showing an example of a hardware configuration.

以下に、本願に係る情報処理装置、情報処理方法、および情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、および情報処理プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, the information processing apparatus, the information processing method, and the embodiment for implementing the information processing program (hereinafter referred to as “the embodiment”) according to the present application will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the information processing apparatus, information processing method, and information processing program according to the present application. Further, in the following embodiments, the same parts are designated by the same reference numerals, and duplicate explanations are omitted.

〔1.情報処理方法の概要〕
まず、図1を参照し、実施形態に係る情報処理装置が行う情報処理方法の概要について説明する。図1は、実施形態に係る情報処理方法の概要を示す説明図である。なお、図1では、環境情報に基づいて障害物(遮蔽物等)の有無に関する空間的な連続性を判断する場合を例に挙げて説明する。
[1. Overview of information processing method]
First, with reference to FIG. 1, an outline of an information processing method performed by the information processing apparatus according to the embodiment will be described. FIG. 1 is an explanatory diagram showing an outline of an information processing method according to an embodiment. In FIG. 1, a case where the spatial continuity regarding the presence or absence of obstacles (shields, etc.) is determined based on environmental information will be described as an example.

図1に示すように、情報処理システム1は、端末装置10と情報提供装置100とを含む。端末装置10と情報提供装置100とは、それぞれネットワークN(図2参照)を介して有線又は無線で互いに通信可能に接続される。 As shown in FIG. 1, the information processing system 1 includes a terminal device 10 and an information providing device 100. The terminal device 10 and the information providing device 100 are connected to each other via a network N (see FIG. 2) so as to be able to communicate with each other by wire or wirelessly.

端末装置10は、ユーザUにより利用されるスマートフォンやタブレット等のスマートデバイスであり、4G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置10は、液晶ディスプレイ等の画面であって、タッチパネルの機能を有する画面を有し、ユーザから指やスタイラス等によりタップ操作、スライド操作、スクロール操作等、コンテンツ等の表示データに対する各種の操作を受付ける。なお、画面のうち、コンテンツが表示されている領域上で行われた操作を、コンテンツに対する操作としてもよい。また、端末装置10は、スマートデバイスのみならず、デスクトップPC(Personal Computer)やノートPC等の情報処理装置であってもよい。ここでは、スマートフォンを例に説明する。 The terminal device 10 is a smart device such as a smartphone or tablet used by the user U, and can communicate with an arbitrary server device via a wireless communication network such as 4G (Generation) or LTE (Long Term Evolution). It is a portable terminal device that can be used. Further, the terminal device 10 is a screen of a liquid crystal display or the like and has a screen having a touch panel function, and various types of display data such as contents such as tap operation, slide operation, scroll operation, etc. from the user by a finger, a stylus, or the like. Accepts the operation of. The operation performed on the area of the screen on which the content is displayed may be an operation on the content. Further, the terminal device 10 may be not only a smart device but also an information processing device such as a desktop PC (Personal Computer) or a notebook PC. Here, a smartphone will be described as an example.

情報提供装置100は、ユーザUの端末装置10から、端末装置10に搭載された各種センサ(Sensor:検知器)の出力であるセンサ情報(センサデータ)とユーザ情報と位置情報とを取得する情報処理装置であり、サーバ装置やクラウドシステム等により実現される。ここでは、情報提供装置100は、不特定多数の端末装置10のそれぞれから、センサ情報とユーザ情報と位置情報とを取得し、センサ情報とユーザ情報と位置情報とを紐づけてデータベースに記憶する。そして、情報提供装置100は、センサ情報と位置情報とに基づいて、障害物の有無に関する空間的な連続性を判断する。例えば、所定範囲内にいる(位置情報が特定の範囲内にある)ユーザ同士のセンサ情報を比較し、異なると判断した場合には、空間を隔てる壁等の障害物があると判断し、空間的に連続していないと判断する。壁等の障害物は、常設のものに限らず、一時的なものであってもよい。 The information providing device 100 acquires sensor information (sensor data), user information, and position information, which are outputs of various sensors (Sensors) mounted on the terminal device 10, from the terminal device 10 of the user U. It is a processing device and is realized by a server device, a cloud system, or the like. Here, the information providing device 100 acquires sensor information, user information, and position information from each of an unspecified number of terminal devices 10, and stores the sensor information, user information, and position information in a database in association with each other. .. Then, the information providing device 100 determines the spatial continuity regarding the presence or absence of an obstacle based on the sensor information and the position information. For example, the sensor information of users within a predetermined range (position information is within a specific range) is compared, and if it is determined that they are different, it is determined that there is an obstacle such as a wall separating the space, and the space is determined. Judge that it is not continuous. Obstacles such as walls are not limited to permanent ones and may be temporary ones.

なお、ユーザ情報は、ユーザU又は端末装置10を一意に識別するための識別情報等である。情報提供装置100は、ユーザを特定する必要がなく、センサ情報と位置情報のみで十分である場合には、ユーザ情報を取得しなくてもよい。 The user information is identification information or the like for uniquely identifying the user U or the terminal device 10. The information providing device 100 does not need to specify the user, and does not need to acquire the user information when only the sensor information and the position information are sufficient.

〔1-1.データ収集から空間的な連続性の判断までの情報処理方法の概要〕
まず、図1を参照して、データ収集から空間的な連続性の判断までの情報処理方法の概要について説明する。
[1-1. Outline of information processing method from data collection to judgment of spatial continuity]
First, with reference to FIG. 1, an outline of an information processing method from data collection to determination of spatial continuity will be described.

図1に示すように、情報提供装置100は、各地に所在する複数のユーザUの端末装置10のそれぞれからセンサ情報とユーザ情報と位置情報とを受信する(ステップS1)。 As shown in FIG. 1, the information providing device 100 receives sensor information, user information, and position information from each of the terminal devices 10 of a plurality of user U located in various places (step S1).

このとき、端末装置10は移動中であってもよいし、一か所に留まっていてもよい。また、情報提供装置100は、各地を移動する同じ端末装置10からセンサ情報とユーザ情報と位置情報とを受信してもよい。センサ情報は、例えば環境音、気圧、照度等である。情報提供装置100は、センサ情報に含まれる音から環境音を抽出し、その環境音を、音の種別毎に分類(カテゴライズ)する。また、位置情報は、端末装置10がセンサ情報を取得した時点での位置情報である。なお、位置情報も広義ではセンサ情報に該当する。また、センサ情報や位置情報には、端末装置10がそのセンサ情報や位置情報を取得した日時に関する情報も含まれる。 At this time, the terminal device 10 may be moving or may stay in one place. Further, the information providing device 100 may receive sensor information, user information, and position information from the same terminal device 10 that moves around each place. The sensor information is, for example, environmental sound, atmospheric pressure, illuminance, and the like. The information providing device 100 extracts environmental sounds from the sounds included in the sensor information, and classifies (categorizes) the environmental sounds according to the type of sound. Further, the position information is the position information at the time when the terminal device 10 acquires the sensor information. The position information also corresponds to the sensor information in a broad sense. Further, the sensor information and the position information also include information regarding the date and time when the terminal device 10 acquired the sensor information and the position information.

図1の例では、情報提供装置100は、ユーザU1~U5が所持する端末装置10A~10Eのそれぞれからセンサ情報とユーザ情報と位置情報とを受信する。このうち、ユーザU1の端末装置10Aと、ユーザU2の端末装置10Bとは、同じ空間内に存在する。ユーザU3の端末装置10Cと、ユーザU4の端末装置10Dと、ユーザU5の端末装置10Eとは、それぞれ異なる空間に存在する。例えば、ユーザU3の端末装置10Cと、ユーザU4の端末装置10Dと、ユーザU5の端末装置10Eとは、同じ建物内の上下階や隣同士の部屋に存在する。 In the example of FIG. 1, the information providing device 100 receives sensor information, user information, and position information from each of the terminal devices 10A to 10E possessed by the users U1 to U5. Of these, the terminal device 10A of the user U1 and the terminal device 10B of the user U2 exist in the same space. The terminal device 10C of the user U3, the terminal device 10D of the user U4, and the terminal device 10E of the user U5 exist in different spaces. For example, the terminal device 10C of the user U3, the terminal device 10D of the user U4, and the terminal device 10E of the user U5 exist on the upper and lower floors or adjacent rooms in the same building.

建物は、例えばマンション・アパート等の集合住宅や、戸建住宅等である。なお、実際には、建物は、企業等のオフィスビル、店舗等の商業施設、ホテル等の宿泊施設、学校等の教育機関、病院等の医療機関、研究所等の研究機関、工場等の産業プラント、配送センター等の物流拠点等であってもよい。また、大型商業施設(ショッピングセンター/アウトレットモール/地下街)、娯楽施設(テーマパーク/遊園地/遊戯場/動物園/水族館/プール/入浴施設)、文化施設(ホール/劇場/図書館/美術館/博物館)、複合施設、スポーツ施設、寺社仏閣、サービスエリア(SA)やパーキングエリア(PA)、又は鉄道駅や道の駅、空港、港湾(乗船場)等であってもよい。 The building is, for example, an apartment house such as an apartment or an apartment, or a detached house. Actually, the building is an office building such as a company, a commercial facility such as a store, an accommodation facility such as a hotel, an educational institution such as a school, a medical institution such as a hospital, a research institution such as a research institute, and an industry such as a factory. It may be a distribution base such as a plant or a distribution center. In addition, large commercial facilities (shopping centers / outlet malls / underground streets), entertainment facilities (theme parks / amusement parks / amusement parks / zoos / aquariums / pools / bathing facilities), cultural facilities (halls / theaters / libraries / museums / museums) , Complex facilities, sports facilities, temples and shrines, service areas (SA) and parking areas (PA), railway stations, roadside stations, airports, ports (boarding areas), etc.

また、建物は、例えば壁、間仕切り(パーテーション)、床、天井等で仕切られた空間を有する。これらの空間は、例えば建物内の部屋や、倉庫、通路等である。なお、玄関、廊下、風呂、トイレ、車庫等を含めてもよい。すなわち、空間は、人が滞在、出入り又は通過する場所である。空間は、人が居住又は勤務する場所であってもよく、人に利用される物品が保管される場所であってもよい。また、建物において、空間は、1つであってもよく、複数であってもよい。また、空間は、例えば建物内の部屋等に限らず、車両や船舶、航空機等の客室(キャビン)等であってもよい。すなわち、空間は、住宅等の屋内で人が生活する空間に限らず、自動車や高速バス、鉄道、大型客船、飛行機等で乗員・乗客が過ごす空間であってもよい。言い換えれば、空間は、建物や移動体の内部の居住空間であってもよい。 Further, the building has a space partitioned by, for example, a wall, a partition, a floor, a ceiling, or the like. These spaces are, for example, rooms in buildings, warehouses, passageways, and the like. The entrance, corridor, bath, toilet, garage, etc. may be included. That is, a space is a place where a person stays, goes in and out, or passes through. The space may be a place where a person lives or works, or may be a place where goods used by a person are stored. Further, in the building, the space may be one or a plurality. Further, the space is not limited to, for example, a room in a building, but may be a cabin of a vehicle, a ship, an aircraft, or the like. That is, the space is not limited to the space where people live indoors such as a house, but may be a space where passengers and passengers spend time in automobiles, high-speed buses, railroads, large passenger ships, airplanes, and the like. In other words, the space may be a living space inside a building or moving object.

なお、ユーザUの端末装置10は、建物に限らず、観光スポット、公園、水辺、キャンプ場、森林、トンネルや洞穴等の空間に存在していてもよい。すなわち、空間は、屋内に限らず、屋外であってもよい。当然ながら、屋外にも、壁や建物その他の構造物、自然物等の障害物で仕切られた空間は存在する。また、空間は、仕切られた空間に限らず、ある地点を中心とした所定範囲内の空間であってもよい。 The terminal device 10 of the user U is not limited to a building, but may exist in a space such as a tourist spot, a park, a waterside, a campsite, a forest, a tunnel, or a cave. That is, the space is not limited to indoors, but may be outdoors. As a matter of course, even outdoors, there are spaces partitioned by obstacles such as walls, buildings and other structures, and natural objects. Further, the space is not limited to the partitioned space, and may be a space within a predetermined range centered on a certain point.

そして、情報提供装置100は、端末装置10から受信したセンサ情報とユーザ情報と位置情報とを紐づけて記憶する(ステップS2)。 Then, the information providing device 100 stores the sensor information received from the terminal device 10, the user information, and the position information in association with each other (step S2).

例えば、情報提供装置100は、センサ情報とユーザ情報と位置情報とを紐づけてデータベースに蓄積し、所定の期間(例えば、一週間/一か月/半年/1年等)保持する。なお、実際には、期間を定めず、蓄積し続けてもよい。 For example, the information providing device 100 stores sensor information, user information, and location information in a database in association with each other, and holds the information for a predetermined period (for example, one week / one month / six months / one year). In reality, the period may not be set and the accumulation may continue.

なお、情報提供装置100は、環境音を音の種別毎に分類した場合、音の種別毎に、ユーザ情報と位置情報とに紐づけて記憶する。 When the environmental sounds are classified by sound type, the information providing device 100 stores the user information and the position information for each sound type in association with each other.

ここで、情報提供装置100は、位置情報が同じであるにもかかわらず、センサ情報が異なる場合には、いずれかの位置情報の取得に問題(トラブル、エラー等)があったと判断し、いずれかの位置情報を修正する(ステップS3)。 Here, if the sensor information is different even though the position information is the same, the information providing device 100 determines that there is a problem (trouble, error, etc.) in acquiring any of the position information, and eventually The position information is corrected (step S3).

例えば、情報提供装置100は、位置情報に基づいて、その位置で過去に取得されたセンサ情報や、その位置から所定範囲内に存在する他のユーザの端末装置10から取得したセンサ情報を用いて、その位置で得られると予想されるセンサ情報を推定する。すなわち、情報提供装置100は、その位置での位置情報とセンサ情報との組合せに基づいて、多数決により、正確なセンサ情報を推定する。あるいは、情報提供装置100は、位置情報と、その位置で得られると予想されるセンサ情報との組を正解データとしてモデルに学習させる。そして、情報提供装置100は、学習済モデルに対して、位置情報を入力することにより、その位置で得られると予想されるセンサ情報を取得する。すなわち、情報提供装置100は、位置情報を入力した際にモデルが出力したセンサ情報を、推定結果として取得する。そして、情報提供装置100は、その位置で得られると予想されるセンサ情報と異なるセンサ情報に紐づけられた位置情報を、センサ情報に応じて修正する。すなわち、情報提供装置100は、誤っていると推測される位置情報を、センサ情報に応じて修正する。 For example, the information providing device 100 uses the sensor information acquired in the past at the position based on the position information and the sensor information acquired from the terminal device 10 of another user existing within a predetermined range from the position. , Estimate the sensor information expected to be obtained at that position. That is, the information providing device 100 estimates accurate sensor information by majority voting based on the combination of the position information and the sensor information at that position. Alternatively, the information providing device 100 causes the model to learn a set of the position information and the sensor information expected to be obtained at that position as correct answer data. Then, the information providing device 100 acquires the sensor information expected to be obtained at the position by inputting the position information to the trained model. That is, the information providing device 100 acquires the sensor information output by the model when the position information is input as the estimation result. Then, the information providing device 100 corrects the position information associated with the sensor information different from the sensor information expected to be obtained at that position according to the sensor information. That is, the information providing device 100 corrects the position information presumed to be incorrect according to the sensor information.

そして、情報提供装置100は、センサ情報と位置情報とに基づいて、障害物の有無に関する空間的な連続性を判断する(ステップS4)。 Then, the information providing device 100 determines the spatial continuity regarding the presence or absence of an obstacle based on the sensor information and the position information (step S4).

例えば、情報提供装置100は、所定範囲内にいるユーザ同士のセンサ情報を比較し、異なると判断した場合には、空間を隔てる壁等の障害物があると判断し、空間的に連続していないと判断する。具体的には、所定範囲内にいるユーザ同士のセンサ情報に含まれる環境音を比較し、環境音の音量に所定の閾値以上の差分がある場合には、それぞれのユーザの所在する空間の間には壁等の障害物があると判断し、空間的に連続していないと判断する。すなわち、情報提供装置100は、センサ情報と位置情報とに基づいて、障害物の有無に関する空間的な連続性を判断する。 For example, the information providing device 100 compares sensor information between users within a predetermined range, and if it is determined that they are different, it is determined that there is an obstacle such as a wall separating the space, and the information providing device 100 is spatially continuous. Judge that there is no. Specifically, the environmental sounds included in the sensor information of users within a predetermined range are compared, and if there is a difference in the volume of the environmental sounds above a predetermined threshold value, between the spaces where each user is located. It is judged that there is an obstacle such as a wall in the wall, and it is judged that the space is not continuous. That is, the information providing device 100 determines the spatial continuity regarding the presence or absence of an obstacle based on the sensor information and the position information.

このとき、情報提供装置100は、センサ情報と位置情報とに基づいて、壁等の障害物がある位置を推定してもよい。 At this time, the information providing device 100 may estimate the position of an obstacle such as a wall based on the sensor information and the position information.

そして、情報提供装置100は、空間的な連続性に基づいて、それぞれのユーザの所在する空間(対象空間)に関する地図(マップ)を生成する(ステップS5)。 Then, the information providing device 100 generates a map (map) regarding the space (target space) where each user is located based on the spatial continuity (step S5).

例えば、情報提供装置100は、壁等の障害物があると判断した場合、壁等の障害物を含む地図を生成する。このとき、情報提供装置100は、推定された壁等の障害物の位置を基に、特定空間内の地図を生成してもよい。 For example, when the information providing device 100 determines that there is an obstacle such as a wall, the information providing device 100 generates a map including the obstacle such as a wall. At this time, the information providing device 100 may generate a map in a specific space based on the estimated position of an obstacle such as a wall.

そして、情報提供装置100は、生成された地図に基づいて、既存の地図を更新する(ステップS6)。 Then, the information providing device 100 updates the existing map based on the generated map (step S6).

なお、情報提供装置100は、生成された地図に基づいて、地図検索サイト等において提供される地図情報を更新してもよい。 The information providing device 100 may update the map information provided on the map search site or the like based on the generated map.

そして、情報提供装置100は、各ユーザUの端末装置10からの要求に応じて、地図を提供する(ステップS7)。 Then, the information providing device 100 provides a map in response to a request from the terminal device 10 of each user U (step S7).

このとき、情報提供装置100は、生成された地図(壁等の障害物を含む地図)のみ提供してもよい。更新された既存の地図を提供してもよい。 At this time, the information providing device 100 may provide only the generated map (map including obstacles such as walls). An updated existing map may be provided.

〔2.情報処理システムの構成例〕
次に、図2を用いて、実施形態に係る情報提供装置100が含まれる情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システム1の構成例を示す図である。図2に示すように、実施形態に係る情報処理システム1は、端末装置10と情報提供装置100とを含む。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネット等のWAN(Wide Area Network)である。
[2. Information processing system configuration example]
Next, the configuration of the information processing system 1 including the information providing device 100 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing a configuration example of the information processing system 1 according to the embodiment. As shown in FIG. 2, the information processing system 1 according to the embodiment includes a terminal device 10 and an information providing device 100. These various devices are connected so as to be communicable by wire or wirelessly via the network N. The network N is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network) such as the Internet.

また、図2に示す情報処理システム1に含まれる各装置の数や種類は図示したものに限られない。例えば、図2では、図示の簡略化のため、端末装置10を1種類のみ示したが、これはあくまでも例示であって限定されるものではなく、2種類以上であってもよい。 Further, the number and types of each device included in the information processing system 1 shown in FIG. 2 are not limited to those shown in the figure. For example, in FIG. 2, for simplification of the illustration, only one type of terminal device 10 is shown, but this is merely an example and is not limited, and may be two or more types.

端末装置10は、ユーザUによって使用される情報処理装置であって、各種センサを有し、持ち運んだり移動させたりすることが可能な小型の可搬型機器や移動型機器である。例えば、端末装置10は、スマートフォンやタブレット端末等のスマートデバイスである。なお、実際には、フィーチャーフォン、PC(Personal Computer)、PDA(Personal Digital Assistant)、カーナビゲーションシステム、スマートウォッチやヘッドマウントディスプレイ等のウェアラブルデバイス(Wearable Device)、スマートグラス、スマートスピーカ、360度カメラ等であってもよい。 The terminal device 10 is an information processing device used by the user U, and is a small portable device or mobile device having various sensors and capable of being carried or moved. For example, the terminal device 10 is a smart device such as a smartphone or a tablet terminal. Actually, feature phones, PCs (Personal Computers), PDAs (Personal Digital Assistants), car navigation systems, wearable devices such as smart watches and head-mounted displays, smart glasses, smart speakers, and 360-degree cameras. And so on.

また、かかる端末装置10は、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation:第5世代移動通信システム)等の無線通信網や、Bluetooth(登録商標)、無線LAN(Local Area Network)等の近距離無線通信を介してネットワークNに接続し、情報提供装置100と通信することができる。 Further, the terminal device 10 includes a wireless communication network such as LTE (Long Term Evolution), 4G (4th Generation), 5G (5th Generation: 5th generation mobile communication system), Bluetooth (registered trademark), and wireless LAN (Local). It can be connected to the network N via short-range wireless communication such as Area Network) and communicate with the information providing device 100.

情報提供装置100は、例えばPCやサーバ装置、あるいはメインフレーム又はワークステーション等である。なお、情報提供装置100は、クラウドコンピューティングにより実現されてもよい。 The information providing device 100 is, for example, a PC, a server device, a mainframe, a workstation, or the like. The information providing device 100 may be realized by cloud computing.

〔3.端末装置の構成例〕
次に、図3を用いて、端末装置10の構成について説明する。図3は、端末装置10の構成例を示す図である。図3に示すように、端末装置10は、通信部11と、表示部12と、入力部13と、測位部14と、センサ部20と、制御部30(コントローラ)と、記憶部40とを備える。
[3. Configuration example of terminal device]
Next, the configuration of the terminal device 10 will be described with reference to FIG. FIG. 3 is a diagram showing a configuration example of the terminal device 10. As shown in FIG. 3, the terminal device 10 includes a communication unit 11, a display unit 12, an input unit 13, a positioning unit 14, a sensor unit 20, a control unit 30 (controller), and a storage unit 40. Be prepared.

(通信部11)
通信部11は、ネットワークN(図2参照)と有線又は無線で接続され、ネットワークNを介して、情報提供装置100との間で情報の送受信を行う。例えば、通信部11は、NIC(Network Interface Card)やアンテナ等によって実現される。
(Communication unit 11)
The communication unit 11 is connected to the network N (see FIG. 2) by wire or wirelessly, and transmits / receives information to / from the information providing device 100 via the network N. For example, the communication unit 11 is realized by a NIC (Network Interface Card), an antenna, or the like.

(表示部12)
表示部12は、位置情報等の各種情報を表示する表示デバイスである。例えば、表示部12は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescent Display)である。また、表示部12は、タッチパネル式のディスプレイであるが、これに限定されるものではない。
(Display unit 12)
The display unit 12 is a display device that displays various information such as position information. For example, the display unit 12 is a liquid crystal display (LCD) or an organic EL display (Organic Electro-Luminescent Display). Further, the display unit 12 is a touch panel type display, but the display unit 12 is not limited thereto.

(入力部13)
入力部13は、ユーザUから各種操作を受け付ける入力デバイスである。入力部13は、例えば、文字や数字等を入力するためのボタン等を有する。また、表示部12がタッチパネル式のディスプレイである場合、表示部12の一部が入力部13として機能する。なお、入力部13は、ユーザUから音声入力を受け付けるマイク等であってもよい。マイクはワイヤレスであってもよい。
(Input unit 13)
The input unit 13 is an input device that receives various operations from the user U. The input unit 13 has, for example, a button for inputting characters, numbers, and the like. When the display unit 12 is a touch panel type display, a part of the display unit 12 functions as an input unit 13. The input unit 13 may be a microphone or the like that accepts voice input from the user U. The microphone may be wireless.

(測位部14)
測位部14は、GPS(Global Positioning System)の衛星から送出される信号(電波)を受信し、受信した信号に基づいて、自装置である端末装置10の現在位置を示す位置情報(例えば、緯度および経度)を取得する。すなわち、測位部14は、端末装置10の位置を測位する。なお、GPSは、GNSS(Global Navigation Satellite System)の一例に過ぎない。
(Positioning unit 14)
The positioning unit 14 receives a signal (radio wave) transmitted from a GPS (Global Positioning System) satellite, and based on the received signal, position information (for example, latitude) indicating the current position of the terminal device 10 which is its own device. And longitude). That is, the positioning unit 14 positions the terminal device 10. GPS is only an example of GNSS (Global Navigation Satellite System).

また、測位部14は、GPS以外にも、種々の手法により位置を測位することができる。例えば、測位部14は、位置補正等のための補助的な測位手段として、下記のように、端末装置10の様々な通信機能を利用して位置を測位してもよい。 In addition, the positioning unit 14 can position the position by various methods other than GPS. For example, the positioning unit 14 may position the position by using various communication functions of the terminal device 10 as an auxiliary positioning means for position correction or the like as described below.

(Wi-Fi測位)
例えば、測位部14は、端末装置10のWi-Fi(登録商標)通信機能や、各通信会社が備える通信網を利用して、端末装置10の位置を測位する。具体的には、測位部14は、Wi-Fi通信等を行い、付近の基地局やアクセスポイントとの距離を測位することにより、端末装置10の位置を測位する。
(Wi-Fi positioning)
For example, the positioning unit 14 positions the position of the terminal device 10 by using the Wi-Fi (registered trademark) communication function of the terminal device 10 or the communication network provided by each communication company. Specifically, the positioning unit 14 determines the position of the terminal device 10 by performing Wi-Fi communication or the like and measuring the distance to a nearby base station or access point.

(ビーコン測位)
また、測位部14は、端末装置10のBluetooth(登録商標)機能を利用して位置を測位してもよい。例えば、測位部14は、Bluetooth機能によって接続されるビーコン(beacon)発信機と接続することにより、端末装置10の位置を測位する。
(Beacon positioning)
Further, the positioning unit 14 may position the position by using the Bluetooth (registered trademark) function of the terminal device 10. For example, the positioning unit 14 positions the terminal device 10 by connecting to a beacon transmitter connected by the Bluetooth function.

(地磁気測位)
また、測位部14は、予め測定された構造物の地磁気のパターンと、端末装置10が備える地磁気センサとに基づいて、端末装置10の位置を測位する。
(Geomagnetic positioning)
Further, the positioning unit 14 positions the position of the terminal device 10 based on the geomagnetic pattern of the structure measured in advance and the geomagnetic sensor included in the terminal device 10.

(RFID測位)
また、例えば、端末装置10が駅改札や店舗等で使用される非接触型ICカードと同等のRFID(Radio Frequency Identification)タグの機能を備えている場合、もしくはRFIDタグを読み取る機能を備えている場合、端末装置10によって決済等が行われた情報とともに、使用された位置が記録される。測位部14は、かかる情報を取得することで、端末装置10の位置を測位してもよい。また、位置は、端末装置10が備える光学式センサや、赤外線センサ等によって測位されてもよい。
(RFID positioning)
Further, for example, when the terminal device 10 has an RFID (Radio Frequency Identification) tag function equivalent to a contactless IC card used in a station ticket gate, a store, or the like, or has a function of reading an RFID tag. In this case, the used position is recorded together with the information that the payment or the like was made by the terminal device 10. The positioning unit 14 may position the position of the terminal device 10 by acquiring such information. Further, the position may be determined by an optical sensor included in the terminal device 10, an infrared sensor, or the like.

測位部14は、必要に応じて、上述した測位手段の一つ又は組合せを用いて、端末装置10の位置を測位してもよい。 The positioning unit 14 may position the position of the terminal device 10 by using one or a combination of the above-mentioned positioning means, if necessary.

(センサ部20)
センサ部20は、端末装置10に搭載される各種のセンサを含む。図3に示す例では、センサ部20は、加速度センサ21と、ジャイロセンサ22と、気圧センサ23と、気温センサ24と、音センサ25と、光センサ26と、磁気センサ27と、画像センサ(カメラ)28とを備える。
(Sensor unit 20)
The sensor unit 20 includes various sensors mounted on the terminal device 10. In the example shown in FIG. 3, the sensor unit 20 includes an acceleration sensor 21, a gyro sensor 22, a pressure sensor 23, a temperature sensor 24, a sound sensor 25, an optical sensor 26, a magnetic sensor 27, and an image sensor ( It is equipped with a camera) 28.

なお、上記した各センサ21~28は、あくまでも例示であって限定されるものではない。すなわち、センサ部20は、各センサ21~28のうちの一部を備える構成であってもよいし、各センサ21~28に加えてあるいは代えて、湿度センサ等その他のセンサを備えてもよい。 It should be noted that the above-mentioned sensors 21 to 28 are merely examples and are not limited thereto. That is, the sensor unit 20 may be configured to include a part of the sensors 21 to 28, or may include other sensors such as a humidity sensor in addition to or in place of the sensors 21 to 28. ..

加速度センサ21は、例えば、3軸加速度センサであり、端末装置10の移動方向、速度、および、加速度等の端末装置10の物理的な動きを検知する。ジャイロセンサ22は、端末装置10の角速度等に基づいて3軸方向の傾き等の端末装置10の物理的な動きを検知する。気圧センサ23は、例えば端末装置10の周囲の気圧を検知する。 The acceleration sensor 21 is, for example, a 3-axis acceleration sensor, and detects the moving direction, speed, acceleration, and other physical movements of the terminal device 10. The gyro sensor 22 detects the physical movement of the terminal device 10 such as the inclination in the triaxial direction based on the angular velocity of the terminal device 10 and the like. The barometric pressure sensor 23 detects, for example, the barometric pressure around the terminal device 10.

端末装置10は、上記した加速度センサ21やジャイロセンサ22、気圧センサ23等を備えることから、これらの各センサ21~23等を利用した歩行者自律航法(PDR:Pedestrian Dead-Reckoning)等の技術を用いて端末装置10の位置を測位することが可能になる。これにより、GPS等の測位システムでは取得することが困難な屋内での位置情報を取得することが可能になる。 Since the terminal device 10 includes the above-mentioned acceleration sensor 21, gyro sensor 22, pressure sensor 23, etc., technologies such as pedestrian autonomous navigation (PDR) using each of these sensors 21 to 23, etc. It becomes possible to determine the position of the terminal device 10 by using. This makes it possible to acquire indoor position information, which is difficult to acquire with a positioning system such as GPS.

例えば、加速度センサ21を利用した歩数計により、歩数や歩くスピード、歩いた距離を算出することができる。また、ジャイロセンサ22を利用して、ユーザUの進行方向や視線の方向、体の傾きを知ることができる。また、気圧センサ23で検知した気圧から、ユーザUの端末装置10が存在する高度やフロアの階数を知ることもできる。 For example, a pedometer using an acceleration sensor 21 can calculate the number of steps, the walking speed, and the walking distance. Further, the gyro sensor 22 can be used to know the traveling direction of the user U, the direction of the line of sight, and the inclination of the body. Further, from the atmospheric pressure detected by the atmospheric pressure sensor 23, it is possible to know the altitude at which the terminal device 10 of the user U exists and the number of floors of the floor.

気温センサ24は、例えば端末装置10の周囲の気温を検知する。音センサ25は、例えば端末装置10の周囲の音を検知する。光センサ26は、端末装置10の周囲の照度を検知する。磁気センサ27は、例えば端末装置10の周囲の地磁気を検知する。画像センサ28は、端末装置10の周囲の画像を撮像する。 The air temperature sensor 24 detects, for example, the air temperature around the terminal device 10. The sound sensor 25 detects, for example, the sound around the terminal device 10. The optical sensor 26 detects the illuminance around the terminal device 10. The magnetic sensor 27 detects, for example, the geomagnetism around the terminal device 10. The image sensor 28 captures an image of the surroundings of the terminal device 10.

上記した気圧センサ23、気温センサ24、音センサ25、光センサ26および画像センサ28は、それぞれ気圧、気温、音、照度を検知したり、周囲の画像を撮像したりすることで、端末装置10の周囲の環境や状況等を検知することができる。また、端末装置10の周囲の環境や状況等から、端末装置10の位置情報の精度を向上させることが可能になる。 The pressure sensor 23, the temperature sensor 24, the sound sensor 25, the optical sensor 26, and the image sensor 28 described above detect the pressure, temperature, sound, and illuminance, respectively, and capture an image of the surroundings to obtain the terminal device 10. It is possible to detect the surrounding environment and situation of. Further, it is possible to improve the accuracy of the position information of the terminal device 10 from the surrounding environment and the situation of the terminal device 10.

(制御部30)
制御部30は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM、入出力ポート等を有するマイクロコンピュータや各種の回路を含む。また、制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路等のハードウェアで構成されてもよい。制御部30は、送信部31と、受信部32と、処理部33とを備える。
(Control unit 30)
The control unit 30 includes, for example, a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM, an input / output port, and various circuits. Further, the control unit 30 may be configured by hardware such as an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 30 includes a transmission unit 31, a reception unit 32, and a processing unit 33.

(送信部31)
送信部31は、例えば入力部13を用いてユーザUにより入力された各種情報や、端末装置10に搭載された各センサ21~28によって検知された各種情報、測位部14によって測位された端末装置10の位置情報等を、通信部11を介して情報提供装置100へ送信することができる。
(Transmitting unit 31)
The transmission unit 31 is, for example, various information input by the user U using the input unit 13, various information detected by the sensors 21 to 28 mounted on the terminal device 10, and a terminal device positioned by the positioning unit 14. The position information and the like of 10 can be transmitted to the information providing device 100 via the communication unit 11.

(受信部32)
受信部32は、通信部11を介して、情報提供装置100から提供される各種情報や、情報提供装置100からのセンサ情報の要求を受信することができる。
(Receiver 32)
The receiving unit 32 can receive various information provided by the information providing device 100 and a request for sensor information from the information providing device 100 via the communication unit 11.

(処理部33)
処理部33は、表示部12等を含め、端末装置10全体を制御する。例えば、処理部33は、送信部31によって送信される各種情報や、受信部32によって受信された情報提供装置100からの各種情報を表示部12へ出力して表示させることができる。
(Processing unit 33)
The processing unit 33 controls the entire terminal device 10 including the display unit 12 and the like. For example, the processing unit 33 can output various information transmitted by the transmitting unit 31 and various information received by the receiving unit 32 from the information providing device 100 to the display unit 12 for display.

(記憶部40)
記憶部40は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置によって実現される。かかる記憶部40には、各種プログラムや各種データ等が記憶される。
(Memory unit 40)
The storage unit 40 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an optical disk. To. Various programs, various data, and the like are stored in the storage unit 40.

〔4.情報提供装置の構成例〕
次に、図4を用いて、実施形態に係る情報提供装置100の構成について説明する。図4は、実施形態に係る情報提供装置100の構成例を示す図である。図4に示すように、情報提供装置100は、通信部110と、記憶部120と、制御部130とを有する。
[4. Configuration example of information providing device]
Next, the configuration of the information providing device 100 according to the embodiment will be described with reference to FIG. FIG. 4 is a diagram showing a configuration example of the information providing device 100 according to the embodiment. As shown in FIG. 4, the information providing device 100 includes a communication unit 110, a storage unit 120, and a control unit 130.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークN(図2参照)と有線又は無線で接続される。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Further, the communication unit 110 is connected to the network N (see FIG. 2) by wire or wirelessly.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置によって実現される。図4に示すように、記憶部120は、ユーザ情報データベース121と、センサ情報データベース122と、地図情報データベース123とを有する。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. As shown in FIG. 4, the storage unit 120 has a user information database 121, a sensor information database 122, and a map information database 123.

(ユーザ情報データベース121)
ユーザ情報データベース121は、ユーザUに関する各種情報を記憶する。例えば、ユーザ情報データベース121は、ユーザUの属性等の種々の情報を記憶する。図5は、ユーザ情報データベース121の一例を示す図である。図5に示した例では、ユーザ情報データベース121は、「ユーザID(Identifier)」、「年齢」、「性別」、「自宅」、「勤務地」、「端末ID」といった項目を有する。
(User information database 121)
The user information database 121 stores various information about the user U. For example, the user information database 121 stores various information such as the attributes of the user U. FIG. 5 is a diagram showing an example of the user information database 121. In the example shown in FIG. 5, the user information database 121 has items such as "user ID (Identifier)", "age", "gender", "home", "work location", and "terminal ID".

「ユーザID」は、ユーザUを識別するための識別情報を示す。また、「年齢」は、ユーザIDにより識別されるユーザUの年齢を示す。なお、「年齢」は、例えば35歳等、ユーザIDにより識別されるユーザUの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザUの性別を示す。 The "user ID" indicates identification information for identifying the user U. Further, "age" indicates the age of the user U identified by the user ID. The "age" may be a specific age of the user U identified by the user ID, for example, 35 years old. Further, "gender" indicates the gender of the user U identified by the user ID.

また、「自宅」は、ユーザIDにより識別されるユーザUの自宅の位置情報を示す。なお、図5に示す例では、「自宅」は、「LC11」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「自宅」は、地域名や住所であってもよい。 Further, "home" indicates the location information of the home of the user U identified by the user ID. In the example shown in FIG. 5, "home" is illustrated with an abstract reference numeral such as "LC11", but may be latitude / longitude information or the like. Further, for example, "home" may be a region name or an address.

また、「勤務地」は、ユーザIDにより識別されるユーザUの勤務地(学生の場合は学校)の位置情報を示す。なお、図5に示す例では、「勤務地」は、「LC12」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「勤務地」は、地域名や住所であってもよい。 Further, the "work location" indicates the location information of the work location (school in the case of a student) of the user U identified by the user ID. In the example shown in FIG. 5, the “work location” is illustrated with an abstract code such as “LC12”, but may be latitude / longitude information or the like. Further, for example, the "work location" may be a region name or an address.

また、「端末ID」は、ユーザIDにより識別されるユーザUが現在利用している端末装置10(稼働中の端末装置)を識別するための識別情報を示す。なお、「端末ID」は、複数であってもよい。すなわち、1人のユーザUが複数の端末装置を同時に利用してもよい。また、「端末ID」は、端末装置10の種別を示す情報を含んでいてもよい。 Further, the "terminal ID" indicates identification information for identifying the terminal device 10 (operating terminal device) currently used by the user U identified by the user ID. The number of "terminal IDs" may be plural. That is, one user U may use a plurality of terminal devices at the same time. Further, the "terminal ID" may include information indicating the type of the terminal device 10.

例えば、図5に示す例において、ユーザID「U1」により識別されるユーザUの年齢は、「20代」であり、性別は、「男性」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザUは、自宅が「LC11」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザUは、勤務地が「LC12」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザUは端末ID「D1」により識別される端末装置10を利用していることを示す。 For example, in the example shown in FIG. 5, the age of the user U identified by the user ID "U1" is "20's", and the gender is "male". Further, for example, the user U identified by the user ID "U1" indicates that his / her home is "LC11". Further, for example, the user U identified by the user ID "U1" indicates that the work location is "LC12". Further, for example, it is shown that the user U identified by the user ID "U1" is using the terminal device 10 identified by the terminal ID "D1".

ここで、図5に示す例では、「U1」、「LC11」、「LC12」および「D1」といった抽象的な値を用いて図示するが、「U1」、「LC11」、「LC12」および「D1」には、具体的な文字列や数値等の情報が記憶されるものとする。以下、他の情報に関する図においても、抽象的な値を図示する場合がある。 Here, in the example shown in FIG. 5, although illustrated using abstract values such as “U1”, “LC11”, “LC12” and “D1”, “U1”, “LC11”, “LC12” and “ It is assumed that information such as a specific character string or a numerical value is stored in "D1". Hereinafter, abstract values may be illustrated also in figures relating to other information.

なお、ユーザ情報データベース121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報データベース121は、ユーザUの端末装置10に関する各種情報を記憶してもよい。また、ユーザ情報データベース121は、ユーザUのデモグラフィック(人口統計学的属性)、サイコグラフィック(心理学的属性)、ジオグラフィック(地理学的属性)、ベヘイビオラル(行動学的属性)等の属性に関する情報を記憶してもよい。例えば、ユーザ情報データベース121は、氏名、家族構成、職業、職位、収入、資格、居住形態(戸建、マンション等)、車の有無、通学・通勤時間、通学・通勤経路、定期券区間(駅、路線等)、利用頻度の高い駅(自宅・勤務地の最寄駅以外)、行動履歴(利用頻度の高い位置情報)、習い事(場所、時間帯等)、趣味、興味、ライフスタイル等の情報を記憶してもよい。また、ユーザ情報データベース121は、ユーザUが検索エンジン等に入力した検索クエリ(検索キーワード)に関する情報を記憶してもよい。 The user information database 121 is not limited to the above, and various information may be stored depending on the purpose. For example, the user information database 121 may store various information about the terminal device 10 of the user U. Further, the user information database 121 relates to attributes such as demographic (demographic attribute), psychographic (psychological attribute), geographic (geographical attribute), and behavioral (behavioral attribute) of the user U. Information may be stored. For example, the user information database 121 includes name, family structure, occupation, position, income, qualification, living style (detached house, apartment, etc.), presence / absence of a car, commuting time, commuting route, commuter pass section (station). , Lines, etc.), Frequently used stations (other than the nearest station to your home / work location), Behavior history (Frequently used location information), Lessons (location, time zone, etc.), Hobbies, interests, lifestyle, etc. Information may be stored. Further, the user information database 121 may store information about a search query (search keyword) input by the user U to a search engine or the like.

(センサ情報データベース122)
センサ情報データベース122は、センサ出力に関する各種情報を記憶する。例えば、センサ情報データベース122は、ユーザUの端末装置10からのセンサ情報とユーザ情報と位置情報とを紐づけて記憶する。図6は、センサ情報データベース122の一例を示す図である。図6に示した例では、センサ情報データベース122は、「ユーザID」、「取得日時」、「センサ情報」、「位置情報」、「コンテキスト」、「近接位置」、「空間連続性」といった項目を有する。
(Sensor information database 122)
The sensor information database 122 stores various information related to the sensor output. For example, the sensor information database 122 stores the sensor information from the terminal device 10 of the user U, the user information, and the position information in association with each other. FIG. 6 is a diagram showing an example of the sensor information database 122. In the example shown in FIG. 6, the sensor information database 122 has items such as "user ID", "acquisition date and time", "sensor information", "position information", "context", "proximity position", and "spatial continuity". Has.

「ユーザID」は、端末装置10から取得したユーザ情報であって、当該端末装置10を使用するユーザUを識別するための識別情報を示す。なお、「ユーザID」は、当該端末装置10を識別するための識別情報であってもよい。すなわち、「ユーザID」は、「端末ID」であってもよい。 The "user ID" is user information acquired from the terminal device 10, and indicates identification information for identifying the user U who uses the terminal device 10. The "user ID" may be identification information for identifying the terminal device 10. That is, the "user ID" may be a "terminal ID".

「取得日時」は、端末装置10がセンサ情報とユーザ情報と位置情報とを取得した日時を示す。なお、情報提供装置100が端末装置10からリアルタイムでセンサ情報とユーザ情報と位置情報とを取得している場合には、情報提供装置100が端末装置10からセンサ情報とユーザ情報と位置情報とを取得した日時であってもよい。また、「取得日時」は、年月日時分秒に限らず、曜日、昼間/夜間等に関する情報を含んでいてもよい。 The "acquisition date and time" indicates the date and time when the terminal device 10 acquired the sensor information, the user information, and the position information. When the information providing device 100 acquires the sensor information, the user information, and the position information from the terminal device 10 in real time, the information providing device 100 obtains the sensor information, the user information, and the position information from the terminal device 10. It may be the date and time of acquisition. Further, the "acquisition date and time" is not limited to the year, month, day, hour, minute, and second, and may include information regarding the day of the week, daytime / nighttime, and the like.

「センサ情報」は、端末装置10の各種センサの出力(検知結果)を示す。「センサ情報」は、例えば環境音、気圧、照度等である。なお、環境音は、音の種別毎に分類(カテゴライズ)されて記憶される。 "Sensor information" indicates the output (detection result) of various sensors of the terminal device 10. The "sensor information" is, for example, environmental sound, atmospheric pressure, illuminance, and the like. The environmental sounds are classified (categorized) and stored for each sound type.

「位置情報」は、端末装置10がセンサ情報を取得した時点での位置情報を示す。「位置情報」は、例えばGPSやPDR等で測位した位置情報である。 The "position information" indicates the position information at the time when the terminal device 10 acquires the sensor information. The "position information" is, for example, position information measured by GPS, PDR, or the like.

「コンテキスト」は、ユーザUの置かれた環境や状況を示す。「コンテキスト」は、例えばユーザUが川の近くや山の上にいることや、街の中や店内にいることや、スポーツやゲーム等をしていることや、車を運転していることや、日照権の侵害された部屋にいること等を示す。 The "context" indicates the environment or situation in which the user U is placed. "Context" means, for example, that user U is near a river or on a mountain, in a city or in a store, playing sports, playing games, driving a car, or sunshine. Indicates that you are in a room where your rights have been infringed.

「近接位置」は、上記「位置情報」から所定の範囲内(10m以内等)にある他の位置情報を示す。なお、上記「位置情報」から所定の範囲内にある他の位置情報として、複数の位置情報が該当する場合には、「近接位置」は複数であってもよい。 The "proximity position" indicates other position information within a predetermined range (within 10 m, etc.) from the above "position information". If a plurality of position information corresponds to other position information within a predetermined range from the above "position information", the "proximity position" may be plural.

「空間連続性」は、同時刻における上記「センサ情報」と、上記「近接位置」が示す位置情報に紐づけられたセンサ情報とを照合した結果として得られた、空間的な連続性の有無を示す。ここでは、空間的な連続性がある場合は「○(有)」、空間的な連続性がない場合は「×(無)」と示す。また、近接位置に関するデータが存在しない場合や、未だセンサ情報を照合していない場合には「-(未入力)」と示す。但し、これらは一例に過ぎない。なお、「空間連続性」は、上記「近接位置」が複数である場合には、近接位置が示す位置情報ごとに紐づけられていてもよい。 The "spatial continuity" is the presence or absence of spatial continuity obtained as a result of collating the above-mentioned "sensor information" at the same time with the sensor information associated with the position information indicated by the above-mentioned "proximity position". Is shown. Here, when there is spatial continuity, it is indicated as "○ (Yes)", and when there is no spatial continuity, it is indicated as "× (No)". Further, when there is no data regarding the proximity position or when the sensor information has not been collated yet, it is indicated as "-(not input)". However, these are just examples. In addition, when there are a plurality of the above-mentioned "proximity positions", the "spatial continuity" may be associated with each position information indicated by the proximity positions.

例えば、図6に示す例において、ユーザID「U1」により識別されるユーザUの端末装置10は、取得日時「取得日時#A」に、センサ情報「センサ情報#11」と位置情報「位置情報#11」とを取得していることを示す。また、ユーザID「U1」により識別されるユーザUは、コンテキスト「コンテキスト#11」が示す環境や状況に置かれていることを示す。また、取得日時「取得日時#A」におけるセンサ情報「センサ情報#11」と、位置情報「位置情報#11」の周囲に存在する近接位置「位置情報#21」に紐づけられたセンサ情報「センサ情報#21」とを照合した結果、空間を隔てる壁等の障害物は無く、空間的な連続性がある「○(有)」ことを示す。 For example, in the example shown in FIG. 6, the terminal device 10 of the user U identified by the user ID "U1" has the sensor information "sensor information # 11" and the position information "position information" in the acquisition date and time "acquisition date and time # A". It indicates that "# 11" is acquired. Further, the user U identified by the user ID "U1" indicates that he / she is placed in the environment or situation indicated by the context "context # 11". Further, the sensor information "sensor information # 11" in the acquisition date and time "acquisition date and time # A" and the sensor information "position information # 21" existing around the position information "position information # 11" are associated with the proximity position "position information # 21". As a result of collating with "Sensor information # 21", it is shown that there is no obstacle such as a wall separating the space and there is spatial continuity "○ (Yes)".

なお、センサ情報データベース122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、センサ情報データベース122は、センサ情報を保管する有効期限に関する情報を記憶してもよい。また、センサ情報データベース122は、センサ情報の分析結果(環境の評価結果)に関する情報を記憶してもよい。また、センサ情報データベース122は、端末装置10のユーザUが入力したセンサ情報取得時の状況等に関するコメントに関する情報を記憶してもよい。なお、コメントは、テキストでも音声でもよい。 The sensor information database 122 is not limited to the above, and various information may be stored depending on the purpose. For example, the sensor information database 122 may store information regarding an expiration date for storing sensor information. Further, the sensor information database 122 may store information regarding the analysis result (environmental evaluation result) of the sensor information. Further, the sensor information database 122 may store information regarding comments regarding a situation or the like at the time of acquisition of sensor information input by the user U of the terminal device 10. The comment may be text or voice.

(地図情報データベース123)
地図情報データベース123は、地図に関する各種情報を記憶する。図7は、地図情報データベース123の一例を示す図である。図7に示した例では、地図情報データベース123は、「地図ID」、「地図情報」、「変更箇所」、「変更日時」、「障害物」といった項目を有する。
(Map information database 123)
The map information database 123 stores various information related to the map. FIG. 7 is a diagram showing an example of the map information database 123. In the example shown in FIG. 7, the map information database 123 has items such as "map ID", "map information", "change location", "change date and time", and "obstacle".

「地図ID」は、地図を識別するための識別情報を示す。なお、地図は、既存の地図であってもよいし、新たに生成された地図であってもよい。 The "map ID" indicates identification information for identifying the map. The map may be an existing map or a newly generated map.

「地図情報」は、ユーザUからの要求に応じてユーザUに提供される地図情報を示す。ここでは、「地図情報」は、空間的な連続性の有無を確認した場所の地図情報を示す。 “Map information” indicates map information provided to user U in response to a request from user U. Here, "map information" indicates map information of a place where the presence or absence of spatial continuity is confirmed.

「変更箇所」は、地図情報において、生成された地図に基づいて変更された箇所を示す。すなわち、地図情報の変更箇所を示す。なお、変更がない場合には「-(未入力)」と示す。ここで、変更には、新規作成を含む。 "Changed part" indicates a changed part based on the generated map in the map information. That is, the changed part of the map information is shown. If there is no change, it is indicated as "-(not entered)". Here, the change includes new creation.

「変更日時」は、地図情報において、生成された地図に基づいて変更された日時を示す。すなわち、地図情報の変更日時を示す。なお、変更がない場合には「-(未入力)」と示す。 "Change date and time" indicates the date and time changed based on the generated map in the map information. That is, it indicates the date and time when the map information was changed. If there is no change, it is indicated as "-(not entered)".

「障害物」は、空間を隔てる壁等の障害物の有無を示す。ここでは、障害物がある場合は「○(有)」、障害物がない場合は「×(無)」と示す。また、障害物に関するデータが存在しない場合や、障害物の有無が不明である場合には「-(未入力)」と示す。 "Obstacle" indicates the presence or absence of an obstacle such as a wall separating the space. Here, if there is an obstacle, it is indicated as "○ (Yes)", and if there is no obstacle, it is indicated as "× (No)". If there is no data on obstacles or if the presence or absence of obstacles is unknown, it is indicated as "-(not entered)".

例えば、図7に示す例において、地図ID「U1」により識別される地図は、地図情報「地図情報#1」における変更箇所「変更箇所#1」を変更日時「変更日時#1」に障害物「○(有)」で変更していることを示している。 For example, in the example shown in FIG. 7, the map identified by the map ID "U1" has an obstacle in the changed part "changed part # 1" in the map information "map information # 1" at the changed date and time "change date and time # 1". "○ (Yes)" indicates that the change has been made.

なお、地図情報データベース123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、地図情報データベース123は、地図が示す地域名や、地図上の地形や地理に関する情報、その他の詳細情報や補足情報等を記憶してもよい。また、地図情報データベース123は、ユーザUが入力した地図に関するコメント等を記憶してもよい。 The map information database 123 is not limited to the above, and various information may be stored depending on the purpose. For example, the map information database 123 may store the area name indicated by the map, information on the topography and geography on the map, other detailed information, supplementary information, and the like. Further, the map information database 123 may store comments and the like regarding the map input by the user U.

(制御部130)
図4に戻り、説明を続ける。制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、情報提供装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。図4に示す例では、制御部130は、取得部131と、集積部132と、修正部133と、判断部134と、生成部135と、出力部136を有する。
(Control unit 130)
Returning to FIG. 4, the explanation will be continued. The control unit 130 is a controller, and is an information providing device 100 by means of, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like. It is realized by executing various programs (corresponding to an example of an information processing program) stored in the internal storage device of the ASIC with a storage area such as a RAM as a work area. In the example shown in FIG. 4, the control unit 130 includes an acquisition unit 131, an integration unit 132, a correction unit 133, a determination unit 134, a generation unit 135, and an output unit 136.

(取得部131)
取得部131は、通信部110を介して、各地に所在する複数のユーザUの端末装置10のそれぞれからセンサ情報(センサデータ)とユーザ情報と位置情報とを取得する。なお、ユーザを特定する必要がなく、センサ情報と位置情報のみで十分である場合には、ユーザ情報を取得しなくてもよい。
(Acquisition unit 131)
The acquisition unit 131 acquires sensor information (sensor data), user information, and position information from each of the terminal devices 10 of the plurality of users U located in various places via the communication unit 110. If it is not necessary to specify the user and only the sensor information and the position information are sufficient, it is not necessary to acquire the user information.

(集積部132)
集積部132は、端末装置10から受信したセンサ情報とユーザ情報と位置情報とを紐づけてデータベースに集積する。なお、集積部132は、取得部131の一部であってもよい。
(Aggregation unit 132)
The collecting unit 132 collects the sensor information received from the terminal device 10, the user information, and the position information in a database in association with each other. The integrated unit 132 may be a part of the acquisition unit 131.

また、集積部132は、端末装置10から受信したセンサ情報に音が含まれている場合、その音から環境音のみを抽出する。例えば、集積部132は、センサ情報に含まれる音をフィルタリングして環境音のみを抽出してもよい。また、集積部132は、環境音を、音の種別毎に分類(カテゴライズ)する。 Further, when the sensor information received from the terminal device 10 contains sound, the integration unit 132 extracts only the environmental sound from the sound. For example, the integration unit 132 may filter the sounds included in the sensor information to extract only the environmental sounds. Further, the integration unit 132 classifies (categorizes) environmental sounds according to the type of sound.

なお、集積部132は、機械学習に基づくモデルを用いて、端末装置10から受信したセンサ情報に含まれる音から環境音を抽出してもよい。この場合、集積部132は、例えば端末装置10から受信したセンサ情報に含まれる音と、音の種別毎に分類(カテゴライズ)した環境音との組を正解データとしてモデルに学習させてもよい。そして、集積部132は、学習済モデルに対して、センサ情報に含まれる音を入力することにより、音の種別毎に分類した環境音を抽出する。すなわち、集積部132は、センサ情報に含まれる音を入力した際にモデルが出力した環境音を、抽出結果としてもよい。 The integrated unit 132 may extract environmental sounds from the sounds included in the sensor information received from the terminal device 10 by using a model based on machine learning. In this case, the integration unit 132 may train the model as correct answer data, for example, a set of a sound included in the sensor information received from the terminal device 10 and an environmental sound classified (categorized) for each type of sound. Then, the integration unit 132 extracts the environmental sounds classified by the sound type by inputting the sounds included in the sensor information to the trained model. That is, the integration unit 132 may use the environmental sound output by the model when the sound included in the sensor information is input as the extraction result.

なお、モデルは、任意の種別のモデルが採用可能である。例えば、集積部132は、SVM(Support Vector Machine)やDNN(Deep Neural Network)をモデルとして採用してもよい。ここで、DNNは、CNN(Convolutional Neural Network)やRNN(Recurrent Neural Network)であってもよい。また、RNNは、LSTM(Long short-term memory)等であってもよい。すなわち、モデルは、任意の形式のモデルが採用可能である。また、モデルは、例えば、CNNとRNNとを組み合わせたモデル等、複数のモデルを組み合わせることで実現されるモデルであってもよい。 Any type of model can be adopted as the model. For example, the integration unit 132 may adopt an SVM (Support Vector Machine) or a DNN (Deep Neural Network) as a model. Here, the DNN may be a CNN (Convolutional Neural Network) or an RNN (Recurrent Neural Network). Further, the RNN may be an LSTM (Long short-term memory) or the like. That is, any type of model can be adopted as the model. Further, the model may be a model realized by combining a plurality of models, for example, a model in which a CNN and an RNN are combined.

学習は、例えばディープニューラルネットワーク(DNN:Deep Neural Network)を利用したディープラーニング(深層学習)等である。また、データマイニングやその他の機械学習アルゴリズムを利用してもよい。集積部132は、上述した各種の学習手法により、モデルの学習を行う。 The learning is, for example, deep learning (deep learning) using a deep neural network (DNN). Data mining and other machine learning algorithms may also be used. The integration unit 132 learns the model by the various learning methods described above.

(修正部133)
修正部133は、位置情報が同じであるにもかかわらず、センサ情報が異なる場合には、いずれかの位置情報の取得に問題(トラブル、エラー等)があったと判断し、いずれかの位置情報を修正する。例えば、修正部133は、位置情報に基づいて、その位置で過去に取得されたセンサ情報や、その位置から所定範囲内に存在する他のユーザの端末装置10から取得したセンサ情報を用いて、その位置で得られると予想されるセンサ情報を推定する。すなわち、修正部133は、その位置での位置情報とセンサ情報との組合せに基づいて、多数決により、正確なセンサ情報を推定する。あるいは、修正部133は、位置情報と、その位置で得られると予想されるセンサ情報との組を正解データとしてモデルに学習させる。そして、情報提供装置100は、学習済モデルに対して、位置情報を入力することにより、その位置で得られると予想されるセンサ情報を取得する。そして、修正部133は、その位置で得られると予想されるセンサ情報と異なるセンサ情報に紐づけられた位置情報を、センサ情報に応じて修正する。すなわち、修正部133は、センサ情報を推定する推定部としての機能を有していてもよい。
(Correction part 133)
If the sensor information is different even though the position information is the same, the correction unit 133 determines that there is a problem (trouble, error, etc.) in acquiring any of the position information, and determines that there is a problem (trouble, error, etc.) in either position information. To fix. For example, the correction unit 133 uses the sensor information acquired in the past at the position based on the position information and the sensor information acquired from the terminal device 10 of another user existing within a predetermined range from the position. Estimate the sensor information expected to be obtained at that position. That is, the correction unit 133 estimates accurate sensor information by majority voting based on the combination of the position information and the sensor information at that position. Alternatively, the correction unit 133 causes the model to learn a set of the position information and the sensor information expected to be obtained at that position as correct answer data. Then, the information providing device 100 acquires the sensor information expected to be obtained at the position by inputting the position information to the trained model. Then, the correction unit 133 corrects the position information associated with the sensor information different from the sensor information expected to be obtained at that position according to the sensor information. That is, the correction unit 133 may have a function as an estimation unit for estimating sensor information.

(判断部134)
判断部134は、センサ情報と位置情報とに基づいて、障害物の有無に関する空間的な連続性を判断する。例えば、判断部134は、センサ情報と位置情報とに基づいて、所定範囲内にいるユーザ同士のセンサ情報を比較し、異なるか否かを判断する。そして、異なると判断した場合には、空間を隔てる壁等の障害物があると判断し、空間的に連続していないと判断する。
(Judgment unit 134)
The determination unit 134 determines the spatial continuity regarding the presence or absence of an obstacle based on the sensor information and the position information. For example, the determination unit 134 compares the sensor information of users within a predetermined range based on the sensor information and the position information, and determines whether or not they are different. If it is determined that they are different, it is determined that there is an obstacle such as a wall separating the space, and it is determined that the space is not continuous.

具体的には、判断部134は、センサ情報と位置情報とに基づいて、所定範囲内にいるユーザ同士のセンサ情報に含まれる環境音を比較し、環境音の音量に所定の閾値以上の差分がある場合には、それぞれのユーザの所在する空間の間には壁等の障害物があると判断し、空間的に連続していないと判断する。 Specifically, the determination unit 134 compares the environmental sounds included in the sensor information of the users within a predetermined range based on the sensor information and the position information, and makes a difference of the volume of the environmental sound by a predetermined threshold value or more. If there is, it is determined that there is an obstacle such as a wall between the spaces where each user is located, and it is determined that they are not spatially continuous.

このとき、判断部134は、センサ情報と位置情報とに基づいて、壁等の障害物がある位置を推定してもよい。すなわち、判断部134は、壁等の障害物がある位置を推定する推定部としての機能を有していてもよい。 At this time, the determination unit 134 may estimate the position where there is an obstacle such as a wall based on the sensor information and the position information. That is, the determination unit 134 may have a function as an estimation unit for estimating the position of an obstacle such as a wall.

また、判断部134は、環境音、気圧、照度等に基づいて、ユーザUが屋内にいるか屋外にいるかを判断してもよい。 Further, the determination unit 134 may determine whether the user U is indoors or outdoors based on the environmental sound, atmospheric pressure, illuminance, and the like.

(生成部135)
生成部135は、判断部134による判断の結果に基づいて、地図(マップ)を生成する。例えば、生成部135は、壁等の障害物があると判断された場合、壁等の障害物を含む地図(マップ)を生成する。
(Generator 135)
The generation unit 135 generates a map (map) based on the result of the determination by the determination unit 134. For example, when it is determined that there is an obstacle such as a wall, the generation unit 135 generates a map including the obstacle such as a wall.

(出力部136)
出力部136は、通信部110を介して、ユーザUの端末装置10に対して、地図に関する情報を送信する。なお、地図は、既存の地図であってもよいし、新たに生成された地図であってもよい。また、出力部136は、生成部135の一部であってもよい。
(Output unit 136)
The output unit 136 transmits information about the map to the terminal device 10 of the user U via the communication unit 110. The map may be an existing map or a newly generated map. Further, the output unit 136 may be a part of the generation unit 135.

〔5.処理手順〕
次に、図8を用いて実施形態に係る情報提供装置100による処理手順について説明する。図8は、実施形態に係る処理手順を示すフローチャートである。なお、以下に示す処理手順は、情報提供装置100の制御部130によって繰り返し実行される。
[5. Processing procedure]
Next, the processing procedure by the information providing apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing a processing procedure according to the embodiment. The processing procedure shown below is repeatedly executed by the control unit 130 of the information providing device 100.

図8に示すように、情報提供装置100は、各地に所在する複数のユーザUの端末装置10のそれぞれからセンサ情報(センサデータ)とユーザ情報と位置情報とを取得する(ステップS101)。 As shown in FIG. 8, the information providing device 100 acquires sensor information (sensor data), user information, and position information from each of the terminal devices 10 of the plurality of users U located in various places (step S101).

そして、情報提供装置100は、センサ情報とユーザ情報と位置情報とを紐づけてデータベースに記憶する(ステップS102)。 Then, the information providing device 100 associates the sensor information, the user information, and the position information and stores them in the database (step S102).

例えば、情報提供装置100は、センサ情報に含まれる音から環境音を抽出し、抽出された環境音を音の種別毎に分類(カテゴライズ)し、分類された環境音を音の種別毎にユーザ情報と位置情報とに紐づけて記憶する。 For example, the information providing device 100 extracts environmental sounds from the sounds included in the sensor information, classifies (categorizes) the extracted environmental sounds by sound type, and users classify the classified environmental sounds by sound type. It is stored in association with information and location information.

そして、情報提供装置100は、同じ位置でのセンサ情報が一致しているか否かを判定する(ステップS103)。 Then, the information providing device 100 determines whether or not the sensor information at the same position matches (step S103).

情報提供装置100は、同じ位置でのセンサ情報が一致していない場合には(ステップS103;No)、いずれかの位置情報を修正する(ステップS104)。 If the sensor information at the same position does not match (step S103; No), the information providing device 100 corrects any of the position information (step S104).

例えば、情報提供装置100は、位置情報が同じであるにもかかわらず、センサ情報が異なる場合には、いずれかの位置情報の取得に問題(トラブル、エラー等)があったと判断し、いずれかの位置情報を修正する。 For example, if the information providing device 100 determines that there is a problem (trouble, error, etc.) in acquiring any of the position information when the sensor information is different even though the position information is the same, the information providing device 100 determines that there is a problem (trouble, error, etc.). Correct the location information of.

情報提供装置100は、ユーザUの端末装置10から、同じ位置でのセンサ情報が一致している場合(ステップS103;Yes)、又はいずれかの位置情報を修正した場合(ステップS104)には、センサ情報と位置情報とに基づいて、障害物の有無に関する空間的な連続性を判断する(ステップS105)。 When the information providing device 100 matches the sensor information at the same position from the terminal device 10 of the user U (step S103; Yes), or when any of the position information is corrected (step S104), the information providing device 100 determines. Based on the sensor information and the position information, the spatial continuity regarding the presence or absence of an obstacle is determined (step S105).

例えば、情報提供装置100は、センサ情報と位置情報とに基づいて、所定範囲内にいるユーザ同士のセンサ情報を比較し、異なると判断した場合には、空間を隔てる壁等の障害物があると判断し、空間的に連続していないと判断する。 For example, the information providing device 100 compares the sensor information of users within a predetermined range based on the sensor information and the position information, and if it is determined that they are different, there is an obstacle such as a wall separating the space. It is judged that it is not spatially continuous.

そして、情報提供装置100は、空間的な連続性に基づいて、それぞれのユーザの所在する空間(対象空間)に関する地図(マップ)を生成する(ステップS106)。 Then, the information providing device 100 generates a map (map) regarding the space (target space) where each user is located based on the spatial continuity (step S106).

例えば、情報提供装置100は、壁等の障害物があると判断した場合、壁等の障害物を含む地図を生成する。このとき、情報提供装置100は、推定された壁等の障害物の位置を基に、特定空間内の地図を生成してもよい。 For example, when the information providing device 100 determines that there is an obstacle such as a wall, the information providing device 100 generates a map including the obstacle such as a wall. At this time, the information providing device 100 may generate a map in a specific space based on the estimated position of an obstacle such as a wall.

そして、情報提供装置100は、既存の地図を変更する必要があるか否かを判定する(ステップS107)。情報提供装置100は、既存の地図を変更する必要がない場合には(ステップS107;No)、既存の地図を変更しなくてもよい(何もしない)。 Then, the information providing device 100 determines whether or not it is necessary to change the existing map (step S107). When the information providing device 100 does not need to change the existing map (step S107; No), the information providing device 100 does not have to change the existing map (does nothing).

情報提供装置100は、既存の地図を変更する必要がある場合には(ステップS107;Yes)、生成された地図に基づいて、既存の地図を更新する(ステップS108)。 When the information providing device 100 needs to change the existing map (step S107; Yes), the information providing device 100 updates the existing map based on the generated map (step S108).

なお、情報提供装置100は、生成された地図に基づいて、地図検索サイト等において提供される地図情報を更新してもよい。 The information providing device 100 may update the map information provided on the map search site or the like based on the generated map.

そして、情報提供装置100は、各ユーザUの端末装置10からの要求に応じて、地図を提供する(ステップS109)。 Then, the information providing device 100 provides a map in response to a request from the terminal device 10 of each user U (step S109).

このとき、情報提供装置100は、生成された地図(壁等の障害物を含む地図)のみ提供してもよい。更新された既存の地図を提供してもよい。 At this time, the information providing device 100 may provide only the generated map (map including obstacles such as walls). An updated existing map may be provided.

〔6.変形例〕
上述した端末装置10および情報提供装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、実施形態の変形例について説明する。
[6. Modification example]
The terminal device 10 and the information providing device 100 described above may be implemented in various different forms other than the above-described embodiment. Therefore, a modified example of the embodiment will be described below.

上記の実施形態において、端末装置10がユーザUの衣服のポケットや鞄(バッグ、リュック、ポーチ)等の中にしまわれている可能性もある。そこで、端末装置10は、ユーザUにより使用(操作、動画視聴等)されている場合にのみ、センサ情報を情報提供装置100に送信するようにしてもよい。例えば、情報提供装置100は、端末装置10が何らかのアプリケーションプログラム(アプリ)等を起動している場合にはセンサ情報を取得し、何らアプリ等を起動していない場合にはセンサ情報を取得しないようにする。もしくは、情報提供装置100は、端末装置10が非スリープ状態の場合にはセンサ情報を取得し、端末装置10がスリープ状態の場合にはセンサ情報を取得しないようにする。なお、「センサ情報を取得しない」には、「センサ情報を取得しても記憶しない」ことを含む。 In the above embodiment, the terminal device 10 may be stored in a pocket or bag (bag, backpack, pouch) of the user U's clothes. Therefore, the terminal device 10 may transmit the sensor information to the information providing device 100 only when it is used (operation, video viewing, etc.) by the user U. For example, the information providing device 100 acquires sensor information when the terminal device 10 is activating some application program (application) or the like, and does not acquire sensor information when no application or the like is activated. To. Alternatively, the information providing device 100 acquires the sensor information when the terminal device 10 is in the non-sleep state, and does not acquire the sensor information when the terminal device 10 is in the sleep state. In addition, "do not acquire sensor information" includes "do not store even if sensor information is acquired".

また、情報提供装置100は、センサ情報とともに、端末装置10の操作履歴等を取得し、端末装置10がユーザUにより所定時間以上(例えば5分以上)使用されていない場合には、端末装置10がユーザUの衣服のポケットや鞄等の中にしまわれていると推定し、端末装置10からのセンサ情報を取得しないようにしてもよい。 Further, the information providing device 100 acquires the operation history of the terminal device 10 together with the sensor information, and when the terminal device 10 has not been used by the user U for a predetermined time or more (for example, 5 minutes or more), the terminal device 10 It is presumed that the user U is stored in the pocket or bag of the clothes of the user U, and the sensor information from the terminal device 10 may not be acquired.

また、情報提供装置100は、センサ情報(環境音、気圧、照度等)又はその変化等に基づいて、端末装置10がユーザUの衣服のポケットや鞄等の中にしまわれていると推定した場合には、端末装置10からのセンサ情報を取得しないようにしてもよい。 Further, the information providing device 100 presumes that the terminal device 10 is stored in the pocket or bag of the user U's clothes based on the sensor information (environmental sound, pressure, illuminance, etc.) or its change. In that case, the sensor information from the terminal device 10 may not be acquired.

なお、情報提供装置100は、ユーザUの端末装置10内の一機能として実装されてもよい。例えば、情報提供装置100は、ユーザUの端末装置10のうちの一台であってもよい。 The information providing device 100 may be implemented as a function in the terminal device 10 of the user U. For example, the information providing device 100 may be one of the terminal devices 10 of the user U.

〔7.効果〕
上述してきたように、本願に係る情報提供装置100は、取得部131と、判断部134とを備える。取得部131は、センサを有するユーザUの端末装置10が同時期に取得したセンサ情報と位置情報とを取得する。判断部134は、センサ情報と位置情報とに基づいて空間的な連続性を判断する。このように、本願に係る情報提供装置100は、HaaS(Hardware as a Service)を活用して障害物の有無に関する空間的な連続性を認識することができる。
[7. effect〕
As described above, the information providing device 100 according to the present application includes an acquisition unit 131 and a determination unit 134. The acquisition unit 131 acquires the sensor information and the position information acquired by the terminal device 10 of the user U having the sensor at the same time. The determination unit 134 determines spatial continuity based on the sensor information and the position information. As described above, the information providing device 100 according to the present application can recognize the spatial continuity regarding the presence or absence of obstacles by utilizing HaaS (Hardware as a Service).

〔8.ハードウェア構成〕
また、上述した実施形態に係る端末装置10や情報提供装置100は、例えば図9に示すような構成のコンピュータ1000によって実現される。以下、情報提供装置100を例に挙げて説明する。図9は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
[8. Hardware configuration]
Further, the terminal device 10 and the information providing device 100 according to the above-described embodiment are realized by, for example, a computer 1000 having a configuration as shown in FIG. Hereinafter, the information providing device 100 will be described as an example. FIG. 9 is a diagram showing an example of a hardware configuration. The computer 1000 is connected to the output device 1010 and the input device 1020, and the arithmetic unit 1030, the primary storage device 1040, the secondary storage device 1050, the output I / F (Interface) 1060, the input I / F 1070, and the network I / F 1080 are bused. It has a form connected by 1090.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。 The arithmetic unit 1030 operates based on a program stored in the primary storage device 1040 or the secondary storage device 1050, a program read from the input device 1020, or the like, and executes various processes. The arithmetic unit 1030 is realized by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like.

一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USBメモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。 The primary storage device 1040 is a memory device such as a RAM (Random Access Memory) that temporarily stores data used by the arithmetic unit 1030 for various calculations. Further, the secondary storage device 1050 is a storage device in which data used by the calculation device 1030 for various calculations and various databases are registered, and is a ROM (Read Only Memory), an HDD (Hard Disk Drive), and an SSD (Solid). State Drive), flash memory, etc. The secondary storage device 1050 may be an internal storage or an external storage. Further, the secondary storage device 1050 may be a removable storage medium such as a USB memory or an SD (Secure Digital) memory card. Further, the secondary storage device 1050 may be a cloud storage (online storage), NAS (Network Attached Storage), a file server, or the like.

出力I/F1060は、ディスプレイ、プロジェクタ、およびプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェイスであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェイスであり、例えば、USB等により実現される。 The output I / F 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various information such as a display, a projector, and a printer. For example, USB (Universal Serial Bus) or DVI. (Digital Visual Interface), HDMI (Registered Trademark) (High Definition Multimedia Interface), etc. Further, the input I / F 1070 is an interface for receiving information from various input devices 1020 such as a mouse, a keyboard, a keypad, a button, a scanner, and the like, and is realized by, for example, USB.

また、出力I/F1060および入力I/F1070はそれぞれ出力装置1010および入力装置1020と無線で接続してもよい。すなわち、出力装置1010および入力装置1020は、ワイヤレス機器であってもよい。 Further, the output I / F 1060 and the input I / F 1070 may be wirelessly connected to the output device 1010 and the input device 1020, respectively. That is, the output device 1010 and the input device 1020 may be wireless devices.

また、出力装置1010および入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060および入力I/F1070も、入出力I/Fとして一体化していてもよい。 Further, the output device 1010 and the input device 1020 may be integrated like a touch panel. In this case, the output I / F 1060 and the input I / F 1070 may also be integrated as input / output I / F.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。 The input device 1020 is, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), a PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), or a tape. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like.

ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 The network I / F 1080 receives data from another device via the network N and sends it to the arithmetic unit 1030, and also transmits the data generated by the arithmetic unit 1030 to the other device via the network N.

演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 The arithmetic unit 1030 controls the output device 1010 and the input device 1020 via the output I / F 1060 and the input I / F 1070. For example, the arithmetic unit 1030 loads a program from the input device 1020 or the secondary storage device 1050 onto the primary storage device 1040, and executes the loaded program.

例えば、コンピュータ1000が情報提供装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。 For example, when the computer 1000 functions as the information providing device 100, the arithmetic unit 1030 of the computer 1000 realizes the function of the control unit 130 by executing the program loaded on the primary storage device 1040. Further, the arithmetic unit 1030 of the computer 1000 may load a program acquired from another device via the network I / F 1080 onto the primary storage device 1040 and execute the loaded program. Further, the arithmetic unit 1030 of the computer 1000 may cooperate with other devices via the network I / F 1080 to call the functions and data of the program from other programs of the other devices and use them.

〔9.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[9. others〕
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. Further, the above-mentioned components include those that can be easily assumed by those skilled in the art, those that are substantially the same, that is, those in a so-called equal range. Furthermore, the components described above can be combined as appropriate. Further, various omissions, replacements or changes of the components can be made without departing from the gist of the above-described embodiment.

また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above-described embodiment, all or a part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed can be performed. All or part of it can be done automatically by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

例えば、上述した情報提供装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現する等、構成は柔軟に変更できる。 For example, the above-mentioned information providing device 100 may be realized by a plurality of server computers, or may be realized by calling an external platform or the like by API (Application Programming Interface), network computing, or the like depending on the function. Can be changed flexibly.

また、上述してきた実施形態および変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not conflict with each other.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」等に読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit" and the like. For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.

1 情報処理システム
10 端末装置
14 測位部
20 センサ部
100 情報提供装置
110 通信部
120 記憶部
121 ユーザ情報データベース
122 センサ情報データベース
123 地図情報データベース
130 制御部
131 取得部
132 集積部
133 修正部
134 判断部
135 生成部
136 出力部
1 Information processing system 10 Terminal equipment 14 Positioning unit 20 Sensor unit 100 Information provision device 110 Communication unit 120 Storage unit 121 User information database 122 Sensor information database 123 Map information database 130 Control unit 131 Acquisition unit 132 Integration unit 133 Correction unit 134 Judgment unit 135 Generator 136 Output

Claims (10)

環境音、気圧、及び照度を検知するセンサを有するユーザの端末装置が同時期に取得したセンサ情報と位置情報とを取得する取得部と、
各ユーザの前記センサ情報と前記位置情報とに基づいて空間的な連続性を判断する判断部と、
前記センサ情報と、前記位置情報が示す位置で得られると予想されるセンサ情報とが異なる場合には、前記位置情報を修正する修正部と、
を備え
前記修正部は、
位置情報に基づいて、前記位置情報が示す位置で過去に取得されたセンサ情報、又は前記位置情報が示す位置から所定範囲内に存在する他のユーザの端末装置から取得したセンサ情報を用いて、前記位置情報が示す位置で得られると予想されるセンサ情報を推定し、
前記位置情報が示す位置で得られると予想されるセンサ情報とユーザの端末装置から取得したセンサ情報とが異なる場合、前記位置情報を前記ユーザの端末装置から取得したセンサ情報に応じた位置情報に修正する
ことを特徴とする情報処理装置。
An acquisition unit that acquires sensor information and position information acquired at the same time by a user's terminal device that has sensors that detect environmental sound, atmospheric pressure, and illuminance .
A judgment unit that determines spatial continuity based on the sensor information and the position information of each user ,
When the sensor information and the sensor information expected to be obtained at the position indicated by the position information are different, a correction unit for correcting the position information and a correction unit.
Equipped with
The correction part
Based on the position information, the sensor information acquired in the past at the position indicated by the position information or the sensor information acquired from the terminal device of another user existing within a predetermined range from the position indicated by the position information is used. Estimate the sensor information expected to be obtained at the position indicated by the position information, and
When the sensor information expected to be obtained at the position indicated by the position information and the sensor information acquired from the user's terminal device are different, the position information is converted into the position information according to the sensor information acquired from the user's terminal device. To fix
An information processing device characterized by this.
前記判断部は、前記センサ情報と前記位置情報とに基づいて、空間を隔てる障害物の有無を判断する
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the determination unit determines the presence or absence of an obstacle that separates a space based on the sensor information and the position information.
前記判断部は、前記センサ情報と前記位置情報とに基づいて、空間を隔てる前記障害物の位置を推定する
ことを特徴とする請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the determination unit estimates the position of the obstacle that separates the space based on the sensor information and the position information.
空間的な連続性に基づいて、前記ユーザの所在する空間に関する地図を生成する生成部と、
をさらに備えることを特徴とする請求項1~3のうちいずれか1つに記載の情報処理装置。
A generator that generates a map of the space where the user is located based on spatial continuity,
The information processing apparatus according to any one of claims 1 to 3, further comprising.
前記生成部は、生成された地図に基づいて、既存の地図を更新する
ことを特徴とする請求項4に記載の情報処理装置。
The information processing apparatus according to claim 4, wherein the generation unit updates an existing map based on the generated map.
前記ユーザからの要求に応じて、前記地図を提供する提供部と、
をさらに備えることを特徴とする請求項4又は請求項5に記載の情報処理装置。
A provider that provides the map in response to a request from the user,
The information processing apparatus according to claim 4 or 5, further comprising.
前記修正部は、各ユーザの前記位置情報が同じであるにもかかわらず、前記センサ情報が異なる場合には、各ユーザのうちいずれかの位置情報を修正す
とを特徴とする請求項1~6のうちいずれか1つに記載の情報処理装置。
If the sensor information is different even though the position information of each user is the same, the correction unit corrects the position information of any of the users.
The information processing apparatus according to any one of claims 1 to 6.
前記センサ情報に含まれる音から環境音を抽出する抽出部と、
をさらに備え、
前記判断部は、所定範囲内にいるユーザ同士の前記環境音を比較し、前記環境音の音量に所定の閾値以上の差分がある場合には、空間的に連続していないと判断する
ことを特徴とする請求項1~7のうちいずれか1つに記載の情報処理装置。
An extraction unit that extracts environmental sounds from the sounds included in the sensor information,
Further prepare
The determination unit compares the environmental sounds of users within a predetermined range, and if there is a difference in the volume of the environmental sounds by a predetermined threshold value or more, it determines that they are not spatially continuous. The information processing apparatus according to any one of claims 1 to 7.
情報処理装置が実行する情報処理方法であって、
環境音、気圧、及び照度を検知するセンサを有するユーザの端末装置が同時期に取得したセンサ情報と位置情報とを取得する取得工程と、
各ユーザの前記センサ情報と前記位置情報とに基づいて空間的な連続性を判断する判断工程と、
前記センサ情報と、前記位置情報が示す位置で得られると予想されるセンサ情報とが異なる場合には、前記位置情報を修正する修正工程と、
を含み、
前記修正工程では、
位置情報に基づいて、前記位置情報が示す位置で過去に取得されたセンサ情報、又は前記位置情報が示す位置から所定範囲内に存在する他のユーザの端末装置から取得したセンサ情報を用いて、前記位置情報が示す位置で得られると予想されるセンサ情報を推定し、
前記位置情報が示す位置で得られると予想されるセンサ情報とユーザの端末装置から取得したセンサ情報とが異なる場合、前記位置情報を前記ユーザの端末装置から取得したセンサ情報に応じた位置情報に修正する
ことを特徴とする情報処理方法。
It is an information processing method executed by an information processing device.
An acquisition process for acquiring sensor information and position information acquired at the same time by a user's terminal device having sensors for detecting environmental sound, atmospheric pressure, and illuminance .
A judgment process for determining spatial continuity based on the sensor information and the position information of each user, and
When the sensor information and the sensor information expected to be obtained at the position indicated by the position information are different, a correction step of correcting the position information and a correction step of correcting the position information.
Including
In the correction step,
Based on the position information, the sensor information acquired in the past at the position indicated by the position information or the sensor information acquired from the terminal device of another user existing within a predetermined range from the position indicated by the position information is used. Estimate the sensor information expected to be obtained at the position indicated by the position information, and
When the sensor information expected to be obtained at the position indicated by the position information and the sensor information acquired from the user's terminal device are different, the position information is converted into the position information according to the sensor information acquired from the user's terminal device. To fix
An information processing method characterized by that.
環境音、気圧、及び照度を検知するセンサを有するユーザの端末装置が同時期に取得したセンサ情報と位置情報とを取得する取得手順と、
各ユーザの前記センサ情報と前記位置情報とに基づいて空間的な連続性を判断する判断手順と、
前記センサ情報と、前記位置情報が示す位置で得られると予想されるセンサ情報とが異なる場合には、前記位置情報を修正する修正手順と、
をコンピュータに実行させ
前記修正手順では、
位置情報に基づいて、前記位置情報が示す位置で過去に取得されたセンサ情報、又は前記位置情報が示す位置から所定範囲内に存在する他のユーザの端末装置から取得したセンサ情報を用いて、前記位置情報が示す位置で得られると予想されるセンサ情報を推定し、
前記位置情報が示す位置で得られると予想されるセンサ情報とユーザの端末装置から取得したセンサ情報とが異なる場合、前記位置情報を前記ユーザの端末装置から取得したセンサ情報に応じた位置情報に修正する
ことを特徴とする情報処理プログラム。
An acquisition procedure for acquiring sensor information and position information acquired at the same time by a user's terminal device having sensors for detecting environmental sound, atmospheric pressure, and illuminance, and
A judgment procedure for determining spatial continuity based on the sensor information and the position information of each user, and
When the sensor information and the sensor information expected to be obtained at the position indicated by the position information are different, a correction procedure for correcting the position information and a correction procedure for correcting the position information.
Let the computer run
In the above correction procedure,
Based on the position information, the sensor information acquired in the past at the position indicated by the position information or the sensor information acquired from the terminal device of another user existing within a predetermined range from the position indicated by the position information is used. Estimate the sensor information expected to be obtained at the position indicated by the position information, and
When the sensor information expected to be obtained at the position indicated by the position information and the sensor information acquired from the user's terminal device are different, the position information is converted into the position information according to the sensor information acquired from the user's terminal device. To fix
An information processing program characterized by this .
JP2020097204A 2020-06-03 2020-06-03 Information processing equipment, information processing methods and information processing programs Active JP7025480B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020097204A JP7025480B2 (en) 2020-06-03 2020-06-03 Information processing equipment, information processing methods and information processing programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020097204A JP7025480B2 (en) 2020-06-03 2020-06-03 Information processing equipment, information processing methods and information processing programs

Publications (2)

Publication Number Publication Date
JP2021189383A JP2021189383A (en) 2021-12-13
JP7025480B2 true JP7025480B2 (en) 2022-02-24

Family

ID=78849348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020097204A Active JP7025480B2 (en) 2020-06-03 2020-06-03 Information processing equipment, information processing methods and information processing programs

Country Status (1)

Country Link
JP (1) JP7025480B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012184926A (en) 2011-03-03 2012-09-27 Transvirtual Inc Continuity detection method and apparatus
JP2012216167A (en) 2011-03-28 2012-11-08 Fujitsu Ltd Environment map generating device and program
JP2015040783A (en) 2013-08-22 2015-03-02 ソニー株式会社 Information processing device, information processing method, and recording medium
JP2019110858A (en) 2017-12-25 2019-07-11 パナソニックIpマネジメント株式会社 Pathogen detection system, pathogen detection method, pathogen detector and controller
WO2019188165A1 (en) 2018-03-28 2019-10-03 日立オートモティブシステムズ株式会社 Map presentation device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012184926A (en) 2011-03-03 2012-09-27 Transvirtual Inc Continuity detection method and apparatus
JP2012216167A (en) 2011-03-28 2012-11-08 Fujitsu Ltd Environment map generating device and program
JP2015040783A (en) 2013-08-22 2015-03-02 ソニー株式会社 Information processing device, information processing method, and recording medium
JP2019110858A (en) 2017-12-25 2019-07-11 パナソニックIpマネジメント株式会社 Pathogen detection system, pathogen detection method, pathogen detector and controller
WO2019188165A1 (en) 2018-03-28 2019-10-03 日立オートモティブシステムズ株式会社 Map presentation device

Also Published As

Publication number Publication date
JP2021189383A (en) 2021-12-13

Similar Documents

Publication Publication Date Title
JP7025480B2 (en) Information processing equipment, information processing methods and information processing programs
JP6976384B1 (en) Information processing equipment, information processing methods and information processing programs
JP7041700B2 (en) Information processing equipment, information processing methods and information processing programs
JP7098689B2 (en) Information processing equipment, information processing methods and information processing programs
JP7155196B2 (en) Information processing device, information processing method and information processing program
JP7155195B2 (en) Information processing device, information processing method and information processing program
JP7354165B2 (en) Information processing device, information processing method, and information processing program
JP7354166B2 (en) Information processing device, information processing method, and information processing program
JP7337123B2 (en) Information processing device, information processing method and information processing program
JP7388744B2 (en) Information processing device, information processing method, and information processing program
JP7095040B2 (en) Information processing equipment, information processing methods and information processing programs
JP7317901B2 (en) Information processing device, information processing method and information processing program
JP7459021B2 (en) Information processing device, information processing method, and information processing program
JP7304925B2 (en) Information processing device, information processing method and information processing program
JP7244458B2 (en) Information processing device, information processing method and information processing program
JP7012781B2 (en) Information processing equipment, information processing methods and information processing programs
JP2024043612A (en) Information processing device, information processing method, and information processing program
JP7354211B2 (en) Information processing device, information processing method, and information processing program
JP7372210B2 (en) Information processing device, information processing method, and information processing program
JP2024043661A (en) Information processing device, information processing method, and information processing program
JP2023000787A (en) Information processing device, information processing method, and information processing program
JP2023059465A (en) Information processing device, information processing method and information processing program
JP2023073128A (en) Information processing device, information processing method, and information processing program
Manning et al. An Android Based Navigation Application for A Tertiary Campus
Vaupel DESIGN AND DEVELOPMENT OF A MULTI-SENSOR INDOOR NAVIGATION SYSTEM TO SUPPORT STUDENTS INSIDE CAMPUS BUILDINGS

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210719

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220210

R150 Certificate of patent or registration of utility model

Ref document number: 7025480

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350