JP2005275960A - Device and system for specifying object, and popularity vote system - Google Patents

Device and system for specifying object, and popularity vote system Download PDF

Info

Publication number
JP2005275960A
JP2005275960A JP2004090194A JP2004090194A JP2005275960A JP 2005275960 A JP2005275960 A JP 2005275960A JP 2004090194 A JP2004090194 A JP 2004090194A JP 2004090194 A JP2004090194 A JP 2004090194A JP 2005275960 A JP2005275960 A JP 2005275960A
Authority
JP
Japan
Prior art keywords
information
object information
inference
user
popularity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004090194A
Other languages
Japanese (ja)
Inventor
Hiroaki Suzuki
博明 鈴木
Kiyoharu Muramatsu
喜世治 村松
Satoru Makino
悟 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2004090194A priority Critical patent/JP2005275960A/en
Publication of JP2005275960A publication Critical patent/JP2005275960A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To raise reliability in an inference result by generating object information which indicates what kind of feeling and sense a user has toward which one of objects, and to enlarge the usage range. <P>SOLUTION: In an object specifying device 1, a temperature sensor 182 for measuring the body temperature of the user, a sweating sensor 183 for measuring sweating, and a heart rate sensor 184 for measuring a heart rate are connected to an intension transmission switch 152, which is arbitrarily turned on/off by the user, via an input detecting part 180. An RFID tag reader 160 acquires an object ID from an RFID tag which is given to an outer display article. Inference data being the inference result based on the measurement values from the respective sensors and switching information from the intension transmission switch 152 is generated. Then the object information which includes the inference data and the object ID is generated. The object information is analyzed so as to generate analysis information which indicates the popularity of each display article and the taste of the user. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、利用者の意識や感情などを推論する装置に関し、詳細には、利用者がどの対象物に対してどのような感情や意識などを生じたかを示す対象物情報を作成する対象物特定装置、対象物特定システム及び人気投票システムに関する。   The present invention relates to a device for inferring user's consciousness, emotion, and the like, and more specifically, an object for creating object information indicating what kind of emotion, consciousness, etc. a user has produced for which object The present invention relates to an identification device, an object identification system, and a popularity voting system.

従来、利用者の生理情報や生体情報などを計測するセンサを設けて、このセンサから計測される各種情報に基づいて、利用者の意識や感情などを推論する装置が各種提案されている。   2. Description of the Related Art Conventionally, various devices have been proposed that provide a sensor for measuring a user's physiological information, biological information, and the like, and infer the user's consciousness and emotion based on various information measured by the sensor.

そして、心拍や皮膚インピーダンスなどの生理情報を計測するセンサに加えて、利用者の姿勢や運動状態を検出するためのCCDカメラや、利用者が発する音声を検出するためのマイクロホンを設けて、利用者の意識レベルが特定の状態にあるか否かを、より正確に検出することができる意識レベル検出装置が知られている。さらに、利用者が意図的にみずからの心理状態をより正確に入力することができるゲーム制御装置が知られている(例えば、特許文献1参照。)。
特開平10−57355号公報
In addition to sensors that measure physiological information such as heart rate and skin impedance, a CCD camera for detecting the user's posture and motion state and a microphone for detecting the voice emitted by the user are provided. There is known a consciousness level detection device that can detect more accurately whether or not a person's consciousness level is in a specific state. Furthermore, a game control device is known in which a user can intentionally input a psychological state intentionally (see, for example, Patent Document 1).
Japanese Patent Laid-Open No. 10-57355

ところで、利用者の関心が特定の対象物に向けられている場合、利用者の感情や意識などはその対象物によって大きく左右されることが知られている。例えば、利用者が美術館や博物館などを見学する場合、特定の展示品に対しては強く感動するものの、その他の展示品にはほとんど感動しない場合がある。また、ある展示品に対しては「悲しみ」の感情が生じる一方、別の展示品には「喜び」の感情が生じるなど、対象物によって発せられる利用者の感情や意識が異なることがある。そのため、利用者が何に対して「感動」や「興奮」といった感情や意識などを生じたかが不明であると、利用者の感情や意識を推論しても、その推論結果を活用することが難しいという問題があった。   By the way, when the user's interest is directed to a specific object, it is known that the user's emotions and consciousness are greatly influenced by the object. For example, when a user visits an art museum or a museum, there are cases in which a particular exhibit is strongly impressed, but other exhibits are hardly impressed. In addition, a feeling of “sadness” may be generated for one exhibit, while a feeling of “joy” may be generated for another exhibit. For this reason, if it is unclear what the user has caused emotion or consciousness such as “impression” or “excitement”, it is difficult to use the inference result even if the user's emotion or consciousness is inferred. There was a problem.

特許文献1に記載の発明では、ゲームについての利用者の意識レベルを検出しているが、利用者の関心が向けられる対象物がゲームに限定されており、他の対象物について利用者の意識レベル等を推論することはできなかった。   In the invention described in Patent Document 1, the user's level of consciousness about the game is detected, but the object to which the user's interest is directed is limited to the game, and the user's consciousness about other objects. I could not infer levels.

本発明は上記課題を解決するためになされたものであり、利用者がどの対象物に対してどのような感情や意識などを生じたかを示す対象物情報を作成することで、推論結果の信頼性を高め、かつその利用範囲を広げることができる対象物特定装置、対象物特定システム及び人気投票システムを提供することを目的とする。   The present invention has been made in order to solve the above-mentioned problems. By creating object information indicating what kind of emotion or consciousness the user has produced for which object, the inference result can be trusted. An object of the present invention is to provide an object identification device, an object identification system, and a popularity voting system that can enhance the performance and expand the range of use.

上記目的を達成するために、請求項1に係る発明の対象物特定装置は、対象物を検知して、該対象物の識別データを取得する識別データ取得手段と、少なくとも1個以上のセンサから、計測値を取得する計測値取得手段と、前記計測値取得手段により取得された前記計測値に基づいて、該計測値とは異なる指標値である推論データを作成する推論データ作成手段と、前記識別データ取得手段により取得された前記識別データと、前記推論データ作成手段により作成された前記推論データとを含む対象物情報を作成する対象物情報作成手段と、前記対象物作成手段により作成された前記対象物情報を出力する対象物情報出力手段とを備えている。   In order to achieve the above object, an object identification device according to claim 1 comprises an identification data acquisition means for detecting an object and acquiring identification data of the object, and at least one sensor. A measurement value acquisition unit that acquires a measurement value; an inference data generation unit that generates inference data that is an index value different from the measurement value based on the measurement value acquired by the measurement value acquisition unit; Object information creation means for creating object information including the identification data acquired by the identification data acquisition means and the inference data created by the inference data creation means, and created by the object creation means Object information output means for outputting the object information.

また、請求項2に係る発明の対象物特定装置は、請求項1に記載の発明の構成に加え、前記識別データ取得手段は、前記対象物又は対象物近傍に付与される被記録媒体から前記識別データを取得することを特徴とする。   In addition to the configuration of the invention described in claim 1, the object specifying device of the invention according to claim 2 is characterized in that the identification data acquisition unit is configured to read the object from a recording medium attached to the object or the vicinity of the object. The identification data is obtained.

また、請求項3に係る発明の対象物特定装置は、請求項2に記載の発明の構成に加え、前記識別データ取得手段は、前記被記録媒体であるRFIDタグから、前記識別データを読取るRFIDタグリーダであることを特徴とする。   In addition to the configuration of the invention described in claim 2, the object specifying device of the invention according to claim 3 is an RFID that reads the identification data from an RFID tag that is the recording medium. It is a tag reader.

また、請求項4に係る発明の対象物特定装置は、請求項1乃至3のいずれかに記載の発明の構成に加え、利用者自身が操作して利用者情報を入力するための利用者情報入力手段を備え、前記推論データ作成手段は、前記計測値取得手段により取得された前記計測値と、前記利用者情報入力手段から入力された前記利用者情報とに基づいて、前記推論データを作成することを特徴とする。   In addition to the configuration of the invention according to any one of claims 1 to 3, the object specifying device of the invention according to claim 4 is user information for the user to operate and input user information. The inference data creation means creates the inference data based on the measurement value acquired by the measurement value acquisition means and the user information input from the user information input means. It is characterized by doing.

また、請求項5に係る発明の対象物特定装置は、請求項4に記載の発明の構成に加え、前記推論データ作成手段は、前記利用者情報入力手段のオン・オフの状態遷移を示す利用者情報の内容がオンである場合、前記利用者の強い推論を示すように前記推論データを作成することを特徴とする。   In addition to the configuration of the invention described in claim 4, the inference data creating means uses the user information input means indicating on / off state transitions. When the content of the user information is on, the inference data is created so as to indicate a strong inference of the user.

また、請求項6に係る発明の対象物特定装置は、請求項1乃至5のいずれかに記載の発明の構成に加え、前記識別データ取得手段が複数の前記対象物から各々前記識別データを取得した場合に、前記対象物情報の出力対象とすべき前記対象物の特定方法を定義した複数の出力モードのうち、任意の一を選択するための出力モード選択手段を備えている。   According to a sixth aspect of the present invention, in addition to the configuration of the first aspect, the identification data acquisition unit acquires the identification data from each of the plurality of target objects. In this case, an output mode selection unit is provided for selecting any one of a plurality of output modes that define a method for specifying the object to be output as the object information.

また、請求項7に係る発明の対象物特定装置は、請求項1乃至6のいずれかに記載の発明の構成に加え、前記識別データ取得手段は、前記対象物に対して定期的かつ複数回の検知を実行し、該検知によって取得される時系列データの前後の連続性に基づいて、該対象物を前記対象物情報の出力対象とするか否かを判定することを特徴とする。   In addition to the configuration of the invention according to any one of claims 1 to 6, the object identification device of the invention according to claim 7 is characterized in that the identification data acquisition means periodically and multiple times with respect to the object. And detecting whether or not the object is an output target of the object information based on the continuity before and after the time-series data acquired by the detection.

また、請求項8に係る発明の対象物特定装置は、請求項7に記載の発明の構成に加え、前記識別データ取得手段は、前記対象物に対して定期的かつ複数回の検知を実行し、該検知によって取得される前記時系列データが、所定回数連続して検知されたことを示す場合には、該対象物を前記対象物情報の出力対象とすることを特徴とする。   In addition to the configuration of the invention according to claim 7, the identification data acquisition unit performs periodic and multiple detections on the object. When the time-series data acquired by the detection indicates that it has been continuously detected a predetermined number of times, the target object is set as an output target of the target object information.

また、請求項9に係る発明の対象物特定装置は、請求項1乃至8のいずれかに記載の発明の構成に加え、現在日時を計測する計時手段を備え、前記対象物情報作成手段は、前記推論データ作成手段により前記推論データが作成された場合、前記計時手段により計測された前記現在日時に関する日時データを取得して、該日時データを含めて前記対象物情報を作成することを特徴とする。   In addition to the configuration of the invention according to any one of claims 1 to 8, the object specifying device of the invention according to claim 9 includes a time measuring unit that measures the current date and time, and the object information creating unit includes: When the inference data is created by the inference data creation means, the date and time data related to the current date and time measured by the timing means is acquired, and the object information including the date and time data is created. To do.

また、請求項10に係る発明の対象物特定システムは、請求項1乃至9のいずれかに記載の対象物特定装置と、前記対象物情報出力手段により出力された前記対象物情報を取得する対象物情報取得手段と、前記対象物情報取得手段により収集された前記対象物情報を記憶する対象物情報記憶手段とを備えている。   An object specifying system according to a tenth aspect of the invention is an object for acquiring the object information output by the object specifying device according to any one of claims 1 to 9 and the object information output means. Object information acquisition means and object information storage means for storing the object information collected by the object information acquisition means.

また、請求項11に係る発明の対象物特定システムは、請求項10に記載の発明の構成に加え、前記対象物情報記憶手段に記憶された前記対象物情報に基づいて、前記対象物と利用者との関係を示す解析情報を作成する解析情報作成手段を備えている。   An object specifying system according to an eleventh aspect of the invention includes the object and use based on the object information stored in the object information storage means in addition to the configuration of the invention according to claim 10. Analysis information creating means for creating analysis information indicating the relationship with the person.

また、請求項12に係る発明の人気投票システムは、対象物情報を作成する対象物特定装置と、前記対象物情報に基づいて前記対象物の人気度を解析する人気度解析装置とが、ネットワークを介して接続された人気投票システムであって、前記対象物特定装置は、前記対象物を検知して、該対象物の識別データを取得する識別データ取得手段と、少なくとも1個以上のセンサから、計測値を取得する計測値取得手段と、利用者自身が操作して利用者情報を入力するための利用者情報入力手段とを備え、前記計測値取得手段により取得された前記計測値と、前記利用者情報入力手段から入力された前記利用者入力情報とに基づいて、前記推論データを作成する推論データ作成手段と、前記識別データ取得手段により取得された前記識別データと、前記推論データ作成手段により作成された前記推論データとを含む前記対象物情報を作成する対象物情報作成手段と、前記対象物情報作成手段により作成された前記対象物情報を、前記人気度解析装置へ送信する対象物情報送信手段とを備え、前記人気度解析装置は、前記対象物特定装置から送信された前記対象物情報を受信する対象物情報受信手段と、前記対象物情報受信手段により受信された前記対象物情報を記憶する対象物情報記憶手段と、前記対象物情報記憶手段に記憶された前記対象物情報に基づいて、前記対象物の人気度を解析する人気度解析手段とを備えている。   Further, the popularity voting system of the invention according to claim 12 includes: an object specifying device that creates object information; and a popularity analysis device that analyzes the popularity of the object based on the object information. The object voting system is connected via an identification data acquisition unit that detects the object and acquires identification data of the object, and at least one sensor. The measurement value acquisition means for acquiring the measurement value, and the user information input means for operating the user himself to input user information, the measurement value acquired by the measurement value acquisition means, Based on the user input information input from the user information input means, inference data generation means for generating the inference data, and the identification data acquired by the identification data acquisition means, The object information creating means for creating the object information including the inference data created by the inference data creating means, and the object information created by the object information creating means, the popularity analysis device Object information transmitting means for transmitting to the object, the popularity analysis device receiving the object information receiving means for receiving the object information transmitted from the object specifying device, and receiving the object information by the object information receiving means. Object information storage means for storing the object information obtained, and popularity analysis means for analyzing the degree of popularity of the object based on the object information stored in the object information storage means. ing.

また、請求項13に係る発明の人気投票システムは、請求項12に記載の発明の構成に加え、前記人気度解析手段は、前記対象物の人気度を解析して該対象物の配置を最適化し、前記対象物の最適な配置を示す最適化情報を作成することを特徴とする。   Further, in the popularity voting system of the invention according to claim 13, in addition to the configuration of the invention of claim 12, the popularity analysis means analyzes the popularity of the object and optimizes the arrangement of the object And generating optimization information indicating an optimal arrangement of the objects.

請求項1に係る発明の対象物特定装置では、各センサから取得される計測値と、対象物から取得される識別データとに基づいて、計測値とは異なる指標値である推論データが作成され、この推論データを含む対象物情報が出力される。対象物に対する利用者の意識や感情などが推論された対象物情報を作成することができ、推論結果の信頼性を高めることができる。   In the object identification device of the invention according to claim 1, inference data that is an index value different from the measurement value is created based on the measurement value acquired from each sensor and the identification data acquired from the object. The object information including the inference data is output. It is possible to create object information in which the user's consciousness and feelings about the object are inferred, and to improve the reliability of the inference result.

また、請求項2に係る発明の対象物特定装置では、請求項1に係る発明の効果に加え、対象物又は対象物近傍に付与される被記録媒体から識別データが取得されるので、被記録媒体から識別データを的確に取得することができる。   In addition, in the object specifying device of the invention according to claim 2, in addition to the effect of the invention according to claim 1, identification data is acquired from the object or a recording medium attached to the vicinity of the object. The identification data can be accurately obtained from the medium.

また、請求項3に係る発明の対象物特定装置では、請求項2に係る発明の効果に加え、RFIDタグリーダによって被記録媒体であるRFIDタグから識別データが取得されるので、RFIDタグに記憶された識別データを的確に取得することができる。   In addition, in the object specifying device of the invention according to claim 3, in addition to the effect of the invention according to claim 2, the identification data is acquired from the RFID tag which is the recording medium by the RFID tag reader, and therefore stored in the RFID tag. Identification data can be obtained accurately.

また、請求項4に係る発明の対象物特定装置では、請求項1乃至3のいずれかに係る発明の効果に加え、利用者が任意に入力可能な利用者情報入力手段を設けたので、利用者は意図的に感情や意識などを対象物情報に反映させることができ、対象物情報の精度を向上させることができる。また、特定の対象物に対する人気投票を行うことができる。   In addition, in addition to the effect of the invention according to any one of claims 1 to 3, the object specifying device of the invention according to claim 4 is provided with user information input means that can be arbitrarily input by the user. A person can intentionally reflect emotions and consciousness in the object information, and can improve the accuracy of the object information. Moreover, a popularity vote can be performed on a specific object.

また、請求項5に係る発明の対象物特定装置では、請求項1乃至4のいずれかに係る発明の効果に加え、利用者情報入力手段がオンである場合、強い推論を示す推論データが作成されるので、利用者は意図的に感情や意識などを対象物情報に反映させることができる。また、特定の対象物に対する人気投票を行うことができる。   In addition, in addition to the effect of the invention according to any one of claims 1 to 4, in the object specifying device of the invention according to claim 5, inference data indicating strong inference is created when the user information input means is on. Therefore, the user can intentionally reflect emotions and consciousness in the object information. Moreover, a popularity vote can be performed on a specific object.

また、請求項6に係る発明の対象物特定装置では、請求項1乃至5のいずれかに係る発明の効果に加え、複数の対象物が検知された場合の出力モードを、利用者が任意に選択できる出力モード選択手段を設けたので、利用者が任意に選択した出力モードに従って最適な対象物が出力され、対象物情報を簡易にかつ正確に作成できる。   Further, in the object specifying device of the invention according to claim 6, in addition to the effect of the invention according to any one of claims 1 to 5, the user can arbitrarily set the output mode when a plurality of objects are detected. Since the output mode selection means that can be selected is provided, the optimum object is output according to the output mode arbitrarily selected by the user, and the object information can be created easily and accurately.

また、請求項7に係る発明の対象物特定装置では、請求項1乃至6のいずれかに係る発明の効果に加え、検知される時系列データの前後の連続性に基づいて、対象物を出力対象とするか否かを判定するので、対象物を正確に検知することができる。   Moreover, in the object specifying device of the invention according to claim 7, in addition to the effect of the invention according to any one of claims 1 to 6, the object is output based on the continuity before and after the detected time-series data. Since it determines whether it is set as object, an object can be detected correctly.

また、請求項8に係る発明の対象物特定装置では、請求項7に係る発明の効果に加え、所定回数連続して検知された場合は対象物を出力対象とするので、対象物を正確に検知することができる。   Further, in the object specifying device of the invention according to claim 8, in addition to the effect of the invention according to claim 7, when the object is detected for a predetermined number of times, the object is output, so that the object is accurately Can be detected.

また、請求項9に係る発明の対象物特定装置では、請求項1乃至8のいずれかに係る発明の効果に加え、対象物情報に現在日時を示す日時データが含まれるようにしたので、対象物情報が作成された日時を明確にして、時間による推論結果の変化を解析することを可能とすることで、推論結果が有する情報価値を高めることができる。   Further, in the object specifying device of the invention according to claim 9, in addition to the effect of the invention according to any of claims 1 to 8, the object information includes date / time data indicating the current date / time. By clarifying the date and time when the object information was created and analyzing the change in the inference result with time, the information value of the inference result can be increased.

また、請求項10に係る発明の対象物特定システムでは、対象物特定装置から出力された対象物情報を取得して記憶するようにしたので、対象物情報を収集・管理することができる。   Moreover, in the target object specifying system according to the tenth aspect of the present invention, the target object information output from the target object specifying device is acquired and stored, so that the target object information can be collected and managed.

また、請求項11に係る発明の対象物特定システムでは、請求項10に係る発明の効果に加え、対象物情報に基づいて対象物と利用者の関係を示す解析情報が作成されるので、対象物と利用者の関係を把握でき、かつ対象物の利用範囲を広げることができる。   Further, in the object specifying system of the invention according to claim 11, in addition to the effect of the invention according to claim 10, analysis information indicating the relationship between the object and the user is created based on the object information. The relationship between objects and users can be understood, and the range of use of objects can be expanded.

また、請求項12に係る発明の人気投票システムでは、対象物特定装置で作成された対象物情報が人気度解析装置に送信されて、人気度解析装置では対象物情報に基づいて対象物の人気度が解析される。よって、対象物情報に基づいて、利用者の嗜好や対象物の人気を把握することができ、かつ対象物の利用範囲を広げることができる。   In the popularity voting system of the invention according to claim 12, the object information created by the object identification device is transmitted to the popularity analysis device, and the popularity analysis device uses the popularity of the object based on the object information. The degree is analyzed. Therefore, the user's preference and the popularity of the object can be grasped based on the object information, and the use range of the object can be expanded.

また、請求項13に係る発明の人気投票システムでは、請求項12に係る発明の効果に加え、対象物の最適な配置を示す最適化情報を作成するので、対象物の最適な配置を把握することができ、かつ対象物の利用範囲を広げることができる。   Further, in the popularity voting system of the invention according to claim 13, in addition to the effect of the invention according to claim 12, optimization information indicating the optimum arrangement of the object is created, so that the optimum arrangement of the object is grasped. And the range of use of the object can be expanded.

以下、本発明の第1の実施の形態を図面を参照して説明する。第1の実施の形態に係る対象物特定装置は、利用者に携行される小型の携帯端末装置である。   Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. The object specifying device according to the first embodiment is a small portable terminal device carried by a user.

本実施の形態では、利用者が対象物作成装置を携行しながら美術館などで展示物を見学すると、各展示品に対する利用者の意識や感情などが推論されて対象物情報が作成される場合を例示する。   In this embodiment, when a user visits an exhibit at a museum while carrying the object creation device, the object information is created by inferring the user's consciousness and feelings about each exhibit. Illustrate.

以下では、センサから計測される情報として、体温,発汗,心拍数の各計測値を例示する。また、利用者により入力された情報として、所定のスイッチを利用者が任意にオン・オフした情報を例示する。なお、ここにおける対象物情報とは、特定の展示物に対する利用者の意識や感情などに関する情報である。本実施の形態では、利用者がどの展示物に対して、どの程度「感動」したかを示す対象物情報が作成される場合を説明する。   Below, each measured value of body temperature, perspiration, and heart rate is illustrated as information measured from a sensor. In addition, as information input by the user, information in which a user arbitrarily turns on and off a predetermined switch is exemplified. Note that the object information here is information on the user's consciousness, feelings, etc. with respect to a specific exhibit. In the present embodiment, a case will be described in which object information indicating how much the user is “impressed” with respect to which exhibit is created.

まず、図1乃至図4を参照して、第1の実施の形態に係る対象物特定装置1の構成について説明する。図1は、対象物特定装置1についての全体構成図である。図2は、対象物特定装置1の構成を示すブロック図である。図3は、対象物特定装置1のRAM130の記憶エリアの構成を示す概念図である。図4は、対象物特定装置1のHDD140の記憶エリアの構成を示す概念図である。   First, with reference to FIG. 1 thru | or FIG. 4, the structure of the target object identification device 1 which concerns on 1st Embodiment is demonstrated. FIG. 1 is an overall configuration diagram of the object identification device 1. FIG. 2 is a block diagram illustrating a configuration of the object identification device 1. FIG. 3 is a conceptual diagram showing the configuration of the storage area of the RAM 130 of the object identification device 1. FIG. 4 is a conceptual diagram showing the configuration of the storage area of the HDD 140 of the object specifying device 1.

図1に示すように、対象物特定装置1は利用者に携帯または装着され、体温センサ、発汗センサ及び心拍数センサなどの複数のセンサが接続される。これらのセンサの読み取り部は利用者の皮膚等に接触して、適切に利用者を計測可能な状態に設けられる(図1中の斜線部)。そのため、対象物特定装置1では常に利用者がセンサにより計測される状態に保持される。また、利用者は対象物情報に自らの意思を反映させるための意思伝達スイッチ152を任意に押下可能である。   As shown in FIG. 1, the object identifying device 1 is carried or worn by a user, and a plurality of sensors such as a body temperature sensor, a sweat sensor, and a heart rate sensor are connected to the object identifying apparatus 1. The reading units of these sensors are provided in a state in which the user can be appropriately measured by contacting the skin of the user (shaded portion in FIG. 1). Therefore, in the target object specifying device 1, the user is always held in a state measured by the sensor. In addition, the user can arbitrarily press the intention transmission switch 152 for reflecting his / her intention in the object information.

利用者が展示物9に接近すると、対象物特定装置1は展示物9と有効に接続可能な構成となっている。本実施の形態では、展示物9に設けられたRFIDタグ8と、RFIDタグリーダ160との間で近距離無線通信が実行される。これにより、RFIDタグ8に記憶される展示物9に固有の識別データが、対象物特定装置1により取得される。   When the user approaches the exhibit 9, the object specifying device 1 is configured to be effectively connected to the exhibit 9. In the present embodiment, short-range wireless communication is performed between the RFID tag 8 provided in the exhibit 9 and the RFID tag reader 160. Thereby, the identification data unique to the exhibit 9 stored in the RFID tag 8 is acquired by the object specifying device 1.

図2に示すように、対象物特定装置1には、対象物特定装置1の制御を司るCPU110が設けられている。このCPU110には、バス115を介し、CPU110が実行するBIOS等のプログラムを記憶したROM120と、データを一時的に記憶するRAM130と、データの記憶装置であるハードディスクドライブ(以下、「HDD」という。)140とが接続されている。また、現在日時や時間間隔をカウントするための計時装置190が、バス115を介してCPU110に接続されている。計時装置190は、時計機能を備えたICチップである。また、計時装置190は、インターネットや無線によって日時を取得するように構成してもよい。   As shown in FIG. 2, the object specifying device 1 is provided with a CPU 110 that controls the object specifying device 1. The CPU 110 includes a ROM 120 that stores a program such as BIOS executed by the CPU 110, a RAM 130 that temporarily stores data, and a hard disk drive (hereinafter referred to as “HDD”) that is a data storage device. 140) is connected. In addition, a timing device 190 for counting the current date and time and the time interval is connected to the CPU 110 via the bus 115. The timing device 190 is an IC chip having a clock function. Further, the timing device 190 may be configured to acquire the date and time via the Internet or wirelessly.

また、各種機器からの入力の検知を行う入力検知部180が、バス115を介してCPU110に接続されており、この入力検知部180には、利用者が対象物特定装置1を操作するためのボタンやスイッチを備えた入力パネル181と、利用者の体温を計測する体温センサ182と、利用者の発汗状態を計測するための発汗センサ183と、利用者の心拍数を計測するための心拍数センサ184とが接続されている。体温センサ182、発汗センサ183及び心拍数センサ184は、有効に利用者の体温、発汗、心拍数を測定できれば、その位置や計測手法は問わないが、好適には、利用者の皮膚にこれらのセンサの読み取り部が設けられている。なお、体温センサ182では計測値として0〜50℃が計測され、発汗センサ183では計測値として0〜100%RHが計測され、心拍数センサ184では計測値として0〜200拍が計測されるものとする。体温センサ182,発汗センサ183,心拍数センサ184から計測される情報が、本発明の「計測値」に相当する。   In addition, an input detection unit 180 that detects input from various devices is connected to the CPU 110 via the bus 115, and the input detection unit 180 allows a user to operate the object specifying device 1. An input panel 181 having buttons and switches, a body temperature sensor 182 for measuring the user's body temperature, a sweat sensor 183 for measuring the user's sweat state, and a heart rate for measuring the user's heart rate A sensor 184 is connected. The body temperature sensor 182, the sweat sensor 183, and the heart rate sensor 184 are not limited in position and measurement method as long as the body temperature, sweat, and heart rate can be measured effectively. A sensor reading unit is provided. The body temperature sensor 182 measures 0 to 50 ° C. as a measured value, the sweat sensor 183 measures 0 to 100% RH, and the heart rate sensor 184 measures 0 to 200 beats as a measured value. And Information measured from the body temperature sensor 182, the sweat sensor 183, and the heart rate sensor 184 corresponds to the “measurement value” of the present invention.

各センサは、対象物特定装置1に電源が投入されて起動されると、自動的に定期的な計測を実行するように制御される。各センサの計測値が、各センサ内部の所定の記憶エリアに保存されて、対象物特定装置1では入力検知部180を介してこの所定の記憶エリアから最新の計測値が取得される。なお、対象物特定装置1のRAM130やHDD140にセンサ毎の計測値記憶エリア(図示外)を設けて、各センサの計測値が入力検知部180を介して計測値記憶エリアに保存される一方、対象物特定装置1ではこの計測値記憶エリアが参照されて最新の計測値が取得されるようにしてもよい。   Each sensor is controlled to automatically perform periodic measurement when the object identification device 1 is powered on and activated. The measurement value of each sensor is stored in a predetermined storage area inside each sensor, and the object specifying device 1 acquires the latest measurement value from the predetermined storage area via the input detection unit 180. In addition, a measurement value storage area (not shown) for each sensor is provided in the RAM 130 or the HDD 140 of the object specifying device 1, and the measurement value of each sensor is stored in the measurement value storage area via the input detection unit 180. In the target object specifying device 1, the latest measured value may be acquired by referring to the measured value storage area.

また、近傍の展示物9に設けられたRFIDタグ8と接続して、近距離無線通信を実行するRFIDタグリーダ160を備える。RFIDタグリーダ160は、所定の問い合わせ信号に基づいて搬送波を送出することでRFIDタグ8を検知し、RFIDタグ8から返送される反射波を復調して、RFIDタグ8から展示物9に固有の識別データである対象物IDを取得する。   In addition, an RFID tag reader 160 that performs short-distance wireless communication by connecting to the RFID tag 8 provided in the nearby exhibit 9 is provided. The RFID tag reader 160 detects the RFID tag 8 by transmitting a carrier wave based on a predetermined inquiry signal, demodulates the reflected wave returned from the RFID tag 8, and uniquely identifies the exhibit 9 from the RFID tag 8. The object ID which is data is acquired.

また、入力パネル181には、対象物特定装置1の電源を入切したり、起動し直すための電源リセットスイッチ151と、利用者がみずからの意思を意図的に入力するために、利用者自身がオン・オフしてスイッチ情報を入力するための意思伝達スイッチ152と、対象物特定装置1の推論モードを選択するための推論モード選択スイッチ153と、複数のRFIDタグ8が検知された場合に実行される出力モードを選択するための出力モード選択スイッチ154とが、少なくとも設けられる。   In addition, the input panel 181 includes a power reset switch 151 for turning on and off the power of the object identification device 1 and restarting, and the user himself / herself for intentionally inputting his / her intention. Is switched on / off to input switch information, an inference mode selection switch 153 for selecting an inference mode of the object identification device 1, and a plurality of RFID tags 8 are detected. An output mode selection switch 154 for selecting an output mode to be executed is provided at least.

利用者はみずからの意思を意図的に対象物特定装置1に伝達するために、意思伝達スイッチ152をオン又はオフする。例えば、本実施の形態では、対象物特定装置1は利用者の「感動」について推論するものであるから、利用者はある展示物9に感動した場合には意思伝達スイッチ152をオンしてスイッチ情報「ON」を入力し、感動しない場合には意思伝達スイッチ152をオンせずに(オフして)スイッチ情報「OFF」を入力する。   The user turns on or off the intention transmission switch 152 in order to intentionally transmit his intention to the object identification device 1 intentionally. For example, in the present embodiment, the object identification device 1 infers the “impression” of the user, and therefore when the user is impressed by a certain exhibition 9, the communication switch 152 is turned on to switch it. When the information “ON” is input and the user is not impressed, the switch information “OFF” is input without turning on (turning off) the intention transmission switch 152.

なお、各センサから計測された情報に基づいて、利用者の意識や感情などを推論する機能を具備するのが推論エンジンである。推論エンジンには、推論手法や設定条件が定義されており、この定義内容に従って各センサからの計測値に基づいて利用者の意識等を推論するためのプログラムであり、推論モード選択スイッチ153から選択された推論モードに対応する推論エンジンがCPU110により実行される。本実施の形態では、複数の推論エンジンがHDD140に記憶され、利用者は任意の推論モードを選択可能である。   An inference engine has a function of inferring user's consciousness and emotion based on information measured from each sensor. The inference engine defines inference methods and setting conditions, and is a program for inferring the user's consciousness based on the measured values from each sensor according to the definition, and is selected from the inference mode selection switch 153 An inference engine corresponding to the inferred mode is executed by the CPU 110. In the present embodiment, a plurality of inference engines are stored in the HDD 140, and the user can select any inference mode.

このような構成によって、第1の実施の形態の対象物特定装置1では、体温センサ182,発汗センサ183,心拍数センサ184からのセンサ情報と、意思伝達スイッチ152からのスイッチ情報と、RFIDタグ8からの識別データとに基づいて、利用者がどの対象物に対してどのような感情や意識などを生じたかを示す対象物情報が作成される。なお、本実施の形態の対象物特定装置1で実行されるモジュールの一つとして、対象物情報作成プログラムが実行される。対象物情報作成プログラムは、あらかじめHDD140上のプログラム記憶エリア142(図4参照)に記憶されているものとする。また、図示外のCD−ROMドライブ、フロッピー(登録商標)ディスクドライブ、各種インタフェースを介して、導入時に、CD−ROM等の外部の記憶媒体やネットワークを介して外部の記憶装置から、HDD140上のプログラム記憶エリア142や情報記憶エリア143(図4参照)に、対象物情報作成プログラムがセットアップされてもよい。   With such a configuration, in the object identification device 1 according to the first embodiment, the sensor information from the body temperature sensor 182, the sweat sensor 183, the heart rate sensor 184, the switch information from the intention transmission switch 152, and the RFID tag Based on the identification data from 8, object information indicating what kind of emotion or consciousness the user has produced for which object is created. Note that the object information creation program is executed as one of the modules executed by the object specifying device 1 of the present embodiment. It is assumed that the object information creation program is stored in advance in the program storage area 142 (see FIG. 4) on the HDD 140. Further, when installed via a CD-ROM drive, floppy (registered trademark) disk drive, and various interfaces (not shown), an external storage medium such as a CD-ROM or an external storage device via a network can be used on the HDD 140. An object information creation program may be set up in the program storage area 142 or the information storage area 143 (see FIG. 4).

図3に示すように、対象物特定装置1のRAM130には、プログラムの実行中の一時的なデータを記憶するワークエリア131と、入力された各種情報を一時的に記憶する入力情報記憶エリア132と、出力すべき各種情報を一時的に記憶する出力情報記憶エリア133とが設けられている。さらに、RAM130には、図示外の各種記憶エリアが設けられる。   As shown in FIG. 3, the RAM 130 of the object identification device 1 stores a work area 131 that stores temporary data during execution of the program and an input information storage area 132 that temporarily stores various types of input information. And an output information storage area 133 for temporarily storing various information to be output. Further, the RAM 130 is provided with various storage areas not shown.

図4に示すように、対象物特定装置1のHDD140には、対象物特定装置1の動作を制御するためCPU110が実行する各種のプログラム等を記憶したオペレーティングシステム(OS)記憶エリア141と、対象物特定装置1で実行される各種のプログラムや対象物情報作成プログラムを記憶したプログラム記憶エリア142と、プログラムの実行に必要な設定や初期値、データ等の情報を記憶した情報記憶エリア143と、作成された対象物情報を記憶する対象物情報記憶エリア144とが設けられる。なお、情報記憶エリア143には、後述の推論定義テーブルや補正テーブル等が記憶される。   As shown in FIG. 4, the HDD 140 of the object identification device 1 includes an operating system (OS) storage area 141 that stores various programs executed by the CPU 110 to control the operation of the object identification device 1, and an object. A program storage area 142 that stores various programs executed by the object identification device 1 and an object information creation program, an information storage area 143 that stores information such as settings, initial values, and data necessary for the execution of the program, An object information storage area 144 for storing the created object information is provided. The information storage area 143 stores an inference definition table and a correction table, which will be described later.

以下、本発明の対象物特定装置1での処理の流れを、図5乃至図15を参照して説明する。図5は、対象物情報作成処理のメインフローチャートである。図6は、推論エンジン初期化処理(S1)の詳細を示すフローチャートである。図7は、推論データ作成処理(S3)の詳細を示すフローチャートである。図8は、推論実行処理(S164)の詳細を示すフローチャートである。図9は、推論定義テーブル13のデータ構成を示す図である。図10は、RFIDタグ検知処理(S4)の詳細を示すフローチャートである。図11は、出力モード別処理(S213)の詳細を示すフローチャートである。図12は、複数のRFIDタグ8の領域分布のイメージ図である。図13は、対象物ID特定テーブル18のデータ構成を示す図である。図14は、対象物情報出力処理(S11)の詳細を示すフローチャートである。図15は、対象物情報10のデータ構成を示す図である。   Hereinafter, the flow of processing in the object identification device 1 of the present invention will be described with reference to FIGS. FIG. 5 is a main flowchart of the object information creation process. FIG. 6 is a flowchart showing details of the inference engine initialization process (S1). FIG. 7 is a flowchart showing details of the inference data creation process (S3). FIG. 8 is a flowchart showing details of the inference execution process (S164). FIG. 9 is a diagram illustrating a data configuration of the inference definition table 13. FIG. 10 is a flowchart showing details of the RFID tag detection process (S4). FIG. 11 is a flowchart showing details of the processing by output mode (S213). FIG. 12 is an image diagram of the area distribution of the plurality of RFID tags 8. FIG. 13 is a diagram illustrating a data configuration of the object ID identification table 18. FIG. 14 is a flowchart showing details of the object information output process (S11). FIG. 15 is a diagram illustrating a data configuration of the object information 10.

図5に示す対象物情報作成処理のメインフローチャートは、利用者が電源リセットスイッチ151(図2参照)を操作して、対象物特定装置1の電源がオンされた場合、又は対象物特定装置1のリセットがなされた場合に、その処理が開始される。   The main flowchart of the object information creation process shown in FIG. 5 is when the user operates the power reset switch 151 (see FIG. 2) to turn on the object specifying device 1 or when the object specifying device 1 is turned on. When the resetting is performed, the processing is started.

図5に示すように、まず、推論エンジン初期化処理(S1)が実行される。推論エンジン初期化処理は、後述の推論データ作成処理の際に参照される各センサ毎の基準値を初期化する処理である。   As shown in FIG. 5, first, an inference engine initialization process (S1) is executed. The inference engine initialization process is a process for initializing a reference value for each sensor that is referred to in the later-described inference data creation process.

図6に示すように、推論エンジン初期化処理(S1)では、変数ST,変数SH,変数SMにそれぞれ「0」が代入され(S101)、変数Tに「3」が代入される(S102)。そして、各センサから計測値が取得される(S103)。すなわち、体温センサ182,発汗センサ183,心拍数センサ184によって、利用者の体温,発汗,心拍数が計測されて、これらセンサから計測値が各々取得される。   As shown in FIG. 6, in the inference engine initialization process (S1), “0” is assigned to the variable ST, variable SH, and variable SM (S101), and “3” is assigned to the variable T (S102). . And a measured value is acquired from each sensor (S103). That is, the body temperature sensor 182, the sweat sensor 183, and the heart rate sensor 184 measure the body temperature, sweat, and heart rate of the user, and the measurement values are acquired from these sensors.

各センサから取得された体温,発汗,心拍数の各計測値が、それぞれ変数ST,変数SH,変数SMに加算される(S104)。なお、S103による計測値の取得が1回目であれば、S102により変数ST,変数SH,変数SMには「0」が代入されているため、S103により取得された体温,発汗,心拍数の各計測値が、そのまま変数ST,変数SH,変数SMに代入される。   The measured values of body temperature, sweating, and heart rate acquired from each sensor are added to the variable ST, variable SH, and variable SM, respectively (S104). If the measurement value is acquired for the first time in S103, since “0” is substituted for the variable ST, variable SH, and variable SM in S102, each of the body temperature, sweating, and heart rate acquired in S103 is obtained. The measured value is directly substituted into the variable ST, variable SH, and variable SM.

そして、変数Tが「1」減算されて(S105)、Tが「0」でなければ(S106:NO)、S103に戻り、再び各センサによる計測値が取得される。このように、S102で変数Tに設定された回数(ここでは3回)に至るまで、S103の計測値の取得が実行されて、S103〜S106の処理が繰り返される。その結果、変数ST,変数SH,変数SMには、変数Tに設定された回数分の計測値の合計値が記憶される。   Then, the variable T is decremented by “1” (S105), and if T is not “0” (S106: NO), the process returns to S103, and the measurement values obtained by the sensors are acquired again. In this way, until the number of times set to the variable T in S102 (here, 3 times) is reached, the measurement value acquisition in S103 is executed, and the processing in S103 to S106 is repeated. As a result, the variable ST, the variable SH, and the variable SM store the total value of the measurement values for the number of times set in the variable T.

変数ST,変数SH,変数SMは、変数Tに設定された値である「3」で各々除算されて、それぞれ変数CT,変数CH,変数CMに代入される(S107)。すなわち、各センサ毎の計測値の合計値を、その計測回数で除算することで、各センサの1回の計測値の平均値(=平常時の基準値)が取得される。   The variable ST, variable SH, and variable SM are respectively divided by “3”, which is the value set in the variable T, and assigned to the variable CT, variable CH, and variable CM, respectively (S107). That is, by dividing the total value of the measured values for each sensor by the number of times of measurement, an average value (= normal reference value) of one measured value of each sensor is obtained.

変数CTは体温センサ182の基準値であり、変数CHは発汗センサ183の基準値であり、変数CMは心拍数センサ184の基準値である。これらの各センサの基準値は、RAM130に設けられた基準値エリア(図示外)に保存される。   The variable CT is a reference value for the body temperature sensor 182, the variable CH is a reference value for the sweat sensor 183, and the variable CM is a reference value for the heart rate sensor 184. The reference values of these sensors are stored in a reference value area (not shown) provided in the RAM 130.

図5に戻り、推論モードの選択が実行される(S2)。対象物特定装置1では複数の推論モードから任意のものを選択可能であり、各推論モードによって推論データ作成処理(S3)の処理内容が異なる。各推論モードに対応する推論エンジンが、プログラム記憶エリア142に記憶されており、S2において推論データ作成処理(S3)を実行する推論エンジンが決定される。推論モードの選択(S2)は、利用者が入力パネル181の推論モード選択スイッチ153から任意のものを選択することにより実行される。また、対象物特定装置1において実行される推論モードがあらかじめ設定されている場合は、その設定済みの推論モードが自動的に読込まれて選択される。利用者による推論モードの選択がない場合は、自動的にデフォルトの推論モードが設定される。   Returning to FIG. 5, the selection of the inference mode is executed (S2). The object specifying device 1 can select an arbitrary one from a plurality of inference modes, and the processing content of the inference data creation process (S3) differs depending on each inference mode. An inference engine corresponding to each inference mode is stored in the program storage area 142, and an inference engine for executing the inference data creation process (S3) is determined in S2. The selection of the inference mode (S2) is executed when the user selects an arbitrary one from the inference mode selection switch 153 of the input panel 181. In addition, when an inference mode to be executed in the object specifying device 1 is set in advance, the set inference mode is automatically read and selected. If the user does not select an inference mode, the default inference mode is automatically set.

次に、S2で選択された推論モードに従って、センサから計測された情報に基づいて推論データを作成する推論データ作成処理(S3)が実行される。本実施の形態では、一例として、各センサからの計測値に基づいて推論定義テーブルを参照して推論データを作成する推論モードによる推論データ作成処理を示す。   Next, inference data creation processing (S3) for creating inference data based on information measured from the sensor is executed according to the inference mode selected in S2. In this embodiment, as an example, an inference data creation process in an inference mode in which inference data is created by referring to an inference definition table based on measurement values from each sensor is shown.

図7に示すように、推論データ作成処理(S3)では、体温センサ182,発汗センサ183,心拍数センサ184の各センサで計測された利用者の体温,発汗,心拍数の計測値が、各々取得される(S161)。次に、意思伝達スイッチ152が「ON」か否かが判定される(S162)。意思伝達スイッチ152が「ON」であれば(S162:YES)、あらかじめ定められた補正値によってS161で取得された各センサ計測値が補正される(S163)。補正値は各センサごとにあらかじめ定められており、この補正処理は各センサの計測値ごとに実行される。例えば、体温計測値「36℃」に対しては体温補正値「1℃」が加算されて体温計測値「37℃」に補正され、同様に、発汗計測値は発汗補正値により補正され、心拍数計測値は心拍数補正値により補正される。そして、この補正後の各センサ計測値に基づいて、推論実行処理が実行される(S164)。一方、意思伝達スイッチ152が「OFF」であれば(S162:NO)、S161で取得された各センサ計測値に基づいて、後述の推論実行処理が実行される(S164)。そして、S164で取得された推論種別及び推論値を含む推論データが作成される(S165)。   As shown in FIG. 7, in the inference data creation process (S3), the measured values of the user's body temperature, sweat, and heart rate measured by each of the body temperature sensor 182, the sweat sensor 183, and the heart rate sensor 184 are respectively obtained. Obtained (S161). Next, it is determined whether or not the intention transmission switch 152 is “ON” (S162). If the intention transmission switch 152 is “ON” (S162: YES), each sensor measurement value acquired in S161 is corrected by a predetermined correction value (S163). The correction value is predetermined for each sensor, and this correction processing is executed for each measurement value of each sensor. For example, the body temperature correction value “1 ° C.” is added to the body temperature measurement value “36 ° C.” to be corrected to the body temperature measurement value “37 ° C.”. Similarly, the sweat measurement value is corrected by the sweat correction value, and the heart rate The number measurement value is corrected by the heart rate correction value. Then, an inference execution process is executed based on the sensor measurement values after correction (S164). On the other hand, if the intention transmission switch 152 is “OFF” (S162: NO), an inference execution process described later is executed based on each sensor measurement value acquired in S161 (S164). Then, inference data including the inference type and the inference value acquired in S164 is created (S165).

図8に示すように、推論実行処理(S164)では、各センサからの計測値の状態変化を示すフラグである状態変数がクリアされる(S171)。本実施の形態では、体温センサ182が計測する体温についての第2bit、発汗センサ183が計測する発汗についての第1bit、心拍数センサ184が計測する心拍数についての第0bit、の3つのビットを状態変数として有している。そして、RAM130の基準値エリア(図示外)を参照して、S107(図6参照)で算出された各センサの基準値に基づいて、各センサからの計測値の変化を判定する。   As shown in FIG. 8, in the inference execution process (S164), a state variable which is a flag indicating a state change of a measurement value from each sensor is cleared (S171). In the present embodiment, three bits of the second bit for the body temperature measured by the body temperature sensor 182, the first bit for the sweating measured by the sweat sensor 183, and the 0th bit for the heart rate measured by the heart rate sensor 184 are in a state. As a variable. Then, referring to a reference value area (not shown) in the RAM 130, a change in the measured value from each sensor is determined based on the reference value of each sensor calculated in S107 (see FIG. 6).

最初に、体温センサ182から取得された体温計測値と、体温に関する基準値(体温閾値)とが比較される(S172)。基準値(閾値)は、RAM130の基準値エリア(図示外)に保存された値である。その結果、体温計測値が体温閾値よりも大きければ(S172:YES)、第2bitが「UP」にセットされる(S173)。一方、体温計測値が体温閾値よりも大きくない場合(S172:NO)、そのまま次のステップ(S174)へ進む。同様に、発汗センサ183から取得された発汗計測値と、発汗に関する基準値(発汗閾値)とが比較され(S174)、その結果、発汗計測値が発汗閾値よりも大きければ(S174:YES)、第1bitが「UP」にセットされる(S175)。一方、発汗計測値が発汗閾値よりも大きくない場合(S174:NO)、そのまま次のステップ(S176)へ進む。また、心拍数センサ184から取得された心拍数計測値も、心拍数に関する基準値(心拍数閾値)と比較され(S176)、その結果、心拍数計測値が心拍数閾値よりも大きければ(S176:YES)、第0bitが「UP」にセットされる(S177)。一方、心拍数計測値が心拍数閾値よりも大きくない場合(S176:NO)、そのまま次のステップ(S178)へ進む。   First, the body temperature measurement value acquired from the body temperature sensor 182 is compared with a reference value (body temperature threshold) related to body temperature (S172). The reference value (threshold value) is a value stored in a reference value area (not shown) of the RAM 130. As a result, if the measured body temperature is larger than the body temperature threshold (S172: YES), the second bit is set to “UP” (S173). On the other hand, when the body temperature measurement value is not larger than the body temperature threshold (S172: NO), the process proceeds to the next step (S174) as it is. Similarly, the perspiration measurement value acquired from the perspiration sensor 183 is compared with a reference value (perspiration threshold) related to perspiration (S174). If the perspiration measurement value is larger than the perspiration threshold (S174: YES), The first bit is set to “UP” (S175). On the other hand, when the perspiration measurement value is not larger than the perspiration threshold (S174: NO), the process proceeds to the next step (S176) as it is. Further, the heart rate measurement value acquired from the heart rate sensor 184 is also compared with a reference value (heart rate threshold value) relating to the heart rate (S176). As a result, if the heart rate measurement value is greater than the heart rate threshold value (S176) : YES), the 0th bit is set to “UP” (S177). On the other hand, when the heart rate measurement value is not larger than the heart rate threshold value (S176: NO), the process proceeds to the next step (S178).

その後、状態変数の第2bit,第1bit,第0bitまでのパターンに対応する推論種別及び推論値が、推論定義テーブル13から取得される(S178)。図9に示すように、推論定義テーブル13は、推論の種別を示す推論種別13aと、各センサからの計測値の変化状態を示すセンサ状態13bと、利用者の推論の強弱を数値で示す推論値13cとをデータ項目として具備している。そして、各々のデータ項目の対応を、テーブル形式で定義している。先述のように、本実施の形態では利用者の「感動」に関する推論データが作成されるから、参照される推論定義テーブル13も「感動」に関するものである。よって、その推論種別13aは「感動」に関する種別が定義されており、利用者の「感動」の強弱によって「大興奮」から「無感動(平常)」までの複数の種別が存在している。また、その「感動」の強弱を数値で表した推論値13cが定義され、例えば、推論種別13aが「大興奮」であれば、その推論値13cは最大値の「100」である。なお、図9に示す推論定義テーブル13は「感動」に関するものであるから、推論値13cは感動度(E)とも表示される。そして、S178では、S172〜S177によりセットされた状態変数によってセンサ状態13bが特定されるから、このセンサ状態13bに対応する推論種別13aや推論値13cが取得される。   Thereafter, the inference type and the inference value corresponding to the patterns of the second bit, the first bit, and the 0th bit of the state variable are acquired from the inference definition table 13 (S178). As shown in FIG. 9, the inference definition table 13 includes an inference type 13a indicating the type of inference, a sensor state 13b indicating a change state of a measured value from each sensor, and an inference indicating the strength of the user's inference numerically. The value 13c is included as a data item. And the correspondence of each data item is defined in a table format. As described above, in this embodiment, inference data relating to the “impression” of the user is created, so the inference definition table 13 referred to also relates to “impression”. Therefore, the inference type 13a defines a type related to “impression”, and there are a plurality of types from “excitement” to “no impression (normal)” depending on the strength of the user's “impression”. Also, an inference value 13c that expresses the strength of the “feeling” as a numerical value is defined. For example, if the inference type 13a is “big excitement”, the inference value 13c is the maximum value “100”. Since the inference definition table 13 shown in FIG. 9 relates to “impression”, the inference value 13c is also displayed as the impression level (E). In S178, since the sensor state 13b is specified by the state variables set in S172 to S177, the inference type 13a and the inference value 13c corresponding to the sensor state 13b are acquired.

図5に戻り、RFIDタグ検知処理が実行される(S4)。RFIDタグ検知処理は、対象物特定装置1の近傍に存在するRFIDタグを検知し、その展示物9に固有の対象物IDを取得する処理である。   Returning to FIG. 5, the RFID tag detection process is executed (S4). The RFID tag detection process is a process of detecting an RFID tag that exists in the vicinity of the object specifying device 1 and acquiring an object ID unique to the exhibit 9.

図10に示すように、RFIDタグ検知処理(S4)では、RFIDタグリーダ160によりRFIDタグ8の検知(検知タグ数=tn)と、検知されたRFIDタグ毎に連続検知回数seq[0]〜seq[tn]の演算が実行される(S201)。すなわち、検知されたRFIDタグ8の総数を検知タグ数tnとし、検知されたRFIDタグ8から取得された対象物IDが検知順にID[0],ID[1],ID[2]・・・ID[tn]として識別される。また、対象物ID毎に時系列に連続検知された回数seq[0]〜seq[tn]が演算される。   As shown in FIG. 10, in the RFID tag detection process (S4), the RFID tag reader 160 detects the RFID tag 8 (number of detection tags = tn), and the number of continuous detections seq [0] to seq for each detected RFID tag. [Tn] is calculated (S201). That is, the total number of detected RFID tags 8 is defined as the number of detected tags tn, and the object ID acquired from the detected RFID tag 8 is ID [0], ID [1], ID [2]. Identified as ID [tn]. Further, the number of times seq [0] to seq [tn] continuously detected in time series for each object ID is calculated.

そして、RFIDタグ8が検知されたか否かが判定され(S202)、RFIDタグ8が検知された場合(tn>0)(S202:YES)、変数cntには「0」が、変数tntempには検知タグ数tnが設定される(S203)。そして、変数cntが検知タグ数tnよりも小か否かが判定され(S204)、変数cntが検知タグ数tnよりも小である場合は(cnt<tn)(S204:YES)、ID[cnt]が所定回数連続で検知されているか否かが判定される(S205)。すなわち、RFIDタグリーダ160との間で、所定回数以上の搬送波と反射波の送受信が行われたRFIDタグ8のみが、適切に検知されたRFIDタグ8とみなされる。本実施の形態では5回以上連続して時系列に連続検知された場合(seq[cnt]≧5)、そのRFIDタグ8は適切に検知されたとされる。   Then, it is determined whether or not the RFID tag 8 is detected (S202). When the RFID tag 8 is detected (tn> 0) (S202: YES), the variable cnt is set to “0”, and the variable tntemp is set. The detection tag number tn is set (S203). Then, it is determined whether or not the variable cnt is smaller than the detection tag number tn (S204). If the variable cnt is smaller than the detection tag number tn (cnt <tn) (S204: YES), the ID [cnt ] Is continuously detected a predetermined number of times (S205). That is, only the RFID tag 8 that has transmitted / received a carrier wave and a reflected wave a predetermined number of times or more with the RFID tag reader 160 is regarded as an appropriately detected RFID tag 8. In the present embodiment, the RFID tag 8 is appropriately detected when it is continuously detected in time series five times or more (seq [cnt] ≧ 5).

ID[cnt]が所定回数連続で検知されていない場合(S205:NO)、ID[cnt]にエラーを示す情報(error値)が設定され(S206)、変数tntempが「1」減算され(S207)、変数cntが「1」加算されて(S208)、S204に戻る。一方、ID[cnt]が所定回数連続で検知されている場合(S205:YES)、そのまま変数cntが「1」加算されて(S208)、S204に戻る。   If ID [cnt] has not been detected continuously for a predetermined number of times (S205: NO), information indicating an error (error value) is set in ID [cnt] (S206), and the variable tntemp is decremented by “1” (S207). ), The variable cnt is incremented by “1” (S208), and the process returns to S204. On the other hand, if ID [cnt] has been continuously detected a predetermined number of times (S205: YES), the variable cnt is incremented by “1” (S208), and the process returns to S204.

このようにS204〜S208の処理が、変数cntが検知タグ数tnよりも小でなくなるまで繰り返されたら(cnt≧tn)(S204:NO)、検知タグ数tnに変数tntempが設定される(S209)。その結果、検知されたRFIDタグ8のうち、不適切なものにはエラーを示す情報(error値)が設定され、また、検知タグ数tnには適切に検知されたRFIDタグ8の数量が設定される。   As described above, when the processing of S204 to S208 is repeated until the variable cnt is not smaller than the detection tag number tn (cnt ≧ tn) (S204: NO), the variable tntemp is set to the detection tag number tn (S209). ). As a result, information indicating an error (error value) is set for inappropriate ones of detected RFID tags 8, and the number of RFID tags 8 appropriately detected is set for the number of detection tags tn. Is done.

そして、RFIDタグ8が検知されたか否かが判定される(S210)。検知されない場合(tn=0)(S210:NO)、図5に戻る。RFIDタグ8が検知された場合(tn>0)(S210:YES)、RFIDタグ8が複数検知されたか否かが判定される(S211)。複数検知されない場合(tn=1)(S211:NO)、検知された対象物IDが出力されて(S212)、図5に戻る。RFIDタグ8が複数検知された場合(tn>1)(S211:YES)、出力モード別処理(S213)が実行されて、図5に戻る。なお、RFIDタグ8が検知されない場合も(tn=0)(S202:NO)、図5に戻る。   Then, it is determined whether or not the RFID tag 8 is detected (S210). If not detected (tn = 0) (S210: NO), the process returns to FIG. When the RFID tag 8 is detected (tn> 0) (S210: YES), it is determined whether or not a plurality of RFID tags 8 are detected (S211). When a plurality of objects are not detected (tn = 1) (S211: NO), the detected object ID is output (S212), and the process returns to FIG. When a plurality of RFID tags 8 are detected (tn> 1) (S211: YES), output mode-specific processing (S213) is executed, and the process returns to FIG. Even when the RFID tag 8 is not detected (tn = 0) (S202: NO), the process returns to FIG.

図11に示すように、出力モード別処理(S213)では、複数検知時の出力モードが判定される(S221)。本実施の形態では、複数検知時の出力モードとして「テーブルモード」,「全出力モード」,「検知順モード」が存在し、いずれかの出力モードがあらかじめ出力モード選択スイッチ154から選択されている。S221では選択済みの出力モードが判定される。なお、出力モードの種類は上記のものに限定されず、利用者が複数の出力モードから任意のものを選択可能とすればよい。   As shown in FIG. 11, in the output mode-specific processing (S213), the output mode at the time of multiple detection is determined (S221). In the present embodiment, “table mode”, “all output mode”, and “detection order mode” exist as output modes at the time of multiple detection, and any output mode is selected in advance from the output mode selection switch 154. . In S221, the selected output mode is determined. Note that the types of output modes are not limited to those described above, and it is only necessary that the user can select any one of a plurality of output modes.

S221で「全出力モード」と判定された場合、検知された全ての対象物IDが出力されて(S222)、図10に戻る。   If it is determined in S221 that the mode is “all output mode”, all detected object IDs are output (S222), and the process returns to FIG.

S221で「テーブルモード」と判定された場合、次の処理がなされる。図12に示すように、複数のRFIDタグ8の領域分布のイメージ図では、展示物9「A」には対象物ID「タグ1」のRFIDタグ8が、展示物9「B」には対象物ID「タグ2」のRFIDタグ8が、展示物9「C」には対象物ID「タグ3」のRFIDタグ8が、それぞれ付与される。そして、各RFIDタグ8の無線通信可能な通信領域(図12で円形表示される領域)が相互に重複しているので、どのRFIDタグ8の通信領域が重複しているかで対象物特定装置1の位置を特定できる。例えば、全ての展示物9のRFIDタグリーダ160から対象物IDが検知された場合、対象物特定装置1は各RFIDタグリーダ160の通信領域が全て重複する「領域s」に存在することを特定できる。   If the “table mode” is determined in S221, the following processing is performed. As shown in FIG. 12, in the image of the area distribution of the plurality of RFID tags 8, the RFID tag 8 with the object ID “tag 1” is displayed in the exhibit 9 “A”, and the object is displayed in the exhibit 9 “B”. The RFID tag 8 with the ID “tag 2” is given, and the RFID tag 8 with the object ID “tag 3” is given to the exhibit 9 “C”, respectively. And since the communication area (area displayed in a circle in FIG. 12) where each RFID tag 8 can perform wireless communication overlaps with each other, the object specifying device 1 depends on which RFID tag 8 communication area overlaps. Can be specified. For example, when the object IDs are detected from the RFID tag readers 160 of all exhibits 9, the object specifying device 1 can specify that the communication areas of the RFID tag readers 160 are all present in the “area s” that overlaps.

図13に示すように、対象物ID特定テーブル18には、検知された対象物IDと特定される領域との対応がテーブル形式で定義される。検知された対象物IDに基づき対象物ID特定テーブル18を参照することで、対象物特定装置1が存在する領域が特定され、その特定された領域に対応する対象物IDが取得される。例えば、複数のRFIDタグ8から対象物ID「タグ1」及び「タグ2」が検知された場合、この2つの対象物IDが検知される領域は「領域P」である(図12参照)。よって、対象物特定装置1は「領域P」に存在し、「領域P」に対応する対象物ID「タグ4」が取得される。   As shown in FIG. 13, in the object ID specifying table 18, the correspondence between the detected object ID and the specified area is defined in a table format. By referring to the object ID identification table 18 based on the detected object ID, the area where the object identification device 1 exists is identified, and the object ID corresponding to the identified area is acquired. For example, when object IDs “tag 1” and “tag 2” are detected from a plurality of RFID tags 8, the area where these two object IDs are detected is “area P” (see FIG. 12). Therefore, the object specifying device 1 exists in the “area P”, and the object ID “tag 4” corresponding to the “area P” is acquired.

以上のように、複数検知時の出力モードが「テーブルモード」であれば、対象物ID特定テーブル18から対象物IDが取得されて(S223)、その取得された対象物IDが出力され(S224)、図10に戻る。なお、各RFIDタグ8が相互に重複する通信領域やいずれも通信できない通信領域などの干渉領域に関する情報を、あらかじめ対象物特定装置1に記憶させておけば、より詳細に利用者の位置を特定することができる。   As described above, if the output mode at the time of multiple detection is “table mode”, the object ID is acquired from the object ID specifying table 18 (S223), and the acquired object ID is output (S224). ), Returning to FIG. In addition, if information about interference areas such as communication areas where the RFID tags 8 overlap each other and communication areas where none of them can communicate with each other is stored in the object specifying device 1 in advance, the position of the user can be specified in more detail. can do.

S221で「検知順モード」と判定された場合、まず、変数cntに「0」、変数maxに「−1」が各々設定され(S225)、変数cntが検知タグ数tnよりも小か否かが判定される(S226)。変数cntが変数tnよりも小である場合(cnt<tn)(S226:YES)、連続検知回数seq[cnt]が変数maxよりも大か否かが判定される(S227)。連続検知回数seq[cnt]が変数maxよりも大である場合(seq[cnt]>max)(S227:YES)、そのID[cnt]が対象物IDとして設定されて(S228)、変数maxにその連続検知回数seq[cnt]が設定される(S229)。   If it is determined in S221 that the mode is “detection order mode”, first, “0” is set in the variable cnt and “−1” is set in the variable max (S225), and whether or not the variable cnt is smaller than the number of detection tags tn. Is determined (S226). When the variable cnt is smaller than the variable tn (cnt <tn) (S226: YES), it is determined whether or not the continuous detection frequency seq [cnt] is larger than the variable max (S227). When the number of continuous detections seq [cnt] is larger than the variable max (seq [cnt]> max) (S227: YES), the ID [cnt] is set as the object ID (S228), and the variable max is set. The continuous detection frequency seq [cnt] is set (S229).

連続検知回数seq[cnt]が変数maxよりも大でない場合(seq[cnt]≦max)(S227:NO)、又はS229の実行後、変数cntが「1」加算されて(S230)、S226に戻る。このようにS226〜S230の処理が、変数cntが検知タグ数tnよりも小でなくなるまで繰り返されて(cnt≧tn)(S226:NO)、最も大きい連続検知回数seq[cnt]に対応するID[cnt]が対象物IDとして設定される。この設定された対象物IDが出力されて(S231)、図10に戻る。   When the number of continuous detections seq [cnt] is not greater than the variable max (seq [cnt] ≦ max) (S227: NO), or after the execution of S229, the variable cnt is incremented by “1” (S230), and the process proceeds to S226. Return. In this way, the processing of S226 to S230 is repeated until the variable cnt is not smaller than the detection tag number tn (cnt ≧ tn) (S226: NO), and the ID corresponding to the largest continuous detection count seq [cnt]. [Cnt] is set as the object ID. The set object ID is output (S231), and the process returns to FIG.

図5に戻り、クロックの検知が実行されて(S5)、計時装置190が参照されて現在日時を示す日時データが取得され、対象物情報出力処理が実行される(S11)。図14に示すように、対象物情報出力処理(S11)では、推論データ作成処理(S3)で作成された推論データ,利用者に固有の識別データであるユーザID,RFIDの検知(S4)で取得された対象物ID,クロックの検知(S5)で取得された日時データに基づいて対象物情報が作成される(S301)。図15に示すように、対象物情報10には、少なくともユーザID10a,日時データ10b,推論値10c,推論種別10d,対象物ID10e,スイッチ情報10fが含まれている。推論値10cと推論種別10dは、推論データに含まれる推論値13c及び推論種別13aに各々対応する。また、対象物特定装置1にあらかじめ記憶された利用者に固有のユーザID10aや、利用者による意思伝達スイッチ152のオン又はオフを示すスイッチ情報10fが含まれる。S301で作成された対象物情報10は、HDD140の対象物情報記憶エリア144(図4参照)に保存される(S302)。   Returning to FIG. 5, clock detection is executed (S5), date and time data indicating the current date and time is acquired by referring to the time measuring device 190, and object information output processing is executed (S11). As shown in FIG. 14, in the object information output process (S11), the inference data created in the inference data creation process (S3), the user ID that is identification data unique to the user, and RFID detection (S4). Object information is created based on the acquired object ID and date / time data acquired in clock detection (S5) (S301). As shown in FIG. 15, the object information 10 includes at least a user ID 10a, date / time data 10b, an inference value 10c, an inference type 10d, an object ID 10e, and switch information 10f. The inference value 10c and the inference type 10d correspond to the inference value 13c and the inference type 13a included in the inference data, respectively. In addition, a user ID 10a unique to the user stored in advance in the object specifying device 1 and switch information 10f indicating whether the intention transmission switch 152 is turned on or off by the user are included. The object information 10 created in S301 is stored in the object information storage area 144 (see FIG. 4) of the HDD 140 (S302).

その後、図5に戻り、所定時間が経過したか否かが判定される(S12)。この所定時間は、あらかじめ計時装置190にセットされている時間であり、S12では計時装置190を参照して、所定時間の経過が判定される。計時装置190にセットされる所定時間は、利用者又は設計者によって任意の時間を設定可能である。   Thereafter, returning to FIG. 5, it is determined whether or not a predetermined time has passed (S12). This predetermined time is a time set in advance in the time measuring device 190, and in S12, with reference to the time measuring device 190, the passage of the predetermined time is determined. The predetermined time set in the time measuring device 190 can be set arbitrarily by the user or the designer.

そして、所定時間が経過していなければ(S12:NO)、意思伝達スイッチ152が「ON」か否かが判定される(S13)。意思伝達スイッチ152が「ON」でない、すなわち「OFF」である場合には(S13:NO)、S12に戻る。よって、所定時間が経過するか、意思伝達スイッチ152が「ON」されるまで、S12〜S13の処理が繰り返される。   If the predetermined time has not elapsed (S12: NO), it is determined whether or not the intention transmission switch 152 is “ON” (S13). When the intention transmission switch 152 is not “ON”, that is, is “OFF” (S13: NO), the process returns to S12. Therefore, the processing of S12 to S13 is repeated until a predetermined time elapses or until the intention transmission switch 152 is turned “ON”.

一方、所定時間が経過した場合(S12:YES)又は意思伝達スイッチ152が「ON」である場合(S13:YES)、S3に戻って推論データが作成され、さらに対象物情報10が出力される(S11)。すなわち、対象物特定装置1では、所定時間毎に又は意思伝達スイッチ152が「ON」される毎に、最新の対象物情報10が出力される処理が繰り返される。その結果、HDD140の対象物情報記憶エリア144(図4参照)には、複数の対象物情報10が時系列に保存される。   On the other hand, when the predetermined time has elapsed (S12: YES) or when the intention transmission switch 152 is “ON” (S13: YES), the process returns to S3 to create inference data, and the object information 10 is output. (S11). That is, in the object specifying device 1, the process of outputting the latest object information 10 is repeated every predetermined time or whenever the intention transmission switch 152 is turned “ON”. As a result, a plurality of pieces of object information 10 are stored in time series in the object information storage area 144 (see FIG. 4) of the HDD 140.

以上説明したように、第1の実施の形態の対象物特定装置によれば、利用者が美術館などで展示物9を見て回ると、各センサからの計測値と、RFIDタグ8から取得された対象物IDとに基づいて、利用者がどの展示物9に対してどのような感情や意識などを生じたかを示す対象物情報10を作成することができ、推論結果の信頼性を高めることができる。   As described above, according to the object identification device of the first embodiment, when a user looks around the exhibition 9 in a museum or the like, the measured value from each sensor and the RFID tag 8 are acquired. Based on the target object ID, it is possible to create target object information 10 indicating what feelings, consciousness, etc. the user has produced for which exhibition 9, and to increase the reliability of the inference result Can do.

また、利用者が特定の展示物9に「感動」した場合には、意思伝達スイッチ152から任意にスイッチ情報を入力することで、意図的に自分が「感動」していることを対象物情報10に反映させることができ、対象物情報10の精度を向上させることができる。   In addition, when a user “impresses” a specific exhibit 9, by arbitrarily inputting switch information from the intention transmission switch 152, the object information that the user is intentionally “impressed”. 10 and the accuracy of the object information 10 can be improved.

また、RFIDタグリーダ160により近傍のRFIDタグ8から自動的に対象物IDが検知され、複数の対象物IDが検知された場合は、利用者が任意に選択した出力モードに従って最適な対象物IDが出力されるため、対象物情報10を簡易にかつ正確に作成できる。   In addition, when an object ID is automatically detected from the nearby RFID tag 8 by the RFID tag reader 160 and a plurality of object IDs are detected, the optimum object ID is determined according to the output mode arbitrarily selected by the user. Since it is output, the object information 10 can be created easily and accurately.

次に、本発明の第2の実施の形態を図面を参照して説明する。第2の実施の形態に係る人気投票システムは、利用者に携行される小型の携帯端末装置である対象物特定装置と、固定されたコンピュータ機器である人気度解析装置とが、ネットワークを介して接続されたシステムである。   Next, a second embodiment of the present invention will be described with reference to the drawings. In the popularity voting system according to the second embodiment, an object identification device that is a small portable terminal device carried by a user and a popularity analysis device that is a fixed computer device are connected via a network. It is a connected system.

本実施の形態の人気投票システムでは、対象物特定装置を携行する利用者が、美術館などで展示物をみて感動したら、その展示物の近傍で所定のスイッチを押して、その展示物への人気投票を行う。そして、複数の対象物特定装置の各々で作成された対象物情報が、ネットワークを介して人気度解析装置に収集されて、展示物の人気投票結果等が解析される場合を例示する。   In the popularity voting system according to the present embodiment, when a user carrying an object identification device is impressed by seeing an exhibit at a museum or the like, he / she presses a predetermined switch in the vicinity of the exhibit to vote for popularity on the exhibit. I do. And the case where the object information created by each of the plurality of object specifying devices is collected by the popularity analysis device via the network and the popularity vote result of the exhibit is analyzed is illustrated.

まず、図16乃至図18を参照して、第2の実施の形態に係る人気投票システムの構成について説明する。図16は、人気投票システムの全体構成図である。図17は、対象物特定装置1の他の構成を示すブロック図である。図18は、人気度解析装置2の構成を示すブロック図である。   First, the configuration of the popularity voting system according to the second embodiment will be described with reference to FIGS. FIG. 16 is an overall configuration diagram of the popularity voting system. FIG. 17 is a block diagram showing another configuration of the object identification device 1. FIG. 18 is a block diagram showing the configuration of the popularity analysis device 2.

図16に示すように、本実施の形態に係る人気投票システムは、複数の対象物特定装置1の各々と人気度解析装置2とが、ネットワーク90を介して接続されている。利用者は対象物特定装置1を携行して、美術館などで複数の展示物9を各々見て回る。なお、ネットワーク90は、有線又は無線を問わず、各々の端末間でデータ送受信可能であるように有効に接続されていればよい。   As shown in FIG. 16, in the popularity voting system according to the present embodiment, each of the plurality of object specifying devices 1 and the popularity analysis device 2 are connected via a network 90. The user carries the object specifying device 1 and looks around each of the plurality of exhibits 9 at a museum or the like. The network 90 only needs to be effectively connected so that data can be transmitted and received between terminals regardless of wired or wireless.

図17に示すように、対象物特定装置1の各々は、基本的には第1の実施の形態のもの(図2参照)と同一構成であるが、外部のネットワーク90と接続するための通信部170とを備える点で異なる。通信部170は、外部のネットワーク90と有線又は無線によって有効に接続できればよいが、例えば、本実施の形態では通信部170は、ネットワーク90と無線LANによる接続を実行するための無線LANアダプタである。   As shown in FIG. 17, each of the object specifying devices 1 has basically the same configuration as that of the first embodiment (see FIG. 2), but communication for connecting to an external network 90. It differs in the point provided with the part 170. The communication unit 170 only needs to be able to be effectively connected to the external network 90 by wire or wireless. For example, in this embodiment, the communication unit 170 is a wireless LAN adapter for executing connection with the network 90 by a wireless LAN. .

図18に示すように、人気度解析装置2には、CPU210,ROM220,RAM230,HDD240,ディスプレイ261が接続された表示制御部260,マイク271及びスピーカ272が接続された音声制御部270,マウス281及びキーボード282が接続された入力検知部280が、バス215を介して具備されている。このような人気度解析装置2の構成は、通常のコンピュータ機器の構成として公知のものであるから、詳細は省略する。なお、人気度解析装置2には、外部のネットワーク90と有線又は無線によって有効に接続するための通信インタフェース291が設けられている。通信インタフェース291はネットワーク90と有効に接続可能であればよいが、例えば、本実施の形態では通信インタフェース291は、有線LANにケーブル接続するためのLANカードである。また、後述の人気度解析処理を実行するための人気度解析プログラムが、HDD240のプログラム記憶エリア(図示外)に記憶される。   As shown in FIG. 18, the popularity analysis apparatus 2 includes a CPU 210, a ROM 220, a RAM 230, an HDD 240, a display control unit 260 to which a display 261 is connected, a voice control unit 270 to which a microphone 271 and a speaker 272 are connected, and a mouse 281. And an input detection unit 280 to which a keyboard 282 is connected is provided via a bus 215. Such a configuration of the popularity analysis device 2 is known as a configuration of an ordinary computer device, and therefore details thereof are omitted. The popularity analysis device 2 is provided with a communication interface 291 for effectively connecting to the external network 90 by wire or wireless. The communication interface 291 is only required to be able to be effectively connected to the network 90. For example, in this embodiment, the communication interface 291 is a LAN card for cable connection to a wired LAN. Also, a popularity analysis program for executing a popularity analysis process described later is stored in a program storage area (not shown) of the HDD 240.

以下、本発明の人気投票システムでの処理の流れを、図19乃至図24を参照して説明する。図19は、対象物特定装置1における、対象物情報出力処理(S11)の他の詳細を示すフローチャートである。図20は人気度解析装置2における、人気度解析処理のメインフローチャートである。図21は、解析実行処理(S22)を説明するための図である。図22は、時間遷移情報23の内容を示す図である。図23は、解析実行処理(S22)による展示最適化の詳細を示すフローチャートである。図24は、最適化情報24の内容を示す図である。   Hereinafter, the flow of processing in the popularity voting system of the present invention will be described with reference to FIGS. FIG. 19 is a flowchart showing other details of the object information output process (S11) in the object specifying device 1. FIG. 20 is a main flowchart of popularity analysis processing in the popularity analysis device 2. FIG. 21 is a diagram for explaining the analysis execution process (S22). FIG. 22 is a diagram showing the contents of the time transition information 23. FIG. 23 is a flowchart showing details of exhibition optimization by the analysis execution process (S22). FIG. 24 is a diagram showing the contents of the optimization information 24.

まず、対象物特定装置1における処理を説明する。対象物特定装置1における処理は図5と基本的に同じであるが、対象物情報出力処理(S11)が異なる。図19に示すように、対象物情報出力処理(S11)では、図14と同様に対象物情報が作成される(S301)。そして、S301で作成された対象物情報は、通信部170からネットワーク90を介して人気度解析装置2に送信される(S303)。人気度解析装置2に送信される対象物情報は、図15に示す対象物情報10と同じである。   First, processing in the object specifying device 1 will be described. The processing in the object specifying device 1 is basically the same as that in FIG. 5, but the object information output process (S11) is different. As shown in FIG. 19, in the object information output process (S11), object information is created as in FIG. 14 (S301). Then, the object information created in S301 is transmitted from the communication unit 170 to the popularity analysis device 2 via the network 90 (S303). The object information transmitted to the popularity analysis device 2 is the same as the object information 10 shown in FIG.

なお、S303の送信処理の実行タイミングは、対象物情報10の作成時に限定されず、S301で作成された対象物情報10をHDD140の対象物情報記憶エリア144(図4参照)に保存しておき、所定期間ごとに又は利用者からの指示がある場合に、S303の送信処理が実行されてもよい。なお、人気度解析装置2に送信された対象物情報10は、ネットワーク90を介して、通信インタフェース291により受信されて、人気度解析装置2のHDD240に設けられた対象物情報記憶エリア(図示外)に保存される。   The execution timing of the transmission process in S303 is not limited to the creation of the object information 10, and the object information 10 created in S301 is stored in the object information storage area 144 (see FIG. 4) of the HDD 140. The transmission process of S303 may be executed every predetermined period or when there is an instruction from the user. The object information 10 transmitted to the popularity analysis device 2 is received by the communication interface 291 via the network 90 and is stored in an object information storage area (not shown) provided in the HDD 240 of the popularity analysis device 2. ).

次に、人気度解析装置2における処理を説明する。人気度解析装置2では、対象物情報記憶エリア(図示外)に収集された複数の対象物情報10に基づいて、展示物9の人気投票結果等を解析する人気度解析処理が実行される。人気度解析処理は、あらかじめ定められた時間間隔毎に定期的に実行され、又はマウス281やキーボード282から処理実行が指示されると実行される。   Next, processing in the popularity analysis device 2 will be described. In the popularity analysis device 2, a popularity analysis process for analyzing the popularity vote result of the exhibit 9 is executed based on a plurality of pieces of object information 10 collected in the object information storage area (not shown). The popularity analysis process is periodically executed at predetermined time intervals, or is executed when a process execution is instructed from the mouse 281 or the keyboard 282.

図20に示すように、人気度解析処理では、対象物情報記憶エリア(図示外)から解析対象となる対象物情報10が読み出される(S21)。ここで、対象物情報記憶エリア(図示外)に保存されている全ての対象物情報10を読み出してもよいし、一部のみを読み出してもよい。また、読み出し対象となる対象物情報10を、利用者が選択できるようにしてもよい。   As shown in FIG. 20, in the popularity analysis process, the object information 10 to be analyzed is read from the object information storage area (not shown) (S21). Here, all the object information 10 stored in the object information storage area (not shown) may be read, or only a part may be read. Moreover, you may enable it for the user to select the target object information 10 used as reading object.

次に、S21で読み出された対象物情報10に基づいて、解析実行処理(S22)が実行されて、展示物9の人気度に関する解析情報が作成される。S22で作成された解析情報は、HDD240の解析情報記憶エリア(図示外)に保存される(S23)。ここで、対象物情報10に基づいて解析情報を作成する手法としては、その目的や利用形態に応じて各種手法を適用可能であり、どのような内容の解析情報を作成するかも利用者又は設計者の任意である。以下では、S22における処理の例を示す。   Next, based on the object information 10 read in S21, an analysis execution process (S22) is executed, and analysis information regarding the popularity of the exhibit 9 is created. The analysis information created in S22 is stored in an analysis information storage area (not shown) of the HDD 240 (S23). Here, as a method for creating analysis information based on the object information 10, various methods can be applied according to the purpose and use form, and what kind of content the analysis information is created by the user or design Is voluntary. Below, the example of the process in S22 is shown.

利用者がどの展示物9について「感動」し、またどの展示物9に人気投票を行ったかを示す利用者別人気投票について解析情報を作成する場合は、ユーザID10a(図15参照)に基づいて対象物情報10が利用者毎に集計される。その結果、図21に示すように、「感動」についての推論値10cを示す感動度(E)21a,スイッチ情報10fを示す人気投票スイッチ(意思伝達スイッチ152)のON/OFF21b,対象物ID10eに対応する展示物9を示す展示物21cが対応付けられた利用者別人気度情報21が、利用者ごとに作成される。このような利用者別人気度情報21を活用すれば、利用者の嗜好を把握できる。   When the analysis information is created for the popularity vote for each user indicating which exhibition 9 the user “impressed” and which exhibition 9 has been voted for popularity, based on the user ID 10a (see FIG. 15). The object information 10 is totaled for each user. As a result, as shown in FIG. 21, the impression (E) 21a indicating the inference value 10c for “impression”, the ON / OFF 21b of the popular vote switch (intention transmission switch 152) indicating the switch information 10f, and the object ID 10e User-specific popularity information 21 associated with an exhibit 21c indicating the corresponding exhibit 9 is created for each user. If such user-specific popularity degree information 21 is utilized, a user's preference can be grasped.

また、どの展示物9が利用者に「感動」を与えたか、またどの展示物9に人気投票が集まったかを示す展示物別人気投票について解析情報を作成する場合は、対象物ID10e(図15参照)に基づいて対象物情報10が展示物9ごとに集計される。その結果、図21に示すように、展示物9への感動度(E)の全利用者の総計を利用者数で除算した平均感動度(E)22aと、全利用者に対する人気投票スイッチ(意思伝達スイッチ152)をONした人の割合22bとが対応付けられた展示物別人気度情報22が、展示物9ごとに作成される。このような展示物別人気度情報22を活用すれば、展示物9の人気を把握できる。   In addition, in the case of creating analysis information on the exhibition-specific popularity vote indicating which exhibition 9 has given the user “impression” and which exhibition 9 the popularity vote has gathered, the object ID 10e (FIG. 15). The object information 10 is tabulated for each exhibit 9 based on the reference). As a result, as shown in FIG. 21, the average sensitivity (E) 22a obtained by dividing the total number of users of the sensitivity (E) to the exhibition 9 by the number of users, and the popularity vote switch ( The popularity information 22 for each exhibit 9 is created for each exhibit 9 in association with the ratio 22b of the person who turned on the intention transmission switch 152). By using such popularity information 22 by exhibit, the popularity of the exhibit 9 can be grasped.

また、各展示物9の時間による人気度の遷移を示す解析情報を作成する場合は、さらに日時データ10b(図15参照)に基づいて、単位時間ごとの展示物別人気度情報22を作成する。そして、単位時間ごとに展示物9への感動度(E)の全利用者の総計を利用者数で除算した平均感動度(E)を求めて、それらを時系列にグラフ化すると図22に示す時間遷移情報23を作成できる。図22では、展示物9「A」と展示物9「B」について、8時から22時までの2時間ごとの平均感動度(E)の遷移を示す。このような時間遷移情報23を活用すれば、展示物9の時間帯ごとの人気を把握できる。同様にして、単位時間ごとの全利用者に対する人気投票スイッチ(意思伝達スイッチ152)をONした人の割合で、時間遷移情報23を作成してもよい。   Further, when creating analysis information indicating the transition of popularity of each exhibit 9 over time, the popularity information 22 by exhibit for each unit time is created based on the date / time data 10b (see FIG. 15). . Then, when the average sensitivity (E) obtained by dividing the total of all the users of the sensitivity (E) to the exhibition 9 by the number of users is obtained for each unit time, and graphed in time series, FIG. The time transition information 23 shown can be created. FIG. 22 shows the transition of the average sensitivity (E) every two hours from 8 o'clock to 22 o'clock for the exhibit 9 “A” and the exhibit 9 “B”. By using such time transition information 23, the popularity of the exhibition 9 for each time zone can be grasped. Similarly, the time transition information 23 may be created by the ratio of those who turned on the popularity vote switch (the intention transmission switch 152) for all users per unit time.

さらに、解析実行処理(S22)として、各展示物9の配置を最適化する展示最適化処理を実行できる。以下では、一例として図22に示す展示物9「A」と展示物9「B」についての展示最適化の例を示す。図23に示すように、展示最適化処理では、まず上述のように時間遷移情報23(図22参照)が作成される(S401)。次に、本処理に必要な各パラメータが初期化され、時間tに「8」が設定される(S402)。そして、時間tが「22」よりも大か否かが判定される(S403)。時間tが「22」よりも大でなければ(t≦22)(S403:NO)、その時間tにおいて、展示物9「A」の感動度(E)が展示物9「B」の感動度(E)よりも大か否かが判定される(S404)。展示物9「A」の感動度(E(A))が展示物9「B」の感動度(E(B))よりも大であれば(E(A)>E(B))(S404:YES)、時間tにおける変数S[t]に感動度(E(A))が設定される(S405)。一方、展示物9「A」の感動度(E(A))が展示物9「B」の感動度(E(B))よりも大でなければ(E(A)≦E(B))(S404:NO)、時間tにおける変数S[t]に感動度(E(B))設定される(S406)。その後、時間tに「2」加算されて(S407)、S403に戻る。このようにS403〜S407が繰り返されて、10時から22時までの2時間毎の最大感動度(E)が変数S[t]に設定される。そして、時間tが「22」よりも大であれば(t>22)(S403:YES)、変数S[t]についてのパラメータ配列Sが最適化情報24として出力される(S408)。   Furthermore, as an analysis execution process (S22), an exhibition optimization process for optimizing the arrangement of the exhibits 9 can be executed. In the following, an example of exhibition optimization for the exhibit 9 “A” and the exhibit 9 “B” shown in FIG. 22 is shown as an example. As shown in FIG. 23, in the exhibition optimization process, first, time transition information 23 (see FIG. 22) is created as described above (S401). Next, each parameter necessary for this processing is initialized, and “8” is set as the time t (S402). Then, it is determined whether or not the time t is longer than “22” (S403). If the time t is not greater than “22” (t ≦ 22) (S403: NO), the sensitivity (E) of the exhibit 9 “A” is the sensitivity of the exhibit 9 “B” at the time t. It is determined whether it is greater than (E) (S404). If the sensitivity (E (A)) of the exhibit 9 “A” is greater than the sensitivity (E (B)) of the exhibit 9 “B” (E (A)> E (B)) (S404) : YES), the sensitivity (E (A)) is set in the variable S [t] at time t (S405). On the other hand, if the sensitivity (E (A)) of the exhibit 9 “A” is not greater than the sensitivity (E (B)) of the exhibit 9 “B” (E (A) ≦ E (B)) (S404: NO), the sensitivity (E (B)) is set to the variable S [t] at time t (S406). Thereafter, “2” is added to the time t (S407), and the process returns to S403. In this way, S403 to S407 are repeated, and the maximum sensitivity (E) every 2 hours from 10:00 to 22:00 is set in the variable S [t]. If the time t is greater than “22” (t> 22) (S403: YES), the parameter array S for the variable S [t] is output as the optimization information 24 (S408).

図24に示すように、最適化情報24では、展示物9「A」と展示物9「B」のうち、時間帯ごとに感動度(E)が高い方が表示される。このような最適化情報24を活用すれば、どの時間帯にどの展示物を展示すれば最大の効用を得ることができるか等を把握できる。   As shown in FIG. 24, in the optimization information 24, the one having the higher impression level (E) for each time zone is displayed among the exhibit 9 “A” and the exhibit 9 “B”. By utilizing such optimization information 24, it is possible to grasp which exhibitions are exhibited at which time periods and which maximum utility can be obtained.

以上説明したように、第2の実施の形態の人気投票システムによれば、各利用者が美術館などで展示物9を見て回ると、各対象物特定装置1では利用者がどの展示物9に対してどのような感情や意識などを生じたかを示す対象物情報10が作成されて、人気度解析装置2に送信されるので、対象物情報10を人気度解析装置2に収集管理できる。   As described above, according to the popularity voting system of the second embodiment, when each user looks around the exhibition 9 at a museum or the like, each object specifying device 1 uses which exhibition 9 The object information 10 indicating what kind of emotion or consciousness is generated is generated and transmitted to the popularity analysis device 2, so that the object information 10 can be collected and managed by the popularity analysis device 2.

また、人気度解析装置2では、展示物9の人気投票結果等を解析する人気度解析処理が実行されるので、その解析結果を利用すれば、利用者の嗜好や展示物9の人気を把握することができ、対象物情報10の利用範囲を広げることができる。   In addition, the popularity analysis device 2 executes popularity analysis processing for analyzing the popularity vote result of the exhibit 9, so that the user's preference and popularity of the exhibit 9 can be grasped by using the analysis result. And the range of use of the object information 10 can be expanded.

また、利用者は展示物9の近傍で意思伝達スイッチ152を押すことで、その展示物9に人気投票することができ、人気投票された(意思伝達スイッチ152が「ON」された)ことが反映された対象物情報10を作成できる。   In addition, the user can vote for the exhibition 9 by pressing the intention transmission switch 152 in the vicinity of the exhibition 9, and the popularity vote has been received (the intention transmission switch 152 has been turned “ON”). The reflected object information 10 can be created.

ところで、上記第1及び第2の実施の形態において、体温センサ182,発汗センサ183,心拍数センサ184からの計測値の入力を検知する入力検知部180(図1)が、本発明の「計測値取得手段」に相当する。図7に示す推論データ作成処理(S3)に対応する推論エンジンを実行するCPU110が、本発明の「推論データ作成手段」に相当する。図14又は図19に示す対象物情報出力処理(S11)でS301を実行するCPU110が、本発明の「対象物情報作成手段」に相当し、S302又はS303を実行するCPU110が、本発明の「対象物情報出力手段」に相当する。また、意思伝達スイッチ152が本発明の「利用者情報入力手段」に相当し、出力モード選択スイッチ154が本発明の「出力モード選択手段」に相当する。   By the way, in the first and second embodiments, the input detection unit 180 (FIG. 1) that detects the input of the measurement value from the body temperature sensor 182, the sweat sensor 183, and the heart rate sensor 184 is the “measurement” of the present invention. It corresponds to “value acquisition means”. The CPU 110 that executes the inference engine corresponding to the inference data creation process (S3) shown in FIG. 7 corresponds to the “inference data creation means” of the present invention. The CPU 110 that executes S301 in the object information output process (S11) shown in FIG. 14 or FIG. 19 corresponds to the “object information creating means” of the present invention, and the CPU 110 that executes S302 or S303 of the present invention “ This corresponds to “object information output means”. The intention transmission switch 152 corresponds to “user information input means” of the present invention, and the output mode selection switch 154 corresponds to “output mode selection means” of the present invention.

また、展示物9が本発明における「対象物」に相当し、対象物IDが本発明の「識別データ」である。RFIDタグ8が本発明における「被記録媒体」であり、RFIDタグリーダ160が本発明の「識別データ取得手段」に相当する。通信部170が本発明の「対象物情報送信手段」に相当し、通信インタフェース291が本発明の「対象物情報取得手段」及び「対象物情報受信手段」に相当する。HDD140及びHDD240が本発明の「対象物情報記憶手段」に相当する。図21〜図24に示す解析実行処理(S22)を実行するCPU210が、本発明の「解析情報作成手段」及び「人気度解析手段」に相当する。   The exhibit 9 corresponds to the “object” in the present invention, and the object ID is “identification data” in the present invention. The RFID tag 8 is the “recording medium” in the present invention, and the RFID tag reader 160 corresponds to the “identification data acquisition unit” in the present invention. The communication unit 170 corresponds to “object information transmitting means” of the present invention, and the communication interface 291 corresponds to “object information acquisition means” and “object information receiving means” of the present invention. The HDD 140 and the HDD 240 correspond to the “object information storage unit” of the present invention. CPU210 which performs the analysis execution process (S22) shown in FIGS. 21-24 corresponds to the "analysis information preparation means" and the "popularity analysis means" of this invention.

なお、本発明は、以上詳述した第1及び第2の実施の形態に限定されるものではなく、各種の変形が可能なことはいうまでもない。   The present invention is not limited to the first and second embodiments described in detail above, and it goes without saying that various modifications are possible.

例えば、上記実施の形態では、図10に示すRFIDタグの検知(S4)において、RFIDタグリーダ160によってRFIDタグ8から対象物IDが取得される。しかし、他の手段によって展示物9の対象物IDが取得されてもよい。例えば、展示物9に付与されたバーコードから対象物IDを読み出すバーコードリーダによって本発明を実現してもよいし、展示物9に付与された2次元バーコードから対象物IDを読みとるCCDカメラによって本発明を実現してもよい。また、RFIDタグリーダ160にRFIDタグ8までの距離を測定する機能や、対象物特定装置1にRFIDタグ8までの距離を測定する手段を設けて、RFIDタグ8までの距離値を求めて最も近い距離にあるものを、検知対象の展示物9として特定してもよい。   For example, in the above embodiment, the object ID is acquired from the RFID tag 8 by the RFID tag reader 160 in the RFID tag detection (S4) shown in FIG. However, the object ID of the exhibit 9 may be acquired by other means. For example, the present invention may be realized by a barcode reader that reads an object ID from a barcode assigned to the exhibit 9, or a CCD camera that reads the object ID from a two-dimensional barcode assigned to the exhibit 9. You may implement | achieve this invention by. Further, the RFID tag reader 160 is provided with a function for measuring the distance to the RFID tag 8 and the object specifying device 1 is provided with a means for measuring the distance to the RFID tag 8, and the distance value to the RFID tag 8 is obtained to be the closest. An object at a distance may be specified as the exhibit 9 to be detected.

また、図5に示す対象物情報作成処理は、定期的又は利用者からの指示などで実行されるが、他のタイミングで実行されてもよい。例えば、RFIDタグリーダ160により検知されるRFIDタグ8が、他のRFIDタグ8に変化したときに、対象物情報作成処理が実行されてもよい。また、対象物特定装置1で作成された対象物情報10が人気度解析装置2へ送信されているが、対象物特定装置1から人気度解析装置2へ各センサからの計測値が直接送信されて、人気度解析装置2でまとめて対象物情報作成処理(図5)と人気度解析処理(図20)が実行されてもよい。   Further, the object information creation process shown in FIG. 5 is executed regularly or in response to an instruction from the user, but may be executed at other timing. For example, the object information creation process may be executed when the RFID tag 8 detected by the RFID tag reader 160 changes to another RFID tag 8. In addition, the object information 10 created by the object identification device 1 is transmitted to the popularity analysis device 2, but the measurement values from each sensor are directly transmitted from the object identification device 1 to the popularity analysis device 2. Then, the object information creation processing (FIG. 5) and the popularity analysis processing (FIG. 20) may be executed together by the popularity analysis device 2.

また、本実施の形態では、対象物情報10が人気度解析装置2へリアルタイムに送信されているが、人気度解析装置2に対象物情報10を収集する方法としては各種手法が適用できる。例えば、美術館や博物館などの入口で、見学者に対象物特定装置1を貸し出し、出口で対象物特定装置1を回収し、対象物特定装置1に蓄積された対象物情報10を一括して人気度解析装置2に取り出してもよい。また、美術館や博物館などの出口に、対象物特定装置1と通信して対象物情報10を取り出すための通信ユニットを設けて、対象物特定装置1を携行した見学者が出口を通る際に、対象物特定装置1から自動的に対象物情報10が収集されるようにしてもよい。   Further, in the present embodiment, the object information 10 is transmitted to the popularity analysis device 2 in real time, but various methods can be applied as a method for collecting the object information 10 in the popularity analysis device 2. For example, the object identification device 1 is lent to visitors at the entrance of a museum or museum, the object identification device 1 is collected at the exit, and the object information 10 stored in the object identification device 1 is popular at once. You may take out to degree analysis apparatus 2. In addition, a communication unit for communicating with the object identification device 1 and taking out the object information 10 is provided at an exit of a museum or a museum, and when a visitor carrying the object identification device 1 passes through the exit, The object information 10 may be automatically collected from the object specifying device 1.

また、利用者が携行する対象物特定装置1は様々な形態が可能である。例えば、利用者の手首に巻きつけられるリストバンド型でもよいし、利用者の耳内部に嵌入される小型のイヤホン型でもよい。また、対象物特定装置1がデジタルカメラと一体として形成されれば、先述のように、展示物9に付与される2次元バーコードから対象物IDを読みとることも可能である。   Moreover, the object identification device 1 carried by the user can have various forms. For example, a wristband type wound around the user's wrist or a small earphone type inserted into the user's ear may be used. Further, if the object identification device 1 is formed integrally with a digital camera, the object ID can be read from the two-dimensional barcode given to the exhibit 9 as described above.

また、推論データ作成処理(S11)は図7に示すものに限定されず、推論モードの選択(S2)で選択された推論モードによって、様々な処理が可能である。図25は補正テーブル14のデータ構成を示す図であり、この補正テーブル14を用いて、以下のように処理してもよい。各センサからの計測値に基づいてS164の推論実行処理(図8)を実行して推論種別13a及び推論値13cを取得する。意思伝達スイッチ152がONされていれば、補正テーブル14を参照して、推論種別13a(14a)及び推論値13c(14b)に対応するスイッチON時補正値14cを取得する。このスイッチON時補正値14cにより、補正後の推論種別14d及び推論値14eを取得する。   The inference data creation process (S11) is not limited to that shown in FIG. 7, and various processes are possible depending on the inference mode selected in the inference mode selection (S2). FIG. 25 is a diagram showing the data structure of the correction table 14, and the correction table 14 may be used for processing as follows. Based on the measured value from each sensor, the inference execution process (S164) of S164 is executed to acquire the inference type 13a and the inference value 13c. If the intention transmission switch 152 is ON, the correction value 14c at the time of switch ON corresponding to the inference type 13a (14a) and the inference value 13c (14b) is acquired with reference to the correction table 14. The corrected inference type 14d and inference value 14e are obtained from the correction value 14c when the switch is ON.

また、上記実施の形態では、対象物情報10が「感動」について推論される場合を説明しているが、利用者の感情や意識の他にも、雰囲気や重要度等のように、事象の文脈や状況の前後関係などを示すものであって、事実や証拠のみでは把握できない抽象的な概念(コンテクストともいう。)について、対象物情報10が推論されてもよい。そのため、「悲しみ」,「怒り」,「楽しさ」,「賑やかさ」,「忙しさ」等について推論された対象物情報10が作成されてもよい。そして、各対象物情報10の推論内容に対応する推論定義テーブル13が設定されればよい。例えば、利用者の「悲しみ」に基づいて、対象物情報10を作成したい場合は、「悲しみ」に対応する推論定義テーブル13が設定されればよい。   Further, in the above embodiment, the case where the object information 10 is inferred about “impression” has been described. However, in addition to the user's emotion and consciousness, The object information 10 may be inferred with respect to an abstract concept (also referred to as a context) that indicates the context and context of the context and cannot be grasped only by facts and evidence. Therefore, the object information 10 inferred about “sadness”, “anger”, “fun”, “liveness”, “busy”, etc. may be created. And the inference definition table 13 corresponding to the inference content of each object information 10 may be set. For example, when it is desired to create the object information 10 based on the user's “sadness”, the inference definition table 13 corresponding to “sadness” may be set.

また、推論定義テーブル13には、あらかじめ任意の推論内容についてのテーブルが利用者又は設計者によって設定されていてもよいし、複数の推論内容の各々に対応する複数のテーブルが推論定義テーブル13にあらかじめ設定されており、推論データ作成処理(図7)において、自動的に最適なテーブルが選択されるようにしてもよい。   In addition, in the inference definition table 13, a table for arbitrary inference contents may be set in advance by the user or the designer, and a plurality of tables corresponding to each of a plurality of inference contents are included in the inference definition table 13. It may be set in advance, and an optimum table may be automatically selected in the inference data creation process (FIG. 7).

また、推論エンジン初期化処理(図6)では、サンプリング値を測定してその平均値を基準値として算定しているが、サンプリング値の時系列データを取得して、その推移の特徴に基づいて基準値を算定するようにしてもよい。また、異常なサンプリング値は除外して基準値を算定するようにしてもよい。また、推論実行処理(図8)での比較処理(S172,S174,S176)では、各センサ毎に変化閾値εを設けておき、閾値を変化閾値εで補正した補正値で、各センサからの計測値との比較を実行してもよい。例えば、変化閾値εの誤差許容範囲として、閾値の5%程度を設定する等である。また、本実施の形態では、各センサからの計測値を閾値と比較して状態変化を判定しているが、各センサからの計測値から所定の基準値を減算して増分値を求めて、この増分値が閾値よりも大か小かを比較して状態変化を判定するようにしてもよい。   In addition, in the inference engine initialization process (FIG. 6), the sampling value is measured and the average value is calculated as the reference value, but the time-series data of the sampling value is acquired and based on the characteristics of the transition The reference value may be calculated. Further, the reference value may be calculated by excluding abnormal sampling values. Further, in the comparison process (S172, S174, S176) in the inference execution process (FIG. 8), a change threshold value ε is provided for each sensor, and the correction value obtained by correcting the threshold value with the change threshold value ε Comparison with the measured value may be performed. For example, as the allowable error range of the change threshold ε, about 5% of the threshold is set. Further, in the present embodiment, the state change is determined by comparing the measured value from each sensor with a threshold value, but a predetermined reference value is subtracted from the measured value from each sensor to obtain an increment value, The state change may be determined by comparing whether the increment value is larger or smaller than a threshold value.

また、各センサからの計測値は、体温、発汗及び心拍数に限定されないことはいうまでもない。例えば、利用者の振動、脳波、呼吸、加速度、傾き、バイオリズムなどを利用者から計測するようにしてもよい。さらに、各センサ(体温センサ182,発汗センサ183,心拍数センサ184)や入力パネル181は、対象物特定装置1に一体として構成されている必要はなく、USBやネットワークなどのインタフェースを介して入力検知部180に遠隔接続して、有効に計測値や入力情報を取得できればよい。   Needless to say, the measured values from each sensor are not limited to body temperature, sweating and heart rate. For example, the vibration, brain wave, respiration, acceleration, inclination, biorhythm, etc. of the user may be measured from the user. Further, each sensor (body temperature sensor 182, sweat sensor 183, heart rate sensor 184) and input panel 181 do not need to be integrated with the object identification device 1, and are input via an interface such as a USB or network. It is only necessary to remotely connect to the detection unit 180 and effectively acquire measurement values and input information.

同様に、人気度解析装置2では、ディスプレイ261,マイク271,スピーカ272,マウス281,キーボード282は必ずしも必要な構成ではないため、USBやネットワークなどのインタフェースを介して、外部の表示装置,マイク,スピーカなどと遠隔接続してリモート制御するようにしてもよい。   Similarly, in the popularity analysis device 2, the display 261, the microphone 271, the speaker 272, the mouse 281 and the keyboard 282 are not necessarily required configurations, so that an external display device, microphone, Remote control may be performed by remotely connecting to a speaker or the like.

また、人気投票システムに人気度解析装置2を複数設けてもよい。また、対象物特定装置1と人気度解析装置2とが一体として構成された装置としてもよい。逆に、対象物特定装置1が1つであってもよい。   Further, a plurality of popularity degree analysis devices 2 may be provided in the popularity voting system. Moreover, it is good also as an apparatus by which the target object identification apparatus 1 and the popularity analysis apparatus 2 were comprised integrally. On the contrary, the object identification device 1 may be one.

本発明の対象物特定装置、対象物特定システム及び人気投票システムは、特定の対象物に対する利用者の意識や感情などを推論するためのコンピュータ機器に適用できる。   The object specifying device, the object specifying system, and the popularity voting system according to the present invention can be applied to a computer device for inferring a user's consciousness, emotion, and the like regarding a specific object.

対象物特定装置1についての全体構成図である。1 is an overall configuration diagram of an object identification device 1. FIG. 対象物特定装置1の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an object specifying device 1. FIG. 対象物特定装置1のRAM130の記憶エリアの構成を示す概念図である。3 is a conceptual diagram showing a configuration of a storage area of a RAM 130 of the object specifying device 1. FIG. 対象物特定装置1のHDD140の記憶エリアの構成を示す概念図である。3 is a conceptual diagram illustrating a configuration of a storage area of an HDD 140 of the object specifying device 1. FIG. 対象物情報作成処理のメインフローチャートである。It is a main flowchart of object information creation processing. 推論エンジン初期化処理(S1)の詳細を示すフローチャートである。It is a flowchart which shows the detail of an inference engine initialization process (S1). 推論データ作成処理(S3)の詳細を示すフローチャートである。It is a flowchart which shows the detail of an inference data creation process (S3). 推論実行処理(S164)の詳細を示すフローチャートである。It is a flowchart which shows the detail of an inference execution process (S164). 推論定義テーブル13のデータ構成を示す図である。It is a figure which shows the data structure of the inference definition table. RFIDタグ検知処理(S4)の詳細を示すフローチャートである。It is a flowchart which shows the detail of RFID tag detection processing (S4). 出力モード別処理(S213)の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process according to output mode (S213). 複数のRFIDタグ8の領域分布のイメージ図である。It is an image figure of area distribution of a plurality of RFID tags. 対象物ID特定テーブル18のデータ構成を示す図である。It is a figure which shows the data structure of the target object ID specific table. 対象物情報出力処理(S11)の詳細を示すフローチャートである。It is a flowchart which shows the detail of a target object information output process (S11). 対象物情報10のデータ構成を示す図である。It is a figure which shows the data structure of the target object information. 人気投票システムの全体構成図である。It is a whole block diagram of a popularity voting system. 対象物特定装置1の他の構成を示すブロック図である。It is a block diagram which shows the other structure of the target object identification apparatus. 人気度解析装置2の構成を示すブロック図である。3 is a block diagram showing a configuration of a popularity analysis device 2. FIG. 対象物特定装置1における、対象物情報出力処理(S11)の他の詳細を示すフローチャートである。It is a flowchart which shows the other detail of the target object information output process (S11) in the target object identification apparatus 1. 人気度解析装置2における、人気度解析処理のメインフローチャートである。4 is a main flowchart of popularity analysis processing in the popularity analysis device 2. 解析実行処理(S22)を説明するための図である。It is a figure for demonstrating an analysis execution process (S22). 時間遷移情報23の内容を示す図である。It is a figure which shows the content of the time transition information 23. FIG. 解析実行処理(S22)による展示最適化の詳細を示すフローチャートである。It is a flowchart which shows the detail of the exhibition optimization by an analysis execution process (S22). 最適化情報24の内容を示す図である。It is a figure which shows the content of the optimization information 24. FIG. 補正テーブル14のデータ構成を示す図である。It is a figure which shows the data structure of the correction table.

符号の説明Explanation of symbols

1 対象物特定装置
2 人気度解析装置
8 RFIDタグ
9 展示物
10 対象物情報
13 推論定義テーブル
14 補正テーブル
18 対象物ID特定テーブル
21 利用者別人気度情報
22 展示物別人気度情報
23 時間遷移情報
24 最適化情報
90 ネットワーク
110 CPU
115 バス
120 ROM
130 RAM
140 HDD
151 電源リセットスイッチ
152 意思伝達スイッチ
153 推論モード選択スイッチ
154 出力モード選択スイッチ
160 RFIDタグリーダ
170 通信部
180 入力検知部
181 入力パネル
182 体温センサ
183 発汗センサ
184 心拍数センサ
190 計時手段
210 CPU
215 バス
220 ROM
230 RAM
240 HDD
260 表示制御部
261 ディスプレイ
270 音声制御部
271 マイク
272 スピーカ
280 入力検知部
281 マウス
282 キーボード
291 通信インタフェース
DESCRIPTION OF SYMBOLS 1 Object identification apparatus 2 Popularity analysis apparatus 8 RFID tag 9 Exhibit 10 Object information 13 Inference definition table 14 Correction table 18 Object ID identification table 21 Popularity information according to user 22 Popularity information according to exhibition 23 Time transition Information 24 Optimization information 90 Network 110 CPU
115 bus 120 ROM
130 RAM
140 HDD
151 Power Reset Switch 152 Communication Switch 153 Inference Mode Selection Switch 154 Output Mode Selection Switch 160 RFID Tag Reader 170 Communication Unit 180 Input Detection Unit 181 Input Panel 182 Body Temperature Sensor 183 Sweating Sensor 184 Heart Rate Sensor 190 Timing Unit 210 CPU
215 bus 220 ROM
230 RAM
240 HDD
260 Display Control Unit 261 Display 270 Audio Control Unit 271 Microphone 272 Speaker 280 Input Detection Unit 281 Mouse 282 Keyboard 291 Communication Interface

Claims (13)

対象物を検知して、該対象物の識別データを取得する識別データ取得手段と、
少なくとも1個以上のセンサから、計測値を取得する計測値取得手段と、
前記計測値取得手段により取得された前記計測値に基づいて、該計測値とは異なる指標値である推論データを作成する推論データ作成手段と、
前記識別データ取得手段により取得された前記識別データと、前記推論データ作成手段により作成された前記推論データとを含む対象物情報を作成する対象物情報作成手段と、
前記対象物作成手段により作成された前記対象物情報を出力する対象物情報出力手段とを備えることを特徴とする対象物特定装置。
Identification data acquisition means for detecting an object and acquiring identification data of the object;
Measurement value acquisition means for acquiring measurement values from at least one sensor;
Based on the measurement value acquired by the measurement value acquisition means, inference data creation means for creating inference data that is an index value different from the measurement value;
Object information creating means for creating object information including the identification data acquired by the identification data acquiring means and the inference data created by the inference data creating means;
An object specifying device comprising: object information output means for outputting the object information created by the object creating means.
前記識別データ取得手段は、前記対象物又は対象物近傍に付与される被記録媒体から前記識別データを取得することを特徴とする請求項1に記載の対象物特定装置。   The object identification device according to claim 1, wherein the identification data acquisition unit acquires the identification data from a recording medium attached to the object or a vicinity of the object. 前記識別データ取得手段は、前記被記録媒体であるRFIDタグから、前記識別データを読取るRFIDタグリーダであることを特徴とする請求項2に記載の対象物特定装置。   The object identification device according to claim 2, wherein the identification data acquisition unit is an RFID tag reader that reads the identification data from an RFID tag that is the recording medium. 利用者自身が操作して利用者情報を入力するための利用者情報入力手段を備え、
前記推論データ作成手段は、前記計測値取得手段により取得された前記計測値と、前記利用者情報入力手段から入力された前記利用者情報とに基づいて、前記推論データを作成することを特徴とする請求項1乃至3のいずれかに記載の対象物特定装置。
Provided with user information input means for the user himself / herself to input user information,
The inference data creation means creates the inference data based on the measurement value acquired by the measurement value acquisition means and the user information input from the user information input means. The object specifying device according to any one of claims 1 to 3.
前記推論データ作成手段は、前記利用者情報入力手段のオン・オフの状態遷移を示す利用者情報の内容がオンである場合、前記利用者の強い推論を示すように前記推論データを作成することを特徴とする請求項4に記載の対象物特定装置。   The inference data creation means creates the inference data to indicate strong inference of the user when the content of the user information indicating the on / off state transition of the user information input means is on. The object specifying device according to claim 4. 前記識別データ取得手段が複数の前記対象物から各々前記識別データを取得した場合に、前記対象物情報の出力対象とすべき前記対象物の特定方法を定義した複数の出力モードのうち、任意の一を選択するための出力モード選択手段を備えることを特徴とする請求項1乃至5のいずれかに記載の対象物特定装置。   When the identification data acquisition means acquires the identification data from each of a plurality of objects, any one of a plurality of output modes defining a method for specifying the object to be output as the object information. 6. The object specifying device according to claim 1, further comprising output mode selection means for selecting one. 前記識別データ取得手段は、前記対象物に対して定期的かつ複数回の検知を実行し、該検知によって取得される時系列データの前後の連続性に基づいて、該対象物を前記対象物情報の出力対象とするか否かを判定することを特徴とする請求項1乃至6のいずれかに記載の対象物特定装置。   The identification data acquisition means performs detection on the object periodically and a plurality of times, and based on the continuity before and after the time series data acquired by the detection, the object information is the object information. The object specifying device according to any one of claims 1 to 6, wherein it is determined whether or not to be output. 前記識別データ取得手段は、前記対象物に対して定期的かつ複数回の検知を実行し、該検知によって取得される前記時系列データが、所定回数連続して検知されたことを示す場合には、該対象物を前記対象物情報の出力対象とすることを特徴とする請求項7に記載の対象物特定装置。   In the case where the identification data acquisition means performs periodic and multiple detections on the object, and indicates that the time-series data acquired by the detection is continuously detected a predetermined number of times. The target object specifying apparatus according to claim 7, wherein the target object is an output target of the target object information. 現在日時を計測する計時手段を備え、
前記対象物情報作成手段は、前記推論データ作成手段により前記推論データが作成された場合、前記計時手段により計測された前記現在日時に関する日時データを取得して、該日時データを含めて前記対象物情報を作成することを特徴とする請求項1乃至8のいずれかに記載の対象物特定装置。
It has time measuring means to measure the current date and time,
When the inference data is created by the inference data creation means, the object information creation means obtains date / time data related to the current date / time measured by the timing means, and includes the date / time data and the object The object identifying device according to claim 1, wherein information is created.
請求項1乃至9のいずれかに記載の対象物特定装置と、
前記対象物情報出力手段により出力された前記対象物情報を取得する対象物情報取得手段と、
前記対象物情報取得手段により収集された前記対象物情報を記憶する対象物情報記憶手段とを備えることを特徴とする対象物特定システム。
The object identifying device according to any one of claims 1 to 9,
Object information acquisition means for acquiring the object information output by the object information output means;
An object identification system comprising: object information storage means for storing the object information collected by the object information acquisition means.
前記対象物情報記憶手段に記憶された前記対象物情報に基づいて、前記対象物と利用者との関係を示す解析情報を作成する解析情報作成手段を備えることを特徴とする請求項10に記載の対象物特定システム。   11. The apparatus according to claim 10, further comprising analysis information creating means for creating analysis information indicating a relationship between the target object and a user based on the target object information stored in the target object information storing means. Object identification system. 対象物情報を作成する対象物特定装置と、前記対象物情報に基づいて前記対象物の人気度を解析する人気度解析装置とが、ネットワークを介して接続された人気投票システムであって、
前記対象物特定装置は、
前記対象物を検知して、該対象物の識別データを取得する識別データ取得手段と、
少なくとも1個以上のセンサから、計測値を取得する計測値取得手段と、
利用者自身が操作して利用者情報を入力するための利用者情報入力手段とを備え、
前記計測値取得手段により取得された前記計測値と、前記利用者情報入力手段から入力された前記利用者情報とに基づいて、前記推論データを作成する推論データ作成手段と、
前記識別データ取得手段により取得された前記識別データと、前記推論データ作成手段により作成された前記推論データとを含む前記対象物情報を作成する対象物情報作成手段と、
前記対象物情報作成手段により作成された前記対象物情報を、前記人気度解析装置へ送信する対象物情報送信手段とを備え、
前記人気度解析装置は、
前記対象物特定装置から送信された前記対象物情報を受信する対象物情報受信手段と、
前記対象物情報受信手段により受信された前記対象物情報を記憶する対象物情報記憶手段と、
前記対象物情報記憶手段に記憶された前記対象物情報に基づいて、前記対象物の人気度を解析する人気度解析手段とを備えることを特徴とする人気投票システム。
A popularity voting system in which an object identification device for creating object information and a popularity analysis device for analyzing the popularity of the object based on the object information are connected via a network,
The object specifying device includes:
Identification data acquisition means for detecting the object and acquiring identification data of the object;
Measurement value acquisition means for acquiring measurement values from at least one sensor;
A user information input means for the user himself / herself to input user information,
Inference data creation means for creating the inference data based on the measurement value acquired by the measurement value acquisition means and the user information input from the user information input means;
Object information creating means for creating the object information including the identification data obtained by the identification data obtaining means and the inference data created by the inference data creating means;
Object information transmitting means for transmitting the object information created by the object information creating means to the popularity analysis device;
The popularity analysis device
Object information receiving means for receiving the object information transmitted from the object specifying device;
Object information storage means for storing the object information received by the object information receiving means;
A popularity voting system comprising: popularity analysis means for analyzing the popularity of the object based on the object information stored in the object information storage means.
前記人気度解析手段は、前記対象物の人気度を解析して該対象物の配置を最適化し、前記対象物の最適な配置を示す最適化情報を作成することを特徴とする請求項12に記載の人気投票システム。





The said popularity analysis means analyzes the popularity of the said object, optimizes the arrangement | positioning of this object, and produces the optimization information which shows the optimal arrangement | positioning of the said object. The popular voting system described.





JP2004090194A 2004-03-25 2004-03-25 Device and system for specifying object, and popularity vote system Pending JP2005275960A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004090194A JP2005275960A (en) 2004-03-25 2004-03-25 Device and system for specifying object, and popularity vote system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004090194A JP2005275960A (en) 2004-03-25 2004-03-25 Device and system for specifying object, and popularity vote system

Publications (1)

Publication Number Publication Date
JP2005275960A true JP2005275960A (en) 2005-10-06

Family

ID=35175550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004090194A Pending JP2005275960A (en) 2004-03-25 2004-03-25 Device and system for specifying object, and popularity vote system

Country Status (1)

Country Link
JP (1) JP2005275960A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210516A (en) * 2008-03-06 2009-09-17 Fuji Xerox Co Ltd Moving body position detecting device, moving body position detecting system, and program
EP2105862A1 (en) 2008-03-26 2009-09-30 Fujitsu Limited Reading device for tags, computer program product and reading system eliminating undesired responses
JP2010033557A (en) * 2008-06-23 2010-02-12 Dainippon Printing Co Ltd Appreciation support system, terminal device, distribution device, sensor device, program for terminal, program for distribution, and program for sensor
JP2010061328A (en) * 2008-09-03 2010-03-18 Hitachi Ltd System for visualizing measurement of attention degree
JP2010525476A (en) * 2007-04-26 2010-07-22 ユーロテック ソシエタ ペル アチオニ Electronic processing apparatus and configuration method
JP2013089035A (en) * 2011-10-18 2013-05-13 Sony Computer Entertainment Inc Information disclosure system, client device, server, and information disclosure method
JP2014016843A (en) * 2012-07-10 2014-01-30 Ricoh Co Ltd Evaluation system and program
US9405946B2 (en) 2010-03-17 2016-08-02 Fujitsu Limited Judgment apparatus, judgment system, and judgment method
WO2019064953A1 (en) * 2017-09-29 2019-04-04 テルモ株式会社 Medical pump, control method for medical pump, and medical pump system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010525476A (en) * 2007-04-26 2010-07-22 ユーロテック ソシエタ ペル アチオニ Electronic processing apparatus and configuration method
JP2009210516A (en) * 2008-03-06 2009-09-17 Fuji Xerox Co Ltd Moving body position detecting device, moving body position detecting system, and program
EP2105862A1 (en) 2008-03-26 2009-09-30 Fujitsu Limited Reading device for tags, computer program product and reading system eliminating undesired responses
US8493186B2 (en) 2008-03-26 2013-07-23 Fujitsu Limited Reading device, computer program product and reading system
JP2010033557A (en) * 2008-06-23 2010-02-12 Dainippon Printing Co Ltd Appreciation support system, terminal device, distribution device, sensor device, program for terminal, program for distribution, and program for sensor
JP2010061328A (en) * 2008-09-03 2010-03-18 Hitachi Ltd System for visualizing measurement of attention degree
US9405946B2 (en) 2010-03-17 2016-08-02 Fujitsu Limited Judgment apparatus, judgment system, and judgment method
JP2013089035A (en) * 2011-10-18 2013-05-13 Sony Computer Entertainment Inc Information disclosure system, client device, server, and information disclosure method
JP2014016843A (en) * 2012-07-10 2014-01-30 Ricoh Co Ltd Evaluation system and program
WO2019064953A1 (en) * 2017-09-29 2019-04-04 テルモ株式会社 Medical pump, control method for medical pump, and medical pump system
JPWO2019064953A1 (en) * 2017-09-29 2020-09-10 テルモ株式会社 Medical pumps, medical pump control methods, and medical pump systems
JP7183169B2 (en) 2017-09-29 2022-12-05 テルモ株式会社 MEDICAL PUMP, METHOD OF CONTROLLING MEDICAL PUMP, AND MEDICAL PUMP SYSTEM

Similar Documents

Publication Publication Date Title
JP7257447B2 (en) Sensor fusion for radar
US11468976B2 (en) Apparel and location information system
US20220291820A1 (en) Sedentary Notification Management System for Portable Biometric Devices
US20170243508A1 (en) Generation of sedentary time information by activity tracking device
JP5216140B2 (en) Action suggestion apparatus and method
Lin et al. Brain computer interface-based smart living environmental auto-adjustment control system in UPnP home networking
US9345404B2 (en) Mobile device that monitors an individuals activities, behaviors, habits or health parameters
CN103040443B (en) Intelligent health adjusting system
US9159223B2 (en) User monitoring device configured to be in communication with an emergency response system or team
US20160220198A1 (en) Mobile device that monitors an individuals activities, behaviors, habits or health parameters
CN104808783A (en) Mobile terminal and method of controlling the same
US20140247155A1 (en) Methods using a mobile device to monitor an individual&#39;s activities, behaviors, habits or health parameters
US10080530B2 (en) Periodic inactivity alerts and achievement messages
US20110137836A1 (en) Method and system for generating history of behavior
CN113520340A (en) Sleep report generation method, device, terminal and storage medium
CN104434315A (en) Portable Monitoring Devices and Methods of Operating Same
JP6742380B2 (en) Electronic device
JP2013169611A (en) Robot system, and robot
JP2009233027A (en) Sleep improvement device and program
US20170239523A1 (en) Live presentation of detailed activity captured by activity tracking device
US20160051185A1 (en) System and method for creating a dynamic activity profile using earphones with biometric sensors
WO2015033327A1 (en) Wearable controller for wrist
CN110151152A (en) It is detected using the sitting period of wearable electronics
JP2005275960A (en) Device and system for specifying object, and popularity vote system
WO2012124235A1 (en) Sleep evaluation device and sleep evaluation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070117

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090519

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091006