JP2011138530A - Information display system - Google Patents

Information display system Download PDF

Info

Publication number
JP2011138530A
JP2011138530A JP2011014497A JP2011014497A JP2011138530A JP 2011138530 A JP2011138530 A JP 2011138530A JP 2011014497 A JP2011014497 A JP 2011014497A JP 2011014497 A JP2011014497 A JP 2011014497A JP 2011138530 A JP2011138530 A JP 2011138530A
Authority
JP
Japan
Prior art keywords
information
user
state
sensor
information display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011014497A
Other languages
Japanese (ja)
Inventor
Seiji Tatsuta
成示 龍田
Ryohei Sugihara
良平 杉原
Yoichi Iba
陽一 井場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011014497A priority Critical patent/JP2011138530A/en
Publication of JP2011138530A publication Critical patent/JP2011138530A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information display system which can identify an active state of a user and timely displaying information required by the user based on the identified active state. <P>SOLUTION: The information display system includes: a sensor 110 or the like which measures the state of each physical part of a user 100; an active state identification part 303 which identifies the active state of the user 100 based on the measurement result; an information estimation part 304 which estimates information required by the user 100 based on the active state identified by the active state identification part 303; a database 309 or the like which stores at least the information required by the user 100 which is estimated by the information estimation part 304; an information selection part 305 which selects the information required by the user 100 which is estimated by the information estimation part 304 from among a plurality of information stored in the database 309 or the like; and an information display part 101 for displaying the information required by the user 100 which is selected by the information selection part 305. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ユーザの身体に装着可能なセンサによりユーザの活動状態を計測し、ユーザ
の状況に合わせた情報表示を行う情報表示システムに関する。
The present invention relates to an information display system that measures a user's activity state with a sensor that can be worn on the user's body and displays information according to the user's situation.

従来の案内情報サービスとして、使用者が案内してほしい場所に至るまでの経路や途中
の地点を柔軟に案内するシステムが、例えば特許文献1に提案されている。特許文献1に
提案されているシステムでは、地点、経路、施設等の情報だけでなく、ある場所までの経
路に沿った実際的な案内あるいは仮想的な案内を行うことができる。また、このシステム
では、場所の移動だけではなく、時間の経過に伴った案内を行うことができる。
As a conventional guidance information service, for example, Patent Document 1 proposes a system that flexibly guides a route or a point on the way to a place that a user wants to guide. In the system proposed in Patent Document 1, not only information on points, routes, facilities, etc., but also practical guidance or virtual guidance along a route to a certain place can be performed. Moreover, in this system, not only the movement of a place but the guidance accompanying progress of time can be performed.

特開2000−215211号公報Japanese Patent Laid-Open No. 2000-215211

ここで、使用者は、例えば、所定時刻の電車に乗車しようとするとき、時間的余裕があ
る場合は、駅までゆっくり歩くことが多い。これに対して、使用者は、所定時刻の電車に
乗車しようとするとき、時間的余裕が少ない場合は、駅まで走ることもある。このように
、使用者がゆっくり歩いているときと、走っているときとでは、使用者が必要とする情報
も異なってくる。例えば、使用者が天気の良い日にゆっくり歩いて駅へ向かっている場合
は、「その日の気温、湿度」の情報を提供する。これに対して、使用者が駅へ向かって走
っているときは、「あと5分で駅に着きます」等の情報を提供する。これらの情報は、使
用者が必要とする情報を意図的に取得する行為を行わずに供給されること、いわゆるプッ
シュ情報として供給されることが望ましい。
Here, for example, when a user tries to get on a train at a predetermined time, he often walks slowly to a station if he has time. On the other hand, when the user tries to get on the train at a predetermined time, the user may run to the station if there is not enough time. Thus, the information required by the user differs depending on whether the user is walking slowly or running. For example, when the user is walking slowly toward the station on a sunny day, information on “temperature and humidity of the day” is provided. On the other hand, when the user is running toward the station, information such as “I will arrive at the station in 5 minutes” is provided. It is desirable that these pieces of information are supplied without performing an act of intentionally acquiring information required by the user, so-called push information.

また、他の例として、天候が良好なときは、使用者は駅へ行く際に地下道よりも地上を
選択して歩きたいこともある。このように、使用者が存在する位置、時間等の情報だけで
は、使用者に関する状況を正確に認識することはできない。
As another example, when the weather is good, the user may want to walk on the ground rather than the underpass when going to the station. As described above, it is not possible to accurately recognize the situation related to the user only by information such as the position and time at which the user exists.

しかしながら、特許文献1に提案されているシステムでは、単に、使用者の位置、及び
時間の経過に応じて、所定の情報を提供するものである。このため、使用者が必要として
いる情報を的確に選択して表示することは困難である。
However, the system proposed in Patent Document 1 simply provides predetermined information according to the position of the user and the passage of time. For this reason, it is difficult to accurately select and display information required by the user.

本発明は、上記に鑑みてなされたものであって、使用者の活動状態を同定し、同定され
た活動状態に基づいて使用者が必要とする情報をタイムリーに表示できる情報表示システ
ムを提供することを目的とする。
The present invention has been made in view of the above, and provides an information display system that identifies a user's activity state and can display information required by the user in a timely manner based on the identified activity state. The purpose is to do.

上述した課題を解決し、目的を達成するために、第1の本発明によれば、少なくとも使
用者の身体の各部分の状態を計測する計測手段と、計測手段による計測結果に基づいて、
使用者の活動状態を同定する活動状態同定手段と、活動状態同定手段により同定された活
動状態に基づいて、使用者が必要とする情報を推定する情報推定手段と、情報推定手段に
より推定された、使用者が必要とする情報を少なくとも格納している情報格納手段と、情
報推定手段により推定された使用者が必要とする情報を、情報格納手段に格納されている
複数の情報の中から選択する情報選択手段と、情報選択手段により選択された使用者が必
要とする情報を表示する情報表示手段と、を有することを特徴とする情報表示システムを
提供できる。
In order to solve the above-described problems and achieve the object, according to the first aspect of the present invention, based on at least the measurement means for measuring the state of each part of the user's body, and the measurement result by the measurement means,
Estimated by the activity estimation means for identifying the activity state of the user, the information estimation means for estimating the information required by the user based on the activity status identified by the activity status identification means, and the information estimation means The information storage means storing at least information required by the user and the information required by the user estimated by the information estimation means are selected from a plurality of information stored in the information storage means It is possible to provide an information display system characterized by comprising information selection means for displaying information and information display means for displaying information required by the user selected by the information selection means.

また、本発明の好ましい態様によれば、計測手段は、使用者の位置及び方向を計測する
位置計測手段を含むことが望ましい。
Moreover, according to the preferable aspect of this invention, it is desirable for a measurement means to include the position measurement means which measures a user's position and direction.

また、本発明の好ましい態様によれば、位置計測手段は、GPS機能を有することが望
ましい。
Moreover, according to a preferred aspect of the present invention, it is desirable that the position measuring means has a GPS function.

また、本発明の好ましい態様によれば、計測手段により計測される使用者の身体の各部
分の状態には、少なくとも使用者の、腕の動きと、足の動きと、音声と、体内音とのいず
れか一つを含むことが望ましい
According to a preferred aspect of the present invention, the state of each part of the user's body measured by the measuring means includes at least the user's arm movement, foot movement, voice, and body sound. It is desirable to include any one of

また、本発明の好ましい態様によれば、計測手段は、使用者が屋内に存在するか、屋外
に存在するかを計測することが望ましい。
Moreover, according to the preferable aspect of this invention, it is desirable for a measurement means to measure whether a user exists indoors or exists outdoors.

また、本発明の好ましい態様によれば、計測手段は、少なくとも使用者の足裏の圧力を
検出することで使用者の足の動きを計測することが望ましい。
Moreover, according to the preferable aspect of this invention, it is desirable for a measurement means to measure a motion of a user's foot | leg by detecting the pressure of a user's sole at least.

また、本発明の好ましい態様によれば、活動状態同定手段は、計測手段により計測され
た計測データ(計測信号)と、予め格納されている使用者の予定行動データとに基づいて
使用者の活動状態を同定することが望ましい。
Moreover, according to the preferable aspect of this invention, an activity state identification means is a user's activity based on the measurement data (measurement signal) measured by the measurement means, and the user's scheduled action data stored beforehand. It is desirable to identify the condition.

また、第2の本発明によれば、少なくとも使用者の身体の各部分の状態を計測する計測
手段と、使用者に対して所定の情報を表示する情報表示手段と、少なくとも情報表示手段
に表示される所定の情報を選択するサーバーコンピュータと、情報表示手段とサーバーコ
ンピュータとの間でデータの送受信を行うモバイルゲートウエイと、を有する情報表示シ
ステムであって、モバイルゲートウエイは、計測手段からの計測信号を受信する計測信号
受信手段と、計測信号受信手段により受信された複数の計測信号を集約する計測信号集約
手段と、計測信号集約手段により集約された計測信号をサーバーコンピュータへ送信する
サーバーコンピュータ用送信手段と、サーバーコンピュータから送信される情報を受信す
る受信手段と、受信手段により受信した情報を情報表示手段へ送信する情報表示用送信手
段と、を有し、サーバーコンピュータは、モバイルゲートウエイから送信される計測信号
を受信する受信手段と、受信手段により受信した計測信号に基づいて、使用者の活動状態
を同定する活動状態同定手段と、活動状態同定手段により同定された活動状態に基づいて
、使用者が必要とする情報を推定する情報推定手段と、情報推定手段により推定された使
用者が必要とする情報を、サーバーコンピュータが格納している情報、またはサーバーコ
ンピュータとは異なる他のコンピュータが格納している情報の中から選択する情報選択手
段と、情報選択手段により選択された使用者が必要とする情報をモバイルゲートウエイへ
送信する情報送信手段と、を有することを特徴とする情報表示システムを提供できる。
According to the second aspect of the present invention, at least the measuring means for measuring the state of each part of the user's body, the information display means for displaying predetermined information to the user, and at least displayed on the information display means An information display system comprising a server computer for selecting predetermined information to be transmitted, and a mobile gateway for transmitting and receiving data between the information display means and the server computer, wherein the mobile gateway is a measurement signal from the measurement means. Measurement signal receiving means for receiving the signal, measurement signal aggregating means for aggregating a plurality of measurement signals received by the measurement signal receiving means, and transmission for the server computer for transmitting the measurement signals aggregated by the measurement signal aggregating means to the server computer Means, receiving means for receiving information transmitted from the server computer, and receiving means Information display transmission means for transmitting the received information to the information display means, the server computer based on the measurement signal received by the reception means for receiving the measurement signal transmitted from the mobile gateway and the reception means An activity state identifying means for identifying the activity state of the user, an information estimating means for estimating information required by the user based on the activity state identified by the activity state identifying means, and an information estimating means The information required by the user is selected by information selecting means for selecting from information stored in the server computer or information stored in another computer different from the server computer, and the information selecting means. Information transmission means for transmitting information required by the user to the mobile gateway. It is possible to provide a system.

本発明に係る情報表示システムでは、計測手段は、少なくとも使用者の身体の各部分の
状態、例えば、腕の動きや足の動きを計測する。活動状態同定手段は、計測手段による計
測結果に基づいて、使用者の活動状態、例えば座っている状態、走っている状態等を同定
する。情報推定手段は、活動状態同定手段により同定された活動状態に基づいて、使用者
が必要とする情報を推定する。情報格納手段、例えばデータベースは、情報推定手段によ
り推定された、使用者が必要とする情報を少なくとも格納している。次に、情報選択手段
は、情報推定手段により推定された使用者が必要とする情報を、情報格納手段に格納され
ている複数の情報の中から選択する。情報表示手段は、情報選択手段により選択された使
用者が必要とする情報を表示する。このように本発明では、情報推定手段は、活動状態同
定手段により同定された活動状態に基づいて、使用者が必要とする情報を推定している。
これにより、使用者の活動状態に応じた最適な内容の情報を推定できる。そして、情報表
示手段は、情報選択手段により選択された使用者が必要とする情報を表示する。このため
、使用者に対して必要な情報が表示される。この結果、使用者が意図的に所定の情報を選
択、取得することなく、必要な情報を取得することが可能である。すなわち、本発明によ
れば、使用者の活動状態を同定し、同定された活動状態に基づいて使用者が必要とする情
報をタイムリーに表示できる。
In the information display system according to the present invention, the measuring means measures at least the state of each part of the user's body, for example, the movement of the arm or the movement of the foot. The activity state identification unit identifies the activity state of the user, for example, a sitting state, a running state, and the like based on the measurement result by the measurement unit. The information estimation means estimates information required by the user based on the activity state identified by the activity state identification means. An information storage means, for example, a database, stores at least information required by the user estimated by the information estimation means. Next, the information selection means selects the information required by the user estimated by the information estimation means from among a plurality of information stored in the information storage means. The information display means displays information required by the user selected by the information selection means. As described above, in the present invention, the information estimation unit estimates the information required by the user based on the activity state identified by the activity state identification unit.
Thereby, the information of the optimal content according to a user's activity state can be estimated. The information display means displays information required by the user selected by the information selection means. Therefore, necessary information is displayed for the user. As a result, necessary information can be acquired without the user intentionally selecting and acquiring predetermined information. That is, according to the present invention, the user's activity state can be identified, and information required by the user can be displayed in a timely manner based on the identified activity state.

以下に、本発明に係る情報表示システムの実施例を図面に基づいて詳細に説明する。な
お、この実施例により、この発明が限定されるものではない。
Embodiments of an information display system according to the present invention will be described below in detail with reference to the drawings. In addition, this invention is not limited by this Example.

図1は、本発明の実施例1に係る情報表示システムの機能ブロックを示す。本情報表示
システムは、ユーザ100が装着する各種センサ群と、モバイルゲートウエイ200と、
サーバーコンピュータ300とから構成されている。図2は、情報表示システムの概略構
成を示す。
FIG. 1 shows functional blocks of an information display system according to Embodiment 1 of the present invention. This information display system includes a group of sensors worn by the user 100, a mobile gateway 200,
The server computer 300 is configured. FIG. 2 shows a schematic configuration of the information display system.

まず、ユーザ100が装着するデバイス、センサ群について説明する。ユーザ100は
、屋内外センサ110と、GPS(Global Positioning Syste
m;全地球測位システム)111と、足圧力センサ112と、発話・咀嚼センサ113と
、腕装着型運動計測センサ114とを、身体に装着している。これらのセンサを、以下、
適宜「センサ110等」という。センサ110等は、計測手段に対応する。また、使用者
100は、情報表示部101を頭部の一方の眼の近傍に装着している。以下、屋内外セン
サ110と、GPS111と、足圧力センサ112と、発話・咀嚼センサ113と、腕装
着型運動計測センサ114との概略構成と機能を説明する。なお、それぞれのセンサの詳
細な判定手順については、フローチャートを用いて後述する。
First, devices and sensor groups worn by the user 100 will be described. The user 100 uses an indoor / outdoor sensor 110 and a GPS (Global Positioning System).
m: Global positioning system) 111, foot pressure sensor 112, speech / mastication sensor 113, and arm-mounted motion measurement sensor 114 are worn on the body. These sensors are
This is referred to as “sensor 110 etc.” as appropriate. The sensor 110 and the like correspond to measurement means. The user 100 wears the information display unit 101 in the vicinity of one eye of the head. Hereinafter, schematic configurations and functions of the indoor / outdoor sensor 110, the GPS 111, the foot pressure sensor 112, the speech / mastication sensor 113, and the arm-mounted motion measurement sensor 114 will be described. A detailed determination procedure for each sensor will be described later with reference to a flowchart.

(屋内外センサ)
屋内外センサ110は、使用者100が屋内に存在するか、または屋外に存在するかの
検出、判定を行う。屋内外センサ110は、照射部と受信部と判定部とを備えている。照
射部は、超音波を反射対象物、例えば天井へ向かって照射する。受信部は、天井から反射
してきた超音波を受信する。そして、判定部は、照射された超音波が反射して戻ってくる
までの時間、反射された超音波の強度等に基づいて、ユーザ100が屋内に存在するか、
屋外に存在するかの判定を行う。
(Indoor / outdoor sensor)
The indoor / outdoor sensor 110 detects and determines whether the user 100 is indoors or outdoors. The indoor / outdoor sensor 110 includes an irradiation unit, a reception unit, and a determination unit. An irradiation part irradiates an ultrasonic wave toward a reflective target object, for example, a ceiling. The receiving unit receives ultrasonic waves reflected from the ceiling. The determination unit determines whether the user 100 is present indoors based on the time until the irradiated ultrasonic wave is reflected and returned, the intensity of the reflected ultrasonic wave, and the like.
Determine if it is outdoors.

また、ユーザ100が傘を使用しているときは、照射部からの超音波は、反射対象物で
ある傘の内側で反射されて戻ってくる。このときは、屋内外センサ110と、反射対象物
との距離が、例えば40cm以内のときは、反射対象物は天井ではないと判定する。さら
に、受信部のサンプリング時間、蓄積時間を調整することで、判定結果をさらに最適化で
きる。
Further, when the user 100 is using an umbrella, the ultrasonic waves from the irradiation unit are reflected and returned from the inside of the umbrella which is a reflection object. At this time, when the distance between the indoor / outdoor sensor 110 and the reflection target is within 40 cm, for example, it is determined that the reflection target is not the ceiling. Furthermore, the determination result can be further optimized by adjusting the sampling time and accumulation time of the receiving unit.

また、屋内外センサ110は、超音波に限られず、以下の方式を用いるものでも良い。
(1)レーザーや赤外領域の光を照射して、その反射を検出するアクティブ光方式(一般
的な距離センサの応用)、
(2)紫外領域の光を検出するパッシブ紫外線方式(屋内外で紫外線量が異なることを利
用)、
(3)焦電センサにより、上方向の空間温度(雲などからの赤外線量)を測定するパッシ
ブ赤外線方式(天井と空とで温度が異なることを利用)、
(4)マイクにより騒音を測定するパッシブ騒音方式(屋内外で騒音スペクトルパターン
が異なることを利用)。
The indoor / outdoor sensor 110 is not limited to ultrasonic waves, and may use the following method.
(1) Active light system (irradiation of general distance sensor) that detects reflection by irradiating laser or infrared light.
(2) Passive UV method for detecting light in the UV region (utilizing different amounts of UV light indoors and outdoors),
(3) Passive infrared method (utilizing the difference in temperature between the ceiling and the sky) that measures the upward space temperature (the amount of infrared rays from clouds, etc.) with a pyroelectric sensor,
(4) A passive noise method in which noise is measured with a microphone (utilizing that the noise spectrum pattern is different indoors and outdoors).

(GPS)
ユーザ100は、GPS111を身体に装着している。GPS111により、ユーザ1
00の所在位置と方向を検出できる。また、GPS111の代わりに、携帯電話の位置情
報サービスを用いることできる。GPSは、位置計測手段に対応する。
(GPS)
The user 100 wears the GPS 111 on the body. By GPS111, user 1
00 location and direction can be detected. Further, a location information service of a mobile phone can be used instead of the GPS 111. The GPS corresponds to a position measuring unit.

(足圧力センサ)
足圧力センサ112は、ユーザ100が履いている靴にかかる足裏の圧力分布を検出す
る。そして、足圧力センサ112は、使用者100の立ち状態、座り状態、歩行状態を同
定する。歩行状態には、歩いている状態、早歩きの状態、小走りの状態、走っている状態
が含まれる。
(Foot pressure sensor)
The foot pressure sensor 112 detects the pressure distribution of the sole on the shoes worn by the user 100. The foot pressure sensor 112 identifies the standing state, sitting state, and walking state of the user 100. The walking state includes a walking state, a fast walking state, a small running state, and a running state.

(発話・咀嚼センサ)
発話・咀嚼センサ113は、使用者100が発話している状態か、または咀嚼している
状態、即ち食事中であるかを同定する。発話・咀嚼センサ113は、ユーザ100の一方
の耳に装着するイヤホン型センサである。イヤホン型センサの一つの筐体内には、骨伝導
マイクと外界音マイクとが内蔵されている。
(Speech / mastication sensor)
The utterance / mastication sensor 113 identifies whether the user 100 is speaking or masticating, that is, during a meal. The utterance / mastication sensor 113 is an earphone-type sensor worn on one ear of the user 100. A bone conduction microphone and an external sound microphone are built in one housing of the earphone type sensor.

骨伝導マイクは、体内音を検出する。体内音とは、ユーザ100の発話・咀嚼時に体内
から生じ、体内を伝播する振動である。体内音の具体例は、声帯振動や歯が食物を噛み切
る音、食物が咽喉を通過する音、あご関節が動く音等である。
The bone conduction microphone detects body sounds. The body sound is vibration that is generated from the body when the user 100 speaks and chews and propagates through the body. Specific examples of body sounds are vocal cord vibration, the sound of teeth biting food, the sound of food passing through the throat, the sound of movement of the chin joint, and the like.

外界音マイクは、ユーザのいる環境の外界音を検出する。外界音には、環境の雑音に加
え、ユーザ100の発声に応じて、体外へ伝播する振動、即ち音声が含まれる。そして、
発話・咀嚼センサ113は、骨伝導マイクと外界音マイクとの検出結果に基づいて、後述
する判定手順に従ってユーザ100が発話状態であるか、咀嚼状態であるかを同定する。
The external sound microphone detects external sound in the environment where the user is present. In addition to environmental noise, the external sound includes vibration that propagates outside the body, that is, sound, in accordance with the utterance of the user 100. And
The utterance / mastication sensor 113 identifies whether the user 100 is in an utterance state or a mastication state according to a determination procedure described later, based on the detection results of the bone conduction microphone and the external sound microphone.

(腕装着型運動計測センサ)
腕装着型運動計測センサ114(以下、適宜「運動計測センサ」という。)は、ユーザ
100の腕の動きを検出する。運動計測センサ114は、加速度センサや角速度センサを
備えている。そして、上述した足圧力センサ112の検出結果と合わせてユーザ100の
日常動作、歩行状態をさらに正確に同定することができる。なお、腕に装着する方法は、
例えば腕時計タイプ、または腕に貼付するタイプ等が挙げられる。
(Arm-mounted motion measurement sensor)
The arm-mounted motion measurement sensor 114 (hereinafter referred to as “motion measurement sensor” as appropriate) detects the motion of the user's 100 arm. The motion measurement sensor 114 includes an acceleration sensor and an angular velocity sensor. Then, it is possible to more accurately identify the daily movement and walking state of the user 100 together with the detection result of the foot pressure sensor 112 described above. The method of wearing on the arm is
For example, a wristwatch type or a type attached to an arm can be used.

(情報表示部)
使用者100は、後述する情報を表示する情報表示部101を頭部に装着している。情
報表示部101は、頭部に装着する小型、軽量のディスプレイ・ユニットである。ユーザ
100が情報表示部101を装着した状態では、ユーザ100の一方の眼の前方に数mm
角程度以下の大きさのディスプレイ部(不図示)が位置するように構成されている。ディ
スプレイ部の大きさは、ユーザ100の瞳孔の大きさよりも小さい。このため、ディスプ
レイ部の面積は、ユーザ100の視野領域に対して占める割合が非常に小さい。これによ
り、ユーザ100は、通常の視野からの情報を認識し、かつ必要に応じてディスプレイ部
に表示される情報を認識できる。換言すると、いわゆるシースルービューアのような使用
感覚で、情報表示部101を使用できる。なお、以下、「情報表示部」のことを適宜「M
EG(メグ)」(Mobiler Eye Glass)という。
(Information display section)
The user 100 wears on the head an information display unit 101 that displays information to be described later. The information display unit 101 is a small and lightweight display unit that is worn on the head. In a state where the user 100 is wearing the information display unit 101, a few mm is placed in front of one eye of the user 100.
A display unit (not shown) having a size of about a corner or less is positioned. The size of the display unit is smaller than the size of the pupil of the user 100. For this reason, the area which occupies the area of a display part with respect to the visual field area | region of the user 100 is very small. Thereby, the user 100 can recognize information from a normal visual field and can recognize information displayed on the display unit as necessary. In other words, the information display unit 101 can be used with a sense of use like a so-called see-through viewer. Hereinafter, the “information display unit” will be referred to as “M” as appropriate.
It is called “EG (Meg)” (Mobile Eye Glass).

図3は、情報表示部101のディスプレイ部に表示される情報の例を示す。ユーザ10
0は、屋外を歩行しているとき、その日の気温、降水確率等を認識できる。このような、
天気情報は、後述する手順により選択されて表示される情報、いわゆるプッシュ情報であ
る。この結果、ユーザ100は意図的に天気情報を取得する必要は無い。即ち、ユーザは
いちいち面倒な操作を行わずとも、必要な情報を状況に応じて随時取得することが可能と
なる。
FIG. 3 shows an example of information displayed on the display unit of the information display unit 101. User 10
0 can recognize the temperature of the day, the probability of precipitation, etc. when walking outdoors. like this,
The weather information is so-called push information that is selected and displayed by a procedure described later. As a result, the user 100 does not need to intentionally acquire weather information. That is, the user can acquire necessary information as needed depending on the situation without performing troublesome operations.

また、情報表示部101と、屋内外センサ110と、GPS111と、足圧力センサ1
12と、発話・咀嚼センサ113と、腕装着型運動計測センサ114とは、それぞれ無線
通信のためのBluetoothチップ(不図示)を搭載している。そして、センサ11
0等の計測信号は、デジタルデータ化されて後述するモバイルゲートウエイ200へ送信
される。
In addition, the information display unit 101, the indoor / outdoor sensor 110, the GPS 111, and the foot pressure sensor 1
12, the speech / mastication sensor 113, and the arm-mounted motion measurement sensor 114 are each equipped with a Bluetooth chip (not shown) for wireless communication. And sensor 11
Measurement signals such as 0 are converted into digital data and transmitted to the mobile gateway 200 described later.

(モバイルゲートウエイ)
モバイルゲートウエイ200について説明する。モバイルゲートウエイ200は、3つ
の機能を有する。1番目の機能は、上述した各種センサ群からの情報を集約することであ
る。2番目の機能は、後述するサーバーコンピュータ300との通信を行うことである。
3番目の機能は、情報表示部101との通信を行うことである。そして、モバイルゲート
ウエイ200は、例えば、ユーザ100が所持する鞄の中に収納されている。
(Mobile gateway)
The mobile gateway 200 will be described. The mobile gateway 200 has three functions. The first function is to aggregate information from the various sensor groups described above. The second function is to communicate with a server computer 300 described later.
The third function is to perform communication with the information display unit 101. And the mobile gateway 200 is accommodated in the bag which the user 100 possesses, for example.

図1において、モバイルゲートウエイ200の計測信号受信部201は、Blueto
othの受信部である無線タグ(Bluetoothチップ)を備えている。計測信号受
信部201は、上述した屋内外センサ110と、GPS111と、足圧力センサ112と
、発話・咀嚼センサ113と、腕装着型運動計測センサ114とからの計測信号を受信す
る。計測信号集約部202は、これらのセンサからの複数の計測信号を一つに集約する。
サーバーコンピュータ用送信部203は、集約された計測信号をサーバーコンピュータ3
00へ送信する。受信部204は、後述するサーバーコンピュータ300からの信号を受
信する。また、制御部205、例えばCPUは、計測信号受信部201と、計測信号集約
部202と、サーバーコンピュータ用送信部203と、受信部204とを制御する。
In FIG. 1, the measurement signal receiving unit 201 of the mobile gateway 200 is Bluetooth.
A wireless tag (Bluetooth chip), which is an oth receiver, is provided. The measurement signal receiving unit 201 receives measurement signals from the indoor / outdoor sensor 110, the GPS 111, the foot pressure sensor 112, the speech / mastication sensor 113, and the arm-mounted motion measurement sensor 114 described above. The measurement signal aggregation unit 202 aggregates a plurality of measurement signals from these sensors into one.
The server computer transmission unit 203 sends the collected measurement signals to the server computer 3
Send to 00. The receiving unit 204 receives a signal from the server computer 300 described later. Further, the control unit 205, for example, the CPU controls the measurement signal reception unit 201, the measurement signal aggregation unit 202, the server computer transmission unit 203, and the reception unit 204.

(サーバーコンピュータ)
サーバーコンピュータ300について説明する。サーバーコンピュータ300は、ユー
ザ100とは異なる位置に設置されている。サーバーコンピュータ300の受信部301
は、モバイルゲートウエイ200のサーバーコンピュータ用送信部203から送信された
計測信号を受信する。活動状態同定部303は、受信した計測信号に基づいて、ユーザ1
00の活動状態を同定する。情報推定部304は、活動状態同定部303により同定され
た活動状態に基づいて、ユーザ100が必要とする情報を推定する。
(Server computer)
The server computer 300 will be described. The server computer 300 is installed at a position different from the user 100. Receiver 301 of server computer 300
Receives the measurement signal transmitted from the server computer transmission unit 203 of the mobile gateway 200. Based on the received measurement signal, the activity state identification unit 303 determines the user 1
00 activity status is identified. The information estimation unit 304 estimates information that the user 100 needs based on the activity state identified by the activity state identification unit 303.

活動状態同定部303と情報推定部304とは、それぞれ予定表306、外部状況30
7を参照する。予定表306は、ユーザ100の行動予定、スケジュールが記憶されてい
る。また、外部状況307は、天候情報、道路混雑情報等を含んでいる。
The activity state identification unit 303 and the information estimation unit 304 are respectively a schedule 306 and an external situation 30.
Refer to FIG. The schedule table 306 stores the action schedule and schedule of the user 100. The external situation 307 includes weather information, road congestion information, and the like.

データベース309、個人データベース310、履歴データベース311は、ユーザ1
00が必要とする情報、あるいは情報選択部305で情報を選択する際の判断基準となる
情報を格納している。個人データベース310は、ユーザ100の趣味・嗜好や興味の対
象、行動目標(ダイエットとか生活習慣の改善など)等の情報を格納している。個人デー
タベース310には、ユーザ100自身が情報を入力する。また、履歴データベース31
1は、例えば、ユーザ100が前日に居た場所、前日の行動内容等に関する情報を格納し
ている。これらデータベース群が格納している情報の詳細は後述する。なお、データベー
ス群は、サーバーコンピュータ300が内蔵する構成には限られない。例えば、サーバー
コンピュータ300とは異なる外部にデータベース群を設ける構成でも良い。データベー
ス309、個人データベース310、履歴データベース311は、情報格納手段に対応す
る。
The database 309, the personal database 310, and the history database 311 are the user 1
Information necessary for 00 or information used as a criterion for selecting information by the information selection unit 305 is stored. The personal database 310 stores information such as the user's 100 hobbies, preferences, interests, action goals (such as diet and lifestyle improvement), and the like. The user 100 himself inputs information into the personal database 310. The history database 31
1 stores, for example, information on the place where the user 100 was on the previous day, the action content of the previous day, and the like. Details of the information stored in these database groups will be described later. The database group is not limited to the configuration built in the server computer 300. For example, the database group may be provided outside the server computer 300. The database 309, the personal database 310, and the history database 311 correspond to information storage means.

そして、情報選択部305は、情報推定部304により推定されたユーザ100が必要
とする情報を、データベース309、個人データベース310、履歴データベースに格納
されている複数の情報の中から、あるいはこれらの情報に基づいて他のコンピュータから
選択する。ここで、情報選択部305は、例えばインターネット400や専用回線を介し
て他のコンピュータ401と通信可能に構成されている。これにより、情報選択部305
は、他のコンピュータ401を介してユーザ100に必要な情報を取得することができる
。また、情報選択部305は、インターネット400を介して、情報・サービスベンダ(
情報・サービス提供会社)から情報を取得することもできる。
Then, the information selection unit 305 selects information required by the user 100 estimated by the information estimation unit 304 from among a plurality of pieces of information stored in the database 309, the personal database 310, and the history database, or these information. Select from other computers based on. Here, the information selection unit 305 is configured to be able to communicate with another computer 401 via, for example, the Internet 400 or a dedicated line. Thereby, the information selection unit 305
Can acquire information necessary for the user 100 via the other computer 401. In addition, the information selection unit 305 receives information / service vendors (via the Internet 400).
Information can also be obtained from an information / service provider.

情報選択部305が、ユーザ100に必要な情報を選択するとき、メタデータを用いる
。メタデータとは、データについての内容を記述したデータである。メタデータは、膨大
なデータの中から目的のデータを探し出す手助けとするために作成される。例えば、情報
選択部305が、「ニュース」情報を選択するとき、ユーザ100の興味の対象として、
個人データベース310に“スポーツ”が登録されていれば、スポーツというメタデータ
が付与されたニュースを検索し、優先的に選択する。これにより、ユーザ100が欲して
いると推定された情報のうち、ユーザに最適なものを的確に選択(フィルタリング)する
ことが可能となる。
When the information selection unit 305 selects information necessary for the user 100, metadata is used. Metadata is data that describes the content of data. Metadata is created to help find target data from a vast amount of data. For example, when the information selection unit 305 selects “news” information,
If “sports” is registered in the personal database 310, news with sports metadata is searched and selected preferentially. As a result, it is possible to accurately select (filter) the information optimal for the user from the information estimated to be desired by the user 100.

また、情報選択部305で選択された情報に対して、制御・演算部308により表示情
報最適化が行われる。ここで、情報表示部101を用いて、詳細な文字情報等を表示する
と、却ってユーザ100の情報認識が困難になってしまうことがある。このため、情報表
示部101に表示する情報は、表示情報最適化により簡略化された簡潔な情報へ要約され
る。
Further, display information optimization is performed on the information selected by the information selection unit 305 by the control / calculation unit 308. Here, if detailed character information or the like is displayed using the information display unit 101, the information recognition of the user 100 may be difficult. For this reason, the information displayed on the information display unit 101 is summarized into simple information simplified by display information optimization.

情報送信部302は、情報選択部により選択された情報をモバイルゲートウエイ200
へ送信する。また、制御・演算部308は、受信部301と、情報送信部302と、活動
状態同定部303と、情報推定部304と、情報選択部305との制御を行う。
The information transmission unit 302 transmits the information selected by the information selection unit to the mobile gateway 200.
Send to. The control / calculation unit 308 controls the reception unit 301, the information transmission unit 302, the activity state identification unit 303, the information estimation unit 304, and the information selection unit 305.

ここでは、モバイルゲートウエイ200は、例えば、モバイル通信 カードを搭載して
おり、サーバーコンピュータ300とインターネット経由で繋がっているが、高性能モバ
イルPCを用いることによって、モバイルゲートウエイ200とサーバーコンピュータ3
00を1つのモバイルPCに統合することも可能である。また、各センサとモバイルゲー
トウエイ200との間の通信データ量を削減するために、計測データそのものではなく、
前処理により、例えば、足圧センサからは、足の運動状態を識別した結果のみを送信する
ように構成することもできる。あるいは、モバイルゲートウエイ200とサーバーコンピ
ュータ300との間の通信データ量を削減するために、計測信号集約部202で、同様の
前処理を行うように構成することもできる。
Here, the mobile gateway 200 includes, for example, a mobile communication card and is connected to the server computer 300 via the Internet. However, by using a high-performance mobile PC, the mobile gateway 200 and the server computer 3 are connected.
00 can also be integrated into one mobile PC. Also, in order to reduce the amount of communication data between each sensor and the mobile gateway 200, not the measurement data itself,
For example, the foot pressure sensor may be configured to transmit only the result of identifying the motion state of the foot by the preprocessing. Alternatively, in order to reduce the amount of communication data between the mobile gateway 200 and the server computer 300, the measurement signal aggregation unit 202 can be configured to perform similar preprocessing.

図4は、情報表示システムが情報を表示する手順を大まかに示すフローチャートである
。各ステップの詳細な内容については後述する。まず、ステップS401において、屋内
外センサ110と、GPS111と、足圧力センサ112と、発話・咀嚼センサ113と
、腕装着型運動計測センサ114とは、それぞれユーザ100の身体の状態を計測する。
FIG. 4 is a flowchart schematically showing a procedure for displaying information by the information display system. Detailed contents of each step will be described later. First, in step S401, the indoor / outdoor sensor 110, the GPS 111, the foot pressure sensor 112, the utterance / mastication sensor 113, and the arm-mounted motion measurement sensor 114 each measure the body state of the user 100.

ステップS402において、活動状態同定部303は、センサ110等からの計測信号
に基づいてユーザ100の活動状態を同定する。ステップ403において、情報推定部3
04は、同定された活動状態と、例えば、予定表306等とを参照して、ユーザ100が
要求すると思われる情報を推定する。ステップS404において、情報選択部305は、
例えば、データベースの中から上記要求にマッチした情報を選択する。ステップS405
において、情報表示部101は、選択された情報を表示する。
In step S402, the activity state identifying unit 303 identifies the activity state of the user 100 based on the measurement signal from the sensor 110 or the like. In step 403, the information estimation unit 3
04 estimates information that the user 100 may request by referring to the identified activity state and, for example, the schedule 306 and the like. In step S404, the information selection unit 305
For example, information matching the request is selected from the database. Step S405
The information display unit 101 displays the selected information.

次に、上述のフローチャートで示した手順を、さらに、具体例を用いて詳細に説明する

(活動状態同定部の機能)
図5は、活動状態同定部303が予定表306や計時情報を参照して活動状態を同定す
る手順を示すフローチャートである。以下、ユーザ100が予定している項目を、適宜「
イベント」という。イベントの例は、「T大学における打ち合わせ」、「銀座○○におけ
る懇親会」等である。
Next, the procedure shown in the above-described flowchart will be further described in detail using a specific example.
(Function of the activity identification unit)
FIG. 5 is a flowchart illustrating a procedure in which the activity state identification unit 303 identifies the activity state with reference to the schedule table 306 and time information. Hereinafter, the items scheduled by the user 100 are appropriately changed to “
"Event". Examples of events are “a meeting at T University”, “a social gathering at Ginza XX”, and the like.

ステップS501において、ユーザ100の行動予定が予定表306内に記憶されてい
る。予定表306は、サーバーコンピュータ300内のメモリ(不図示)に記憶すること
ができる。ステップS502において、例えば、サーバーコンピュータ300の制御・演
算部308は、予定表306に基づいて、さらに詳細な内容の副次予定表を生成する。
In step S <b> 501, the action schedule of the user 100 is stored in the schedule table 306. The schedule table 306 can be stored in a memory (not shown) in the server computer 300. In step S <b> 502, for example, the control / calculation unit 308 of the server computer 300 generates a subsidiary schedule with more detailed content based on the schedule 306.

図6は、生成された副次予定表の構成例を示す。ある日のユーザ100の予定では、以
下のイベント(1)、(2)、(3)が予め入力されている。
(1)午前中:O会社へ出勤、
(2)14時00分〜17時00分:T大学において打合わせ、
(3)18時30分〜21時30分:銀座○○において懇親会
FIG. 6 shows a configuration example of the generated subsidiary schedule. In the schedule of the user 100 on a certain day, the following events (1), (2), and (3) are input in advance.
(1) Morning: Work for company O,
(2) 14: 00-17: 00: Meeting at T University,
(3) 18: 30-21: 30: Reception at Ginza XX

ここで、ユーザ100が勤務しているO会社の最寄り駅はS駅である。また、午後に予
定されているT大学での打合せへ出席するためには、T大学前駅まで行く必要がある。制
御・演算部308は、S駅からT大学前駅へ行くための複数の経路を候補とする。ユーザ
100は、複数の経路から、任意の経路を選択することができるが、個人データベース3
10に格納されている情報に基づいて、例えば、ユーザ100の嗜好に応じて、所要時間
が最短な経路や、運賃が最安な経路、歩く距離が最短な経路、乗換が最少な経路など、選
択的に候補とすることもできる。本副次予定表では、電車のS線とN線とを乗り換えて使
用する経路を選択している。
Here, the nearest station of the O company where the user 100 is working is S station. In order to attend the meeting at T University scheduled in the afternoon, it is necessary to go to T University Station. The control / calculation unit 308 uses a plurality of routes from the S station to the T university front station as candidates. The user 100 can select an arbitrary route from a plurality of routes.
10 based on the information stored in FIG. 10, for example, according to the preference of the user 100, the route with the shortest required time, the route with the lowest fare, the route with the shortest walking distance, the route with the least transfer, etc. It can also be a candidate selectively. In this subsidiary schedule, the route to be used by switching between the S line and N line of the train is selected.

T大学での打合せ開始時刻(14時00分)を基準として、制御・演算部308は、O
会社を出発する準備を開始する時間、S駅までの移動時間、電車による移動時間、T大学
前駅から打合せ場所までの移動時間等を見積もり、これらの副次予定表を自動的に生成す
る。
Using the meeting start time (14:00) at T University as a reference, the control / calculation unit 308
Estimate the time to start preparations for leaving the company, the travel time to S station, the travel time by train, the travel time from the T university front station to the meeting place, etc., and automatically generate these subsidiary schedules.

さらに、制御・演算部308は、T大学での打合せの終了から懇親会の終了までの副次
予定表を自動的に生成する。これにより、ユーザ100は、副次予定表で生成された時刻
表に基づいてT大学前駅からM線を使ってG駅まで行けば良いことがわかる。
Further, the control / calculation unit 308 automatically generates a subsidiary schedule from the end of the meeting at T University to the end of the social gathering. Thereby, the user 100 understand | indicate | reveals that it should just go to G station using the M line from T university front station based on the timetable produced | generated by the subsidiary schedule.

同様に、制御・演算部308は、懇親会が開催された店からユーザ100の自宅までの
副次予定表を自動的に生成する。これにより、ユーザ100は、自宅の最寄駅であるMN
駅に最終電車により確実に帰宅できるようになる。
Similarly, the control / calculation unit 308 automatically generates a secondary schedule from the store where the social gathering was held to the home of the user 100. As a result, the user 100 can connect the MN that is the nearest station of the home.
It will be possible to return home to the station by the last train.

図5に戻って説明を続ける。ステップS504において、時計により現在の時刻を取得
する。時計は、ユーザ100が装着すること、モバイルゲートウエイ200が内蔵してい
ること、及びサーバーコンピュータ300が内蔵していることのいずれでも良い。
Returning to FIG. In step S504, the current time is acquired using a clock. The watch may be worn by the user 100, built in the mobile gateway 200, or built in the server computer 300.

ステップS503において、取得された時刻に基づいて、イベント開始時刻Tmin前
か否かを判定する。イベント開始時刻Tminは、ユーザ100が予め設定すること、ま
たは制御・演算部308がユーザ100の行動を学習機能により記憶することで設定でき
る。ステップS503の判定結果が偽(No)のときは、ステップS503の判定を繰り
返す。ステップS503の判定結果が真(Yes)のとき、ステップS505において、
ユーザ100は、少なくとも当該イベントの準備状態にあると同定され、ステップS50
7へ進む。
In step S503, it is determined based on the acquired time whether or not it is before the event start time Tmin. The event start time Tmin can be set by the user 100 in advance, or the control / calculation unit 308 can store the action of the user 100 by the learning function. When the determination result of step S503 is false (No), the determination of step S503 is repeated. When the determination result in step S503 is true (Yes), in step S505,
The user 100 is identified as at least ready for the event, and step S50 is performed.
Proceed to 7.

ステップS507において、ステップS506で取得された時間に基づいて、イベント
開始時間か否かを判定する。ステップS507の判定結果が偽のとき、ステップS507
を繰り返す。ステップS507の判定結果が真のとき、ステップS508において、ユー
ザ100は、少なくとも当該イベントの開始状態にあると同定され、ステップS510へ
進む。
In step S507, it is determined based on the time acquired in step S506 whether or not it is an event start time. When the determination result of step S507 is false, step S507
repeat. When the determination result in step S507 is true, in step S508, the user 100 is identified as at least in the start state of the event, and the process proceeds to step S510.

ステップS510においては、上述したセンサ110等からの計測結果に基づいてステ
ップS509において同定されたユーザ100の活動状態に基づいて、当該イベントが開
始されたか否かを判定する。ステップS510の判定結果が偽のとき、ステップS511
へ進む。ステップS511において、予定が変更されたか否かを判定する。ステップS5
11の判定結果が真のとき、ステップS512において、当該イベントはキャンセルされ
たと同定される。ステップS510の判定結果が真のとき、ステップS513において、
ユーザ100は、少なくとも当該イベントの実施状態であると同定され、ステップS51
5へ進む。
In step S510, it is determined whether or not the event is started based on the activity state of the user 100 identified in step S509 based on the measurement result from the sensor 110 and the like described above. When the determination result of step S510 is false, step S511
Proceed to In step S511, it is determined whether or not the schedule has been changed. Step S5
If the determination result of 11 is true, the event is identified as canceled in step S512. When the determination result in step S510 is true, in step S513,
The user 100 is identified as at least the implementation state of the event, and step S51 is performed.
Proceed to 5.

ステップS515においては、上述したセンサ110等からの計測結果に基づいてステ
ップS514において同定されたユーザ100の活動状態に基づいて当該イベントが終了
したか否かを判定する。ステップS515の判定結果が偽のとき、ステップS515を繰
り返す。ステップS515の判定結果が真のとき、ステップS516において、ユーザ1
00は、少なくとも当該イベントの完了状態であると同定される。
In step S515, it is determined whether the event has ended based on the activity state of the user 100 identified in step S514 based on the measurement result from the sensor 110 and the like described above. When the determination result of step S515 is false, step S515 is repeated. When the determination result in step S515 is true, in step S516, the user 1
00 is identified as at least the completion state of the event.

本フローチャートにおけるイベントは単一の項目に限定されない。同一時刻に複数の異
なる内容のイベントの状態をとることもできる。例えば、同一の時刻にイベントAの実施
状態であり、かつイベントBの準備状態である場合である。
The event in this flowchart is not limited to a single item. A plurality of events having different contents can be taken at the same time. For example, this is a case where the event A is being executed at the same time and the event B is being prepared.

上述した図5に示す手順に従って、活動状態同定部303は、時計や予定表306に基
づいて、活動状態、例えば「イベント準備状態」、「イベント開始状態」、「イベントキ
ャンセル状態」、「イベント実施状態」、「イベント完了状態」を同定できる。
In accordance with the procedure shown in FIG. 5 described above, the activity state identification unit 303 performs an activity state such as “event preparation state”, “event start state”, “event cancel state”, “event execution” based on the clock or the schedule 306. "Status" and "Event completion status" can be identified.

(屋内外センサ、GPSによる位置状態判別)
次に、図7に基づいて、屋内外センサ110と、GPS111とからの計測信号に基づ
いて、活動状態同定部303がユーザ100の活動状態を同定する手順を説明する。ステ
ップS701において、使用者100は屋内外センサ110を装着する。ステップS70
2において、屋内外センサ110により使用者100が存在する位置における天井までの
距離Dを測定する。
(Indoor / outdoor sensor, position status determination by GPS)
Next, a procedure in which the activity state identifying unit 303 identifies the activity state of the user 100 based on measurement signals from the indoor / outdoor sensor 110 and the GPS 111 will be described with reference to FIG. In step S701, the user 100 wears the indoor / outdoor sensor 110. Step S70
2, the distance D to the ceiling at the position where the user 100 exists is measured by the indoor / outdoor sensor 110.

ステップS703において、
Dmin<D<Dmax
を満足するか否かを判定する。ここで、Dmin、Dmaxはそれぞれ天井識別用の閾値
で、屋内外センサの床上高さが120cm程度の場合(大人のユーザが胸ポケットに装着
したと想定)、Dminは70cm程度(傘などの障害物)、Dmaxは280cm程度
(スーパーなどの天井高3〜4m程度)である。ステップS703の判定結果が真のとき
、ステップS704において、ユーザ100は直前に検出された屋外位置近傍の屋内に存
在すると同定され、ステップS705へ進む。ただし、予定表306に基づいてユーザ1
00が交通機関を利用していると同定されるときは、それ以降、屋内状態が継続して検出
されても、ユーザ100は予定表306や上述の副次予定表の内容に従って移動している
ものとして同定される。
In step S703,
Dmin <D <Dmax
It is determined whether or not the above is satisfied. Here, Dmin and Dmax are threshold values for identifying the ceiling, respectively, and when the floor height of the indoor / outdoor sensor is about 120 cm (assuming that an adult user wears it in the breast pocket), Dmin is about 70 cm (an obstacle such as an umbrella) Thing), Dmax is about 280 cm (the ceiling height of supermarket etc. is about 3-4 m). When the determination result in step S703 is true, in step S704, the user 100 is identified as being indoors in the vicinity of the outdoor position detected immediately before, and the process proceeds to step S705. However, based on the schedule 306, the user 1
When 00 is identified as using transportation, the user 100 is moving according to the contents of the schedule 306 and the subsidiary schedule described above, even if indoor conditions are subsequently detected. Identified as one.

ステップS705において、GPS111からの計測信号が取得されているか否かを判
定する。ステップS705の判定結果が偽のとき、ステップS706においてユーザ10
0は屋外で、かつビルの谷間等GPSの利用できない環境に存在すると同定される。
In step S705, it is determined whether a measurement signal from the GPS 111 has been acquired. When the determination result in step S705 is false, in step S706 the user 10
0 is identified as being present outdoors and in an environment where GPS cannot be used, such as a valley of a building.

ステップS705の判定結果が真のとき、ステップS710へ進む。ステップS710
において、ステップS707のGPS111からの計測信号と、ステップS708の時計
による計時情報と、ステップS709の予定表306と副次予定表とを参照して、現在位
置が近傍のイベント定義位置とどういう関係にあるのか相関を調べる。
When the determination result of step S705 is true, the process proceeds to step S710. Step S710
Referring to the measurement signal from the GPS 111 in step S707, the timekeeping information by the clock in step S708, and the schedule table 306 and the secondary schedule table in step S709, the relationship between the current position and the event definition position in the vicinity is determined. Check for correlation.

ステップS710の相関結果に応じて、ユーザ100がイベント定義位置に存在するこ
と(ステップS711)、イベント間位置に存在すること(ステップS712)、または
その他の位置に存在すること(ステップS713)を判定する。ステップS711のイベ
ント定義位置とは、例えば、自宅、駅、会社等をいい、例えば、現在位置が、直前のイベ
ント定義位置“会社”と直後のイベント定義位置“駅”との間である場合には、ステップ
S712でユーザ100がイベント間位置にいると同定され、ユーザ100がイベント定
義位置間を移動中であることがわかる。
According to the correlation result of step S710, it is determined that the user 100 exists at the event definition position (step S711), exists at the position between events (step S712), or exists at other positions (step S713). To do. The event definition position in step S711 refers to, for example, a home, a station, or a company. For example, when the current position is between the immediately preceding event definition position “company” and the immediately following event definition position “station”. In step S712, it is identified that the user 100 is at the inter-event position, and it can be seen that the user 100 is moving between the event definition positions.

(足圧力センサ)
足圧力センサ112は、図2に示すように、例えばユーザ100が履いている靴の中敷
に設けられている。足圧力センサ112は、少なくとも踵部分の圧力を検出するように構
成されている。また、踵部分に加えて他の足裏部分の圧力を検出することで、さらに検出
精度を向上できる。なお、足圧力センサ112は、靴自体に形成されている構成、ユーザ
100の足裏に貼付する構成とすることもできる。
(Foot pressure sensor)
As shown in FIG. 2, the foot pressure sensor 112 is provided, for example, on an insole of a shoe worn by the user 100. The foot pressure sensor 112 is configured to detect the pressure of at least the heel portion. Further, detection accuracy can be further improved by detecting the pressure of the other sole portion in addition to the heel portion. Note that the foot pressure sensor 112 can be configured to be formed on the shoe itself or to be affixed to the sole of the user 100.

図8は、足圧力センサ112により活動状態を同定する手順を示すフローチャートであ
る。ステップS801において、ユーザ100は足圧力センサ112を内蔵する靴を履く
。ステップS802において、圧力変動はPTH1以上か否かを判定する。ここで、PTH1
、移動識別用の圧力変動閾値である。ステップS802の判定結果が真のとき、ステップ
S803へ進む。ステップS803において、圧力変動は周期的か否かを判定する。ステ
ップS803の判定結果が真のとき、ステップS804へ進む。
FIG. 8 is a flowchart showing a procedure for identifying an activity state by the foot pressure sensor 112. In step S <b> 801, the user 100 wears shoes incorporating the foot pressure sensor 112. In step S802, it is determined whether the pressure fluctuation is P TH1 or more. Here, P TH1 is a pressure fluctuation threshold for movement identification. When the determination result of step S802 is true, the process proceeds to step S803. In step S803, it is determined whether the pressure fluctuation is periodic. When the determination result of step S803 is true, the process proceeds to step S804.

ステップS804において、
τ<αTH
を満足するか否かを判定する。ここで、
τ:1周期中に踵に圧力がかかる時間の割合、
αTH:歩行/走行識別用のデューティ閾値をそれぞれ示す。デューティ閾値αTHは、個人
差はあるが、略30〜40%程度である。
In step S804,
τ <α TH
It is determined whether or not the above is satisfied. here,
τ: Ratio of time during which pressure is applied to the heel during one cycle,
α TH : Indicates the duty threshold for walking / running identification. The duty threshold value α TH is about 30 to 40% although there are individual differences.

ステップS804の判定結果が真のとき、ステップS805において、WTH2/min
以上か否かを判定する。ここで、WTH2/minは1分間の歩数閾値である。
When the determination result in step S804 is true, in step S805, W TH2 / min
It is determined whether it is above. Here, W TH2 / min is a step count threshold for 1 minute.

ステップS805の判定結果が真のとき、ステップS806において、ユーザ100が
走っている状態であると同定される。また、ステップS805の判定結果が偽のとき、ス
テップS807においてユーザ100が小走りの状態であると同定される。
When the determination result in step S805 is true, in step S806, it is identified that the user 100 is running. Further, when the determination result in step S805 is false, in step S807, it is identified that the user 100 is in a short running state.

ステップS802の判定結果が偽のとき、ステップS812へ進む。ステップS812
において踵への圧力がPTH2以上であるか否かを判定する。ここで、PTH2は座り/立ち識
別用の圧力閾値で、ユーザ100の体重に応じて設定される。
When the determination result of step S802 is false, the process proceeds to step S812. Step S812
It is determined whether or not the pressure on the ridge is P TH2 or more. Here, P TH2 is a pressure threshold for identifying sitting / standing, and is set according to the weight of the user 100.

ステップS812の判定結果が真のとき、ステップS813において、ユーザ100が
立っている状態であると同定される。また、ステップS812の判定結果が偽のとき、ス
テップS814においてユーザ100は座っている状態であると同定される。
When the determination result in step S812 is true, it is identified in step S813 that the user 100 is standing. When the determination result of step S812 is false, the user 100 is identified as sitting in step S814.

さらに、ステップS803の判定結果が偽のとき、ステップS811においてユーザ1
00は運動状態であると同定される。また、ステップS804の判定結果が偽のとき、ス
テップS808へ進む。ステップS808において、WTH1/minであるか否かを判定
する。ここで、WTH1/minは1分間の歩数閾値である。
Furthermore, when the determination result in step S803 is false, in step S811, the user 1
00 is identified as an exercise state. If the determination result at step S804 is false, the process proceeds to step S808. In step S808, it is determined whether or not W TH1 / min. Here, W TH1 / min is a step count threshold for 1 minute.

ステップS808の判定結果が真のとき、ステップS809において、ユーザ100が
早歩きの状態であると同定される。また、ステップS808の判定結果が偽のとき、ステ
ップS810において、ユーザ100が歩いている状態であると同定される。
When the determination result in step S808 is true, in step S809, the user 100 is identified to be in a fast walking state. When the determination result in step S808 is false, it is identified in step S810 that the user 100 is walking.

上述した各閾値PTH1、PTH2、αTH、WTH1、WTH2は、それぞれユーザ100ごとに設
定すること、またはユーザ100の行動を学習機能により記憶して設定することができる
。以上説明したように、足圧力センサ112の計測信号に基づいて、ユーザ100の活動
状態、例えば「走り状態」、「小走り状態」、「早歩き状態」、「歩き状態」、「運動状
態」、「立ち状態」、「座り状態」を同定できる。
Each of the above threshold values P TH1 , P TH2 , α TH , W TH1 , W TH2 can be set for each user 100, or the action of the user 100 can be stored and set by the learning function. As described above, based on the measurement signal of the foot pressure sensor 112, the activity state of the user 100, for example, “running state”, “small running state”, “fast walking state”, “walking state”, “exercise state”, “Standing” and “sitting” can be identified.

(発話・咀嚼センサ)
図9は、発話・咀嚼センサ113により活動状態を同定する手順を示すフローチャート
である。発話・咀嚼センサ113は、上述したように、骨伝導マイクと外界音マイクとか
らなるイヤホン型センサである。まず、ステップS901において、骨伝導マイクからの
計測信号を取得する。ステップS902において、骨伝導マイクからの信号のパワーPi
nを算出する。パワーPinは、単位時間内での骨伝導音のパワーである。
(Speech / mastication sensor)
FIG. 9 is a flowchart showing a procedure for identifying an activity state by the utterance / mastication sensor 113. As described above, the utterance / mastication sensor 113 is an earphone type sensor including a bone conduction microphone and an external sound microphone. First, in step S901, a measurement signal from a bone conduction microphone is acquired. In step S902, the power Pi of the signal from the bone conduction microphone.
n is calculated. Power Pin is the power of bone conduction sound within a unit time.

ステップS903において、
Pinmin<Pin<Pinmax
を満足するか否かを判定する。ここで、Pinmin、Pinmaxは、それぞれノイズ
除去のための骨伝導音パワー閾値であり、Pinminは、咀嚼・発話が無いときの背景
雑音をカットするように設定し、Pinmaxは、骨伝導マイクに触れたときなどの大き
な雑音をカットするように設定する。ステップS903の判定結果が真のとき、ステップ
S904、S908へ進む。また、ステップS903の判定結果が偽のとき、ステップS
909、S910へ進む。
In step S903,
Pinmin <Pin <Pinmax
It is determined whether or not the above is satisfied. Here, Pinmin and Pinmax are bone conduction sound power threshold values for noise removal, Pinmin is set to cut background noise when there is no mastication / utterance, and Pinmax touches the bone conduction microphone. Set to cut large noises such as when When the determination result of step S903 is true, the process proceeds to steps S904 and S908. When the determination result in step S903 is false, step S903
Proceed to 909 and S910.

一方、ステップS905において、外界音マイクからの計測信号を取得する。ステップ
S906において、外界音マイクからの信号のパワーPexを算出する。パワーPexは
、単位時間内での外界音パワーである。
On the other hand, in step S905, a measurement signal from the external sound microphone is acquired. In step S906, the power Pex of the signal from the external sound microphone is calculated. The power Pex is the external sound power within a unit time.

ステップS907において、
Pexmin<Pex<Pexmax
を満足するか否かを判定する。ここで、Pexmin、Pexmaxは、それぞれノイズ
除去のための外界音パワー閾値であり、Pexminは、咀嚼・発話が無いときの背景雑
音をカットするように設定し、Pexmaxは、外界音マイクに触れたときなどの大きな
雑音をカットするように設定する。ステップS907の判定結果が真のとき、ステップS
904、S909へ進む。また、ステップS907の判定結果が偽のとき、ステップS9
08、S910へ進む。
In step S907,
Pexmin <Pex <Pexmax
It is determined whether or not the above is satisfied. Here, Pexmin and Pexmax are external sound power threshold values for noise removal, Pexmin is set to cut background noise when there is no mastication / utterance, and Pexmax touches the external sound microphone. Set to cut large noise such as when. When the determination result of step S907 is true, step S907
The process proceeds to 904 and S909. When the determination result of step S907 is false, step S9
08, go to S910.

ステップS904において、ステップS903の判定結果(真)と、ステップS907
の判定結果(真)とが取得される。そして、ステップS911において、ユーザ100が
発話している状態であると同定される。
In step S904, the determination result (true) in step S903 and step S907 are displayed.
The determination result (true) is acquired. In step S911, it is identified that the user 100 is speaking.

ステップS908において、ステップS903の判定結果(真)と、ステップS907
の判定結果(偽)とが取得される。そして、ステップS912において、ユーザ100が
咀嚼している状態であると同定される。
In step S908, the determination result of step S903 (true) and step S907
The determination result (false) is acquired. In step S912, it is identified that the user 100 is chewing.

ステップS909において、ステップS903の判定結果(偽)と、ステップS907
の判定結果(真)とが取得される。そして、ステップS913において、外界音が検出さ
れた状態であると同定される。
In step S909, the determination result in step S903 (false) and step S907.
The determination result (true) is acquired. In step S913, it is identified that an external sound has been detected.

ステップS910において、ステップS903の判定結果(偽)と、ステップS907
の判定結果(偽)とが取得される。そして、ステップS914において、有効な音が検出
されていない状態であると同定される。
In step S910, the determination result in step S903 (false) and step S907.
The determination result (false) is acquired. In step S914, it is identified that a valid sound is not detected.

図10は、さらに図9に示す手順で得られた結果に基づいて会話状態、食事状態を同定
する手順を示すフローチャートである。図9のステップS911で発話状態であるとき、
さらにステップS1001へ進む。ステップS1001において、一定時間内の発話検出
数>N1か否かを判定する。ここで、N1は、会話識別用の発話検出閾値である。ステッ
プS1001の判定結果が真のとき、ユーザ100が会話中であると同定される。例えば
、毎秒8回発話検出処理を行うとしたとき、60秒間で120回(15秒相当)以上発話
が検出された場合にユーザ100が会話中であると同定される。なお、図示しないが、ス
テップS1001の判定結果が偽のときは、発話を検出したものの、ユーザ100は、会
話はしていない状態であると同定される。
FIG. 10 is a flowchart showing a procedure for further identifying the conversation state and the meal state based on the result obtained by the procedure shown in FIG. When it is in the utterance state in step S911 in FIG.
Further, the process proceeds to step S1001. In step S1001, it is determined whether or not the number of detected utterances within a predetermined time> N1. Here, N1 is an utterance detection threshold for conversation identification. When the determination result in step S1001 is true, the user 100 is identified as having a conversation. For example, when the utterance detection process is performed 8 times per second, the user 100 is identified as having a conversation when utterances are detected 120 times (corresponding to 15 seconds) or more in 60 seconds. Although not shown, when the determination result in step S1001 is false, the user 100 is identified as having a conversation, although an utterance has been detected.

また、図9のステップS912で咀嚼状態であるとき、さらにステップS1002へ進
む。ステップS1002において、一定時間内の咀嚼検出数>N2か否かを判定する。こ
こで、N2は、食事識別用の咀嚼検出閾値である。ステップS1002の判定結果が真の
とき、ユーザ100が食事中であると同定される。例えば、毎秒8回咀嚼検出処理を行う
としたとき、60秒間で120回(15秒相当)以上咀嚼が検出された場合にユーザ10
0が食事中であると同定される。なお、図示しないが、ステップS1002の判定結果が
偽のときは、咀嚼は検出したものの、ユーザ100は、食事していない状態であると同定
される。
Moreover, when it is a mastication state by step S912 of FIG. 9, it progresses to step S1002. In step S1002, it is determined whether or not the number of mastication detections within a predetermined time> N2. Here, N2 is a chewing detection threshold value for meal identification. When the determination result in step S1002 is true, the user 100 is identified as having a meal. For example, when the mastication detection process is performed 8 times per second, when the mastication is detected 120 times (corresponding to 15 seconds) or more in 60 seconds, the user 10
0 is identified as being in the diet. Although not shown, when the determination result in step S1002 is false, the user 100 is identified as having not eaten although mastication has been detected.

(腕装着型の運動計測センサ)
運動計測センサ114は、図2に示すように、ユーザ100が腕に装着している。そし
て、上述したように運動計測センサ114は加速度センサや角速度センサで構成されてい
る。図11は、運動計測センサ114により活動状態を同定する手順を示すフローチャー
トである。
(Arm-mounted motion measurement sensor)
As shown in FIG. 2, the motion measurement sensor 114 is worn by the user 100 on the arm. As described above, the motion measurement sensor 114 includes an acceleration sensor and an angular velocity sensor. FIG. 11 is a flowchart showing a procedure for identifying an activity state by the motion measurement sensor 114.

ステップS1101において、ユーザ100は運動計測センサ114を装着する。ステ
ップS1102において、加速度はATH1以上か否かを判定する。ATH1は、腕振り識別用
の腕加速度閾値である。ステップS1102の判定結果が真のとき、ステップS1103
へ進む。ステップS1103において、加速度変動は周期的か否かを判定する。ステップ
S1103の判定結果が真のとき、ステップS1104へ進む。ステップS1104にお
いて、AP>ATH2か否かを判定する。ここで、
Pは1周期内での加速度のピーク値、
TH2は歩行/走行識別用のピーク閾値をそれぞれ示す。
In step S <b> 1101, the user 100 wears the motion measurement sensor 114. In step S1102, it is determined whether the acceleration is equal to or higher than A TH1 . A TH1 is an arm acceleration threshold value for identifying arm swing. When the determination result of step S1102 is true, step S1103
Proceed to In step S1103, it is determined whether the acceleration fluctuation is periodic. When the determination result of step S1103 is true, the process proceeds to step S1104. In step S1104, it is determined whether A P > A TH2 . here,
A P is the peak value of acceleration within one cycle,
A TH2 indicates a peak threshold value for discrimination of walking / running.

ステップS1104の判定結果が真のとき、ステップS1105に進む。ステップS1
105において、W≧WTH2か否かを判定する。Wは単位時間あたりの歩数で、WTH2は、
“走り”と“小走り”を識別するための単位時間あたりの歩数閾値である。ステップS1
105の判定結果が真のとき、ステップS1106において、ユーザ100が走っている
状態であると同定される。ステップS1105の判定結果が偽のとき、ステップS110
7において、ユーザ100が小走りの状態であると同定される。
When the determination result of step S1104 is true, the process proceeds to step S1105. Step S1
In 105, it is determined whether W ≧ W TH2 or not. W is the number of steps per unit time and W TH2 is
This is a threshold value for the number of steps per unit time for distinguishing between “running” and “small running”. Step S1
When the determination result of 105 is true, it is identified in step S1106 that the user 100 is running. When the determination result of step S1105 is false, step S110
7, the user 100 is identified to be in the state of a short run.

また、ステップS1102の判定結果が偽のとき、ステップS1112において、ユー
ザ100の腕の動きは無いと同定される。ステップS1103の判定結果が偽のとき、ス
テップS1111において、ユーザ100の腕の動きがあると同定される。例えば、ユー
ザ100がなにか手を動かすような作業をしている状態、食事している状態、身振り手振
りで会話している状態等である。
When the determination result in step S1102 is false, it is identified in step S1112 that there is no movement of the arm of the user 100. When the determination result in step S1103 is false, in step S1111 it is identified that there is a movement of the arm of the user 100. For example, there are a state in which the user 100 moves his / her hand, a state where he / she is eating, a state where he / she is talking with gestures and the like.

ステップS1104の判定結果が偽のとき、ステップS1108へ進む。ステップS1
108において、W≧WTH1か否かを判定する。Wは単位時間あたりの歩数で、WTH1は、
“早歩き”と“普通の歩き”を識別するための単位時間あたりの歩数閾値である。ステッ
プS1108の判定結果が真のとき、ステップS1109において、ユーザ100が早歩
きの状態であると同定される。また、ステップS1108の判定結果が偽のとき、ステッ
プS1110において、ユーザ100が歩きの状態であると同定される。
When the determination result of step S1104 is false, the process proceeds to step S1108. Step S1
At 108, it is determined whether W ≧ W TH1 . W is the number of steps per unit time and W TH1 is
This is a threshold value for the number of steps per unit time for discriminating between “fast walking” and “normal walking”. When the determination result in step S1108 is true, in step S1109, the user 100 is identified to be in a fast walking state. When the determination result in step S1108 is false, in step S1110, the user 100 is identified as being in a walking state.

上述した各閾値ATH1、ATH2、WTH1、WTH2は、それぞれユーザ100ごとに設定する
こと、またはユーザ100の行動を学習機能により記憶して設定することができる。以上
説明したように、運動計測センサ114の計測信号に基づいて、ユーザ100の活動状態
、例えば「走り状態」、「小走り状態」、「早歩き状態」、「歩き状態」、「腕動きあり
状態」、「腕動きなし状態」を同定できる。
Each of the threshold values A TH1 , A TH2 , W TH1 , and W TH2 described above can be set for each user 100, or the user's 100 behavior can be stored and set by a learning function. As described above, based on the measurement signal of the motion measurement sensor 114, the activity state of the user 100, for example, “running state”, “small running state”, “fast walking state”, “walking state”, “arm movement state” "," No arm movement "can be identified.

上述の図7〜図11のフローチャートでは、各センサ110等ごとに同定できる活動状
態を説明している。ここで、ユーザ100は、図2に示すように、複数のセンサ110等
を装着している。このため、活動状態同定部303は、計測信号集約部202で集約され
た複数の計測信号に基づいて活動状態を同定する。以下、図12、図13、図14を用い
て、複数のセンサ110等からの計測信号に基づいて、ユーザ100の活動状態を同定す
る例を説明する。
In the flowcharts of FIGS. 7 to 11 described above, the active states that can be identified for each sensor 110 and the like are described. Here, as shown in FIG. 2, the user 100 is wearing a plurality of sensors 110 and the like. Therefore, the activity state identification unit 303 identifies the activity state based on the plurality of measurement signals aggregated by the measurement signal aggregation unit 202. Hereinafter, an example in which the activity state of the user 100 is identified based on measurement signals from the plurality of sensors 110 and the like will be described with reference to FIGS. 12, 13, and 14.

図12の(a)は、ユーザ100の予定表と副次予定表とのうち、O会社を出発してか
らT大学で打合せを開始する部分を示す。ここで、現在時刻13時20分において、ユー
ザ100がO会社からS駅へ向かって小走りで移動している状態を考える。
(A) of FIG. 12 shows the part which starts a meeting at T university after leaving O company among the schedule of a user 100, and a subsidiary schedule. Here, let us consider a state in which the user 100 is moving from the O company toward the S station in a short run at the current time 13:20.

図12の(b)は、このときのセンサ110等に基づく活動状態の同定結果を示す。足
圧力センサ112からの計測信号に基づいて、「小走り」の状態であると同定される。運
動計測センサ114からの計測信号に基づいて、「小走り」の状態であると同定される。
発話・咀嚼センサ113からの計測信号に基づいて、「外界音検出」の状態であると同定
される。GPS111及び屋内外センサ110からの計測信号に基づいて、ユーザ100
は「イベント間位置」の状態、例えばイベント定義位置である「O会社」と「S駅」との
間に存在する状態であると同定される。そして、時計、予定表306に基づいて、「イベ
ント実施」の状態、例えばイベント「O会社→S駅の移動」の実施状態であると同定され
る。
(B) of FIG. 12 shows the identification result of the active state based on the sensor 110 etc. at this time. Based on the measurement signal from the foot pressure sensor 112, it is identified as the “small running” state. Based on the measurement signal from the motion measurement sensor 114, it is identified that the state is “small running”.
Based on the measurement signal from the utterance / mastication sensor 113, the state of “external sound detection” is identified. Based on the measurement signals from the GPS 111 and the indoor / outdoor sensor 110, the user 100
Is identified as a state of “inter-event position”, for example, a state existing between “O company” and “S station” which are event definition positions. Then, based on the clock and the schedule table 306, the state of “event implementation”, for example, the implementation state of the event “movement of company O → S station” is identified.

活動状態同定部303は、上記各状態の同定結果に基づいて、ユーザ100は“O会社
からS駅へ向かって小走りに移動している状態である”と同定する。
The activity state identification unit 303 identifies the user 100 as “moving from the O company toward the S station in a short run” based on the identification result of each state.

図13の(a)は、ユーザ100の予定表と副次予定表とのうち、O会社を出発してか
らT大学で打合せを開始する部分を示す。ここで、現在時刻13時45分において、ユー
ザ100が電車内で同僚と話をしている状態を考える。
FIG. 13A shows a part of the schedule and subsidiary schedule of the user 100 where the meeting starts at the University T after leaving the O company. Here, consider a state in which the user 100 is talking to a colleague on the train at the current time of 13:45.

図13の(b)は、このときのセンサ110等に基づく活動状態の同定結果を示す。足
圧力センサ112からの計測信号に基づいて、「座り」の状態であると同定される。運動
計測センサ114からの計測信号に基づいて、「腕動きなし」の状態であると同定される
。発話・咀嚼センサ113からの計測信号に基づいて、「会話中」の状態であると同定さ
れる。GPS111及び屋内外センサ110からの計測信号に基づいて、ユーザ100は
「イベント間位置」状態、例えばイベント定義位置である「I駅」と「T大学前駅」との
間に存在する状態であると同定される。そして、時計、予定表306に基づいて、「イベ
ント実施」の状態、例えばイベント「I駅→T大学前駅の電車移動」の実施状態であると
同定される。
(B) of FIG. 13 shows the identification result of the active state based on the sensor 110 etc. at this time. Based on the measurement signal from the foot pressure sensor 112, it is identified as a “sitting” state. Based on the measurement signal from the motion measurement sensor 114, it is identified as “no arm movement”. Based on the measurement signal from the utterance / mastication sensor 113, it is identified as being in a “talking” state. Based on the measurement signals from the GPS 111 and the indoor / outdoor sensor 110, the user 100 is in an “inter-event position” state, for example, a state that exists between “I station” and “T university-mae station” that are event definition positions. Identified. Then, based on the clock and the schedule table 306, the state of “event implementation”, for example, the implementation state of the event “train movement from I station to T university front station” is identified.

活動状態同定部303は、各状態の同定結果に基づいて、ユーザ100が“I駅からT
大学前駅へ向かって移動中、座席に座って会話をしている状態である”と同定する。さら
に、腕の動きも検出されたときは、身振り手振りを交えて熱心に会話している状態である
と同定される。
Based on the identification result of each state, the activity state identification unit 303 allows the user 100 to “T from I station to T
When moving toward the university front station, it is identified as “sitting in the seat and having a conversation”. Furthermore, when arm movements are also detected, a state of enthusiastic conversation with gestures Is identified.

図14の(a)は、ユーザ100の予定表と副次予定表とのうち、懇親会が終了してか
ら帰宅のための移動を開始する部分を示す。ここで、現在時刻22時00分において、予
定時間よりも延びていた懇親会が終了して、ユーザ100が話をしながら店を出てきた状
態を考える。
(A) of FIG. 14 shows the part which starts the movement for returning home after a social gathering end among the schedules of a user 100, and a subsidiary schedule. Here, it is assumed that the social gathering which has been extended from the scheduled time is finished at the current time 22:00 and the user 100 leaves the store while talking.

図14の(b)は、このときのセンサ110等に基づく活動状態の同定結果を示す。足
圧力センサ112からの計測信号に基づいて、「歩き」の状態であると同定される。運動
計測センサ114からの計測信号に基づいて、「歩き」の状態であると同定される。発話
・咀嚼センサ113からの計測信号に基づいて、「会話中」の状態であると同定される。
GPS111及び屋内外センサ110からの計測信号に基づいて、ユーザ100は「イベ
ント定義位置」の状態、例えばイベント定義位置である「懇親会会場・銀座○○」前に存
在する状態であると同定される。そして、時計、予定表306に基づいて、「イベント実
施」の状態、例えばイベント「銀座○○→G駅への徒歩による移動」の実施状態であると
同定される。活動状態同定部303は、各状態の同定結果に基づいて、ユーザ100は“
懇親会場を出発して、話をしながら歩き始めた状態である”と同定する。
(B) of FIG. 14 shows the identification result of the active state based on the sensor 110 etc. at this time. Based on the measurement signal from the foot pressure sensor 112, the state is identified as “walking”. Based on the measurement signal from the motion measurement sensor 114, the state is identified as “walking”. Based on the measurement signal from the utterance / mastication sensor 113, it is identified as being in a “talking” state.
Based on the measurement signals from the GPS 111 and the indoor / outdoor sensor 110, the user 100 is identified as being in the state of "event definition position", for example, the state existing in front of the event definition position "Social gathering venue / Ginza XX". The Then, based on the clock and the schedule table 306, the state of “event implementation”, for example, the implementation state of the event “movement by walking to Ginza OO → G station” is identified. Based on the identification result of each state, the activity state identification unit 303 determines that the user 100
“I left the reception hall and started walking while talking.”

ここで、予め生成されている副次予定表では、帰宅予定が登録されていなかったので、
図6に示すように最終電車で帰宅する副次予定を自動生成し、遅くとも店を出なければい
けない時間を案内できるようにしている。これに対して、ここで説明しているように、ユ
ーザ100が、最終電車よりも早い時間の電車で帰宅するために店を出ることもある。こ
のときは、サーバーコンピュータ300の制御・演算部308は、ユーザ100の移動開
始が検出されたことで、副次予定表の帰宅に伴うイベント時刻を自動的に修正する。
Here, in the pre-generated secondary schedule, the return schedule was not registered,
As shown in FIG. 6, a subsidiary schedule for returning home on the last train is automatically generated so that it is possible to guide the time at which the store must be left at the latest. On the other hand, as described here, the user 100 may leave the store to return home on a train earlier than the last train. At this time, the control / arithmetic unit 308 of the server computer 300 automatically corrects the event time associated with the return of the subsidiary schedule, when the movement start of the user 100 is detected.

(情報の推定、選択)
次に、ユーザ100が必要としている情報を推定、選択、表示する手順の具体例を図1
5、図16、図17を参照して説明する。図15は、情報を推定、選択する第1の例の手
順を示すフローチャートである。ステップS1501において、活動状態同定部303は
、ユーザ100の現在の活動状態を同定する。例えば、第1の例では、図12の場合と同
様の予定表上で行動しているユーザ100が現在時刻13時20分において、O会社から
S駅へ向かって小走りに移動している状態を考える。
(Information estimation, selection)
Next, a specific example of a procedure for estimating, selecting, and displaying information required by the user 100 is shown in FIG.
5, description will be made with reference to FIGS. FIG. 15 is a flowchart showing a procedure of a first example for estimating and selecting information. In step S1501, the activity state identification unit 303 identifies the current activity state of the user 100. For example, in the first example, a state where the user 100 who is acting on the same schedule as in FIG. 12 is moving from the O company toward the S station in a short run at the current time 13:20. Think.

ステップS1502において、活動状態同定部303は、予定表、および副次予定表の
中から現在時刻において関連するイベントを抽出する。例えば、イベント「O会社からS
駅への徒歩による移動」については実施状態にあるイベントとして抽出し、イベント「S
駅からI駅への電車による移動」については準備状態イベントとして抽出する。このよう
に、現在時刻において、関連するイベントは複数抽出されることがある。また、イベント
のどのくらい前から準備状態に入るかは、イベントの内容や個人によって異なるので、予
め設定しておくものとする。
In step S1502, the activity state identification unit 303 extracts a related event at the current time from the schedule and the subsidiary schedule. For example, the event “O company to S
“Moving by walking to the station” is extracted as an event in the implementation state, and the event “S
“Movement by train from station to station I” is extracted as a preparation state event. Thus, a plurality of related events may be extracted at the current time. Further, since how long before the event the preparation state is entered differs depending on the content of the event and the individual, it is assumed to be set in advance.

ステップS1503において、情報推定部304は、抽出されたイベントに関するユー
ザ100が必要とする情報(以下、適宜「付帯情報」という。)を推定する。ここでは、
イベント、及びその状態に基づいて推定される付帯情報を予め登録した図18のような付
帯情報データベースを用いて推定している。付帯情報の詳細は、後述するが、例えば、「
O会社からS駅への徒歩による移動」の実施状態における付帯情報は、「経路案内」、「
到着予定時刻」、「到着予想時刻との差違」などである。ここで、例えば、自宅、会社な
どよく行く場所については、通常、経路案内などは不要なので、適宜非表示に設定するこ
ともできる。また、「S駅からI駅への電車による移動」の準備状態における付帯情報は
、「乗換案内(乗車/降車駅、発車/到着時間、所要時間、運賃)」、「電車運行情報」
などである。
In step S1503, the information estimation unit 304 estimates information required by the user 100 regarding the extracted event (hereinafter, referred to as “accompanying information” as appropriate). here,
The event is estimated using an incidental information database as shown in FIG. 18 in which incidental information estimated based on the event and its state is registered in advance. Details of the incidental information will be described later.
The incidental information in the state of “walking from O company to S station” includes “route guidance”, “
“Estimated arrival time”, “difference from estimated arrival time”, and the like. Here, for example, a route frequently visited such as at home or at the office is usually unnecessary, so it can be appropriately hidden. In addition, the supplementary information in the preparation state of “Movement from S station to I station by train” includes “Transfer information (departure / departure station, departure / arrival time, required time, fare)”, “train operation information”
Etc.

情報選択部305は、ステップS1504において、現在時刻と現在位置と歩行速度と
に基づいて、ユーザ100がS駅に到着する予想時刻を推定する。なお、現在時刻は、時
計により得られる。現在位置は、GPS111により得られる。歩行速度は、単位時間に
おける位置の変化、あるいは、足圧力センサ112、運動計測センサ114等により得ら
れる歩行状態から判断される。
In step S1504, the information selection unit 305 estimates the expected time when the user 100 arrives at the S station based on the current time, the current position, and the walking speed. The current time is obtained from a clock. The current position is obtained by the GPS 111. The walking speed is determined from a change in position in unit time or a walking state obtained by the foot pressure sensor 112, the motion measurement sensor 114, or the like.

さらに情報選択部305は、S駅到着予想時刻に基づいて、乗車可能な時刻発で、I駅
に向かうS線の乗換案内を検索する。乗換案内の検索は、サーバーコンピュータ300内
のデータベース309やインターネット400を介した他のコンピュータを参照して行う
。また、情報選択部305は、該当する経路の運行情報、例えば、「現在、正常に運行し
ています」、「車両故障のため、10分遅れが生じています」等をさらに検索する。
Furthermore, the information selection unit 305 searches for the transfer guidance for the S line toward the I station at a time when it can be boarded based on the estimated arrival time at the S station. The search for transfer guidance is performed with reference to the database 309 in the server computer 300 and other computers via the Internet 400. Further, the information selection unit 305 further searches for operation information of the corresponding route, for example, “currently operating normally”, “10 minutes delayed due to vehicle failure”, and the like.

そして、図1に示すように、検索、選択された情報(以下、適宜「提示情報」という)
は、サーバーコンピュータ300の情報送信部302へ送られる。モバイルゲートウエイ
200の受信部204は、サーバーコンピュータ300から送信される提示情報を受信す
る。そして、ステップS1505において、情報表示部101は、提示情報を表示する。
これにより、ユーザ100は、S駅に向かって歩いているとき、S駅で乗る電車の情報を
得ることができる。このように、ユーザ100は、意図的に、これからの自分の予定を調
べて、必要な電車の時刻表、乗換案内を自ら検索する必要がない。
Then, as shown in FIG. 1, information searched and selected (hereinafter referred to as “presentation information” as appropriate)
Is sent to the information transmission unit 302 of the server computer 300. The receiving unit 204 of the mobile gateway 200 receives the presentation information transmitted from the server computer 300. In step S1505, the information display unit 101 displays the presentation information.
Accordingly, when the user 100 is walking toward the S station, the user 100 can obtain information on the train that rides at the S station. In this way, the user 100 does not have to intentionally check his / her schedule and search for a necessary train timetable and transfer guidance.

図16は、ユーザが必要としている情報を推定、選択、表示する第2の例の手順を示す
フローチャートである。ステップS1601において、活動状態同定部303は、ユーザ
100の現在の活動状態を同定する。例えば、第2の例では、図13の場合と同様の予定
表上で行動しているユーザ100が現在時刻13時45分において、I駅からT大学前駅
へ向かって移動中、座席に座って会話をしている状態を考える。
FIG. 16 is a flowchart showing a procedure of a second example for estimating, selecting, and displaying information required by the user. In step S1601, the activity state identification unit 303 identifies the current activity state of the user 100. For example, in the second example, the user 100 who is acting on the same schedule as in FIG. 13 is sitting on the seat while moving from the I station to the T university front station at the current time 13:45. Think about the state of conversation.

ステップS1602において、活動状態同定部303は、予定表、および副次予定表の
中から現在時刻において関連するイベントを抽出する。例えば、イベント「I駅からT大
学前駅への電車による移動」については実施状態にあるイベントとして抽出し、イベント
「T大学前駅からT大学への徒歩による移動」及び「T大学での打合せ」については準備
状態イベントとして抽出する。
In step S1602, the activity state identification unit 303 extracts events related to the current time from the schedule and the secondary schedule. For example, the event “Move by train from I station to T University Mae station” is extracted as an event in the implementation state, and the events “Move by walk from T University Mae station to T University” and “Meetings at T University” "Is extracted as a preparation state event.

ステップS1603において、情報推定部304は、抽出されたイベントに関する付帯
情報を推定する。例えば、「I駅からT大学前駅への電車による移動」の実施状態におけ
る付帯情報は、「降車駅」、「到着時刻」、「メール・ニュース等ユーザが設定した情報
」などである。また、「T大学前駅からT大学への徒歩による移動」の準備状態における
付帯情報は、「出発/到着地」、「出発/到着時間」、「所要時間」「経路案内」などで
ある。「T大学での打合せ」の準備状態における付帯情報は、「準備時間通知」、「資料
」などである。なお、「資料」などの付帯情報は、ユーザ100が予め設定しておくこと
ができる。
In step S1603, the information estimation unit 304 estimates incidental information related to the extracted event. For example, the incidental information in the state of implementation of “movement by train from I station to T university front station” is “getting off station”, “arrival time”, “information set by user such as e-mail / news”, and the like. The supplementary information in the preparation state of “walking from T university front station to T university” includes “departure / arrival place”, “departure / arrival time”, “required time”, “route guidance”, and the like. The incidental information in the preparation state of “meeting at T University” is “notification of preparation time”, “document”, and the like. The user 100 can set incidental information such as “document” in advance.

ステップS1604において、「降車駅」、「到着時刻」は、準備状態時に調べた乗換
案内から引用し、「メール・ニュース等ユーザが設定した情報」は、サーバーコンピュー
タ300内のデータベース309や個人データベース310、インターネット400など
から検索する。また、到着時刻と、駅からの経路と、予め設定、もしくは過去の歩行速度
から学習によって取得した通常の歩行速度とに基づいて、ユーザ100がT大学に到着す
る予想時刻を推定する。
In step S 1604, “Get-off station” and “arrival time” are quoted from the transfer information examined in the preparation state, and “information set by the user such as e-mail / news” is stored in the database 309 or the personal database 310 in the server computer 300. Search from the Internet 400 or the like. Further, based on the arrival time, the route from the station, and the normal walking speed set in advance or acquired by learning from the past walking speed, the estimated time at which the user 100 arrives at T University is estimated.

情報選択部305は、打合せの準備状態において、ユーザ100が予め設定している「
資料」があるときは、サーバーコンピュータ300内のデータベース309、個人データ
ベース310等から検索する。
The information selecting unit 305 is set in advance by the user 100 in the meeting preparation state.
When there is “material”, the database 309, the personal database 310, etc. in the server computer 300 are searched.

そして、図1に示すように、検索、選択された提示情報は、サーバーコンピュータ30
0の情報送信部302へ送られる。モバイルゲートウエイ200の受信部204は、サー
バーコンピュータ300から送信される提示情報を受信する。そして、ステップS160
5において、情報表示部101は、提示情報を表示する。これにより、ユーザ100は、
I駅からT大学前駅に向かって電車移動しているとき、「降車駅」、「到着時刻」、「降
車してからの経路案内」、「打合せの資料」等の情報を自動的に得ることができ、乗換の
心配もなく、乗車時間を有効に過ごすことができる。
As shown in FIG. 1, the retrieved and selected presentation information is stored in the server computer 30.
0 is transmitted to the information transmission unit 302. The receiving unit 204 of the mobile gateway 200 receives the presentation information transmitted from the server computer 300. And step S160
5, the information display unit 101 displays the presentation information. As a result, the user 100 can
When the train is moving from I station to T university front station, information such as “getting off station”, “arrival time”, “route guidance after getting off”, “meeting materials” is automatically obtained. You can spend your boarding time effectively without worrying about transfer.

図17は、情報を推定、選択する第3の例の手順を示すフローチャートである。ステッ
プS1701において、活動状態同定部303は、ユーザ100の現在の活動状態を同定
する。例えば、第3の例では、図14の場合と同様の予定表上で行動しているユーザ10
0が現在時刻22時00分において、懇親会会場を出発して、話をしながら歩き始めた状
態を考える。
FIG. 17 is a flowchart showing the procedure of the third example for estimating and selecting information. In step S <b> 1701, the activity state identification unit 303 identifies the current activity state of the user 100. For example, in the third example, the user 10 acting on the same schedule as in the case of FIG.
Consider a situation where 0 starts walking at the current time of 22:00, leaving the party and talking.

ステップS1702において、活動状態同定部303は、予定表、および副次予定表の
中から現在時刻において関連するイベントを抽出する。例えば、イベント「銀座○○から
G駅への徒歩による移動」については実施状態にあるイベントとして抽出し、イベント「
G駅からMN駅への電車による移動」、「MN駅から自宅への徒歩による移動」について
は準備状態イベントとして抽出する。
In step S1702, the activity state identifying unit 303 extracts events related to the current time from the schedule and the secondary schedule. For example, the event “Moving by foot from Ginza XX to G Station” is extracted as an event in the implementation state, and the event “
The “movement by train from G station to MN station” and “movement by walking from MN station to home” are extracted as preparation state events.

ステップS1703において、情報推定部304は、抽出されたイベントに関する付帯
情報を推定する。例えば、「銀座○○からG駅への徒歩による移動」の実施状態における
付帯情報は、「経路案内」、「到着予定時刻」、「到着予想時刻との差違」などである。
「G駅〜MN駅への電車による移動」の準備状態における付帯情報は、「乗換案内」、「
電車運行情報」などである。「MN駅から自宅への徒歩による移動」の準備状態における
付帯情報は、「経路案内」、「到着予定時刻」、「到着予想時刻との差違」などであるが
、これらは通常不要なので、非表示に設定しておくのが望ましい。
In step S1703, the information estimation unit 304 estimates supplementary information related to the extracted event. For example, the incidental information in the implementation state of “walking from Ginza XX to G station” includes “route guidance”, “estimated arrival time”, “difference from expected arrival time”, and the like.
The incidental information in the preparation state of “Move by train from G station to MN station” is “Transfer information”, “
Train operation information ". The supplementary information in the preparation state of “walking from MN station to home” is “route guidance”, “estimated arrival time”, “difference from estimated arrival time”, etc. It is desirable to set it to display.

ステップS1704において、情報選択部305はデータベース309や他のコンピュ
ータ401を参照して、銀座○○からG駅への「経路案内地図」を取得する。また、現在
時刻と現在位置と歩行速度とに基づいて、ユーザ100がG駅に到着する予想時刻を推定
する。そして、乗車可能な時刻発で、MN駅までの「乗換案内」を検索する。また、情報
選択部305は、該当する経路の「運行情報」をさらに検索する。そして、MN駅に到着
する時刻に基づいて「自宅到着予想時刻」を推定する。
In step S <b> 1704, the information selection unit 305 refers to the database 309 and other computers 401 and acquires a “route guidance map” from Ginza XX to G station. Further, based on the current time, the current position, and the walking speed, an estimated time at which the user 100 arrives at the G station is estimated. Then, the “transfer guide” to the MN station is searched from the time when the boarding is possible. Further, the information selection unit 305 further searches for “operation information” of the corresponding route. Then, based on the time of arrival at the MN station, the “home arrival expected time” is estimated.

図1に示すように、検索、選択された提示情報は、サーバーコンピュータ300の情報
送信部302へ送られる。モバイルゲートウエイ200の受信部204は、サーバーコン
ピュータ300から送信される提示情報を受信する。そして、ステップS1705におい
て、情報表示部101は、提示情報を表示する。これにより、ユーザ100は、「経路案
内地図」、「乗換案内」、「運行情報」、「MN駅到着時刻」などを自動的に得ることがで
きる。このように、ユーザ100は、意図的に、これらの情報を自ら検索する必要がなく
、検索の煩わしさから解放される。
As shown in FIG. 1, the retrieved and selected presentation information is sent to the information transmission unit 302 of the server computer 300. The receiving unit 204 of the mobile gateway 200 receives the presentation information transmitted from the server computer 300. In step S1705, the information display unit 101 displays the presentation information. As a result, the user 100 can automatically obtain “route guidance map”, “transfer guidance”, “operation information”, “MN station arrival time”, and the like. In this way, the user 100 does not need to search for such information on purpose, and is freed from the trouble of searching.

(付帯情報)
次に、抽出されたイベントに関する付帯情報の詳細について説明する。図18は、イベ
ントと当該イベントの各状態とに応じて、各場面で必要になる情報を予め推定し、設定し
た「付帯情報」の例を示す。ここでは、イベントとして、「起床」、「電車による移動」
、「徒歩による移動」、「会議・打合せ」、「仕事」、「仕事合間の休憩」、「食事」、
「施設内の移動」、「映画等の鑑賞」、「ジョギング」、「就寝」とを掲げる。
(Attached information)
Next, details of the incidental information related to the extracted event will be described. FIG. 18 shows an example of “accompanying information” in which information necessary in each scene is estimated and set in advance according to the event and each state of the event. Here, as an event, “wake up”, “movement by train”
, “Walking”, “meeting / meeting”, “work”, “break between work”, “meal”,
“Moving within the facility”, “Appreciating movies”, “Jogging”, “Being a bed”.

所定のイベントとその状態が検出されると図18において対応する付帯情報がわかり、
その内容を検索し、表示するが、「時計情報」、「背景情報(いわゆる壁紙)」等の基本
的な情報については、ユーザ100が予め設定し、常に表示するようにもできる。また、
緊急情報は、ユーザ100が予め設定し、常に割込表示するようにもできる。緊急情報は
、例えば、ユーザの安全に関わる情報、災害・事故などの緊急ニュース、重要メール着信
通知等である。さらに好ましくは、ユーザ100のストレスとなること、または危険を伴
うことを回避するように表示を設定するのが望ましい。回避の例は、ユーザ100が走っ
ているときは、情報をアイコン化したり、割込レベルの高いものだけを表示する等である

以下、図18に示す付帯情報のうち、主要なものを適宜説明する。
When a predetermined event and its state are detected, the corresponding incidental information is found in FIG.
The contents are retrieved and displayed, but basic information such as “clock information” and “background information (so-called wallpaper)” can be preset by the user 100 and always displayed. Also,
The emergency information can be set in advance by the user 100 and always displayed as an interrupt. The emergency information is, for example, information related to the safety of the user, emergency news such as disasters / accidents, and important mail incoming notifications. More preferably, it is desirable to set the display so as to avoid being stressed by the user 100 or being dangerous. An example of avoidance is that when the user 100 is running, the information is converted into an icon, or only information with a high interrupt level is displayed.
Hereinafter, main information of the incidental information illustrated in FIG. 18 will be described as appropriate.

まず、イベント「起床」について説明する。イベント「起床」の準備状態では、ユーザ
は眠っているため、情報の表示は意味がない。しかし、予定表や天候、交通機関の運行状
況に合わせて最適な起床時間を設定できることから、本システムでは特に明示してはいな
いが、快適な目覚めのための環境制御を行うように構成することもできる。例えば、サー
バーコンピュータ300は、同定された「起床」の準備状態に基づいて、ユーザ100の
寝室の照明の明るさ制御、寝室の環境温度の制御等を行うこともできる。また、イベント
実施状態では、現在時刻、その日の天気予報、外の様子、ユーザ100の健康状態、その
日の予定等が、付帯情報となる。このときの実施状態とは、例えば、目覚ましのアラーム
を止めてから起きあがって動き始めるまで、もしくは、寝室を出るまでをいう。
First, the event “wake up” will be described. Since the user is asleep in the preparation state of the event “wake up”, the display of information is meaningless. However, since it is possible to set the optimal wake-up time according to the schedule, weather, and transportation conditions, this system is not specifically indicated, but it should be configured to perform environmental control for comfortable awakening. You can also. For example, the server computer 300 can also control the lighting brightness of the bedroom of the user 100, the environmental temperature of the bedroom, and the like based on the identified “wake-up” preparation state. In the event implementation state, the current time, the weather forecast for the day, the outside appearance, the health status of the user 100, the schedule for the day, and the like are supplementary information. The implementation state at this time refers to, for example, from when the alarm is stopped to when it gets up and starts moving, or until it leaves the bedroom.

次に、イベント「電車での移動」について説明する。このときの実施状態とは、電車へ
の乗車から降車までをいう。イベント準備状態では、乗車/降車駅、発車/到着時間、所
要時間、運賃、運行状況、乗り場等が付帯情報となる。イベント実施状態では、降車駅、
到着時刻、メール・ニュース等ユーザが設定した情報が付帯情報となる。イベント完了状
態では、降車通知(アラーム)が付帯情報となる。このようにしておくと、例えば、降車
時刻になるとユーザ100は、MEG101を介して、「降車駅に着きました。電車を降
りましょう。」という提示情報を認識できる。
Next, the event “movement by train” will be described. The state of implementation at this time is from getting on the train to getting off. In the event preparation state, the boarding / alighting station, departure / arrival time, required time, fare, operation status, landing, etc. are incidental information. In the event implementation state,
Information set by the user, such as arrival time, mail / news, etc., becomes supplementary information. In the event completion state, alighting notification (alarm) is incidental information. In this way, for example, when it is time to get off, the user 100 can recognize the presentation information “I arrived at the getting-off station. Let's get off the train” via the MEG 101.

イベント「徒歩での移動」について説明する。イベント準備状態では、出発/到着地、
出発/到着時間、所要時間、経路案内等が付帯情報となる。イベント開始状態では、出発
時間通知(アラーム)が行われる。イベント実施状態では、経路案内、到着予定時刻、到
着予想時刻との差違が付帯情報となる。このようにして、例えば、15時待ち合わせのス
ケジュールのとき、到着予定時刻は「15時」、移動がスムーズならば到着予想時刻は「
2分前」などと表示される。同時に経路案内(ナビゲーション)も表示されるが、自宅や
会社等のユーザ100が熟知している場所については、経路案内などの情報は予め非表示
に設定することで、不要な情報が表示されるのを防ぐこともできる。
The event “Move on foot” will be explained. In event preparation state, departure / arrival place,
Departure / arrival time, required time, route guidance, and the like are supplementary information. In the event start state, departure time notification (alarm) is performed. In the event execution state, the difference between the route guidance, the estimated arrival time, and the estimated arrival time is incidental information. Thus, for example, in the schedule of waiting for 15:00, the estimated arrival time is “15:00”, and if the movement is smooth, the estimated arrival time is “
2 minutes ago "is displayed. At the same time, route guidance (navigation) is also displayed. However, for places familiar to the user 100 such as home or office, unnecessary information is displayed by setting information such as route guidance to be hidden in advance. Can also be prevented.

このときの具体例を掲げる。例えば、A駅15時発の電車でB駅へ行くために、A駅に
向かって歩いているとき、イベント「A駅への徒歩による移動」の開始状態であり、かつ
イベント「A駅からB駅への電車での移動」の準備状態となる。そして、表1のような情
報表示が行われる。
A specific example is given here. For example, when walking toward A station in order to go to B station by a train from A station at 15:00, the event “movement by walking to A station” is in the starting state and the event “from station A to B It will be ready for "Travel to the station". Then, information display as shown in Table 1 is performed.

(表1)
次の信号を右(または地図によるナビゲーション)
A駅到着予定時刻(14:58)、2分前到着予想
乗換案内:
A駅(15:00)→B駅(15:26) 所要時間:26分
運賃:210円 運行状況:良好
(Table 1)
Next traffic light right (or map navigation)
Estimated arrival time at Station A (14:58), 2 minutes before arrival forecast:
Station A (15:00) → Station B (15:26) Time required: 26 minutes Fare: 210 yen Operation status: Good

イベント「会議・打合せ」について説明する。イベント準備状態では、準備時間通知(
アラーム)・資料、用意するもの等予めユーザが設定したもの等が付帯情報となる。イベ
ント開始状態では、開始時間通知(アラーム)が付帯情報となる。イベント実施状態では
、資料等予めユーザが設定したもの、情動制御情報が付帯情報となる。情動制御情報とは
、本システムでは特に明示していないが、ユーザ100が極度に緊張していたり、激昂し
ているときなどを、脈拍や血圧等の生体信号計測により検出し、それに応じて表示する気
分を落ち着かせるための情報をいう。こういう場合には自分を見失っている場合が多いが
、このような情報を認識することで、冷静になることができる。イベント完了状態では、
そのイベント以降の予定などが付帯情報となる。
The event “conference / meeting” will be described. In the event preparation state, the preparation time notification (
Alarm) / materials, materials to be prepared, etc. previously set by the user, etc. are incidental information. In the event start state, a start time notification (alarm) is incidental information. In the event implementation state, information previously set by the user, such as materials, and emotion control information become supplementary information. The emotion control information is not specified in the present system, but when the user 100 is extremely nervous or furious, it is detected by measuring biological signals such as pulse and blood pressure, and displayed accordingly. This is information to calm down the mood. In such cases, you often lose sight of yourself, but by recognizing such information, you can be calm. In the event completion state,
Schedules after the event are incidental information.

イベント「仕事」について説明する。イベント準備状態では、以降の予定、タスク等が
付帯情報となる。イベント開始状態では、仕事モードへの移行通知(アラーム)が表示さ
れる。イベント実施状態では、仕事モードが付帯情報となる。ここで、情報推定部304
において、付帯情報として仕事モードが推定された場合、制御・演算部308は、緊急情
報を除き、仕事以外の情報表示を禁止するなど、予めユーザ100が設定した条件で、情
報を選択するよう情報選択部305を制御する。イベント完了状態では、仕事モードから
の復帰が表示される。
Explain the event “work”. In the event preparation state, subsequent schedules, tasks, and the like are incidental information. In the event start state, a notification (alarm) for shifting to the work mode is displayed. In the event implementation state, the work mode is incidental information. Here, the information estimation unit 304
When the work mode is estimated as incidental information, the control / calculation unit 308 is configured to select information under conditions set in advance by the user 100 such as prohibiting display of information other than work except for emergency information. The selection unit 305 is controlled. In the event completion state, the return from work mode is displayed.

イベント「仕事合間の休憩」について説明する。イベント実施状態では、予めユーザが
設定した気分転換情報が付帯情報となる。イベント完了状態では、完了喚起通知が表示さ
れる。これにより、休憩しすぎの防止アラームの機能を果たすことができる。
Explain about the event "Break between work". In the event implementation state, mood change information set in advance by the user is incidental information. In the event completion state, a completion alert is displayed. Thereby, the function of an alarm for preventing excessive breaks can be achieved.

イベント「食事」について説明する。イベント準備状態では、健康状態、食事制限、履
歴・嗜好等に応じた食事アドバイス、外出中は付近の食事場所案内等が付帯情報となる。
イベント開始状態では、推奨メニューが表示される。イベント実施状態では、メール・ニ
ュース等のユーザ100が設定した情報が付帯情報となる。なお、外出時はお店に入った
ことで「イベント開始状態」に遷移する。イベント完了状態では、食事以降の予定が表示
される。
The event “meal” will be described. In the event preparation state, supplementary information includes health advice, meal restrictions, meal advice according to history / preference, etc., and information on nearby dining places while out.
In the event start state, a recommended menu is displayed. In the event implementation state, information set by the user 100 such as mail / news is supplementary information. In addition, when going out, transition to the “event start state” by entering the store. In the event completion state, the schedule after the meal is displayed.

イベント「施設内の移動」について説明する。施設とは、駅、ホテル、テーマパーク等
をいう。イベント準備状態では、施設のHP(テナント、催し等)、現在地に近い入り口
の案内、施設案内等が付帯情報となる。イベント実施状態では、テナント、エレベータ、
エスカレータ、トイレ等の施設内案内が付帯情報となる。なお、ここでは、さらに個人の
嗜好や行動履歴に基づいてテナント情報等を表示することが望ましい。
The event “movement in the facility” will be described. Facilities are stations, hotels, theme parks, etc. In the event preparation state, the HP of the facility (tenant, event, etc.), the guidance for the entrance near the current location, the facility guidance, etc. are incidental information. In the event implementation state, tenants, elevators,
Information inside facilities such as escalators and toilets is incidental information. In addition, here, it is desirable to display tenant information or the like based on personal preferences and behavior history.

イベント「映画等の鑑賞」について説明する。イベント準備状態では、ユーザ100が
設定した情報等が付帯情報となる。イベント開始状態では、スリープモードへの移行通知
(アラーム)が表示される。イベント実施状態では、スリープモードとなる。ここで、情
報推定部304において、付帯情報としてスリープモードが推定された場合、制御・演算
部308は、緊急情報以外の表示を禁止するなど、予めユーザ100が設定した条件で、
情報を選択するよう情報選択部305を制御する。「イベント完了状態」では、スリープ
モードから復帰する。
The event “Watching movies” will be explained. In the event preparation state, information set by the user 100 is incidental information. In the event start state, a notification of transition to the sleep mode (alarm) is displayed. In the event execution state, the sleep mode is set. Here, when the sleep mode is estimated as incidental information in the information estimation unit 304, the control / calculation unit 308 is based on conditions set in advance by the user 100, such as prohibiting display other than emergency information.
The information selection unit 305 is controlled to select information. In the “event completion state”, the process returns from the sleep mode.

イベント「ジョギング」について説明する。イベント準備状態では、モチベーション刺
激情報が付帯情報となる。イベント開始状態では、開始時間通知(アラーム)が表示され
る。イベント実施状態では、ペース、運動負荷、モチベーション維持情報が付帯情報とな
る。イベント完了状態では、完了喚起通知(運動しすぎの防止アラーム)、努力効果の表
示、報償等が付帯情報となる。
The event “jogging” will be described. In the event preparation state, the motivation stimulus information is incidental information. In the event start state, a start time notification (alarm) is displayed. In the event implementation state, pace, exercise load, and motivation maintenance information are supplementary information. In the event completion state, notification of completion (prevention of excessive exercise alarm), display of effort effect, reward, etc. are incidental information.

イベント「就寝」について説明する。イベント準備状態では、翌日の予定、天気、起床
予定時間が付帯情報となる。イベント開始状態では、就寝時間通知が表示される。これに
より、不本意な夜更かしを防止できる。
The event “sleeping” will be described. In the event preparation state, the next day's schedule, weather, and scheduled wake-up time are incidental information. In the event start state, a bedtime notification is displayed. This can prevent unintentional staying up late.

次に、図19を参照して、活動状態の同定と提示情報との具体的な関係を簡単な例を用
いてさらに説明する。ここでは、センサとして、GPS、足圧力センサなどの歩行状態セ
ンサ、時計のみを用いて、自宅を出発して、最寄り駅へ向かう場合を想定している。
Next, with reference to FIG. 19, a specific relationship between the identification of the activity state and the presentation information will be further described using a simple example. Here, it is assumed that only GPS, a walking state sensor such as a foot pressure sensor, and a clock are used as a sensor and leave the home and head for the nearest station.

ユーザ100が自宅から最寄り駅までの屋外に存在し、かつ急ぎ歩きであるとき、例え
ば、ユーザ100はイベント「最寄り駅からO会社への電車での移動」の準備状態で、か
つイベント「最寄り駅への徒歩での移動」の実施状態で、「駅に急いでいる」状態と同定
される。このとき、例えば「時刻表」を表示する。この概念を図19を用いて説明する。
When the user 100 exists outdoors from his / her home to the nearest station and is walking fast, for example, the user 100 is in a preparation state for the event “Move by train from the nearest station to company O” and the event “Nearest station” The state of “move on foot” is identified as the state of “rushing to the station”. At this time, for example, “timetable” is displayed. This concept will be described with reference to FIG.

図19において、ユーザ100の場所を示す軸と、移動を示す軸と、予定表(スケジュ
ール)上の時間を示す軸との直交3軸座標系(以下、適宜「TPO要素軸」という。)を
用いる。ユーザ100が、自宅から最寄り駅への移動時間中に駅へ向かって小走りである
状態を考える。
In FIG. 19, an orthogonal three-axis coordinate system (hereinafter referred to as “TPO element axis” as appropriate) of an axis indicating the location of the user 100, an axis indicating movement, and an axis indicating time on the schedule (schedule). Use. Consider a state in which the user 100 is running toward the station during the travel time from home to the nearest station.

活動状態同定部303は、TPO要素軸で定義される3次元空間において、ユーザ10
0は太線で囲った状態にあると同定する。そして、この時に関連するイベントとして、現
在時刻と予定表を参照してイベント「最寄り駅からO会社への電車での移動」の準備状態
と、イベント「最寄り駅への徒歩での移動」の実施状態であることを同定する。
In the three-dimensional space defined by the TPO element axis, the activity state identification unit 303 is the user 10
0 is identified as being surrounded by a thick line. And as related events at this time, refer to the current time and schedule and prepare for the event “Move by train from the nearest station to O company” and the event “Move by walk to the nearest station” Identify the condition.

このとき、情報推定部304は、「このような状態においては、ユーザ100は次の乗
り換え電車を気にしているはず」であるという推定に基づいて、予め設定された付帯情報
「次の電車の発車時刻」により情報選択部305は、該当する時刻表を選択する。
At this time, the information estimation unit 304 determines that the supplementary information “the next train of the next train is set in advance based on the estimation that the user 100 should care about the next transfer train in such a state”. Based on the “departure time”, the information selection unit 305 selects a corresponding timetable.

このように本システムでの活動状態の同定は、時間(Time)、場所(Place)
、場合(Occasion)に基づいて行うので、以下適宜「TPO推定」と呼び、単に
、場所と時間だけに寄らないため、よりユーザの意向に添った情報の提示が可能となる。
また、ここでは説明を簡単にするために、Occasionとしては歩行の状態のみを使
っているが、先述したように、咀嚼・発話の状態など、複数の軸を組み合わせることで、
より詳細な状況判断が可能となる。
In this way, the identification of the activity state in this system is time (Time), place (Place)
Since it is based on the case (Occasion), it is hereinafter referred to as “TPO estimation” as appropriate, and since it does not simply depend on the place and time, it is possible to present information more in line with the user's intention.
In addition, here, for ease of explanation, only the state of walking is used as the Occasion, but as described above, by combining multiple axes such as the state of mastication and speech,
More detailed situation judgment is possible.

図20は、センサ110等からの計測信号と、同定される活動状態とのさらに別の関係
を示す。図20において、センサとして、「時計・予定表」、「GPS」、「屋内外セン
サ」、「運動計測センサ」、「外界音マイク」、「骨伝導マイク」、「足圧力センサ」の
7つのセンサを用いる。これらの7つのセンサからの計測信号に基づいて、タイミングと
して「会話」、「休日」、日時として「日常生活時間」、「日常仕事時間」、「非日常時
間」、空間として「場所」、「移動」を同定する。
FIG. 20 shows still another relationship between the measurement signal from the sensor 110 and the like and the identified activity state. In FIG. 20, there are seven sensors: “clock / schedule”, “GPS”, “indoor / outdoor sensor”, “motion measurement sensor”, “external sound microphone”, “bone conduction microphone”, and “foot pressure sensor”. Use a sensor. Based on the measurement signals from these seven sensors, “conversation”, “holiday” as the timing, “daily life time”, “daily work time”, “non-daily time” as the date, “location”, “ Identify "move".

同定される「会話」の内容の例は、「話をしている」、「聞いている」、「なし」であ
る。「休日」の内容の例は、「平日」、「休日前」、「休日」、「休み明け」である。「
日常生活時間」の内容の例は、「起床」、「朝食」、「昼食」、「夕食」、「就寝」であ
る。「日常仕事時間」の内容の例は、「出勤」、休憩や会議の「仕事」、「帰宅」である
。「非日常時間」の内容の例は、「出発」、「移動」、出張やレジャーの「イベント」、
「移動」、「帰着」である。
Examples of the content of “conversation” to be identified are “talking”, “listening”, and “none”. Examples of the contents of “Holiday” are “Weekday”, “Before Holiday”, “Holiday”, and “After Holiday”. "
Examples of the contents of “daily life time” are “getting up”, “breakfast”, “lunch”, “dinner”, and “sleeping”. Examples of the contents of “daily work hours” are “going to work”, “work” for breaks and meetings, and “going home”. Examples of “non-daily time” content include “departure”, “movement”, “event” for business trips and leisure,
“Move” and “Return”.

また、同定される「場所」の内容の例は、寝室、リビング、ダイニング、その他の「自
宅」、「駅」、「店舗」、「病院」、居室、会議室、休憩所、その他の「会社」、「映画
館」、「屋内競技場」、「観光地」、「街中」、「海・山」、「その他屋外」である。
In addition, examples of the content of “location” to be identified include bedroom, living room, dining room, other “home”, “station”, “store”, “hospital”, living room, meeting room, rest area, and other “company” ”,“ Movie Theater ”,“ Indoor Stadium ”,“ Sightseeing Spot ”,“ City ”,“ Sea / Mountain ”,“ Other Outdoors ”.

また、同定される「移動」の内容の例は、「公共交通機関」、車や自転車を「自分で運
転」、「ゆっくり」や「疾走」の「歩行」、「移動なし」である。そして、上述した7つ
のセンサ110等からの計測信号に基づいて、これらの活動状態が同定される。
Examples of the content of “movement” to be identified are “public transportation”, “driving yourself” of a car or bicycle, “walking” of “slow” or “sprinting”, “no movement”. These activity states are identified based on the measurement signals from the seven sensors 110 described above.

次に、同定された活動状態の内容に基づいて、ユーザ100が必要とする情報を推定、
選択する。図21は、「活動状態」と「付帯情報」との関係を示す。付帯情報としての「
ナビゲーション」情報、具体的には目的地までの地図情報について説明する。活動状態が
「非日常時間」のうちの「出張」で、かつ「不慣れな土地」、「歩行移動」として同定さ
れたときを考える。これらの同定が同時に実行されたとき、情報推定部304は、「目的
地までの地図情報」を推定する。他の項目である「ニュース」や「メール」についても、
図21のTPO要素軸欄に掲げる各「活動状態」が同定されたとき、対応する付帯情報が
推定、選択される。
Next, based on the content of the identified activity state, the information required by the user 100 is estimated,
select. FIG. 21 shows the relationship between “activity state” and “accompanying information”. As ancillary information
Navigation "information, specifically, map information to the destination will be described. Let us consider a case where the activity state is “business trip” in “unusual time” and is identified as “unfamiliar land” or “walking movement”. When these identifications are performed simultaneously, the information estimation unit 304 estimates “map information to the destination”. Other items such as “news” and “email”
When each “activity state” listed in the TPO element axis column of FIG. 21 is identified, the corresponding incidental information is estimated and selected.

このように、本実施例によれば、ユーザ100の活動状態を同定し、同定された活動状
態に基づいてユーザ100が必要とする情報をタイムリーに表示できる。
As described above, according to the present embodiment, the activity state of the user 100 can be identified, and information required by the user 100 can be displayed in a timely manner based on the identified activity state.

本発明の実施例2に係る情報表示システムについて説明する。図22は、実施例2に係
る情報表示システムの概略構成を示す。実施例1では、センサ110等からの計測信号は
、モバイルゲートウエイ200を介してサーバーコンピュータ300へ送られる。また、
サーバーコンピュータ300からの提示情報は、モバイルゲートウエイ200を介してユ
ーザ100のMEG101へ送られる。これに対して、本実施例では、ノート型(ラップ
トップ型)のパーソナルコンピュータ450が、実施例1におけるモバイルゲートウエイ
200とサーバーコンピュータ300との機能を兼用している点が実施例1と異なる。実
施例1と同一の部分には同一の符号を付し、重複する説明は省略する。
An information display system according to Example 2 of the present invention will be described. FIG. 22 illustrates a schematic configuration of the information display system according to the second embodiment. In the first embodiment, measurement signals from the sensor 110 and the like are sent to the server computer 300 via the mobile gateway 200. Also,
Presentation information from the server computer 300 is sent to the MEG 101 of the user 100 via the mobile gateway 200. On the other hand, the present embodiment is different from the first embodiment in that a laptop (laptop) personal computer 450 has the functions of the mobile gateway 200 and the server computer 300 in the first embodiment. The same parts as those in the first embodiment are denoted by the same reference numerals, and redundant description is omitted.

図23は、実施例2に係る情報表示システムの機能ブロックを示す。本情報表示システ
ムは、ユーザ100が装着する各種センサ群と、ノート型パーソナルコンピュータ450
とから構成されている。
FIG. 23 illustrates functional blocks of the information display system according to the second embodiment. The information display system includes a group of sensors worn by the user 100 and a notebook personal computer 450.
It is composed of.

まず、ユーザ100が装着するセンサ群について説明する。ユーザ100は、屋内外セ
ンサ110と、GPS111と、足圧力センサ112と、発話・咀嚼センサ113と、腕
装着型運動計測センサ114とを、身体に装着している。これらのセンサ110等は、実
施例1で述べたデバイスと同一の構成である。
First, a sensor group worn by the user 100 will be described. The user 100 wears an indoor / outdoor sensor 110, a GPS 111, a foot pressure sensor 112, an utterance / mastication sensor 113, and an arm-mounted motion measurement sensor 114 on the body. These sensors 110 and the like have the same configuration as the device described in the first embodiment.

本実施例では、ユーザ100は、さらに、循環器状態センサ2201と、呼吸器状態セ
ンサ2202と、眼状態センサ2203と、体温センサ2204と、GSR・発汗センサ
2205と、他のセンサ2206とを装着している。
In the present embodiment, the user 100 further wears a circulatory state sensor 2201, a respiratory state sensor 2202, an eye state sensor 2203, a body temperature sensor 2204, a GSR / sweat sensor 2205, and other sensors 2206. is doing.

(循環器状態センサ)
循環器状態センサ2201は、例えばパルスオキシメータ、腕に装着する型の血圧計等
である。パルスオキシメーターは、採血すること無しに、血液の色から、心拍毎に指先や
その他の末梢組織に送り込まれる動脈血酸素飽和度を測定する。人間の血液中のヘモグロ
ビンは、酸素と結合していないとき、赤い色を吸収する。これに対して、ヘモグロビンは
、酸素と結合しているとき、赤色をあまり吸収しない。パルスオキシメータは、この性質
を利用して、血液中のヘモグロビンの内、どれだけ酸素を含んでいるかを測定する。これ
により、動脈血酸素飽和度を知ることができる。この結果、パルスオキシメータにより、
ユーザ100の循環器、例えば心臓や血管の状態を検出できる。
(Cardiovascular state sensor)
The circulatory state sensor 2201 is, for example, a pulse oximeter, a sphygmomanometer attached to the arm, or the like. The pulse oximeter measures the arterial oxygen saturation that is sent to the fingertip and other peripheral tissues at every heartbeat from the blood color without collecting blood. Hemoglobin in human blood absorbs a red color when not bound to oxygen. In contrast, hemoglobin does not absorb much red when combined with oxygen. The pulse oximeter utilizes this property to measure how much oxygen is contained in hemoglobin in the blood. Thereby, the arterial blood oxygen saturation can be known. As a result, the pulse oximeter
The state of the circulatory organ of the user 100, such as the heart and blood vessels, can be detected.

(呼吸器状態センサ、眼状態センサ)
また、呼吸器状態センサ2202は、呼吸センサである。呼吸センサは、ユーザ100
の呼吸量、呼吸頻度を検出する。眼状態センサ2203は、例えばアイカメラである。ア
イカメラは、ユーザ100の眼球運動や瞳孔反射など検出する。
(Respiratory condition sensor, eye condition sensor)
The respiratory condition sensor 2202 is a respiratory sensor. The respiration sensor is
Detect respiratory volume and respiratory frequency. The eye state sensor 2203 is, for example, an eye camera. The eye camera detects the eye movement of the user 100 and pupil reflection.

(GSR・発汗センサ)
GSR・発汗センサ2205は、GSR(Galvanic Skin Respon
se;皮膚電気抵抗値)を測定するセンサである。GSRの計測は、ユーザ100の体表
面、例えば掌や足の裏に所定間隙をおいて一対の電極を装着する。両電極間に微弱電流を
流し、その電位差と電流値を計測する。計測値を用いて、抵抗値を計算する。これにより
、ユーザ100の発汗状態を検出できる。
(GSR / Sweating sensor)
GSR / Sweating Sensor 2205 is GSR (Galvanic Skin Response).
se; skin electric resistance value). For the measurement of GSR, a pair of electrodes are mounted on the body surface of the user 100, for example, on the palm or sole of the foot with a predetermined gap. A weak current is passed between both electrodes, and the potential difference and current value are measured. The resistance value is calculated using the measured value. Thereby, the sweating state of the user 100 can be detected.

(他のセンサ)
他のセンサ2206は、例えば、ユーザ100の緊張状態を検出する。ユーザ100の
、覚醒状態、緊張状態、疲労状態、体調状態、空腹状態などをセンシングする方法は、心
拍や体温などを利用するものが一般的である。これらの状態は、いずれも動作などと異な
り直接的に測定できる状態ではない。ユーザ100の緊張状態等を検出するものとして脳
波計が挙げられる。
(Other sensors)
Another sensor 2206 detects, for example, the tension state of the user 100. As a method for sensing the awake state, the tension state, the fatigue state, the physical condition, the hungry state, and the like of the user 100, a method using a heart rate, a body temperature, or the like is generally used. These states are not states that can be directly measured unlike the operation. An electroencephalograph is an example of detecting the tension state of the user 100.

なお、図22においては、理解の容易にため、これらの循環器状態センサ2201と、
呼吸器状態センサ2202と、眼状態センサ2203と、体温センサ2204と、GSR
・発汗センサ2205と、他のセンサ2206との図示を省略している。
In FIG. 22, for easy understanding, these circulatory state sensors 2201 and
Respiratory condition sensor 2202, eye condition sensor 2203, body temperature sensor 2204, GSR
The illustration of the perspiration sensor 2205 and the other sensor 2206 is omitted.

上述の各種のセンサ110等は、それぞれ無線通信のためのBluetoothチップ
(不図示)を搭載している。そして、センサ110等の計測信号は、デジタルデータ化さ
れてノート型パーソナルコンピュータ450へ送信される。
The above-described various sensors 110 and the like are each equipped with a Bluetooth chip (not shown) for wireless communication. Then, measurement signals from the sensor 110 and the like are converted into digital data and transmitted to the notebook personal computer 450.

(ノート型パーソナルコンピュータ)
ノート型パーソナルコンピュータ450について説明する。ノート型パーソナルコンピ
ュータ450は、ユーザ100が手に持っている鞄の中に収納できる大きさである。ノー
ト型パーソナルコンピュータ450の計測信号受信部201は、センサ110等から送信
された計測信号を受信する。
(Notebook personal computer)
The notebook personal computer 450 will be described. The notebook personal computer 450 is large enough to be stored in a bag that the user 100 has in his hand. The measurement signal receiving unit 201 of the notebook personal computer 450 receives the measurement signal transmitted from the sensor 110 or the like.

計測信号集約部202は、これらのセンサ110等からの複数の計測信号を一つに集約
する。活動状態同定部303は、受信した計測信号に基づいて、ユーザ100の活動状態
を同定する。情報推定部304は、活動状態同定部303により同定された活動状態に基
づいて、ユーザ100が必要とする情報を推定する。
The measurement signal aggregating unit 202 aggregates a plurality of measurement signals from these sensors 110 and the like. The activity state identification unit 303 identifies the activity state of the user 100 based on the received measurement signal. The information estimation unit 304 estimates information that the user 100 needs based on the activity state identified by the activity state identification unit 303.

活動状態同定部303と情報推定部304とは、それぞれ予定表306、外部状況30
7を参照する。予定表306は、ユーザ100の行動予定、スケジュールが含まれている
。また、外部状況307は、天候情報、道路混雑情報等が含まれている。
The activity state identification unit 303 and the information estimation unit 304 are respectively a schedule 306 and an external situation 30.
Refer to FIG. The schedule table 306 includes the action schedule and schedule of the user 100. The external situation 307 includes weather information, road congestion information, and the like.

データベース2207は、ユーザ100が必要とする情報を含む各種の情報を格納して
いる。なお、データベース2207は、ノート型パーソナルコンピュータ450が内蔵す
る構成には限られない。例えば、ノート型パーソナルコンピュータ450とは異なる外部
にデータベースを設ける構成でも良い。
The database 2207 stores various types of information including information required by the user 100. The database 2207 is not limited to the configuration built in the notebook personal computer 450. For example, a configuration may be employed in which a database is provided outside the notebook personal computer 450.

そして、情報選択部305は、情報推定部304により推定されたユーザ100が必要
とする情報を、データベース2207に格納されている複数の情報の中から選択する。ま
た、情報選択部305は、例えばインターネット400や専用回線を介して他のコンピュ
ータ401と通信可能に構成されている。これにより、情報選択部305は、他のコンピ
ュータ401を介してユーザ100に必要な情報を取得することもできる。
Then, the information selection unit 305 selects information required by the user 100 estimated by the information estimation unit 304 from among a plurality of pieces of information stored in the database 2207. The information selection unit 305 is configured to be able to communicate with another computer 401 via, for example, the Internet 400 or a dedicated line. As a result, the information selection unit 305 can also acquire information necessary for the user 100 via the other computer 401.

情報送信部302は、情報選択部により選択された情報を情報表示部であるMEG10
1の受信部102へ送信する。また、制御・演算部308は、計測信号受信部201と、
計測信号集約部202と、活動状態同定部303と、情報推定部304と、情報選択部3
05と、情報送信部302との制御を行う。
The information transmission unit 302 displays the information selected by the information selection unit as the information display unit MEG10.
1 to the receiving unit 102. The control / calculation unit 308 includes a measurement signal receiving unit 201,
Measurement signal aggregating unit 202, activity state identifying unit 303, information estimating unit 304, information selecting unit 3
05 and the information transmission unit 302 are controlled.

そして、センサ110等とノート型パーソナルコンピュータ450は、Bluetoo
thの送受信部である無線タグ(Bluetoothチップ)を備えている。これにより
、センサ110等とノート型パーソナルコンピュータ450とは、Bluetoothに
よる無線通信を行うことができる。
The sensor 110 and the notebook personal computer 450 are connected to Bluetooth.
A wireless tag (Bluetooth chip) which is a th transmission / reception unit is provided. As a result, the sensor 110 and the like and the notebook personal computer 450 can perform wireless communication by Bluetooth.

活動状態同定部303の機能、情報推定部304の機能、情報選択部305の機能は、
それぞれ実施例1と同一であるため、その説明は省略する。本実施例では、実施例1に比
較して、さらに、循環器状態センサ2201と、呼吸器状態センサ2202と、眼状態セ
ンサ2203と、体温センサ2204と、GSR・発汗センサ2205と、他のセンサ2
206とを用いている。このため、活動状態同定部303は、実施例1よりも詳細な活動
状態の項目を同定できる。
The function of the activity state identification unit 303, the function of the information estimation unit 304, and the function of the information selection unit 305 are as follows:
Since they are the same as those in the first embodiment, the description thereof is omitted. In this embodiment, compared with the first embodiment, a circulatory state sensor 2201, a respiratory state sensor 2202, an eye state sensor 2203, a body temperature sensor 2204, a GSR / sweat sensor 2205, and other sensors. 2
206 is used. For this reason, the activity state identification unit 303 can identify items of activity states that are more detailed than those in the first embodiment.

(ユーザの一日のシナリオ)
例えば、ユーザ100の職業が営業職であるときを考える。図24〜図31は、本情報
表示システムを用いるユーザ100の一日の生活の流れを示す。「ユーザの生活シーン」
欄は、活動状態と、MEG101に表示された情報に対する反応等を掲げる。「システム
の機能」欄は、ユーザ100に提示する情報、ユーザ100の周囲の環境制御等を掲げる
。「環境制御」とは、本情報表示システムに、さらに環境制御システムを連動させること
により、ユーザ100の周辺機器、例えば、エアコン、照明器具等を制御することをいう
(User day scenario)
For example, consider a case where the occupation of the user 100 is a sales occupation. 24 to 31 show the daily life flow of the user 100 using this information display system. "User life scene"
The column lists the activity state and the response to the information displayed on the MEG 101. The “system function” column lists information presented to the user 100, environmental control around the user 100, and the like. “Environmental control” refers to controlling peripheral devices of the user 100 such as an air conditioner and lighting equipment by further linking the information control system to the environment control system.

「利用するセンサ系データ」欄は、活動状態の同定等に参照するセンサ110等を示す
。図24〜図31において、「利用するセンサ系データ」欄の丸印は、該当するセンサか
らの計測信号が、活動状態の同定に有効であることを示す。また、「利用するセンサ系デ
ータ」欄の三角印は、センサによる検出が容易でない場合、例えば、ユーザ100の負担
になる場合、計測信号の検出が容易でない場合等を示す。従って、三角印で示すセンサか
らの計測信号は、活動状態の同定に必要であれば利用することもできる、という状態を示
す。さらに、「利用する非センサ系データ」は、活動状態の同定に用いるデータ、表示す
る提示情報等を示す。以下、ユーザ100の複数の生活シーンのうちの一部について説明
する。
The “sensor system data to be used” column indicates the sensor 110 and the like to be referred to for identification of the activity state. 24 to 31, a circle in the “Sensor system data to be used” column indicates that the measurement signal from the corresponding sensor is effective for identifying the active state. Further, a triangle mark in the “sensor system data to be used” column indicates a case where detection by the sensor is not easy, for example, a case where it becomes a burden on the user 100, or a case where measurement signal detection is not easy. Therefore, the measurement signal from the sensor indicated by the triangle mark indicates a state that it can be used if necessary for identification of the active state. Further, “non-sensor data to be used” indicates data used for identifying an activity state, presentation information to be displayed, and the like. Hereinafter, some of the plurality of life scenes of the user 100 will be described.

また、図24〜図31の「利用するセンサ系データ」欄において、「時刻・場所」は、
時計、および予定表により検出できる。「位置・場所」は、屋内外センサ110やGPS
111により検出できる。「歩行・運動状態」は、足圧力センサ112や運動計測センサ
114により検出できる。
In addition, in the “sensor system data to be used” column in FIGS. 24 to 31, “time / place”
It can be detected by a clock and a schedule. “Location / Place” is the indoor / outdoor sensor 110 or GPS
111. The “walking / exercising state” can be detected by the foot pressure sensor 112 or the motion measurement sensor 114.

(出発前、自宅で)
図24の最左欄の番号1の項目について説明する。ユーザ100の起床時において、活
動状態同定部303は、「時刻・時間」と、「循環器状態」と、「呼吸器状態」と「体温
」と、他センサにより検出された「覚醒状態」とに基づいて、ユーザ100の活動状態を
同定する。例えば、活動状態同定部303は、ユーザ100が、「朝、ベッドの上で目覚
めた状態」であると同定する。そして、制御・演算部308は、寝室の照明を明るくする
こと、寝室の温度を起床に快適な温度に制御すること、起床に好適な香りを供給すること
、起床に好適な音(音楽等)を供給すること等を行う。これにより、ユーザ100は、「
目覚ましのベルにたたき起こされることも無く、今日も自然で快適な目覚めだ」と感じる
ことができる。
(Before departure, at home)
The item of number 1 in the leftmost column in FIG. 24 will be described. When the user 100 wakes up, the activity state identification unit 303 includes “time / time”, “circulatory state”, “respiratory state”, “body temperature”, and “wakefulness state” detected by other sensors. Based on the above, the activity state of the user 100 is identified. For example, the activity state identifying unit 303 identifies that the user 100 is “awakened on the bed in the morning”. Then, the control / calculation unit 308 brightens the bedroom lighting, controls the bedroom temperature to a comfortable temperature for the wake-up, supplies a fragrance suitable for the wake-up, and sounds suitable for the wake-up (music, etc.) And so on. This allows the user 100 to “
It is a natural and comfortable awakening today without being awakened by the alarm bell.

(通勤途中で)
図25の最左欄の番号10の項目について説明する。ユーザ100が通勤するとき、活
動状態同定部303は、「時刻・時間」と、「位置・場所」と、「歩行・運動状態」とに
基づいて、ユーザ100が移動していることを同定する。情報推定部304は、その後の
スケジュールに応じて、行動を支援する情報を推定する。情報選択部305は、「地図情
報」、「スケジュール」、「時刻表・乗換」に関する最適な情報を選択する。例えば、「
時刻表・乗換」に関する情報は、実施例1で説明したような、具体的な電車発車時刻に加
えて、「運行状況」の情報も含まれる。例えば、通常の通勤経路では、電車が事故のため
に遅れているとき、他の私鉄を利用した通勤経路を選択する。MEG101は、これらの
情報を、適宜表示する。
(On the way to work)
The item number 10 in the leftmost column of FIG. 25 will be described. When the user 100 commute, the activity state identifying unit 303 identifies that the user 100 is moving based on “time / time”, “position / location”, and “walking / exercising state”. . The information estimation unit 304 estimates information that supports actions according to the subsequent schedule. The information selection unit 305 selects optimal information regarding “map information”, “schedule”, and “timetable / transfer”. For example, "
Information related to “timetable / transfer” includes “operation status” information in addition to the specific train departure time as described in the first embodiment. For example, in a normal commuting route, when a train is delayed due to an accident, a commuting route using another private railway is selected. The MEG 101 displays such information as appropriate.

これにより、ユーザ100は、「駅に向かって歩き始めると、乗換案内が表示された。
事故の影響で私鉄回りが提案されている。会議に遅れたくないから、そうすることにしよ
う。」と認識することができる。
As a result, the user 100 “displayed the transfer guidance when starting to walk toward the station.
Private railways have been proposed due to the accident. I don't want to be late for the meeting, so let's do it. Can be recognized.

ここで、MEG101を用いて、詳細な文字情報等を表示すると、却ってユーザ100
の情報認識が困難になってしまうことがある。このため、MEG101に表示する情報は
、実施例1で上述した表示情報最適化により簡略化、要約した簡潔な情報であることが望
ましい。
Here, when detailed character information or the like is displayed using the MEG 101, the user 100 is rejected.
Information recognition may be difficult. For this reason, it is desirable that the information displayed on the MEG 101 is simple information simplified and summarized by the display information optimization described in the first embodiment.

(会社で)
図26の最左欄の番号16の項目について説明する。ユーザ100が会社にいるとき、
活動状態同定部303は、「時刻・時間」と、「位置・場所」とに基づいて、ユーザ10
0の活動状態を同定する。情報推定部304は、スケジュールに応じた行動時間の設定等
の行動を支援する情報を推定する。情報選択部305は、「スケジュール」に関する最適
な情報を選択する。これにより、ユーザ100が会議のための資料をそろえているとき、
MEG101に提示情報である会議開催が近付いていることを示すアイコンが表示される
。この結果、ユーザ100は、「そろそろ会議の時間だ。移動しよう。」と認識できる。
(In the company)
The item of number 16 in the leftmost column in FIG. 26 will be described. When user 100 is in the office,
Based on the “time / time” and the “position / location”, the activity state identification unit 303 determines whether the user 10
Identify an activity state of zero. The information estimation unit 304 estimates information that supports an action such as setting an action time according to a schedule. The information selection unit 305 selects optimal information regarding the “schedule”. As a result, when the user 100 has materials for the meeting,
An icon indicating that the meeting holding as the presentation information is approaching is displayed on the MEG 101. As a result, the user 100 can recognize that it is time for the meeting.

(営業先への移動)
図27の最左欄の番号22の項目について説明する。ユーザ100が外出しているとき
、活動状態同定部303は、「時刻・時間」と、「位置・場所」と、「歩行・運動状態」
とに基づいて、ユーザ100が移動していることを同定する。情報推定部304は、行動
に合わせて、それを支援する情報、例えばユーザ100の移動に合わせたナビゲーション
情報を推定する。情報選択部305は、「地図情報」、「時刻表・乗換」に関する最適な
情報を選択する。MEG101は、これらの情報を、適宜表示する。
(Move to sales office)
The item of number 22 in the leftmost column in FIG. 27 will be described. When the user 100 is out, the activity state identification unit 303 includes “time / time”, “position / place”, and “walking / exercising state”.
Based on the above, it is identified that the user 100 is moving. The information estimation unit 304 estimates information supporting the action, for example, navigation information according to the movement of the user 100 according to the action. The information selection unit 305 selects optimal information regarding “map information” and “timetable / transfer”. The MEG 101 displays such information as appropriate.

これにより、ユーザ100は、「初めての所でも、最適な乗り場や地下鉄の出口まで必
要に応じて案内してくれるから安心だ。」と認識することができる。
As a result, the user 100 can recognize that “the first place is safe because it will guide you to the optimal platform and subway exit as needed.”

(営業先で)
図28の最左欄の番号26の項目について説明する。ユーザ100が外出しているとき
、活動状態同定部303は、「時刻・時間」と、「位置・場所」と、「歩行・運動状態」
とに基づいて、ユーザ100が移動していることを同定する。情報推定部304は、行動
に合わせて、それを支援する情報、例えばユーザ100の移動に合わせたナビゲーション
情報を推定する。情報選択部305は、「地図情報」、「時刻表・乗換」に関する最適な
情報を選択する。MEG101は、これらの情報を、適宜表示する。
(At the sales office)
The item of the number 26 in the leftmost column in FIG. 28 will be described. When the user 100 is out, the activity state identification unit 303 includes “time / time”, “position / place”, and “walking / exercising state”.
Based on the above, it is identified that the user 100 is moving. The information estimation unit 304 estimates information supporting the action, for example, navigation information according to the movement of the user 100 according to the action. The information selection unit 305 selects optimal information regarding “map information” and “timetable / transfer”. The MEG 101 displays such information as appropriate.

これにより、ユーザ100は、「初めての所でもMEGが営業先まで案内してくれるか
ら、もう地図を持ってうろうろ道に迷うこともない。」と認識することができる。
As a result, the user 100 can recognize that “the MEG will guide the customer to the sales office even in the first place, so there is no need to get lost with the map.”

(レセプション会場で)
図29の最左欄の番号31の項目について説明する。ユーザ100が外出しているとき
、活動状態同定部303は、「位置・場所」に基づいて、ユーザ100が予定されている
レセプションが開催される商業施設内に入場していることを同定する。情報推定部304
は、ユーザ100が商業施設内に入ったことを検出し、施設内案内に切替わる。そして、
情報推定部304は、商業施設内情報を推定する。情報選択部305は、「店舗・施設情
報」に関する最適な情報を選択する。MEG101は、これらの情報を、適宜表示する。
(At the reception venue)
The item of number 31 in the leftmost column of FIG. 29 will be described. When the user 100 is out, the activity state identifying unit 303 identifies that the user 100 is entering the commercial facility where the scheduled reception is held based on the “location / location”. Information estimation unit 304
Detects that the user 100 has entered the commercial facility, and switches to in-facility guidance. And
The information estimation unit 304 estimates commercial facility information. The information selection unit 305 selects the optimum information related to “store / facility information”. The MEG 101 displays such information as appropriate.

これにより、ユーザ100は、「ホテルに到着。会場に入る前にフィルムを買いたいが
・・・と思ったら、表示が施設内案内に切り替わった。」と認識することができる。
Thereby, the user 100 can recognize that “the display has been switched to the in-facility guide when he / she wants to buy a film before entering the venue.

(会社に戻って)
図30の最左欄の番号35の項目について説明する。ユーザ100が会社に戻っている
とき、活動状態同定部303は、「時刻・時間」と、「位置・時間」と、「循環器状態」
と、「呼吸器状態」と、「眼状態」と、「体温」と、他センサにより検出された「疲労状
態」とに基づいて、ユーザ100の活動状態、特に過労を防止するために仕事中も体調を
モニタリングする。情報推定部304は、適宜休憩を促す情報を推定する。MEG101
は、これらの情報を、適宜表示する。
(Return to the company)
The item of number 35 in the leftmost column in FIG. 30 will be described. When the user 100 returns to the office, the activity state identification unit 303 displays “time / time”, “position / time”, and “cardiovascular state”.
In addition, based on the “respiratory condition”, “eye condition”, “body temperature”, and “fatigue condition” detected by other sensors, the activity state of the user 100, particularly in order to prevent overwork Also monitor physical condition. The information estimation unit 304 appropriately estimates information that prompts a break. MEG101
Displays such information as appropriate.

これにより、ユーザ100は、「資料は7割方完成。休憩指示も出たので一息入れよう
。」と認識することができる。
Accordingly, the user 100 can recognize that “the material is 70% complete. Let's take a break because the rest instruction is given.”

(自宅へ)
図31の最左欄の番号41の項目について説明する。ユーザ100が帰宅するとき、活
動状態同定部303は、「位置・場所」と、「位置・場所」と、「歩行・運動状態」とに
基づいて、ユーザ100が帰宅する途中の状態であることを同定する。情報推定部304
は、ユーザ100が帰宅途中である状態に基づいて、優先度の高い情報から順に推定する
。情報選択部305は、「時刻表・乗換」、「メール・ニュース」に関する最適な情報を
選択する。MEG101は、これらの情報を、適宜表示する。
(To home)
The item of number 41 in the leftmost column in FIG. 31 will be described. When the user 100 returns home, the activity state identification unit 303 is in a state where the user 100 is in the middle of returning home based on the “position / location”, “position / location”, and “walking / exercising state”. Is identified. Information estimation unit 304
Are estimated in descending order of priority based on the state in which the user 100 is on the way home. The information selection unit 305 selects optimal information regarding “timetable / transfer” and “mail / news”. The MEG 101 displays such information as appropriate.

これにより、ユーザ100は、「電車の待ち時間や移動時間を利用して、今日一日のニ
ュースが表示されてくる。不在中の訪問者の映像も表示されてきた。昼間は家を空けてい
るので助かる。」と認識することができる。
As a result, the user 100 reads “The news of the day is displayed using the waiting time and travel time of the train. The video of the visitor who is absent is also displayed. Leave the house in the daytime. I can help. ”

以上、ユーザ100の起床から帰宅に至るまでの、生活シーンのうち、代表的な生活シ
ーンについて、本情報表示システムによる情報表示、環境制御、行動支援について説明し
た。なお、図24〜図31において、他の生活シーンについては、図中に記載されている
内容に従って、本情報表示システムによる情報表示、環境制御、行動支援が行われる。こ
のため、他の生活シーンに関する詳細な説明は省略する。本実施例によれば、ユーザ10
0の活動状態を同定し、同定された活動状態に基づいてユーザ100が必要とする情報を
表示すること、ユーザ100の環境状態を制御すること、及びユーザ100の行動を支援
することができる。
The information display, the environment control, and the behavior support by the information display system have been described for the representative life scenes from the user 100's getting up to returning home. 24 to 31, for other life scenes, information display, environment control, and action support are performed by the information display system in accordance with the contents described in the drawings. For this reason, the detailed description regarding another life scene is abbreviate | omitted. According to this embodiment, the user 10
It is possible to identify an activity state of 0, display information required by the user 100 based on the identified activity state, control the environmental state of the user 100, and support the user's 100 behavior.

(変形例)
本発明の変形例に係る情報表示システムについて説明する。なお、実施例1、実施例2
と同一の部分には同一の符号を付し、重複する説明は省略する。図32は、変形例に係る
情報表示システムの概略構成を示す。本情報表示システムでは、ユーザ100の生活習慣
をモニタできる。
(Modification)
An information display system according to a modification of the present invention will be described. Example 1 and Example 2
The same parts are denoted by the same reference numerals, and redundant description is omitted. FIG. 32 shows a schematic configuration of an information display system according to a modification. In this information display system, the lifestyle of the user 100 can be monitored.

ユーザ100は、屋内外センサ110と、GPS111と、足圧力センサ112と、発
話・咀嚼センサ113と、脈拍・血圧センサ3201等を装着している。脈拍・血圧セン
サ3201は、腕に装着する腕時計型のセンサである。脈拍・血圧センサは、ユーザ10
0の脈拍数、脈拍の遅速、整不整、血圧等を検出する。そして、センサ110等からの計
測信号は、モニタ端末500へ送られる。モニタ端末500は、計測信号に基づいて、ユ
ーザ100の生活習慣をモニタリングする。
The user 100 wears an indoor / outdoor sensor 110, a GPS 111, a foot pressure sensor 112, a speech / mastication sensor 113, a pulse / blood pressure sensor 3201, and the like. The pulse / blood pressure sensor 3201 is a wristwatch-type sensor worn on the arm. The pulse / blood pressure sensor
The pulse rate of 0, the slowness of the pulse, irregularity, blood pressure, etc. are detected. Then, a measurement signal from the sensor 110 or the like is sent to the monitor terminal 500. The monitor terminal 500 monitors the lifestyle of the user 100 based on the measurement signal.

本変形例によりモニタできる生活習慣の内容を説明する。例えば、「睡眠」に関しては
、タイミング、時間、質である。「食事」に関しては、タイミング、時間、質(咀嚼回数
)である。「運動」に関しては、運動時間、継続時間、手足等のバランスである。「睡眠
」に関しては、タイミング、時間、質である。「行動パターン」に関しては、外出時間、
発話量である。これらの生活習慣をモニタすることにより、生活習慣病を予防すること、
高齢化にともなう心身の不調の早期発見を行うこと等ができる。この結果、医療費を削減
できる。また、近年指摘されている若年性健忘症やうつなどの精神性の疾患は、他人との
会話時間や外出時間と関連性が深いという指摘もあり、本変形例は、精神性疾患予防のた
めの健康管理・改善支援ツールとしても用いることができる。
The contents of lifestyle habits that can be monitored by this modification will be described. For example, “sleep” includes timing, time, and quality. Regarding “meal”, timing, time and quality (number of chewing cycles). “Exercise” is a balance of exercise time, duration, limbs, and the like. Regarding “sleep”, it is timing, time and quality. Regarding “behavioral patterns”, going out time,
The amount of speech. By monitoring these lifestyles, preventing lifestyle-related diseases,
Early detection of mental and physical disorders associated with aging can be performed. As a result, medical costs can be reduced. In addition, it is pointed out that mental disorders such as juvenile amnesia and depression, which have been pointed out in recent years, are closely related to conversation time with others and going out time. It can also be used as a health management / improvement support tool.

(応用例)
図33、図34に基づいて、本発明に係る情報表示システムの応用例について説明する
。図33は、同定された活動状態と、応用分野との関係を示す。ユーザ100の活動状態
(図33では「生体・環境状態」に対応する)は、例えば、「時間移動」、「屋外位置」
、「屋内外」、「屋内位置」、「身体運動」、「歩行状態」、「咀嚼状態」等がある。そ
して、実施例1、実施例2で説明したようなセンサ110等を用いる。ここで、さらに、
RFID(Radio Frequency Identification)を用いる
こともできる。RFIDは、耐環境性に優れたタグにデータを記憶し、電波や電磁波で読
み取り器と交信する。タグは、ラベル型、カード型、コイン型、スティック型等様々な形
状があり、用途に応じて選択できる。このようなRFIDを用いることで、微小な無線チ
ップによりユーザ100を識別・管理できる。
(Application examples)
An application example of the information display system according to the present invention will be described based on FIG. 33 and FIG. FIG. 33 shows the relationship between the identified activity state and the application field. The activity state of the user 100 (corresponding to “biological / environmental state” in FIG. 33) is, for example, “time movement”, “outdoor position”.
, “Indoor / outdoor”, “indoor position”, “body movement”, “walking state”, “chewing state”, and the like. And the sensor 110 etc. which were demonstrated in Example 1 and Example 2 are used. Where
RFID (Radio Frequency Identification) can also be used. RFID stores data in a tag with excellent environmental resistance, and communicates with a reader by radio waves or electromagnetic waves. The tag has various shapes such as a label type, a card type, a coin type, and a stick type, and can be selected according to the application. By using such RFID, the user 100 can be identified and managed by a small wireless chip.

そして、ユーザ100の「行動予定」、「行動・位置」、「屋内/屋外」、「周囲のモ
ノ・ヒト」、「歩行/走行」、「立ち/座り」、「会話の有無」、「食事中」等の情報を
同定(モニタリング)できる。これにより、本情報表示システムにより、「行動支援」、
「活動度評価」、「健康管理」、「行動管理」、「行動学習」、「リハビリ支援」等を行
うことができる。
Then, “scheduled behavior”, “behavior / position”, “indoor / outdoor”, “surrounding objects / people”, “walking / running”, “standing / sitting”, “conversation presence / absence”, “meal” Information such as “medium” can be identified (monitored). With this information display system, “action support”,
“Activity evaluation”, “health management”, “behavior management”, “behavior learning”, “rehabilitation support”, etc. can be performed.

図34は、さらに、本情報表示システムによるサービスの応用例を示す。マーケティン
グ情報収集3401は、例えば、ユーザの嗜好、行動/動線、関心度、興奮度、快適性を
検出することで行われる。これにより、例えば、ユーザが所持する買い物かごにPHS(
Personal Handyphone System)を入れておくこと、またはお
客様ガイダンス用のPDA(Personal Digital Assistance
)を用いることで、大規模小売店の顧客嗜好を分析できる。また、展示会でユーザ反応を
収集すること、または車の試乗時にユーザのフィーリング情報を収集することで客観的な
アンケートを取得できる。
FIG. 34 further shows an application example of the service by the information display system. The marketing information collection 3401 is performed, for example, by detecting the user's preference, behavior / flow line, interest level, excitement level, and comfort. As a result, for example, the PHS (
Personal Handyphone System (PDA) or personal digital assistance for customer guidance
) Can be used to analyze customer preferences of large-scale retail stores. In addition, an objective questionnaire can be acquired by collecting user reactions at exhibitions or collecting user feeling information at the time of a test drive of a car.

ヘルスケア3402は、例えば、ユーザの運動量・行動のパターンのログ(記録)を収
集すること、生体情報ログを収集することで行われる。これにより、効率的トレーニング
の支援、ダイエットサポート、健康食生活支援、肉体のリハビリ支援、環境制御による熟
眠サポート、健康モニタサービス、血栓防止、疲労防止等を行うことができる。特に、例
えば、効果的なトレーニングの支援等では、トレーニング中にリアルタイム・レコメンデ
ーション、即ち実時間で有益な提示情報による勧告を行うことができる。
The health care 3402 is performed, for example, by collecting a log (record) of a user's exercise amount / behavior pattern and collecting a biometric information log. Thereby, efficient training support, diet support, healthy diet support, physical rehabilitation support, deep sleep support by environmental control, health monitor service, thrombus prevention, fatigue prevention, and the like can be performed. In particular, for example, in support of effective training, real-time recommendations, that is, recommendations based on useful presentation information in real time can be performed during training.

メンタルケア3403は、例えば、TPOや緊張度のログ、会話ログ、行動パターンロ
グ、神経バランスログにより行われる。これにより、精神カウンセリング、バイオフィー
ドバック、ストレスバロメータ表示、安全サポートやリハビリ支援等の老人メンタルケア
、プロスポーツ選手用の治療効果の客観的評価、占い・今日の格言等のランダムな配信サ
ービスの高付加価値化を行うことができる。
The mental care 3403 is performed by, for example, a TPO or tension log, a conversation log, a behavior pattern log, or a nerve balance log. As a result, mental counseling, biofeedback, stress barometer display, mental health care for the elderly such as safety support and rehabilitation support, objective evaluation of therapeutic effects for professional athletes, high-value addition of random delivery services such as fortune-telling and today's sayings Can be valued.

能力活性化3404は、例えば、脳状態検出、脳刺激等により行われる。これにより、
右脳トレーニング、集中力育成、瞑想支援、呼吸法支援等を行なうことができる。また、
エンターティメント3405では、例えば、ユーザの動き検出ログにより、フィールドで
の体感ゲームを行うことができる。
The ability activation 3404 is performed by, for example, brain state detection, brain stimulation, or the like. This
Right brain training, concentration training, meditation support, breathing support, etc. can be performed. Also,
In the entertainment 3405, for example, a field experience game can be performed based on a user motion detection log.

快適環境サポート3406は、例えば、時計、GPS等によるTPO検出、スケジュー
ル解釈、オートスケジューラー等により行われる。これにより、空調制御、照明制御、香
り制御、BGM(Back Ground Music)制御等を行うことができる。
The comfortable environment support 3406 is performed by, for example, TPO detection using a clock, GPS, etc., schedule interpretation, an auto scheduler, or the like. Thereby, air-conditioning control, illumination control, fragrance control, BGM (Back Ground Music) control, etc. can be performed.

状況適用型行動支援3407は、例えば、時計、GPS等によるTPO検出、スケジュ
ール解釈、オートスケジューラー等により行われる。これにより、忘れ物防止、目覚まし
、時刻表表示等を行うことができる。
The situation application type action support 3407 is performed by, for example, TPO detection using a clock, GPS, etc., schedule interpretation, an auto scheduler, or the like. As a result, forgetfulness prevention, alarm, timetable display, and the like can be performed.

現場作業支援3408では、例えば、看護支持支援、安全運転支援、作業環境の悪化、
体調異常を検出することによる危険作業支援、業務効率化支援、料理段取り支援、レスト
ラン給仕タイミング支援等を行うことができる。看護支持支援では、患者を看護する看護
婦、看護士は、治療現場において医師の指示に従った行為を行う。このとき、医師の指示
が直前に変更されることもある。このようなとき、本情報表示システムを用いることで、
即時的に情報が得られる。また、MEGを用いることで両手を空けた状態で、円滑な治療
支援行為を行うことができる。
In the field work support 3408, for example, nursing support support, safe driving support, work environment deterioration,
It is possible to perform dangerous work support, work efficiency improvement support, cooking setup support, restaurant wait timing support, etc. by detecting abnormal physical condition. In nursing support support, a nurse or nurse who cares for a patient performs an action in accordance with a doctor's instruction at a treatment site. At this time, the doctor's instruction may be changed immediately before. In such a case, by using this information display system,
Information can be obtained immediately. In addition, by using the MEG, a smooth treatment support act can be performed with both hands open.

情報配信3409は、例えば、感性・TPO検出、嗜好検出等により行われる。これに
より、スケジュール、位置・移動方向、商業施設内案内等のナビゲーション、お店情報等
の嗜好適用型情報、新聞・株式等の仕事情報、プライベート情報、リマインダー、対人情
報、メール等を取得できる。
The information distribution 3409 is performed by, for example, sensitivity / TPO detection, preference detection, or the like. Thereby, it is possible to acquire schedule, position / movement direction, navigation for commercial facility guidance, etc., preference information such as shop information, work information such as newspapers and stocks, private information, reminders, personal information, e-mails, and the like.

このように、本発明に係る情報表示システムは、極めて多様な応用範囲に好適に用いる
ことができる。また、MEG等を用いて、ユーザの日常生活のすべての場面において認識
できるシームレスな情報表示を行うことができる。そして、シームレスな情報表示を通じ
て、ユーザの行動支援、健康管理等が達成される。
As described above, the information display system according to the present invention can be suitably used for a wide variety of application ranges. Also, seamless information display that can be recognized in all scenes of the user's daily life can be performed using MEG or the like. Through seamless information display, user behavior support, health management, and the like are achieved.

(プログラム)
情報表示システムのハードウエアのためのプログラムとして、情報表示システム用のプ
ログラムであり、コンピュータにより読み取り可能なプログラムであって、少なくとも使
用者の身体の各部分の状態を計測する計測手段と、計測手段による計測結果に基づいて、
使用者の活動状態を同定する活動状態同定手段と、活動状態同定手段により同定された活
動状態に基づいて、使用者が必要とする情報を推定する情報推定手段と、情報推定手段に
より推定された、使用者が必要とする情報を少なくとも格納している情報格納手段と、情
報推定手段により推定された使用者が必要とする情報を、情報格納手段に格納されている
複数の情報の中から選択する情報選択手段と、情報選択手段により選択された使用者が必
要とする情報を表示する情報表示手段としてコンピュータを機能させることを特徴とする
プログラムを用いることが望ましい。
(program)
As a program for the hardware of the information display system, a program for the information display system, which is a computer-readable program and measures at least the state of each part of the user's body, and the measurement means Based on the measurement result by
Estimated by the activity estimation means for identifying the activity state of the user, the information estimation means for estimating the information required by the user based on the activity status identified by the activity status identification means, and the information estimation means The information storage means storing at least information required by the user and the information required by the user estimated by the information estimation means are selected from a plurality of information stored in the information storage means It is desirable to use a program characterized by causing a computer to function as information selection means for displaying information necessary for the user selected by the information selection means and information required by the user.

活動状態同定部303、情報推定部304、情報選択部305、制御・演算部308の
機能は、例えば、CPUを用いて実現できる。なお、活動状態同定部303、情報推定部
304、情報選択部305、制御・演算部308の機能を情報記憶媒体からサーバーコン
ピュータ300にプログラムを読み取らせて実現することも可能である。
The functions of the activity state identification unit 303, the information estimation unit 304, the information selection unit 305, and the control / calculation unit 308 can be realized using a CPU, for example. The functions of the activity state identification unit 303, the information estimation unit 304, the information selection unit 305, and the control / calculation unit 308 can be realized by causing the server computer 300 to read the program from the information storage medium.

また、情報記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、光磁気
ディスク、ICカード、ROMカートリッジ、パンチカードやバーコード等の符号が印刷
された印刷物、コンピュータの内部記憶装置(RAMやROM等のメモリ)及び外部記憶
装置等、コンピュータによって読み取ることができる種々の媒体を用いることができる。
そのプログラムの読み取り方式は接触方式であっても、非接触方式であっても良い。
Examples of information storage media include flexible disks, CD-ROMs, magneto-optical disks, IC cards, ROM cartridges, printed matter printed with codes such as punch cards and barcodes, and computer internal storage devices (RAM and ROM). Etc.) and various media that can be read by a computer, such as an external storage device.
The program reading method may be a contact method or a non-contact method.

さらに、情報記憶媒体に代えて、上述した各機能を実現するためにプログラムを、伝送
路を介してホスト装置等からダウンロードすることによって上述した各機能を実現するこ
とも可能である。
Furthermore, instead of the information storage medium, it is also possible to realize each function described above by downloading a program from a host device or the like via a transmission path in order to realize each function described above.

また、以上説明した実施例1、実施例2では、Bluetoothを利用したネットワ
ーク通信を用いている。しかしながら、これに限られず、モバイルゲートウエイとサーバ
ーコンピュータとの通信形態、及びセンサ110等とノート型パーソナルコンピュータと
の通信形態は、PHS回線、携帯電話回線、無線LAN、赤外線通信等のデータ転送を行
なえるものであれば良い。このように、本発明は、その趣旨を逸脱しない範囲で、適宜変
形が可能である。
In the first and second embodiments described above, network communication using Bluetooth is used. However, the present invention is not limited to this, and the communication mode between the mobile gateway and the server computer and the communication mode between the sensor 110 and the notebook personal computer can transfer data such as a PHS line, a mobile phone line, a wireless LAN, and infrared communication. Anything is acceptable. Thus, the present invention can be modified as appropriate without departing from the spirit of the present invention.

以上のように、本発明に係る情報表示システムは、使用者の活動状態を同定し、必要な
情報を表示するシステム、特にMEGのような小型な情報表示部を備えるシステムに有用
である。
As described above, the information display system according to the present invention is useful for a system that identifies a user's activity state and displays necessary information, particularly a system including a small information display unit such as MEG.

実施例1に係る情報表示システムの機能ブロックを示す図である。It is a figure which shows the functional block of the information display system which concerns on Example 1. FIG. 実施例1に係る情報表示システムの概略構成を示す図である。1 is a diagram illustrating a schematic configuration of an information display system according to Embodiment 1. FIG. 表示される情報の例を示す図である。It is a figure which shows the example of the information displayed. 実施例1に係る情報表示システムの処理手順を示すフローチャートである。3 is a flowchart illustrating a processing procedure of the information display system according to the first embodiment. 時計等による活動状態の同定手順を示すフローチャートである。It is a flowchart which shows the identification procedure of the active state by a timepiece. 予定表、およびそこから生成される副次予定表を示す図である。It is a figure which shows a schedule and the subsidiary schedule produced | generated from there. GPS等による活動状態の同定手順を示すフローチャートである。It is a flowchart which shows the identification procedure of the active state by GPS etc. 足圧力センサによる活動状態の同定手順を示すフローチャートである。It is a flowchart which shows the identification procedure of the active state by a foot pressure sensor. 発話・咀嚼センサによる活動状態の同定手順を示すフローチャートである。It is a flowchart which shows the identification procedure of the active state by a speech / mastication sensor. 発話・咀嚼センサによる活動状態の同定手順を示す他のフローチャートである。It is another flowchart which shows the identification procedure of the active state by a speech / mastication sensor. 運動計測センサによる活動状態の同定手順を示すフローチャートである。It is a flowchart which shows the identification procedure of the active state by a motion measurement sensor. 活動状態の第1の同定例を示すフローチャートである。It is a flowchart which shows the 1st example of identification of an active state. 活動状態の第2の同定例を示すフローチャートである。It is a flowchart which shows the 2nd example of identification of an active state. 活動状態の第3の同定例を示すフローチャートである。It is a flowchart which shows the 3rd example of identification of an active state. 情報の第1の推定例を示すフローチャートである。It is a flowchart which shows the 1st example of estimation of information. 情報の第2の推定例を示すフローチャートである。It is a flowchart which shows the 2nd example of estimation of information. 情報の第3の推定例を示すフローチャートである。It is a flowchart which shows the 3rd example of estimation of information. 付帯情報の設定例を示す図である。It is a figure which shows the example of a setting of incidental information. TPO要素軸による活動状態の同定例を示す図である。It is a figure which shows the example of identification of the active state by a TPO element axis. センサの計測信号とTPO要素軸との関係を示す図である。It is a figure which shows the relationship between the measurement signal of a sensor, and a TPO element axis. 表示する情報とTPO要素軸との関係を示す図である。It is a figure which shows the relationship between the information to display, and a TPO element axis. 実施例2に係る情報表示システムの概略構成を示す図である。It is a figure which shows schematic structure of the information display system which concerns on Example 2. FIG. 実施例2に係る情報表示システムの機能ブロックを示す図である。It is a figure which shows the functional block of the information display system which concerns on Example 2. FIG. 実施例2におけるユーザの一日の第1のシナリオを示す図である。It is a figure which shows the 1st scenario of the user's day in Example 2. FIG. 実施例2におけるユーザの一日の第2のシナリオを示す図である。It is a figure which shows the 2nd scenario of the user's day in Example 2. FIG. 実施例2におけるユーザの一日の第3のシナリオを示す図である。It is a figure which shows the 3rd scenario of the user's day in Example 2. FIG. 実施例2におけるユーザの一日の第4のシナリオを示す図である。It is a figure which shows the 4th scenario of the user's day in Example 2. FIG. 実施例2におけるユーザの一日の第5のシナリオを示す図である。It is a figure which shows the 5th scenario of the user's day in Example 2. FIG. 実施例2におけるユーザの一日の第6のシナリオを示す図である。It is a figure which shows the 6th scenario of the user's day in Example 2. FIG. 実施例2におけるユーザの一日の第7のシナリオを示す図である。It is a figure which shows the 7th scenario of the user's day in Example 2. FIG. 実施例2におけるユーザの一日の第8のシナリオを示す図である。It is a figure which shows the 8th scenario of the user's day in Example 2. FIG. 変形例に係る情報表示システムの概略構成を示す図である。It is a figure which shows schematic structure of the information display system which concerns on a modification. 本発明の情報表示システムの応用例を示す図である。It is a figure which shows the application example of the information display system of this invention. 本発明の情報表示システムの応用例を示す他の図である。It is another figure which shows the application example of the information display system of this invention.

100 ユーザ
101 情報表示部
110 屋内外センサ
111 GPS
112 足圧力センサ
113 発話・咀嚼センサ
114 運動計測センサ
200 モバイルゲートウエイ
201 計測信号受信部
202 計測信号集約部
203 サーバーコンピュータ用送信部
204 受信部
205 制御部
300 サーバーコンピュータ
301 受信部
302 情報送信部
303 活動状態同定部
304 情報推定部
305 情報選択部
306 予定表
307 外部状況
308 制御・演算部
309 データベース
310 個人データベース
311 履歴データベース
400 インターネット
401 他のコンピュータ
450 ノート型パーソナルコンピュータ
500 モニタ端末
2201 循環器状態センサ
2202 呼吸器状態センサ
2203 眼状態センサ
2204 体温センサ
2205 GSR・発汗センサ
2206 他のセンサ
2207 データベース
3201 脈拍・血圧センサ
3401 マーケティング情報収集
3402 ヘルスケア
3403 メンタルケア
3405 能力活性化
3405 エンターティメント
3406 快適環境サポート
3407 状況適用型行動支援
3408 現場作業支援
3409 情報配信
100 User 101 Information Display Unit 110 Indoor / Outdoor Sensor 111 GPS
112 Foot Pressure Sensor 113 Speech / Mastication Sensor 114 Motion Measurement Sensor 200 Mobile Gateway 201 Measurement Signal Receiving Unit 202 Measurement Signal Aggregating Unit 203 Server Computer Transmitting Unit 204 Receiving Unit 205 Control Unit 300 Server Computer 301 Receiving Unit 302 Information Transmitting Unit 303 Activity State identification unit 304 Information estimation unit 305 Information selection unit 306 Schedule 307 External situation 308 Control / calculation unit 309 Database 310 Personal database 311 History database 400 Internet 401 Other computer 450 Notebook personal computer 500 Monitor terminal 2201 Cardiovascular state sensor 2202 Respiratory state sensor 2203 Eye state sensor 2204 Body temperature sensor 2205 GSR / sweat sensor 2206 Other sensors 22 7 database 3201 pulse, blood pressure sensor 3401 marketing information collection 3402 Health Care 3403 mental care 3405 ability activation 3405 entertainment 3406 comfortable environment support 3407 situation adaptive behavior support 3408 field work support 3409 information distribution

Claims (8)

少なくとも使用者の身体の各部分の状態を計測する計測手段と、
前記計測手段による計測結果に基づいて、前記使用者の活動状態を同定する活動状態同
定手段と、
前記活動状態同定手段により同定された前記活動状態に基づいて、前記使用者が必要と
する情報を推定する情報推定手段と、
前記情報推定手段により推定された、前記使用者が必要とする情報を少なくとも格納し
ている情報格納手段と、
前記情報推定手段により推定された前記使用者が必要とする前記情報を、前記情報格納
手段に格納されている複数の情報の中から選択する情報選択手段と、
前記情報選択手段により選択された前記使用者が必要とする前記情報を表示する情報表
示手段と、
を有することを特徴とする情報表示システム。
Measuring means for measuring at least the state of each part of the user's body;
An activity state identifying means for identifying the activity state of the user based on a measurement result by the measurement means;
Information estimating means for estimating information required by the user based on the activity state identified by the activity state identifying means;
Information storage means storing at least information required by the user, estimated by the information estimation means;
Information selection means for selecting the information required by the user estimated by the information estimation means from among a plurality of pieces of information stored in the information storage means;
Information display means for displaying the information required by the user selected by the information selection means;
An information display system comprising:
前記計測手段は、前記使用者の位置及び方向を計測する位置計測手段を含むことを特徴
とする請求項1に記載の情報表示システム。
The information display system according to claim 1, wherein the measurement unit includes a position measurement unit that measures the position and direction of the user.
前記位置計測手段は、GPS機能を有することを特徴とする請求項2に記載の情報表示
システム。
The information display system according to claim 2, wherein the position measuring unit has a GPS function.
前記計測手段により計測される前記使用者の身体の各部分の状態には、少なくとも前記
使用者の、腕の動きと、足の動きと、音声と、体内音とのいずれか一つを含むことを特徴
とする請求項1〜3のいずれか一項に記載の情報表示システム。
The state of each part of the user's body measured by the measuring means includes at least one of the user's arm movement, foot movement, voice, and body sound. The information display system according to any one of claims 1 to 3.
前記計測手段は、前記使用者が屋内に存在するか、屋外に存在するかを計測することを
特徴とする請求項1〜4のいずれか一項に記載の情報表示システム。
The information display system according to any one of claims 1 to 4, wherein the measuring unit measures whether the user is indoors or outdoors.
前記計測手段は、少なくとも前記使用者の足裏の圧力を検出することで前記使用者の前
記足の動きを計測することを特徴とする請求項1〜5のいずれか一項に記載の情報表示シ
ステム。
6. The information display according to claim 1, wherein the measuring unit measures the movement of the user's foot by detecting at least a pressure of the sole of the user. system.
前記活動状態同定手段は、前記計測手段により計測された計測データと、予め格納され
ている前記使用者の予定行動データとに基づいて前記使用者の前記活動状態を同定するこ
とを特徴とする請求項1〜6のいずれか一項に記載の情報表示システム。
The activity state identifying means identifies the activity state of the user based on the measurement data measured by the measurement means and the user's scheduled behavior data stored in advance. Item 7. The information display system according to any one of Items 1 to 6.
少なくとも使用者の身体の各部分の状態を計測する計測手段と、
前記使用者に対して所定の情報を表示する情報表示手段と、
少なくとも前記情報表示手段に表示される前記所定の情報を選択するサーバーコンピュ
ータと、
前記情報表示手段と前記サーバーコンピュータとの間でデータの送受信を行うモバイル
ゲートウエイと、を有する情報表示システムであって、
前記モバイルゲートウエイは、
前記計測手段からの計測信号を受信する計測信号受信手段と、
前記計測信号受信手段により受信された複数の前記計測信号を集約する計測信号集約手
段と、
前記計測信号集約手段により集約された前記計測信号を前記サーバーコンピュータへ送
信するサーバーコンピュータ用送信手段と、
前記サーバーコンピュータから送信される情報を受信する受信手段と、
前記受信手段により受信した情報を前記情報表示手段へ送信する情報表示用送信手段と
、を有し、
前記サーバーコンピュータは、
前記モバイルゲートウエイから送信される前記計測信号を受信する受信手段と、
前記受信手段により受信した前記計測信号に基づいて、前記使用者の活動状態を同定す
る活動状態同定手段と、
前記活動状態同定手段により同定された前記活動状態に基づいて、前記使用者が必要と
する情報を推定する情報推定手段と、
前記情報推定手段により推定された前記使用者が必要とする情報を、前記サーバーコン
ピュータが格納している情報、または前記サーバーコンピュータとは異なる他のコンピュ
ータが格納している情報の中から選択する情報選択手段と、
前記情報選択手段により選択された前記使用者が必要とする前記情報を前記モバイルゲ
ートウエイへ送信する情報送信手段と、
を有することを特徴とする情報表示システム。
Measuring means for measuring at least the state of each part of the user's body;
Information display means for displaying predetermined information to the user;
A server computer that selects at least the predetermined information displayed on the information display means;
A mobile gateway for transmitting and receiving data between the information display means and the server computer,
The mobile gateway is
Measurement signal receiving means for receiving a measurement signal from the measurement means;
Measurement signal aggregation means for aggregating a plurality of measurement signals received by the measurement signal reception means;
Server computer transmission means for transmitting the measurement signals aggregated by the measurement signal aggregation means to the server computer;
Receiving means for receiving information transmitted from the server computer;
Information display transmission means for transmitting the information received by the reception means to the information display means,
The server computer is
Receiving means for receiving the measurement signal transmitted from the mobile gateway;
Activity state identifying means for identifying the activity state of the user based on the measurement signal received by the receiving means;
Information estimating means for estimating information required by the user based on the activity state identified by the activity state identifying means;
Information that is selected by the information estimation means and is selected from information stored in the server computer or information stored in another computer different from the server computer. A selection means;
Information transmitting means for transmitting the information required by the user selected by the information selecting means to the mobile gateway;
An information display system comprising:
JP2011014497A 2011-01-26 2011-01-26 Information display system Pending JP2011138530A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011014497A JP2011138530A (en) 2011-01-26 2011-01-26 Information display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011014497A JP2011138530A (en) 2011-01-26 2011-01-26 Information display system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005111044A Division JP4759304B2 (en) 2005-04-07 2005-04-07 Information display system

Publications (1)

Publication Number Publication Date
JP2011138530A true JP2011138530A (en) 2011-07-14

Family

ID=44349814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011014497A Pending JP2011138530A (en) 2011-01-26 2011-01-26 Information display system

Country Status (1)

Country Link
JP (1) JP2011138530A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013127852A (en) * 2011-12-16 2013-06-27 Panasonic Corp Lighting environment proposal system
JP2014007533A (en) * 2012-06-22 2014-01-16 Mazeran Systems Japan Kk Wanderer position management system
JP2014048076A (en) * 2012-08-30 2014-03-17 Mitsubishi Electric Corp Navigation apparatus
JP2014120822A (en) * 2012-12-13 2014-06-30 Casio Comput Co Ltd System and method for action management
CN105167743A (en) * 2014-06-06 2015-12-23 松下知识产权经营株式会社 Physical condition evaluation device and massage machine provided with physical condition evaluation device
JP2016042293A (en) * 2014-08-18 2016-03-31 株式会社デンソー Information proposal system
JP2017035198A (en) * 2015-08-07 2017-02-16 日本電気株式会社 Information processing system, information processing method, information processing equipment, and information processing program
JP2017118550A (en) * 2017-01-20 2017-06-29 カシオ計算機株式会社 Behavior management device, behavior management system, behavior management method, and program thereof
JP2017121488A (en) * 2016-01-08 2017-07-13 豪展醫療科技股▲分▼有限公司 Physiological condition monitoring device
JP2019033907A (en) * 2017-08-16 2019-03-07 株式会社Splink Server system, and method and program executed by server system
WO2019163714A1 (en) * 2018-02-26 2019-08-29 国立大学法人お茶の水女子大学 Movement determination device, movement determination system, movement determination method, and program
JP2020030489A (en) * 2018-08-20 2020-02-27 Zホールディングス株式会社 Information processor, method for processing information, and information processing program
JP2020053095A (en) * 2019-12-20 2020-04-02 株式会社ナビタイムジャパン Information processing system, information processing program, information processing apparatus, and information processing method
WO2020234957A1 (en) * 2019-05-20 2020-11-26 日本電信電話株式会社 Rehabilitation assistance system and rehabilitation assistance method
JP2021507344A (en) * 2017-08-09 2021-02-22 カーブサイド,インコーポレイテッド Arrival prediction based on a model according to the destination
JP2021068361A (en) * 2019-10-28 2021-04-30 東日本旅客鉄道株式会社 Training support program, training support method, terminal device and server device

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282847A (en) * 2000-04-03 2001-10-12 Nec Corp Sensibility adaptive type information-providing device and machine-readable recording medium recording program
JP2001327472A (en) * 2000-03-14 2001-11-27 Toshiba Corp Device and method for supporting wearable life
JP2001344352A (en) * 2000-05-31 2001-12-14 Toshiba Corp Life assisting device, life assisting method and advertisement information providing method
JP2002034073A (en) * 2000-07-14 2002-01-31 Railway Technical Res Inst User guiding system
JP2002099684A (en) * 2000-09-21 2002-04-05 Minolta Co Ltd Flexibly adaptive schedule system
JP2002238079A (en) * 2001-02-09 2002-08-23 Seiko Epson Corp Notice system, schedule notice system, mobile terminal and schedule notice terminal
JP2002287846A (en) * 2001-03-26 2002-10-04 Mitsubishi Heavy Ind Ltd On-site support system
JP2003014480A (en) * 2001-06-29 2003-01-15 Toyota Motor Corp Method for providing moving terminal with information, and center for providing information
JP2003050867A (en) * 2001-08-08 2003-02-21 Nippon Signal Co Ltd:The Method for supporting health check of walker or the like and device therefor
JP2003167900A (en) * 2001-11-29 2003-06-13 Ntt Docomo Inc Push type information providing method, push type information providing system and user information control device
JP2003303265A (en) * 2002-02-08 2003-10-24 Mitsubishi Electric Information Systems Corp Server and method for distributing facility information, computer-readable recording medium with program recorded thereon, and program
WO2004019225A1 (en) * 2002-08-26 2004-03-04 Fujitsu Limited Device and method for processing information with situation
JP2004118861A (en) * 2003-11-04 2004-04-15 Toshiba Corp Attached type information processor
JP2005050050A (en) * 2003-07-31 2005-02-24 Nippon Telegr & Teleph Corp <Ntt> Method, system, server, and program for reporting information, and recording medium with information reporting program recorded therein

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001327472A (en) * 2000-03-14 2001-11-27 Toshiba Corp Device and method for supporting wearable life
JP2001282847A (en) * 2000-04-03 2001-10-12 Nec Corp Sensibility adaptive type information-providing device and machine-readable recording medium recording program
JP2001344352A (en) * 2000-05-31 2001-12-14 Toshiba Corp Life assisting device, life assisting method and advertisement information providing method
JP2002034073A (en) * 2000-07-14 2002-01-31 Railway Technical Res Inst User guiding system
JP2002099684A (en) * 2000-09-21 2002-04-05 Minolta Co Ltd Flexibly adaptive schedule system
JP2002238079A (en) * 2001-02-09 2002-08-23 Seiko Epson Corp Notice system, schedule notice system, mobile terminal and schedule notice terminal
JP2002287846A (en) * 2001-03-26 2002-10-04 Mitsubishi Heavy Ind Ltd On-site support system
JP2003014480A (en) * 2001-06-29 2003-01-15 Toyota Motor Corp Method for providing moving terminal with information, and center for providing information
JP2003050867A (en) * 2001-08-08 2003-02-21 Nippon Signal Co Ltd:The Method for supporting health check of walker or the like and device therefor
JP2003167900A (en) * 2001-11-29 2003-06-13 Ntt Docomo Inc Push type information providing method, push type information providing system and user information control device
JP2003303265A (en) * 2002-02-08 2003-10-24 Mitsubishi Electric Information Systems Corp Server and method for distributing facility information, computer-readable recording medium with program recorded thereon, and program
WO2004019225A1 (en) * 2002-08-26 2004-03-04 Fujitsu Limited Device and method for processing information with situation
JP2005050050A (en) * 2003-07-31 2005-02-24 Nippon Telegr & Teleph Corp <Ntt> Method, system, server, and program for reporting information, and recording medium with information reporting program recorded therein
JP2004118861A (en) * 2003-11-04 2004-04-15 Toshiba Corp Attached type information processor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
林 智天: "小型モバイルセンサを用いたコンテキスト適応型コンテンツ配信サービスの設計と実装", 電子情報通信学会技術研究報告 VOL.104, vol. 第104巻 第691号, JPN6012038860, JP, pages 149 - 154, ISSN: 0002287249 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013127852A (en) * 2011-12-16 2013-06-27 Panasonic Corp Lighting environment proposal system
JP2014007533A (en) * 2012-06-22 2014-01-16 Mazeran Systems Japan Kk Wanderer position management system
JP2014048076A (en) * 2012-08-30 2014-03-17 Mitsubishi Electric Corp Navigation apparatus
JP2014120822A (en) * 2012-12-13 2014-06-30 Casio Comput Co Ltd System and method for action management
CN105167743A (en) * 2014-06-06 2015-12-23 松下知识产权经营株式会社 Physical condition evaluation device and massage machine provided with physical condition evaluation device
JP2016042293A (en) * 2014-08-18 2016-03-31 株式会社デンソー Information proposal system
JP2017035198A (en) * 2015-08-07 2017-02-16 日本電気株式会社 Information processing system, information processing method, information processing equipment, and information processing program
US11160462B2 (en) 2016-01-08 2021-11-02 Avita Corporation Physiological status monitoring device
JP2017121488A (en) * 2016-01-08 2017-07-13 豪展醫療科技股▲分▼有限公司 Physiological condition monitoring device
JP2017118550A (en) * 2017-01-20 2017-06-29 カシオ計算機株式会社 Behavior management device, behavior management system, behavior management method, and program thereof
JP7301834B2 (en) 2017-08-09 2023-07-03 楽天グループ株式会社 Arrival prediction based on destination model
JP2021507344A (en) * 2017-08-09 2021-02-22 カーブサイド,インコーポレイテッド Arrival prediction based on a model according to the destination
JP2019033907A (en) * 2017-08-16 2019-03-07 株式会社Splink Server system, and method and program executed by server system
WO2019163714A1 (en) * 2018-02-26 2019-08-29 国立大学法人お茶の水女子大学 Movement determination device, movement determination system, movement determination method, and program
JP7304079B2 (en) 2018-02-26 2023-07-06 国立大学法人お茶の水女子大学 ACTION DETERMINATION DEVICE, ACTION DETERMINATION SYSTEM, ACTION DETERMINATION METHOD AND PROGRAM
JPWO2019163714A1 (en) * 2018-02-26 2021-02-04 国立大学法人お茶の水女子大学 Behavior judgment device, behavior judgment system, behavior judgment method and program
JP2020030489A (en) * 2018-08-20 2020-02-27 Zホールディングス株式会社 Information processor, method for processing information, and information processing program
JP7163103B2 (en) 2018-08-20 2022-10-31 ヤフー株式会社 Information processing device, information processing method and information processing program
JP7298685B2 (en) 2019-05-20 2023-06-27 日本電信電話株式会社 Rehabilitation support system and rehabilitation support method
JPWO2020234957A1 (en) * 2019-05-20 2020-11-26
WO2020234957A1 (en) * 2019-05-20 2020-11-26 日本電信電話株式会社 Rehabilitation assistance system and rehabilitation assistance method
JP2021068361A (en) * 2019-10-28 2021-04-30 東日本旅客鉄道株式会社 Training support program, training support method, terminal device and server device
JP7397620B2 (en) 2019-10-28 2023-12-13 東日本旅客鉄道株式会社 Training support program, training support method, server device and training support system
JP2020053095A (en) * 2019-12-20 2020-04-02 株式会社ナビタイムジャパン Information processing system, information processing program, information processing apparatus, and information processing method

Similar Documents

Publication Publication Date Title
JP4759304B2 (en) Information display system
JP2011138530A (en) Information display system
US11937943B2 (en) Detection of physical abuse or neglect using data from ear-wearable devices
US10492721B2 (en) Method and apparatus for improving and monitoring sleep
CN104796485B (en) A kind of the elderly Yunan County health service platform and big data processing method
CN104799826B (en) A kind of intelligence Ankang service system and the reliable detection method of alarm
US8446275B2 (en) General health and wellness management method and apparatus for a wellness application using data from a data-capable band
JP3931889B2 (en) Image display system, image display apparatus, and image display method
JP3846844B2 (en) Body-mounted life support device
US6607484B2 (en) Behavior and stress management recognition apparatus
JP4327825B2 (en) Body-worn life support device and method
US8684922B2 (en) Health monitoring system
US20170109919A1 (en) Information processing apparatus, system, and method for displaying bio-information or kinetic information
US20130141235A1 (en) General health and wellness management method and apparatus for a wellness application using data associated with data-capable band
US20140309537A1 (en) Wireless plethysmogram sensor unit, a processing unit for plethysmogram and a plethysmogram system
US20140129007A1 (en) General health and wellness management method and apparatus for a wellness application using data associated with a data-capable band
US20140129243A1 (en) General health and wellness management method and apparatus for a wellness application using data associated with a data-capable band
WO2019021653A1 (en) Information processing device, information processing method, and program
CN105873503A (en) Cardiac pulse waveform measurement device, portable device, medical device system, and vital sign information communication system
US20140129008A1 (en) General health and wellness management method and apparatus for a wellness application using data associated with a data-capable band
AU2016200450A1 (en) General health and wellness management method and apparatus for a wellness application using data from a data-capable band
US20140125493A1 (en) General health and wellness management method and apparatus for a wellness application using data associated with a data-capable band
CN110151152B (en) Sedentary period detection with wearable electronics
US20140125480A1 (en) General health and wellness management method and apparatus for a wellness application using data associated with a data-capable band
US20140127649A1 (en) General health and wellness management method and apparatus for a wellness application using data associated with a data-capable band

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120725

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121212