JP2010270516A - System for controlling walking environment - Google Patents

System for controlling walking environment Download PDF

Info

Publication number
JP2010270516A
JP2010270516A JP2009123869A JP2009123869A JP2010270516A JP 2010270516 A JP2010270516 A JP 2010270516A JP 2009123869 A JP2009123869 A JP 2009123869A JP 2009123869 A JP2009123869 A JP 2009123869A JP 2010270516 A JP2010270516 A JP 2010270516A
Authority
JP
Japan
Prior art keywords
pedestrian
state
walking
output
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009123869A
Other languages
Japanese (ja)
Other versions
JP5396151B2 (en
Inventor
Masataka Banba
正敬 番場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Komuten Co Ltd
Original Assignee
Takenaka Komuten Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Komuten Co Ltd filed Critical Takenaka Komuten Co Ltd
Priority to JP2009123869A priority Critical patent/JP5396151B2/en
Publication of JP2010270516A publication Critical patent/JP2010270516A/en
Application granted granted Critical
Publication of JP5396151B2 publication Critical patent/JP5396151B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system for controlling a walking environment, which can guide a pedestrian to a physiopsychological state as an object by controlling the walking environment. <P>SOLUTION: This system 1 for controlling the walking environment includes: an object psychology table 41 which stores the pedestrian's destination and the objective physiopsychological state as the object for guiding the pedestrian's physiopsychological state, by associating them with each other; a destination acquiring portion 32 for acquiring the pedestrian's destination; an objective-physiopsychological-state identifying portion 33 which identifies the objective physiopsychological state, stored in such a manner as to be associated with the destination acquired by the destination acquiring portion 32, as the pedestrian's objective physiopsychological state; a present-walking-state identifying portion 31 which identifies a present walking state associated with the pedestrian's present walking; and an output processing portion 34 which identifies the walking environment for guiding the pedestrian to the objective physiopsychological state identified by the objective-physiopsychological-state identifying portion 33, and which performs output for setting the pedestrian's walking environment as the identified walking environment, on the basis of the present walking state identified by the present-walking-state identifying portion 31. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、歩行環境制御システムに関する。   The present invention relates to a walking environment control system.

従来、歩行者の歩行環境に影響を与える技術が用いられており、例えば、ユーザの動作に合わせて音楽等を再生する再生態様制御装置も提案されている(例えば、特許文献1)。この再生態様制御装置は、ユーザの上下動を基にユーザの歩行テンポを検出し、当該ユーザの歩行テンポに音楽コンテンツの再生速度を合わせるように制御する。   Conventionally, a technology that affects the walking environment of a pedestrian has been used. For example, a playback mode control device that plays back music or the like in accordance with a user's action has been proposed (for example, Patent Document 1). This playback mode control device detects the user's walking tempo based on the user's vertical movement, and controls the playback speed of the music content to match the user's walking tempo.

特開2005−156641号公報(段落「0017」)Japanese Patent Laying-Open No. 2005-156641 (paragraph “0017”)

ところで、商業施設における顧客の購買意欲の促進や、作業環境における作業者の作業効率の向上には、これらの顧客や作業者の生理的・心理的な状態(以下「生理心理状態」)を購買や作業に適した状態に誘導することが重要であると考えられる。しかしながら、上記特許文献1に記載の装置は、単に歩行者の歩行テンポに合わせて音楽を再生するものに過ぎず、歩行者の生理心理状態について何ら考慮していなかった。このため、歩行者の生理心理状態を所望の状態へと誘導することができず、購買意欲の促進や作業者の作業効率の向上に資することが困難であった。   By the way, in order to promote the customer's willingness to purchase in commercial facilities and improve the work efficiency of workers in the work environment, the physiological and psychological state of these customers and workers (hereinafter referred to as “physiological and psychological state”) is purchased. It is considered important to guide to a state suitable for work. However, the device described in Patent Document 1 merely reproduces music in accordance with the walking tempo of the pedestrian, and does not consider the physiological state of the pedestrian at all. For this reason, the physiological psychological state of the pedestrian cannot be guided to a desired state, and it has been difficult to contribute to the promotion of purchase motivation and the improvement of the work efficiency of the worker.

本発明は、上記に鑑みてなされたものであって、歩行環境を制御し、目標とする生理心理状態に歩行者を誘導することができる、歩行環境制御システムを提供することを目的とする。   This invention is made | formed in view of the above, Comprising: It aims at providing a walking environment control system which can control a walking environment and can guide a pedestrian to the target physiological state.

上述した課題を解決し、目的を達成するために、請求項1に記載の歩行環境制御システムは、歩行者の行き先と、当該歩行者の生理心理状態を誘導する目標としての目標生理心理状態とを、相互に関連づけて格納する目標生理心理状態格納手段と、歩行者の行き先を所定方法で取得する行き先取得手段と、前記行き先取得手段が取得した行き先に関連付けて格納されている目標生理心理状態を前記目標生理心理状態格納手段から取得し、当該取得した目標生理心理状態を前記歩行者の目標生理心理状態として特定する、目標生理心理状態特定手段と、前記歩行者の歩行動作を検出することにより、当該歩行者の現在の歩行に関する現在歩行状態を特定する、現在歩行状態特定手段と、前記目標生理心理状態特定手段が特定した目標生理心理状態に前記歩行者を誘導するための歩行環境を特定し、前記現在歩行状態特定手段が特定した現在歩行状態に基づき、前記歩行者の歩行環境を前記特定した歩行環境とするための出力を行う出力手段と、を備える。   In order to solve the above-described problems and achieve the object, the walking environment control system according to claim 1 includes a destination of the pedestrian and a target physiological psychological state as a target for inducing the physiological psychological state of the pedestrian. Are stored in association with each other, a target physiological and psychological state storage means for storing the destinations, a destination acquisition means for acquiring the destination of the pedestrian by a predetermined method, and a target physiological and psychological state stored in association with the destination acquired by the destination acquisition means Detecting from the target physiological psychological state storage means, and specifying the acquired target physiological psychological state as the target physiological psychological state of the pedestrian and detecting the walking motion of the pedestrian. The current walking state specifying means for specifying the current walking state regarding the current walking of the pedestrian and the target physiological psychological state specified by the target physiological psychological state specifying means An output for specifying the walking environment for guiding the pedestrian and making the walking environment of the pedestrian the specified walking environment based on the current walking state specified by the current walking state specifying means Means.

また、請求項2に記載の歩行環境制御システムは、請求項1に記載の歩行環境制御システムにおいて、前記行き先取得手段は、前記歩行者の行き先を特定するための行き先情報を取得し、前記目標生理心理状態特定手段は、前記行き先取得手段が取得した行き先情報に対応する行き先に関連付けて格納されている目標生理心理状態を前記目標生理心理状態格納手段から取得し、当該取得した目標生理心理状態を前記歩行者の目標生理心理状態として特定する。   The walking environment control system according to claim 2 is the walking environment control system according to claim 1, wherein the destination acquisition unit acquires destination information for specifying a destination of the pedestrian, and the target The physiological psychological state specifying unit acquires the target physiological psychological state stored in association with the destination corresponding to the destination information acquired by the destination acquisition unit from the target physiological psychological state storage unit, and acquires the acquired target physiological psychological state. Is specified as the target physiological psychological state of the pedestrian.

また、請求項3に記載の歩行環境制御システムは、請求項1又は2に記載の歩行環境制御システムにおいて、前記現在歩行状態特定手段は、前記歩行者の現在の歩調を特定する。   The walking environment control system according to claim 3 is the walking environment control system according to claim 1 or 2, wherein the current walking state specifying means specifies the current pace of the pedestrian.

また、請求項4に記載の歩行環境制御システムは、請求項1から3のいずれか一項に記載の歩行環境制御システムにおいて、前記出力手段は、前記歩行環境として音環境を特定し、前記歩行者の音環境を当該特定した音環境とするための音を出力する。   The walking environment control system according to claim 4 is the walking environment control system according to any one of claims 1 to 3, wherein the output unit specifies a sound environment as the walking environment, and the walking The sound for making the person's sound environment the specified sound environment is output.

また、請求項5に記載の歩行環境制御システムは、請求項4に記載の歩行環境制御システムにおいて、前記出力手段は、出力する音の種別を前記音環境として特定する。   Further, in the walking environment control system according to claim 5, in the walking environment control system according to claim 4, the output means specifies the type of sound to be output as the sound environment.

また、請求項6に記載の歩行環境制御システムは、請求項4又は5に記載の歩行環境制御システムにおいて、前記出力手段は、前記現在歩行状態特定手段が特定した現在歩行状態に基づき前記音を出力するタイミングを、前記音環境として特定する。   The walking environment control system according to claim 6 is the walking environment control system according to claim 4 or 5, wherein the output means generates the sound based on the current walking state specified by the current walking state specifying means. The output timing is specified as the sound environment.

請求項1に記載の歩行環境制御システムによれば、歩行者の行き先に基づいて適切な目標生理心理状態を特定することができる。さらに、目標生理心理状態に歩行者を誘導するための歩行環境を特定し、現在歩行状態特定手段が特定した現在歩調に基づき、歩行者の歩行環境を当該特定した歩行環境とするための出力を行うので、歩行者を所望の歩行状態に誘導し、当該歩行者の生理心理状態を目標とする状態に誘導することができる。   According to the walking environment control system of the first aspect, it is possible to specify an appropriate target physiological state based on the pedestrian destination. Furthermore, the walking environment for guiding the pedestrian to the target physiological psychological state is specified, and the output for setting the walking environment of the pedestrian as the specified walking environment based on the current pace specified by the current walking state specifying means. Since it performs, a pedestrian can be induced | guided | derived to a desired walking state, and the physiological psychological state of the said pedestrian can be induced | guided | derived to the target state.

また、請求項2に記載の歩行環境制御システムによれば、歩行者の行き先を特定するための行き先情報を取得し、当該行き先情報に対応する行き先に関連付けて格納されている目標生理心理状態を目標生理心理状態格納手段から取得し、当該取得した目標生理心理状態を歩行者の目標生理心理状態として特定するので、歩行者に適した目標生理心理状態をより正確に特定することができる。   According to the walking environment control system of claim 2, the destination information for specifying the destination of the pedestrian is acquired, and the target physiological psychological state stored in association with the destination corresponding to the destination information is obtained. Since the target physiological psychological state acquired from the target physiological psychological state storage means and the acquired target physiological psychological state is specified as the target physiological psychological state of the pedestrian, the target physiological psychological state suitable for the pedestrian can be specified more accurately.

また、請求項3に記載の歩行環境制御システムによれば、現在歩行状態特定手段は歩行者の現在の歩調を特定するので、歩行者の歩調を介して当該歩行者の生理心理状態を目標とする状態に誘導することができる。   Further, according to the walking environment control system according to claim 3, the current walking state specifying means specifies the current pace of the pedestrian, so that the physiological psychological state of the pedestrian is targeted through the pedestrian's step. Can be guided to a state to do.

また、請求項4に記載の歩行環境制御システムによれば、出力手段は音を出力するので、歩行者の音環境を制御することができ、歩行者の聴覚を通じて当該歩行者を所望の歩行状態に誘導し、目標とする生理心理状態に誘導することができる。   According to the walking environment control system of claim 4, since the output means outputs sound, the sound environment of the pedestrian can be controlled, and the pedestrian is in a desired walking state through the pedestrian's hearing. To the target physiological psychological state.

また、請求項5に記載の歩行環境制御システムによれば、出力手段は、出力する音の種別を音環境として特定するので、歩行者の生理心理状態を目標生理心理状態に誘導するために適当な音種を特定し、当該音種の音によって歩行者の生理心理状態を目標生理心理状態に誘導することができる。   According to the walking environment control system of claim 5, since the output means specifies the type of sound to be output as the sound environment, it is suitable for inducing the physiological state of the pedestrian to the target physiological state. A specific sound type can be specified, and the physiology and psychological state of the pedestrian can be guided to the target physiological and psychological state by the sound of the sound type.

また、請求項6に記載の歩行環境制御システムによれば、出力手段は、現在歩行状態特定手段が特定した現在歩行状態に基づき音を出力するタイミングを、音環境として特定するので、音の出力タイミングに歩行者の歩調を引き込み、歩行状態の変化を介して当該歩行者の生理心理状態を目標生理心理状態に誘導することができる。   According to the walking environment control system of the sixth aspect, the output unit specifies the timing for outputting the sound based on the current walking state specified by the current walking state specifying unit as the sound environment. The pace of the pedestrian can be drawn into the timing, and the physiological state of the pedestrian can be guided to the target physiological state through the change of the walking state.

歩行環境制御システムを適用したオフィスの斜視図である。It is a perspective view of the office to which a walking environment control system is applied. 実施の形態に係る歩行環境制御システムを例示するブロック図である。It is a block diagram which illustrates the walking environment control system concerning an embodiment. 目標心理テーブルに格納されている情報の内容を例示した表である。It is the table | surface which illustrated the content of the information stored in the target psychology table. 目標歩調テーブルに格納されている情報の内容を例示した表である。It is the table | surface which illustrated the content of the information stored in the target pace table. 目標心理−音種テーブルに格納されている情報の内容を例示した表である。It is the table | surface which illustrated the content of the information stored in the target psychology-sound type table. 好み−音種テーブルに格納されている情報の内容を例示した表である。It is the table | surface which illustrated the content of the information stored in the preference-sound type table. 履歴−音種DBに格納されている情報の内容を例示した表である。It is the table | surface which illustrated the content of the information stored in history-sound type DB. 自然環境−音種テーブルに格納されている情報の内容を例示した表である。It is the table | surface which illustrated the content of the information stored in the natural environment-sound type table. 上下限歩調決定テーブルに格納されている情報の内容を例示した表である。It is the table | surface which illustrated the content of the information stored in the upper / lower limit pace determination table. 歩行環境制御処理を示したフローチャートである。It is the flowchart which showed walking environment control processing. 音種決定処理のフローチャートである。It is a flowchart of a sound type determination process. 目標生理心理状態による音種選択ルーチンのフローチャートである。It is a flowchart of the sound type selection routine by a target physiological psychological state. 歩行者の好みによる音種選択ルーチンのフローチャートである。It is a flowchart of the sound type selection routine by a pedestrian's preference. 出力履歴による音種選択ルーチンのフローチャートである。It is a flowchart of the sound type selection routine by an output history. 自然環境による音種選択ルーチンのフローチャートである。It is a flowchart of the sound type selection routine by a natural environment. 引き込み出力処理のフローチャートである。It is a flowchart of a drawing output process. 図16に続く引き込み出力処理のフローチャートである。FIG. 17 is a flowchart of a pull-in output process following FIG. 16. 図17に続く引き込み出力処理のフローチャートである。18 is a flowchart of a pull-in output process following FIG.

以下に添付図面を参照して、この発明に係る歩行環境制御システムの実施の形態を詳細に説明する。まず、〔I〕実施の形態の基本的概念を説明した後、〔II〕実施の形態の具体的内容について説明し、〔III〕最後に、実施の形態に対する変形例について説明する。ただし、実施の形態によって本発明が限定されるものではない。   Embodiments of a walking environment control system according to the present invention will be described below in detail with reference to the accompanying drawings. [I] First, the basic concept of the embodiment will be described, then [II] the specific contents of the embodiment will be described, and [III] Finally, modifications to the embodiment will be described. However, the present invention is not limited to the embodiments.

〔I〕実施の形態の基本的概念
まず、実施の形態の基本的概念について説明する。実施の形態に係る歩行環境制御システムは、商業施設やオフィス等、歩行者が歩行する任意の歩行環境の制御に適用可能なシステムである。
[I] Basic Concept of Embodiment First, the basic concept of the embodiment will be described. The walking environment control system according to the embodiment is a system applicable to control of an arbitrary walking environment where a pedestrian walks, such as a commercial facility or an office.

実施の形態に係る歩行環境制御システムの特徴の一つは、目標とする生理心理状態に歩行者を誘導するための歩行状態を特定し、当該歩行者の歩行環境を、特定した歩行状態に当該歩行者を誘導するための歩行環境とする点にある。ここで「歩行環境」とは、歩行者の各種感覚(触覚、温覚、冷覚、痛覚、視覚、聴覚、味覚、嗅覚、平衡感覚等)に影響しうるもの全てを含む概念であり、例えば音、振動、光等が含まれる。この歩行環境を制御して歩行者を所望の歩行状態に誘導することにより、当該歩行者の生理心理状態を所望の状態に誘導することが出来る。   One of the features of the walking environment control system according to the embodiment is to specify a walking state for guiding a pedestrian to a target physiological state, and to determine the walking environment of the pedestrian in the specified walking state. It is in a point that it is a walking environment for guiding pedestrians. Here, the “walking environment” is a concept including all things that can affect various sensations of pedestrians (touch, warm, cold, pain, vision, hearing, taste, smell, balance, etc.) Sound, vibration, light, etc. are included. By controlling this walking environment and guiding the pedestrian to a desired walking state, the physiological state of the pedestrian can be guided to a desired state.

〔II〕実施の形態の具体的内容
次に、実施の形態の具体的内容について説明する。図1は歩行環境制御システムを適用したオフィスの斜視図である。図1に示すように、以下では歩行環境制御システム1がオフィス2に設置された場合であって、制御対象領域に第1空間2a、第2空間2b、及び第3空間2cの出入り口が存在している場合を例として説明する。
[II] Specific Contents of Embodiment Next, specific contents of the embodiment will be described. FIG. 1 is a perspective view of an office to which a walking environment control system is applied. As shown in FIG. 1, the following is a case where the walking environment control system 1 is installed in the office 2, and there are entrances and exits of the first space 2a, the second space 2b, and the third space 2c in the control target area. An example will be described.

(構成)
図2は、実施の形態に係る歩行環境制御システムを例示するブロック図である。図2に示すように、この歩行環境制御システム1は、入力部10、出力部20、処理部30、及び記憶部40を備えている。
(Constitution)
FIG. 2 is a block diagram illustrating a walking environment control system according to the embodiment. As shown in FIG. 2, the walking environment control system 1 includes an input unit 10, an output unit 20, a processing unit 30, and a storage unit 40.

(構成−入力部)
入力部10は、処理部30が実行する各種処理に必要な情報を当該処理部30に入力する入力手段であり、接地センサ11、及びカメラ12を備えている。接地センサ11は、歩行者3の足の接地を検出する。この接地センサ11としては、例えば赤外線遮蔽センサを用いることができる。具体的には、赤外線を発光する発光部と、発光部から発光された赤外線を受光する受光部とを、床面に沿って対向配置する。これにより、発光部と受光部との間で赤外線が遮蔽された場合、床面に接地した歩行者3の足によって赤外線が遮蔽されたとして、歩行者3の足の接地を検出することができる。カメラ12は、歩行環境制御システム1の制御対象領域を撮影する。これらの接地センサ11及びカメラ12からの出力は、処理部30に入力される。
(Configuration-input part)
The input unit 10 is an input unit that inputs information necessary for various processes executed by the processing unit 30 to the processing unit 30, and includes a ground sensor 11 and a camera 12. The grounding sensor 11 detects the grounding of the foot of the pedestrian 3. For example, an infrared shielding sensor can be used as the ground sensor 11. Specifically, a light emitting unit that emits infrared light and a light receiving unit that receives infrared light emitted from the light emitting unit are disposed to face each other along the floor surface. Thereby, when infrared rays are shielded between the light emitting unit and the light receiving unit, it is possible to detect the grounding of the feet of the pedestrian 3 on the assumption that the infrared rays are shielded by the feet of the pedestrian 3 grounded on the floor surface. . The camera 12 captures a control target area of the walking environment control system 1. Outputs from the ground sensor 11 and the camera 12 are input to the processing unit 30.

(構成−出力部)
出力部20は、処理部30の制御に基づいて歩行者3の歩行環境を所定の歩行環境とするための出力を行う出力手段である。この出力部20の具体的な構成は任意であり、例えば音を出力するスピーカを用いることができる。
(Configuration-output part)
The output unit 20 is an output unit that performs an output for making the walking environment of the pedestrian 3 a predetermined walking environment based on the control of the processing unit 30. The specific configuration of the output unit 20 is arbitrary, and for example, a speaker that outputs sound can be used.

(構成−処理部)
処理部30は、歩行環境制御システム1に関する計算処理を行う処理手段であり、具体的には、CPU、当該CPU上で解釈実行される各種のプログラム(OSなどの基本制御プログラムや、OS上で起動され特定機能を実現するアプリケーションプログラムを含む)、及びプログラムや各種のデータを格納するためのRAMの如き内部メモリを備えて構成されるコンピュータである。
(Configuration-processing section)
The processing unit 30 is a processing unit that performs calculation processing related to the walking environment control system 1. Specifically, the processing unit 30 is a CPU, various programs that are interpreted and executed on the CPU (a basic control program such as an OS, and the OS). And a computer configured to include an internal memory such as a RAM for storing programs and various data.

この処理部30は、機能概念的に、現在歩行状態特定部31、行き先取得部32、目標生理心理状態特定部33、及び出力処理部34を備えている。現在歩行状態特定部31は、歩行者3の現在の歩行に関する現在歩行状態を特定する現在歩行状態特定手段である。行き先取得部32は、歩行者3の行き先を所定方法で取得する行き先取得手段である。目標生理心理状態特定部33は、歩行者3の生理心理状態を誘導する目標としての目標生理心理状態を特定する、目標生理心理状態特定手段である。出力処理部34は、目標生理心理状態特定部33が特定した目標生理心理状態に歩行者3を誘導するための歩行環境を特定し、現在歩行状態特定部31が特定した現在歩行状態に基づき、歩行者3の歩行環境を当該特定した歩行環境とするための出力を出力部20に行わせるものであり、出力部20と共に特許請求の範囲における出力手段を構成する。これらの処理部30の各構成要素によって実行される処理の詳細については後述する。   The processing unit 30 includes a current walking state specifying unit 31, a destination acquisition unit 32, a target physiological and psychological state specifying unit 33, and an output processing unit 34 in terms of functional concept. The current walking state specifying unit 31 is a current walking state specifying unit that specifies the current walking state related to the current walking of the pedestrian 3. The destination acquisition unit 32 is a destination acquisition unit that acquires the destination of the pedestrian 3 by a predetermined method. The target physiological psychological state specifying unit 33 is a target physiological psychological state specifying unit that specifies a target physiological psychological state as a target for guiding the physiological psychological state of the pedestrian 3. The output processing unit 34 specifies a walking environment for guiding the pedestrian 3 to the target physiological psychological state specified by the target physiological psychological state specifying unit 33, and based on the current walking state specified by the current walking state specific unit 31, The output part 20 is made to perform the output for making the walking environment of the pedestrian 3 into the specified walking environment, and constitutes an output means in the claims together with the output part 20. Details of processing executed by each component of the processing unit 30 will be described later.

(構成−記憶部)
記憶部40は、歩行環境制御システム1の動作に必要なプログラム及び各種のデータを記憶する記憶手段であり、例えば、外部記憶装置としてのハードディスク(図示省略)を用いて構成されている。ただし、ハードディスクに代えてあるいはハードディスクと共に、磁気ディスクの如き磁気的記録媒体、又はDVDやブルーレイディスクの如き光学的記録媒体を含む、その他の任意の記録媒体を用いることができる。
(Configuration-storage unit)
The memory | storage part 40 is a memory | storage means which memorize | stores a program required for operation | movement of the walking environment control system 1, and various data, for example, is comprised using the hard disk (illustration omitted) as an external storage device. However, any other recording medium including a magnetic recording medium such as a magnetic disk or an optical recording medium such as a DVD or a Blu-ray disk can be used instead of or together with the hard disk.

この記憶部40は、目標心理テーブル41、目標歩調テーブル42、目標心理−音種テーブル43、好み−音種テーブル44、履歴−音種データベース(以下、データベースを「DB」と称する)45、自然環境−音種テーブル46、及び上下限歩調決定テーブル47を備えている。   The storage unit 40 includes a target psychology table 41, a target pace table 42, a target psychology-sound type table 43, a preference-sound type table 44, a history-sound type database (hereinafter referred to as “DB”) 45, a natural An environment-sound type table 46 and an upper / lower limit pace determination table 47 are provided.

目標心理テーブル41は、歩行者3の行き先と、歩行者3の生理心理状態を誘導する目標としての目標生理心理状態とを、相互に関連付けて格納する目標生理心理状態格納手段である。図3は目標心理テーブル41に格納されている情報の内容を例示した表である。図3に示すように、目標心理テーブル41は、テーブル項目として「行き先」及び「目標心理」を備え、これらの項目に対応する情報が相互に関連付けて格納されている。項目「行き先」に対応して格納される情報は、歩行者3の行き先を特定する情報である(図3では「第1空間」、「第2空間」、「第3空間」)。項目「目標心理」に対応して格納される情報は、歩行者3の行き先に対応する目標生理心理状態を特定する情報である。例えば、歩行者3の行き先としての第1空間2aが会議室である場合、当該会議室にて行われる会議に出席する歩行者3はある程度の緊張感を持っていることが望ましいため、項目「行き先」の「第1空間」に対応する目標生理心理状態としては、図3に示すように「緊張」が格納される。また、歩行者3の行き先としての第2空間2bが例えば執務エリアである場合、当該執務エリアで通常業務を行う歩行者3は緊張とリラックスとの中間の心理状態であることが望ましいため、項目「行き先」の「第2空間」に対応する目標生理心理状態としては、図3に示すように「普通」が格納される。また、歩行者3の行き先としての第3空間2cが例えば食堂である場合、当該食堂で食事をする歩行者3はリラックスすることが可能であるため、項目「行き先」の「第3空間」に対応する目標生理心理状態としては、図3に示すように「リラックス」が格納される。   The target psychological table 41 is a target physiological psychological state storage unit that stores the destination of the pedestrian 3 and the target physiological psychological state as a target for guiding the physiological psychological state of the pedestrian 3 in association with each other. FIG. 3 is a table illustrating the contents of information stored in the target psychology table 41. As shown in FIG. 3, the target psychology table 41 includes “destination” and “target psychology” as table items, and information corresponding to these items is stored in association with each other. The information stored corresponding to the item “destination” is information for specifying the destination of the pedestrian 3 (“first space”, “second space”, “third space” in FIG. 3). The information stored corresponding to the item “target psychology” is information for specifying the target physiological psychology state corresponding to the destination of the pedestrian 3. For example, when the first space 2a as the destination of the pedestrian 3 is a conference room, it is desirable that the pedestrian 3 attending the conference held in the conference room has a certain degree of tension. As the target physiological psychological state corresponding to the “first space” of “destination”, “tension” is stored as shown in FIG. In addition, when the second space 2b as the destination of the pedestrian 3 is a work area, for example, it is desirable that the pedestrian 3 who normally performs work in the work area is in a psychological state between tension and relaxation. As the target physiological state corresponding to the “second space” of “destination”, “normal” is stored as shown in FIG. In addition, when the third space 2c as the destination of the pedestrian 3 is a cafeteria, for example, the pedestrian 3 who eats in the cafeteria can relax, so the item “destination” in the “third space” “Relaxed” is stored as the corresponding target physiological state as shown in FIG.

目標歩調テーブル42は、歩行者3の目標生理心理状態と、当該歩行者3の歩行状態を誘導する目標としての目標歩調とを、相互に関連付けて格納する。図4は目標歩調テーブル42に格納されている情報の内容を例示した表である。図4に示すように、目標歩調テーブル42はテーブル項目として「目標心理」及び「目標歩調」を備え、これらの項目に対応する情報が相互に関連付けて格納されている。項目「目標心理」に対応して格納される情報は目標生理心理状態を特定する情報である。項目「目標歩調」に対応して格納される情報は、歩行者3の歩調を誘導する内容を特定する情報(図4では、「遅」「維持」「速」)である。例えば、目標心理が「リラックス」の場合は、歩行者3の生理心理状態をリラックスした状態とするためには、当該歩行者3の歩調を遅くするように誘導を行うことが有効と考えられるため、目標歩調を「遅」としている。また、目標心理が「普通」の場合は、歩行者3の生理心理状態を普通の状態とするためには、当該歩行者3の歩調を維持するように誘導を行うことが有効と考えられるため、目標歩調を「維持」としている。また、目標心理が「緊張」の場合は、歩行者3の生理心理状態を緊張した状態とするためには、当該歩行者3の歩調を速くするように誘導を行うことが有効と考えられるため、目標歩調を「速」としている。   The target pace table 42 stores the target physiological / psychological state of the pedestrian 3 and the target step as a target for guiding the walking state of the pedestrian 3 in association with each other. FIG. 4 is a table illustrating the contents of information stored in the target pace table 42. As shown in FIG. 4, the target pace table 42 includes “target psychology” and “target pace” as table items, and information corresponding to these items is stored in association with each other. The information stored corresponding to the item “target psychology” is information for specifying the target physiological psychology state. The information stored corresponding to the item “target pace” is information (“slow”, “maintain”, “speed” in FIG. 4) that specifies the content that induces the pace of the pedestrian 3. For example, when the target psychology is “relaxed”, in order to make the psychiatric psychological state of the pedestrian 3 relax, it is considered effective to guide the pedestrian 3 to slow down the pace. , The target pace is "slow". In addition, when the target psychology is “normal”, it is considered effective to guide the pedestrian 3 so as to maintain the pace of the pedestrian 3 in order to change the physiological psychological state of the pedestrian 3 to a normal state. The target pace is “maintained”. In addition, when the target psychology is “tension”, it is considered effective to guide the pedestrian 3 so that the pace of the pedestrian 3 is increased in order to make the psychiatric psychological state of the pedestrian 3 tense. The target pace is “fast”.

目標心理−音種テーブル43は、歩行者3の目標生理心理状態、出力部20から出力させる音の種別(以下「音種」と表記する)、及び各音種の音を出力部20から出力させる際の優先順位を、相互に関連付けて格納する。図5は目標心理−音種テーブル43に格納されている情報の内容を例示した表である。図5に示すように、目標心理−音種テーブル43はテーブル項目として「優先順位ID」「目標心理」及び「音種」を備え、これらの項目に対応する情報が相互に関連付けて格納されている。項目「優先順位ID」に対応して格納される情報は、各音種の音を出力部20から出力させる際の優先順位を一意に識別する識別情報である(図5では「1」「2」等)。項目「目標心理」に対応して格納される情報は目標生理心理状態を特定する情報である。項目「音種」に対応して格納される情報は、目標生理心理状態に対応して出力部20から出力させる音種を特定する情報(図5では「水たまり」「膝上までの水」等)である。例えば、図5の例では、歩行者3の目標生理心理状態が「リラックス」である場合、出力部20から出力させる音種は、優先順位の高い順に「水たまり」「膝上までの水」「枯葉−乾燥」「枯葉−湿気」となっている。また、目標生理心理状態が「普通」である場合、出力部20から出力させる音種は、優先順位の高い順に「草むら」「玉石」「雪」となっている。また、目標生理心理状態が「緊張」である場合、出力部20から出力させる音種は、優先順位の高い順に「鉄板」「古い板張り」となっている。   The target psychology-sound type table 43 outputs the target physiological psychological state of the pedestrian 3, the type of sound output from the output unit 20 (hereinafter referred to as “sound type”), and the sound of each sound type from the output unit 20. The priorities for the process are stored in association with each other. FIG. 5 is a table illustrating the contents of the information stored in the target psychology-sound type table 43. As shown in FIG. 5, the target psychology-sound type table 43 includes “priority ID”, “target psychology”, and “sound type” as table items, and information corresponding to these items is stored in association with each other. Yes. The information stored corresponding to the item “priority ID” is identification information for uniquely identifying the priority when the sound of each sound type is output from the output unit 20 (“1” and “2” in FIG. 5). "etc). The information stored corresponding to the item “target psychology” is information for specifying the target physiological psychology state. The information stored corresponding to the item “sound type” is information specifying the sound type to be output from the output unit 20 in correspondence with the target physiological state (in FIG. 5, “puddle”, “water up to the knee”, etc. ). For example, in the example of FIG. 5, when the target physiological psychological state of the pedestrian 3 is “relaxed”, the sound types to be output from the output unit 20 are “puddle”, “water up to knee”, “ "Dead leaves-dry" "Dead leaves-moisture". When the target physiological state is “normal”, the sound types output from the output unit 20 are “grass spot”, “cobblestone”, and “snow” in descending order of priority. When the target physiological psychological state is “tension”, the sound types output from the output unit 20 are “iron plate” and “old plate tension” in descending order of priority.

好み−音種テーブル44は、歩行者3の好み、出力部20から出力させる音種、及び各音種の音を出力部20から出力させる際の優先順位を、相互に関連付けて格納する。図6は好み−音種テーブル44に格納されている情報の内容を例示した表である。図6に示すように、好み−音種テーブル44はテーブル項目として「優先順位ID」「音種」及び「好み」を備え、これらの項目に対応する情報が相互に関連付けて格納されている。このうち、項目「好み」に対応して格納される情報は、歩行者3の好みを特定する情報(図6では「嫌い」「普通」「好き」)である。例えば、図6の例では、音種「水たまり」「膝上までの水」は歩行者3が「嫌い」な音種となっている。また、音種「枯葉−乾燥」「枯葉−湿気」「草むら」「雪」「鉄板」「古い板張り」については歩行者3の好みが「普通」の音種となっている。また、音種「玉石」については、歩行者3が「好き」な音種となっている。   The preference-sound type table 44 stores the preference of the pedestrian 3, the sound types output from the output unit 20, and the priority order when the sounds of each sound type are output from the output unit 20 in association with each other. FIG. 6 is a table illustrating the contents of information stored in the preference-sound type table 44. As shown in FIG. 6, the preference-sound type table 44 includes “priority ID”, “sound type”, and “preference” as table items, and information corresponding to these items is stored in association with each other. Among these, the information stored corresponding to the item “preference” is information (“dislike”, “normal”, “like” in FIG. 6) that specifies the preference of the pedestrian 3. For example, in the example of FIG. 6, the sound types “puddle” and “water up to the knee” are sound types that the pedestrian 3 “dislikes”. In addition, for the sound types “dead leaves-dry”, “dead leaves-humidity”, “grass unevenness”, “snow”, “iron plate” and “old boarding”, the preference of the pedestrian 3 is “normal”. The sound type “cobblestone” is a sound type that the pedestrian 3 likes.

履歴−音種DB45は、出力部20から出力させた音種と、当該出力を行った日とを、相互に関連付けて格納する。図7は履歴−音種DB45に格納されている情報の内容を例示した表である。図7に示すように、履歴−音種DB45はDB項目として「出力日」及び「音種」を備え、これらの項目に対応する情報が相互に関連付けて格納されている。このうち、「出力日」に対応して格納される情報は、出力部20から音を出力させた日を特定する情報である(図7では「2008年10月17日」等)。例えば、図7の例では、2008年10月17日には音種「枯葉−湿気」が出力され、2008年10月18日には音種「枯葉−乾燥」が出力され、2008年10月19日には音種「玉石」が出力されている。   The history-sound type DB 45 stores the sound type output from the output unit 20 and the date on which the output is performed in association with each other. FIG. 7 is a table illustrating the contents of information stored in the history-sound type DB 45. As shown in FIG. 7, the history-sound type DB 45 includes “output date” and “sound type” as DB items, and information corresponding to these items is stored in association with each other. Among these, the information stored corresponding to the “output date” is information for specifying the date when the sound is output from the output unit 20 (“October 17, 2008” in FIG. 7). For example, in the example of FIG. 7, the sound type “dead leaves-humidity” is output on October 17, 2008, and the sound type “dead leaves-dry” is output on October 18, 2008. On the 19th, the tone type “Tamaishi” is output.

自然環境−音種テーブル46は、各音種の音を出力部20から出力させる際の優先順位、自然環境、及び出力部20から出力させる音種を、相互に関連付けて格納する。図8は自然環境−音種テーブル46に格納されている情報の内容を例示した表である。図8に示すように、自然環境−音種テーブル46はテーブル項目として「優先順位ID」「自然環境」及び「音種」を備え、これらの項目に対応する情報が相互に関連付けて格納されている。このうち、項目「自然環境」に対応して格納される情報は、各音種と何らかの関連性を有する季節や天気等を特定する情報であり、例えば図8に示すように、項目「季節」及び「天気」に対応する情報が格納される。図8では、例えば音種「水たまり」に対応する自然環境として、水たまりが発生しやすい季節「梅雨」、及び天気「雨」が格納されている。また、音種「膝上までの水」に対応する自然環境としては、海や川を連想させる季節「夏」が格納され、天気については「不特定」が格納されている。ここで「不特定」とは、対応する音種の出力が特定の天気に制約されないことを意味している。   The natural environment-sound type table 46 stores the priority order when the sound of each sound type is output from the output unit 20, the natural environment, and the sound type output from the output unit 20 in association with each other. FIG. 8 is a table illustrating the contents of the information stored in the natural environment / sound type table 46. As shown in FIG. 8, the natural environment-sound type table 46 includes “priority ID”, “natural environment”, and “sound type” as table items, and information corresponding to these items is stored in association with each other. Yes. Among these, the information stored corresponding to the item “natural environment” is information for specifying a season or weather having some relationship with each sound type. For example, as shown in FIG. And information corresponding to “weather” is stored. In FIG. 8, for example, a season “rainy season” in which a puddle is likely to occur and a weather “rain” are stored as a natural environment corresponding to the sound type “puddle”. As a natural environment corresponding to the sound type “water above the knee”, a season “summer” reminiscent of the sea and river is stored, and “unspecified” is stored for the weather. Here, “unspecified” means that the output of the corresponding sound type is not restricted by specific weather.

上下限歩調決定テーブル47は、歩行者3の歩行状態を誘導する目標としての目標歩調の上限及び下限を、歩行者3の属性(例えば性別や年代)と相互に関連付けて格納する。図9は上下限歩調決定テーブル47に格納されている情報の内容を例示した表である。図9に示すように、上下限歩調決定テーブル47はテーブル項目として「性別」及び「年代」を備え、これらの項目に対応して格納される情報と対応付けて、目標歩調の上限と下限とが格納されている。項目「性別」に対応して格納される情報は、歩行者3の性別を特定する情報である(図9では「男性」及び「女性」)。項目「年代」に対応して格納される情報は、歩行者3の年代を特定する情報である(図9では「20歳未満」「20歳以上40歳未満」「40歳以上60歳未満」「60歳以上」)。図9では、例えば20歳未満の男性における上限歩調は90歩/分、下限歩調は50歩/分となっている。これに対して、60歳以上の女性における上限歩調は50歩/分、下限歩調は40歩/分となっており、20歳未満の男性と比較して目標歩調の上下限が低く、幅の狭いものとなっている。このように、歩行者3の性別や年代によって異なる体力や体格等を考慮した目標歩調の上下限を上下限歩調決定テーブル47に格納することができる。   The upper and lower limit pace determination table 47 stores the upper limit and lower limit of the target step as a target for guiding the walking state of the pedestrian 3 in association with the attributes of the pedestrian 3 (for example, gender and age). FIG. 9 is a table illustrating the contents of the information stored in the upper / lower limit pace determination table 47. As shown in FIG. 9, the upper and lower limit pace determination table 47 includes “sex” and “age” as table items, and is associated with information stored in correspondence with these items, and the upper and lower limits of the target step. Is stored. The information stored corresponding to the item “gender” is information specifying the gender of the pedestrian 3 (“male” and “female” in FIG. 9). The information stored corresponding to the item “age” is information for specifying the age of the pedestrian 3 (in FIG. 9, “under 20 years old” “20 years old and under 40 years old” “40 years old and under 40 years old”). “60 years and over”). In FIG. 9, for example, the upper limit pace for a male under 20 years old is 90 steps / minute, and the lower limit pace is 50 steps / minute. On the other hand, the upper limit pace is 50 steps / minute and the lower limit pace is 40 steps / minute for women over 60 years old. It is narrow. In this way, the upper and lower limits of the target pace considering the physical strength and physique that differ depending on the gender and age of the pedestrian 3 can be stored in the upper and lower limit pace determination table 47.

なお、目標心理テーブル41、目標歩調テーブル42、目標心理−音種テーブル43、好み−音種テーブル44、自然環境−音種テーブル46、及び上下限歩調決定テーブル47に情報を格納するタイミングや方法は任意で、例えば公知の入力装置(図示省略)を用いて各種の情報を格納することができる。また、履歴−音種DB45に格納される情報については、後述する歩行環境制御処理の実行に応じて随時情報を追加格納される。また、好み−音種テーブル44及び履歴−音種DB45については、各歩行者3に一意に対応づけられた複数の好み−音種テーブル44及び履歴−音種DB45が記憶部40に格納される。   The timing and method of storing information in the target psychology table 41, the target pace table 42, the target psychology-sound type table 43, the preference-sound type table 44, the natural environment-sound type table 46, and the upper / lower limit step determination table 47. Is arbitrary, and various information can be stored using, for example, a known input device (not shown). As for information stored in the history-sound type DB 45, information is additionally stored as needed in accordance with execution of a walking environment control process described later. As for the preference-sound type table 44 and the history-sound type DB 45, a plurality of preference-sound type tables 44 and history-sound type DB 45 uniquely associated with each pedestrian 3 are stored in the storage unit 40. .

(処理)
次に、このように構成される歩行環境制御システム1によって実行される歩行環境制御処理について説明する。図10は歩行環境制御処理を示したフローチャートである(以下の各処理の説明ではステップを「S」と略記する)。
(processing)
Next, walking environment control processing executed by the walking environment control system 1 configured as described above will be described. FIG. 10 is a flowchart showing the walking environment control process (steps are abbreviated as “S” in the description of each process below).

この歩行環境制御処理は、例えば歩行環境制御システム1への電源投入後に自動的に起動される。歩行環境制御処理が起動されると、現在歩行状態特定部31は、入力部10からの入力に基づき、歩行環境制御システム1の制御対象領域における歩行者3の有無を判定する(SA1)。例えば、接地センサ11によって歩行者3の足の接地が検出された場合に歩行者3が存在すると判定させてもよい。あるいは、制御対象領域を撮影しているカメラ12から入力された画像情報を公知の画像解析技術を用いて解析し、当該画像情報に人間の映像が含まれていた場合に歩行者3が存在すると判定させてもよい。さらに、歩行者3の識別情報を公知の方法で取得し、当該識別情報に基づき歩行者3を一意に識別してもよい。   This walking environment control process is automatically activated after the power to the walking environment control system 1 is turned on, for example. When the walking environment control process is activated, the current walking state specifying unit 31 determines the presence or absence of the pedestrian 3 in the control target area of the walking environment control system 1 based on the input from the input unit 10 (SA1). For example, it may be determined that the pedestrian 3 is present when the ground contact sensor 11 detects the ground contact of the pedestrian 3. Alternatively, when the image information input from the camera 12 capturing the control target area is analyzed using a known image analysis technique and a human image is included in the image information, the pedestrian 3 exists. It may be determined. Furthermore, the identification information of the pedestrian 3 may be acquired by a known method, and the pedestrian 3 may be uniquely identified based on the identification information.

その結果、歩行者3が存在しないと判定した場合(SA1、No)、現在歩行状態特定部31は歩行者3の有無の判定を継続する(SA1)。一方、歩行者3が存在すると判定した場合(SA1、Yes)、行き先取得部32は、歩行者3の行き先を取得する(SA2)。例えば、行き先取得部32は、歩行者3の足の接地を検出した接地センサ11の位置に基づき、当該歩行者3の位置を推定する。同様に、複数の接地センサ11からの出力に基づき時系列データとして歩行者3の位置を推定することにより、当該歩行者3の歩行方向を特定することができる。あるいは、歩行者3の識別情報を公知の方法で取得し、当該識別情報に基づいて、公知のスケジューラから当該歩行者3のスケジュールを特定し、当該スケジュールに基づき歩行者3の行き先を特定することもできる。あるいは、カメラ12から入力された画像情報を公知の画像解析技術を用いて解析し、撮影された歩行者3の位置や歩行方向等を特定することもできる。具体的には、画像情報における各画素位置と制御対象領域における位置座標との対応テーブル(図示省略)を予め記憶部40に記憶させておくことで、画像情報における歩行者3の画像の位置に対応する位置座標を当該対応テーブルから特定することができる。また、時系列データとして歩行者3の位置座標を取得することにより、当該歩行者3の歩行方向を特定することができる。   As a result, when it is determined that the pedestrian 3 does not exist (SA1, No), the current walking state specifying unit 31 continues the determination of the presence or absence of the pedestrian 3 (SA1). On the other hand, when it determines with the pedestrian 3 existing (SA1, Yes), the destination acquisition part 32 acquires the destination of the pedestrian 3 (SA2). For example, the destination acquisition unit 32 estimates the position of the pedestrian 3 based on the position of the grounding sensor 11 that detects the grounding of the foot of the pedestrian 3. Similarly, the walking direction of the pedestrian 3 can be specified by estimating the position of the pedestrian 3 as time series data based on the outputs from the plurality of ground sensors 11. Alternatively, the identification information of the pedestrian 3 is acquired by a known method, the schedule of the pedestrian 3 is specified from a known scheduler based on the identification information, and the destination of the pedestrian 3 is specified based on the schedule. You can also. Or the image information input from the camera 12 can be analyzed using a well-known image analysis technique, and the position, walking direction, etc. of the image | photographed pedestrian 3 can also be specified. Specifically, a correspondence table (not shown) of each pixel position in the image information and the position coordinates in the control target area is stored in advance in the storage unit 40, so that the position of the image of the pedestrian 3 in the image information is stored. Corresponding position coordinates can be specified from the correspondence table. Moreover, the walking direction of the said pedestrian 3 can be specified by acquiring the position coordinate of the pedestrian 3 as time series data.

次に、目標生理心理状態特定部33は、SA2で行き先取得部32が取得した行き先に対応する目標生理心理状態を目標心理テーブル41から取得し、当該取得した目標生理心理状態を歩行者3の目標生理心理状態として特定する(SA3)。図3に示した例では、行き先が第1空間2aの場合は「緊張」が目標生理心理状態として特定され、行き先が第2空間2bの場合は「普通」が目標生理心理状態として特定され、行き先が第3空間2cの場合は「リラックス」が目標生理心理状態として特定される。   Next, the target physiological psychological state specifying unit 33 acquires the target physiological psychological state corresponding to the destination acquired by the destination acquisition unit 32 in SA2 from the target psychological table 41, and the acquired target physiological psychological state is the pedestrian 3's. The target physiological psychological state is specified (SA3). In the example shown in FIG. 3, when the destination is the first space 2a, “tension” is specified as the target physiological state, and when the destination is the second space 2b, “normal” is specified as the target state. When the destination is the third space 2c, “relaxed” is specified as the target physiological state.

図10に戻り、出力処理部34は、SA3で目標生理心理状態特定部33が特定した目標生理心理状態に基づき、歩行者3の歩行状態を誘導する目標としての目標歩調を特定する(SA4)。例えば、出力処理部34は目標歩調テーブル42を参照し、目標生理心理状態特定部33が特定した目標生理心理状態に対応して格納されている目標歩調を特定する。図4に示した例では、目標生理心理状態特定部33が特定した目標生理心理状態が「リラックス」の場合は「遅」が目標歩調として特定され、目標生理心理状態が「普通」の場合は「維持」が目標歩調として特定され、目標生理心理状態が「緊張」の場合は「速」が目標歩調として特定される。   Returning to FIG. 10, the output processing unit 34 specifies the target pace as a target for guiding the walking state of the pedestrian 3 based on the target physiological state specified by the target physiological state specifying unit 33 in SA3 (SA4). . For example, the output processing unit 34 refers to the target pace table 42 and specifies the target step stored corresponding to the target physiological state specified by the target physiological state specifying unit 33. In the example shown in FIG. 4, when the target physiological psychological state specified by the target physiological psychological state specifying unit 33 is “relaxed”, “slow” is specified as the target pace, and when the target physiological psychological state is “normal”. “Maintenance” is specified as the target step, and “speed” is specified as the target step when the target physiological state is “tension”.

図10に戻り、出力処理部34は、目標生理心理状態特定部33が特定した目標生理心理状態に歩行者3を誘導するための歩行環境として出力部20から出力させる音の種別を特定するための、音種決定処理を実行する(SA5)。   Returning to FIG. 10, the output processing unit 34 specifies the type of sound to be output from the output unit 20 as a walking environment for guiding the pedestrian 3 to the target physiological state specified by the target physiological state specifying unit 33. The sound type determination process is executed (SA5).

ここで、音種決定処理について説明する。図11は音種決定処理のフローチャートである。図11に示すように、音種決定処理が開始されると、出力処理部34は出力部20から出力させる音種の候補を選択するための音種選択ルーチンとして、最初の音種選択ルーチンを設定する(SB1)。音種選択ルーチンとしては、例えば、目標生理心理状態特定部33が特定した目標生理心理状態による音種選択ルーチン、歩行者3の好みによる音種選択ルーチン、出力部20からの音の出力履歴による音種選択ルーチン、及び出力部20から音を出力させる場合の自然環境による音種選択ルーチンがある。   Here, the sound type determination process will be described. FIG. 11 is a flowchart of the sound type determination process. As shown in FIG. 11, when the sound type determination process is started, the output processing unit 34 uses the first sound type selection routine as a sound type selection routine for selecting a sound type candidate to be output from the output unit 20. Set (SB1). As the sound type selection routine, for example, the sound type selection routine based on the target physiological state specified by the target physiological state determination unit 33, the sound type selection routine based on the preference of the pedestrian 3, and the sound output history from the output unit 20 There are a sound type selection routine and a sound type selection routine based on a natural environment when sound is output from the output unit 20.

次に、出力処理部34は、設定された音種選択ルーチンを実行する(SB2)。そして、音種選択ルーチンにおいて選択された音種の数が0か否かを判定する(SB3)。その結果、選択された音種の数が0であった場合(SB3、Yes)、出力処理部34は、直前に実行した音種選択ルーチンでは適当な音種が選択されなかったものとし、その前回に実行した音種選択ルーチンにおいて選択された音種候補の中から最も優先順位が高い音種を、出力部20から出力させる音種として決定し(SB4)、メインルーチンに戻る。   Next, the output processing unit 34 executes a set sound type selection routine (SB2). Then, it is determined whether or not the number of sound types selected in the sound type selection routine is 0 (SB3). As a result, if the number of selected sound types is 0 (SB3, Yes), the output processing unit 34 assumes that an appropriate sound type has not been selected in the sound type selection routine executed immediately before. The sound type having the highest priority among the sound type candidates selected in the sound type selection routine executed last time is determined as the sound type to be output from the output unit 20 (SB4), and the process returns to the main routine.

一方、SB2で実行した音種選択ルーチンにおいて選択された音種の数が0でなかった場合(SB3、No)、出力処理部34は、音種選択ルーチンにおいて選択された音種の数が1か否かを判定する(SB5)。その結果、選択された音種の数が1であった場合(SB5、Yes)、出力処理部34は、現在選択されている音種を出力部20から出力させる音種として決定し(SB6)、メインルーチンに戻る。   On the other hand, when the number of sound types selected in the sound type selection routine executed in SB2 is not 0 (SB3, No), the output processing unit 34 determines that the number of sound types selected in the sound type selection routine is 1. Is determined (SB5). As a result, when the number of selected sound types is 1 (SB5, Yes), the output processing unit 34 determines the currently selected sound type as the sound type to be output from the output unit 20 (SB6). Return to the main routine.

また、音種選択ルーチンにおいて選択された音種の数が1でなかった場合(SB5、No)、出力処理部34は、次順の音種選択ルーチンがあるか否かを判定する(SB7)。その結果、全ての音種選択ルーチンを実行しており、次順の音種選択ルーチンがないと判定した場合(SB7、No)、現在選択されている音種候補の中で最も優先順位が高い音種を、出力部20から出力させる音種として決定し(SB8)、メインルーチンに戻る。   If the number of sound types selected in the sound type selection routine is not 1 (SB5, No), the output processing unit 34 determines whether there is a next sound type selection routine (SB7). . As a result, when all the sound type selection routines are executed and it is determined that there is no next sound type selection routine (SB7, No), the highest priority among the sound type candidates currently selected. The sound type is determined as the sound type to be output from the output unit 20 (SB8), and the process returns to the main routine.

一方、全ての音種選択ルーチンを実行しておらず、次順の音種選択ルーチンがあると判定した場合(SB7、Yes)、出力処理部34は出力部20から出力させる音種の候補を選択するための音種選択ルーチンとして、次順の音種選択ルーチンを設定する(SB9)。そして、SB2に戻り、SB9で設定した音種選択ルーチンを実行する(SB2)。   On the other hand, when not all the sound type selection routines are executed and it is determined that there is the next sound type selection routine (SB7, Yes), the output processing unit 34 selects sound type candidates to be output from the output unit 20. As the sound type selection routine for selection, the next sound type selection routine is set (SB9). Then, the process returns to SB2, and the sound type selection routine set in SB9 is executed (SB2).

ここで、各音種選択ルーチンについて説明する。図12は目標生理心理状態による音種選択ルーチンのフローチャート、図13は歩行者3の好みによる音種選択ルーチンのフローチャート、図14は出力履歴による音種選択ルーチンのフローチャート、図15は自然環境による音種選択ルーチンのフローチャートである。本実施の形態では、目標生理心理状態による音種選択ルーチン、好みによる音種選択ルーチン、出力履歴による音種選択ルーチン、自然環境による音種選択ルーチンの順に各音種選択ルーチンが実行される場合を例として説明する。   Here, each sound type selection routine will be described. 12 is a flowchart of a sound type selection routine based on the target physiological psychological state, FIG. 13 is a flowchart of a sound type selection routine based on the preference of the pedestrian 3, FIG. 14 is a flowchart of a sound type selection routine based on the output history, and FIG. It is a flowchart of a sound type selection routine. In the present embodiment, when the sound type selection routine is executed in the order of the sound type selection routine based on the target physiological state, the sound type selection routine based on preference, the sound type selection routine based on the output history, and the sound type selection routine based on the natural environment Will be described as an example.

まず、目標生理心理状態による音種選択ルーチンについて説明する。図12に示すように、目標生理心理状態による音種選択ルーチンが開始されると、出力処理部34は図10のSA3で特定した目標生理心理状態が「リラックス」か否かを判定する(SC1)。その結果、目標生理心理状態が「リラックス」である場合(SC1、Yes)、出力処理部34は目標心理−音種テーブル43を参照し、項目「目標心理」における「リラックス」に対応して項目「音種」に格納されている音種を出力部20から出力させる音種の候補として選択する(SC2)。図5の例では、目標心理「リラックス」に対応する音種として、「水たまり」「膝上までの水」「枯葉−乾燥」及び「枯葉−湿気」が選択される。   First, the sound type selection routine according to the target physiological state will be described. As shown in FIG. 12, when the sound type selection routine based on the target physiological state is started, the output processing unit 34 determines whether or not the target physiological state specified in SA3 of FIG. 10 is “relaxed” (SC1). ). As a result, when the target physiological psychological state is “relaxed” (SC1, Yes), the output processing unit 34 refers to the target psychological-sound type table 43 and corresponds to the item “relaxed” in the item “target psychological”. The sound type stored in “Sound Type” is selected as a sound type candidate to be output from the output unit 20 (SC2). In the example of FIG. 5, “puddle”, “water up to the knee”, “dead leaves-dry”, and “dead leaves-humidity” are selected as the sound types corresponding to the target psychology “relaxation”.

一方、目標生理心理状態が「リラックス」ではない場合(SC1、No)、出力処理部34は図10のSA3で特定した目標生理心理状態が「緊張」であるか否かを判定する(SC3)。その結果、目標生理心理状態が「緊張」である場合(SC3、Yes)、出力処理部34は目標心理−音種テーブル43を参照し、項目「目標心理」における「緊張」に対応して項目「音種」に格納されている音種を出力部20から出力させる音種の候補として選択する(SC4)。図5の例では、目標心理「緊張」に対応する音種として、「鉄板」及び「古い板張り」が選択される。   On the other hand, when the target physiological state is not “relaxed” (SC1, No), the output processing unit 34 determines whether or not the target physiological state specified in SA3 of FIG. 10 is “tension” (SC3). . As a result, when the target physiological psychological state is “tension” (SC3, Yes), the output processing unit 34 refers to the target psychology-sound type table 43, and corresponds to the item “tension” in the item “target psychology”. The sound type stored in “Sound Type” is selected as a sound type candidate to be output from the output unit 20 (SC4). In the example of FIG. 5, “iron plate” and “old boarding” are selected as the sound types corresponding to the target psychology “tension”.

また、目標生理心理状態が「緊張」ではない場合(SC3、No)、すなわち目標生理心理状態が「普通」である場合は、出力処理部34は目標心理−音種テーブル43を参照し、項目「目標心理」における「普通」に対応して項目「音種」に格納されている音種を出力部20から出力させる音種の候補として選択する(SC5)。図5の例では、目標心理「普通」に対応する音種として、「草むら」「玉石」及び「雪」が選択される。   When the target physiological psychological state is not “tension” (SC3, No), that is, when the target physiological psychological state is “normal”, the output processing unit 34 refers to the target psychological-sound type table 43 and sets the item. The sound type stored in the item “sound type” corresponding to “normal” in “target psychology” is selected as a sound type candidate to be output from the output unit 20 (SC5). In the example of FIG. 5, “Kusamura”, “Tamaishi”, and “Snow” are selected as the sound types corresponding to the target psychology “normal”.

SC2、SC4、又はSC5の処理において、出力部20から出力させる音種の候補を選択した後、出力処理部34は選択した音種の候補を優先順位の高い順(優先順位IDの昇順)にソートし(SC6)、図11の音種決定処理に戻る。このように、目標生理心理状態による音種選択ルーチンにより、歩行者3の生理心理状態を目標生理心理状態に誘導するために適した音種が選択される。   In the processing of SC2, SC4, or SC5, after selecting a sound type candidate to be output from the output unit 20, the output processing unit 34 selects the selected sound type candidates in descending order of priority (ascending order of priority ID). Sorting is performed (SC6), and the process returns to the sound type determination process of FIG. In this way, a sound type suitable for inducing the physiological psychological state of the pedestrian 3 to the target physiological psychological state is selected by the sound type selection routine based on the target physiological psychological state.

次に、歩行者3の好みによる音種選択ルーチンについて説明する。図13に示すように、歩行者3の好みによる音種選択ルーチンが開始されると、出力処理部34は歩行者3に対応して記憶部40に格納されている好み−音種テーブル44を参照し、項目「好み」における「好き」及び「普通」に対応して項目「音種」に格納されている音種を、出力部20から出力させる音種の候補として選択する(SD1)。例えば、図12の目標生理心理状態による音種選択ルーチンの結果、目標心理「リラックス」に対応する音種として「水たまり」「膝上までの水」「枯葉−乾燥」及び「枯葉−湿気」が音種候補として選択されていた場合、これらの音種候補のうち、図6に例示した好み−音種テーブル44の項目「好み」における「好き」及び「普通」に対応して項目「音種」に格納されている音種である「枯葉−乾燥」及び「枯葉−湿気」が音種候補として選択される。すなわち、歩行者3にとって嫌いな音種である「水たまり」及び「膝上までの水」が候補から除外される。これにより、歩行者3に不快な感情を想起させる音の出力を回避することができる。なお、例えば図10のSA2において歩行者3の識別情報を取得した場合、当該識別情報に対応して記憶部40に格納されている好み−音種テーブル44を参照することができる。   Next, a sound type selection routine according to the preference of the pedestrian 3 will be described. As shown in FIG. 13, when the sound type selection routine according to the preference of the pedestrian 3 is started, the output processing unit 34 stores the preference-sound type table 44 stored in the storage unit 40 corresponding to the pedestrian 3. The sound type stored in the item “sound type” corresponding to “like” and “normal” in the item “preference” is selected as a sound type candidate to be output from the output unit 20 (SD1). For example, as a result of the sound type selection routine based on the target physiological psychological state in FIG. 12, “puddle”, “water up to the knee”, “dead leaves-dry”, and “dead leaves-humidity” correspond to the sound types corresponding to the target psychology “relax”. When the sound type candidate is selected, among these sound type candidates, the item “sound type” corresponds to “like” and “normal” in the item “preference” of the preference-sound type table 44 illustrated in FIG. "Dead leaves-dry" and "Dead leaves-moisture", which are sound types stored in "," are selected as sound type candidates. That is, “puddle” and “water up to the knee”, which are sound types that the pedestrian 3 dislikes, are excluded from the candidates. Thereby, the output of the sound which reminds the pedestrian 3 of an unpleasant emotion can be avoided. For example, when the identification information of the pedestrian 3 is acquired in SA2 of FIG. 10, the preference-sound type table 44 stored in the storage unit 40 corresponding to the identification information can be referred to.

SD1において、出力部20から出力させる音種の候補を選択した後、出力処理部34は選択した音種の候補を優先順位の高い順(優先順位IDの昇順)にソートし(SD2)、図11の音種決定処理に戻る。   After selecting the sound type candidates to be output from the output unit 20 in SD1, the output processing unit 34 sorts the selected sound type candidates in descending order of priority (ascending order of priority IDs) (SD2). The process returns to the sound type determination process No. 11.

次に、出力履歴による音種選択ルーチンについて説明する。図14に示すように、出力履歴による音種選択ルーチンが開始されると、出力処理部34は履歴−音種DB45を参照し、音種候補として現在選択されている音種が過去に出力された日を特定する(SE1)。そして、音種の候補を、過去に出力されていない音種、出力日の古い順、優先順位の高い順にソートし(SE2)、図11の音種決定処理に戻る。例えば、図13の歩行者3の好みによる音種選択ルーチンの結果、「枯葉−乾燥」及び「枯葉−湿気」が音種候補として選択されていた場合、図7の履歴−音種DB45によれば、音種「枯葉−乾燥」は2008年10月18日に出力され、音種「枯葉−湿気」は2008年10月17日に出力されている。そこで、出力日の古い順、すなわち「枯葉−湿気」、「枯葉−乾燥」の順に音種候補をソートする。これにより、歩行者3にとって常に新鮮な音種の音を出力することができ、当該歩行者3の飽きを防止することができる。   Next, a sound type selection routine based on the output history will be described. As shown in FIG. 14, when the sound type selection routine based on the output history is started, the output processing unit 34 refers to the history-sound type DB 45, and the sound type currently selected as a sound type candidate is output in the past. The day is identified (SE1). Then, the sound type candidates are sorted in the order of the sound types that have not been output in the past, the oldest output date, and the highest priority (SE2), and the process returns to the sound type determination process of FIG. For example, when “dead leaves-dry” and “dead leaves-humidity” are selected as sound type candidates as a result of the sound type selection routine according to the preference of the pedestrian 3 in FIG. 13, the history-sound type DB 45 in FIG. For example, the sound type “dead leaves-dry” is output on October 18, 2008, and the sound type “dead leaves-humidity” is output on October 17, 2008. Therefore, the sound type candidates are sorted in the order of the output date, that is, “dead leaves-humidity”, “dead leaves-dry”. Thereby, the sound of a fresh sound type can always be output for the pedestrian 3, and the tiredness of the pedestrian 3 can be prevented.

次に、自然環境による音種選択ルーチンについて説明する。図15に示すように、自然環境による音種選択ルーチンが開始されると、出力処理部34は自然環境−音種テーブル46を参照し、音種候補として現在選択されている音種に対応する自然環境を特定する(SF1)。そして、例えば公知のネットワークを介して取得した時刻情報や天候情報に基づき、歩行者3が歩行している現在の季節や天気を特定し、音種の候補を、当該特定した現在の季節と同じ順、現在の天気と同じ順、優先順位の高い順にソートし(SF2)、図11の音種決定処理に戻る。例えば、図14の出力履歴による音種選択ルーチンの結果、「枯葉−湿気」及び「枯葉−乾燥」が音種候補として選択されていた場合、図8の自然環境−音種テーブル46によれば、音種「枯葉−湿気」に対応する季節は「秋」、天気は「雨」と特定される。また、音種「枯葉−乾燥」に対応する季節は「秋」、天気は「晴」と特定される。ここで、現在の季節が夏であり、天気が晴である場合、何れの音種候補も現在の季節には一致していないことから、現在の天気に一致する音種「枯葉−乾燥」、次に現在の天気に一致しない音種「枯葉−湿気」の順に音種候補をソートする。   Next, a sound type selection routine based on the natural environment will be described. As shown in FIG. 15, when the sound type selection routine based on the natural environment is started, the output processing unit 34 refers to the natural environment-sound type table 46 and corresponds to the sound type currently selected as the sound type candidate. The natural environment is specified (SF1). Then, for example, based on time information and weather information acquired via a known network, the current season and weather in which the pedestrian 3 is walking are identified, and the sound type candidates are the same as the identified current season. Sort in order, the same order as the current weather, and in descending order of priority (SF2), and return to the sound type determination process in FIG. For example, if “dead leaves-humidity” and “dead leaves-dry” are selected as sound type candidates as a result of the sound type selection routine based on the output history of FIG. 14, according to the natural environment-sound type table 46 of FIG. The season corresponding to the sound type “dead leaves-humidity” is identified as “autumn”, and the weather is identified as “rain”. In addition, the season corresponding to the sound type “dead leaves-dry” is specified as “autumn”, and the weather is “sunny”. Here, when the current season is summer and the weather is fine, since none of the sound type candidates matches the current season, the sound type “dead leaves-dry” that matches the current weather, Next, the sound type candidates are sorted in the order of the sound type “dead leaves-humidity” that does not match the current weather.

図11に戻り、このように、音種「枯葉−乾燥」、音種「枯葉−湿気」の順に音種候補が選択された状態で全ての音種選択ルーチンが実行され、次順の音種選択ルーチンが無い場合、図11のSB8において、出力処理部34は、現在選択されている音種候補の中で最も優先順位が高い音種である「枯葉−乾燥」を出力部20から出力させる音種として決定する。これにより、歩行者3の好み、各音種の出力履歴、及び自然環境を考慮した上で、当該歩行者3の生理心理状態を目標生理心理状態に誘導するために適当な音種を決定することができる。   Returning to FIG. 11, in this way, all sound type selection routines are executed in a state where the sound type candidates are selected in the order of the sound type “dead leaf-dry” and the sound type “dead leaf-humidity”, and the next sound type is selected. When there is no selection routine, in SB8 of FIG. 11, the output processing unit 34 causes the output unit 20 to output “dead leaves-dry”, which is the tone type having the highest priority among the currently selected tone type candidates. Determined as sound type. Thereby, after considering the preference of the pedestrian 3, the output history of each sound type, and the natural environment, an appropriate sound type is determined in order to induce the physiological state of the pedestrian 3 to the target physiological state. be able to.

図10に戻り、SA5で音種決定処理を実行し、出力部20から出力させる音種を決定した後、出力処理部34は、SA4で特定した目標歩調が「維持」か否かを判定する(SA6)。その結果、目標歩調が「維持」であった場合(SA6、Yes)、現在歩行状態特定部31は、歩行者3の現在の歩調及び位置を取得する(SA7)。例えば、現在歩行状態特定部31は、歩行者3の足の接地を検出した接地センサ11からの入力に基づき、歩行者3の足の接地の時間間隔を特定し、当該特定した時間間隔から歩行者3の現在の歩調(例えば一分当りの歩数)を特定する。   Returning to FIG. 10, after performing the sound type determination process in SA5 and determining the sound type to be output from the output unit 20, the output processing unit 34 determines whether or not the target pace specified in SA4 is “maintained”. (SA6). As a result, when the target pace is “maintained” (SA6, Yes), the current walking state identification unit 31 acquires the current pace and position of the pedestrian 3 (SA7). For example, the current walking state identification unit 31 identifies the time interval of the ground contact of the pedestrian 3 based on the input from the ground sensor 11 that detects the ground contact of the pedestrian 3 and walks from the identified time interval. The current pace of the person 3 (for example, the number of steps per minute) is specified.

そして、出力処理部34は、現在歩行状態特定部31が特定した歩行者3の現在の歩調と一致するタイミングで、SA5で決定した音種の音を出力部20から出力させる(SA8)。例えば、出力処理部34は、予め記憶部40に記憶されている音種「枯葉−乾燥」に対応する音のデータを取得し、接地センサ11からの入力に基づいて特定される歩行者3の足の接地と同じタイミングで出力部20から出力させる。このように、乾燥した枯葉を踏む音によって歩行者3の生理心理状態をリラックスした状態に誘導できると共に、足の接地に呼応して音が出力されることによる心地よさによっても、当該歩行者3の生理心理状態をリラックスした状態に誘導することができる。   Then, the output processing unit 34 causes the output unit 20 to output the sound of the sound type determined in SA5 at a timing that coincides with the current pace of the pedestrian 3 specified by the current walking state specifying unit 31 (SA8). For example, the output processing unit 34 acquires sound data corresponding to the sound type “dead leaves-drying” stored in the storage unit 40 in advance, and the pedestrian 3 identified based on the input from the ground sensor 11. Output from the output unit 20 at the same timing as the grounding of the foot. In this way, the physiology and psychological state of the pedestrian 3 can be guided to a relaxed state by the sound of stepping on the dried dead leaves, and the pedestrian 3 is also affected by the comfort of the sound output in response to the grounding of the foot. Can be induced to a relaxed state.

その後、出力処理部34は、SA7で現在歩行状態特定部31が特定した歩行者3の現在位置と、SA2で行き先取得部32が取得した歩行者3の行き先とが一致したか否かを判定する(SA9)。その結果、歩行者3の現在位置と行き先とが一致していない場合(SA9、No)、歩行者3は行き先に到着していないとし、現在歩行状態特定部31は、再度歩行者3の現在の歩調及び位置を取得する(SA7)。   Thereafter, the output processing unit 34 determines whether or not the current position of the pedestrian 3 specified by the current walking state specifying unit 31 in SA7 matches the destination of the pedestrian 3 acquired by the destination acquisition unit 32 in SA2. (SA9). As a result, when the current position of the pedestrian 3 and the destination do not match (SA9, No), it is assumed that the pedestrian 3 has not arrived at the destination, and the current walking state specifying unit 31 again determines the current position of the pedestrian 3. The pace and position are acquired (SA7).

一方、歩行者3の現在位置と行き先とが一致している場合(SA9、Yes)、歩行者3が行き先に到着したものとし、出力処理部34は出力部20からの音の出力を終了させる(SA10)。   On the other hand, when the current position of the pedestrian 3 matches the destination (SA9, Yes), it is assumed that the pedestrian 3 has arrived at the destination, and the output processing unit 34 ends the output of the sound from the output unit 20. (SA10).

また、SA6の処理において、SA4で特定した目標歩調が「維持」でないと判定した場合(SA6、No)、すなわち目標歩調が「速」又は「遅」であった場合、出力処理部34は引き込み出力処理を実行する(SA11)。   In the process of SA6, when it is determined that the target pace specified in SA4 is not “maintain” (SA6, No), that is, when the target pace is “fast” or “slow”, the output processing unit 34 pulls in. Output processing is executed (SA11).

ここで、引き込み出力処理について説明する。この引き込み出力処理は、歩行者3の歩調を目標歩調に引き込むように出力部20から音の出力(引き込み出力)を行わせる処理である。図16から図18は引き込み出力処理のフローチャートである。   Here, the pull-in output process will be described. This pull-in output process is a process for outputting sound (pull-out output) from the output unit 20 so as to pull the pace of the pedestrian 3 into the target pace. 16 to 18 are flowcharts of the pull-in output process.

図16に示すように、引き込み出力処理が開始されると、出力処理部34は出力部20からの引き込み出力に対する歩行者3の慣らしを開始する慣らし開始時刻として、現在時刻を設定する(SG1)。   As shown in FIG. 16, when the pull-in output process is started, the output processing unit 34 sets the current time as a break-in start time for starting habituation of the pedestrian 3 for the pull-in output from the output unit 20 (SG1). .

続いて、現在歩行状態特定部31は、歩行者3の現在の歩調及び位置を取得する(SG2)。次に、出力処理部34は、SG2で現在歩行状態特定部31が特定した歩行者3の現在位置と、図10のSA2で行き先取得部32が取得した歩行者3の行き先とが一致したか否かを判定する(SG3)。その結果、歩行者3の現在位置と行き先とが一致していない場合(SG3、No)、歩行者3は行き先に到着していないとし、出力処理部34は、現在歩行状態特定部31が特定した歩行者3の現在の歩調と一致するタイミングで、図10のSA5で決定した音種の音を出力部20から出力させる(SG4)。   Subsequently, the current walking state identification unit 31 acquires the current pace and position of the pedestrian 3 (SG2). Next, the output processing unit 34 determines whether the current position of the pedestrian 3 specified by the current walking state specifying unit 31 in SG2 matches the destination of the pedestrian 3 acquired by the destination acquisition unit 32 in SA2 of FIG. It is determined whether or not (SG3). As a result, when the current position of the pedestrian 3 and the destination do not match (SG3, No), the pedestrian 3 has not arrived at the destination, and the output processing unit 34 specifies the current walking state specifying unit 31. The sound of the sound type determined in SA5 of FIG. 10 is output from the output unit 20 at a timing that matches the current pace of the pedestrian 3 (SG4).

次に、出力処理部34は、SG1で設定した慣らし開始時刻から現在時刻までの時間が、予め設定されている所定時間Xよりも長いか否かを判定する(SG5)。そして、慣らし開始時刻から現在時刻までの時間がXより長くない場合(X以下である場合)(SG5、No)、SG2に戻り、現在歩行状態特定部31が、歩行者3の現在の歩調及び位置を再度取得する(SG2)。一方、慣らし開始時刻から現在時刻までの時間がXより長い場合(SG5、Yes)、出力部20からの引き込み出力に対する歩行者3の慣らしが完了したものとし、出力処理部34は、図10のSA4で特定した目標歩調が「速」か否かを判定する(SG6)。   Next, the output processing unit 34 determines whether the time from the break-in start time set in SG1 to the current time is longer than a predetermined time X set in advance (SG5). When the time from the break-in start time to the current time is not longer than X (when X is equal to or less than X) (SG5, No), the process returns to SG2, and the current walking state identification unit 31 determines the current pace of the pedestrian 3 and The position is acquired again (SG2). On the other hand, when the time from the break-in start time to the current time is longer than X (SG5, Yes), it is assumed that the pedestrian 3 breaks in with respect to the pull-in output from the output unit 20, and the output processing unit 34 It is determined whether or not the target pace specified in SA4 is “speed” (SG6).

その結果、目標歩調が「速」であった場合(SG6、Yes)、出力処理部34は、歩行者3の現在歩調に基づき出力部20から音を出力させるタイミングを特定するための係数αを1.05に設定する(SG7)。一方、目標歩調が「速」ではなかった場合(目標歩調が「遅」であった場合)(SG6、No)、出力処理部34は係数αを0.95に設定する(SG8)。   As a result, when the target pace is “fast” (SG6, Yes), the output processing unit 34 determines the coefficient α for specifying the timing for outputting the sound from the output unit 20 based on the current pace of the pedestrian 3. Set to 1.05 (SG7). On the other hand, when the target pace is not “fast” (when the target pace is “slow”) (SG6, No), the output processing unit 34 sets the coefficient α to 0.95 (SG8).

SG7又はSG8の処理の後、出力処理部34は、出力部20から音を出力させるタイミング(以下「中間出力歩調」と表記する)を、「現在歩調×α」として特定する(SG9)。例えば、SG2で特定した現在歩調が60歩/分であり、SG7において係数αが1.05に設定された場合、中間出力歩調=60×1.05=63歩/分となる。   After the processing of SG7 or SG8, the output processing unit 34 specifies the timing (hereinafter referred to as “intermediate output pace”) at which sound is output from the output unit 20 as “current pace × α” (SG9). For example, when the current pace specified by SG2 is 60 steps / minute and the coefficient α is set to 1.05 in SG7, the intermediate output pace = 60 × 1.05 = 63 steps / minute.

続いて、図17に進み、出力処理部34は上下限歩調決定テーブル47を参照し、SG9で特定した中間出力歩調が、歩行者3の属性に対応する下限歩調より大きく、且つ上限歩調より小さいか否かを判定する(SG10)。例えば、図10のSA2において歩行者3の識別情報を取得した場合、当該識別情報に対応付けて記憶部40に予め記憶されている歩行者3の性別及び年齢を特定し、当該特定した性別及び年齢に対応して上下限歩調決定テーブル47に格納されている上下限歩調を特定することができる。例えば、歩行者3が30歳の男性である場合、上限歩調は90歩/分、下限歩調は50歩/分となる。   Subsequently, referring to FIG. 17, the output processing unit 34 refers to the upper / lower limit pace determination table 47, and the intermediate output pace specified in SG9 is larger than the lower limit pace corresponding to the attribute of the pedestrian 3 and smaller than the upper limit pace. Is determined (SG10). For example, when the identification information of the pedestrian 3 is acquired in SA2 in FIG. 10, the gender and age of the pedestrian 3 stored in advance in the storage unit 40 in association with the identification information are identified, and the identified gender and The upper and lower limit paces stored in the upper and lower limit pace determination table 47 can be specified corresponding to the age. For example, when the pedestrian 3 is a 30-year-old man, the upper limit pace is 90 steps / minute and the lower limit pace is 50 steps / minute.

その結果、中間出力歩調が、歩行者3の属性に対応する下限歩調より大きく、且つ上限歩調より小さい場合(SG10、Yes)、出力処理部34は、歩行者3の歩調を中間出力歩調に引き込み可能とし、引き込み開始時刻として現在時刻を設定し(SG11)、引き込み開始時の歩調として現在歩調を設定する(SG12)。   As a result, when the intermediate output pace is larger than the lower limit step corresponding to the attribute of the pedestrian 3 and smaller than the upper limit step (SG10, Yes), the output processing unit 34 pulls the pedestrian 3's step into the intermediate output step. The current time is set as the pull-in start time (SG11), and the current step is set as the step at the start of pull-in (SG12).

続いて、出力処理部34は、中間出力歩調に対応するタイミングで、図10のSA5で決定した音種の音を出力部20から出力させる(SG13)。   Subsequently, the output processing unit 34 causes the output unit 20 to output the sound of the sound type determined in SA5 of FIG. 10 at a timing corresponding to the intermediate output pace (SG13).

例えば、図10のSA3で特定した目標生理心理状態が「リラックス」、SA4で特定した目標歩調が「遅」であり、SA5で決定した音種が「枯葉−乾燥」、図16のSG2で特定した現在歩調が60歩/分、及びSG9で特定した中間出力歩調が60×0.95=57歩/分である場合、出力処理部34は、予め記憶部40に記憶されている音種「枯葉−乾燥」に対応する音のデータを取得し、当該取得した音を中間出力歩調に対応する57歩/分のタイミングで出力部20から出力させる。これにより、乾燥した枯葉の音によって歩行者3の気分をリラックスさせると共に、現在歩調よりもゆっくりとした音の出力タイミングに歩行者3の歩調を引き込み、徐々に歩調を遅らせて当該歩行者3の気分をリラックスさせることが可能となる。   For example, the target physiological psychological state specified in SA3 in FIG. 10 is “relaxed”, the target pace specified in SA4 is “slow”, the sound type determined in SA5 is “dead leaves-dry”, and specified in SG2 in FIG. When the current step is 60 steps / minute and the intermediate output step specified by SG9 is 60 × 0.95 = 57 steps / minute, the output processing unit 34 stores the sound type “ Sound data corresponding to “dead leaves-drying” is acquired, and the acquired sound is output from the output unit 20 at a timing of 57 steps / minute corresponding to the intermediate output pace. As a result, the mood of the pedestrian 3 is relaxed by the sound of the dry dead leaves, and the pace of the pedestrian 3 is drawn into the output timing of the sound slower than the current pace, and the pace of the pedestrian 3 is gradually delayed. It becomes possible to relax the mood.

また、図10のSA3で特定した目標生理心理状態が「緊張」、SA4で特定した目標歩調が「速」であり、SA5で決定した音種が「鉄板」、図16のSG2で特定した現在歩調が60歩/分、及びSG9で特定した中間出力歩調が60×1.05=63歩/分である場合、出力処理部34は、予め記憶部40に記憶されている音種「鉄板」に対応する音のデータを取得し、当該取得した音を中間出力歩調に対応する63歩/分のタイミングで出力部20から出力させる。これにより、鉄板の音によって歩行者3の気分を緊張させると共に、現在歩調よりも速い音の出力タイミングに歩行者3の歩調を引き込み、徐々に歩調を速めて当該歩行者3の気分を高揚させることが可能となる。   Further, the target physiological psychological state specified in SA3 in FIG. 10 is “tension”, the target pace specified in SA4 is “fast”, the sound type determined in SA5 is “iron plate”, and the current specified in SG2 in FIG. When the step is 60 steps / minute and the intermediate output step specified by SG9 is 60 × 1.05 = 63 steps / minute, the output processing unit 34 stores the sound type “iron plate” stored in the storage unit 40 in advance. And the output unit 20 outputs the acquired sound at a timing of 63 steps / minute corresponding to the intermediate output pace. As a result, the mood of the pedestrian 3 is tensioned by the sound of the iron plate, and the pace of the pedestrian 3 is drawn into the output timing of the sound faster than the current pace, and the pace of the pedestrian 3 is gradually increased to enhance the mood of the pedestrian 3. It becomes possible.

続いて、現在歩行状態特定部31は、歩行者3の現在の歩調及び位置を取得する(SG14)。次に、出力処理部34は、SG14で現在歩行状態特定部31が特定した歩行者3の現在位置と、図10のSA2で行き先取得部32が取得した歩行者3の行き先とが一致したか否かを判定する(SG15)。その結果、歩行者3の現在位置と行き先とが一致していない場合(SG15、No)、歩行者3は行き先に到着していないとし、出力処理部34は、SG14で現在歩行状態特定部31が特定した現在歩調と、SG9で出力処理部34が特定した中間出力歩調とが一致したか否かを判定する(SG16)。   Subsequently, the current walking state identification unit 31 acquires the current pace and position of the pedestrian 3 (SG14). Next, the output processing unit 34 matches the current position of the pedestrian 3 specified by the current walking state specifying unit 31 in SG14 and the destination of the pedestrian 3 acquired by the destination acquisition unit 32 in SA2 of FIG. It is determined whether or not (SG15). As a result, when the current position of the pedestrian 3 and the destination do not match (SG15, No), it is determined that the pedestrian 3 has not arrived at the destination, and the output processing unit 34 determines the current walking state specifying unit 31 in SG14. It is determined whether or not the current pace specified by and the intermediate output pace specified by the output processing unit 34 in SG9 match (SG16).

その結果、現在歩調と中間出力歩調とが一致した場合(SG16、Yes)、歩行者3の歩調を中間出力歩調まで引き込むことができたものとし、出力部20から出力させる音の音量を増加させると共に、制御対象領域における照明(図示省略)の照度を増加させる(SG17)。この音量及び照度の増加により、歩行者3が目標歩調にて歩行を行っていることを当該歩行者3に提示し、目標歩調に追随して歩行することへのモチベーション増加を図ることができる。その後、図16のSG1に戻り、出力処理部34は出力部20からの引き込み出力に対する歩行者3の慣らしを再度開始する。   As a result, when the current pace and the intermediate output pace match (SG16, Yes), it is assumed that the pace of the pedestrian 3 can be drawn to the intermediate output pace, and the volume of the sound output from the output unit 20 is increased. At the same time, the illuminance of illumination (not shown) in the control target area is increased (SG17). By increasing the volume and illuminance, it is possible to present the pedestrian 3 that the pedestrian 3 is walking at the target pace, and to increase motivation to walk following the target pace. Thereafter, the process returns to SG1 in FIG.

また、図17のSG16において、現在歩調と中間出力歩調とが一致していない場合(SG16、No)、図18に進み、出力処理部34は、SG11で設定した引き込み開始時刻から現在時刻までの時間が、予め設定されている所定時間Yよりも短いか否かを判定する(SG18)。その結果、引き込み開始時刻から現在時刻までの時間がYよりも短い場合(SG18、Yes)、図17のSG13に戻り、出力処理部34は、図10のSA5で決定した音種の音を中間出力歩調に対応するタイミングで出力部20から出力させる(SG13)。   Further, in SG16 of FIG. 17, when the current pace and the intermediate output pace do not match (SG16, No), the process proceeds to FIG. 18, and the output processing unit 34 from the pull-in start time set in SG11 to the current time. It is determined whether the time is shorter than a predetermined time Y set in advance (SG18). As a result, when the time from the pull-in start time to the current time is shorter than Y (SG18, Yes), the process returns to SG13 in FIG. 17, and the output processing unit 34 intermediates the sound of the sound type determined in SA5 in FIG. Output from the output unit 20 at a timing corresponding to the output pace (SG13).

一方、引き込み開始時刻から現在時刻までの時間がYよりも短くない場合(SG18、No)、あるいは、図17のSG10で中間出力歩調が歩行者3の属性に対応する下限歩調以下、又は上限歩調以上であった場合(SG10、No)、出力処理部34は、歩行者3の歩調を中間出力歩調に引き込むことが困難とし、現在歩調を中間出力歩調として再設定する(SG19)。その後、出力処理部34は、SG19で設定した中間出力歩調に対応するタイミングで、図10のSA5で決定した音種の音を出力部20から出力させる(SG20)。   On the other hand, when the time from the pull-in start time to the current time is not shorter than Y (SG18, No), or in SG10 of FIG. 17, the intermediate output pace is equal to or lower than the lower limit pace corresponding to the attribute of the pedestrian 3, or the upper limit pace. When it is above (SG10, No), the output processing unit 34 makes it difficult to draw the pace of the pedestrian 3 into the intermediate output pace, and resets the current pace as the intermediate output pace (SG19). Thereafter, the output processing unit 34 causes the output unit 20 to output the sound of the sound type determined in SA5 of FIG. 10 at the timing corresponding to the intermediate output pace set in SG19 (SG20).

続いて、現在歩行状態特定部31は、歩行者3の現在の歩調及び位置を取得する(SG21)。次に、出力処理部34は、SG21で現在歩行状態特定部31が特定した歩行者3の現在位置と、図10のSA2で行き先取得部32が取得した歩行者3の行き先とが一致したか否かを判定する(SG22)。その結果、歩行者3の現在位置と行き先とが一致していない場合(SG22、No)、歩行者3は行き先に到着していないとし、出力処理部34はSG19に戻り、SG21で現在歩行状態特定部31が特定した現在歩調を中間出力歩調として再設定する(SG19)。   Subsequently, the current walking state identification unit 31 acquires the current pace and position of the pedestrian 3 (SG21). Next, the output processing unit 34 determines whether the current position of the pedestrian 3 specified by the current walking state specifying unit 31 in SG21 matches the destination of the pedestrian 3 acquired by the destination acquisition unit 32 in SA2 of FIG. It is determined whether or not (SG22). As a result, when the current position of the pedestrian 3 and the destination do not match (SG22, No), the pedestrian 3 has not arrived at the destination, the output processing unit 34 returns to SG19, and the current walking state in SG21 The current step specified by the specifying unit 31 is reset as the intermediate output step (SG19).

また、図16のSG2で現在歩行状態特定部31が特定した歩行者3の現在位置と、図10のSA2で行き先取得部32が取得した歩行者3の行き先とが一致した場合(SG3、Yes)、図17のSG14で現在歩行状態特定部31が特定した歩行者3の現在位置と歩行者3の行き先とが一致した場合(SG15、Yes)、及び図18のSG21で現在歩行状態特定部31が特定した歩行者3の現在位置と歩行者3の行き先とが一致した場合(SG22、Yes)、図16に戻り、出力処理部34は、照明照度を通常の照度に復帰させ(SG23)、出力部20からの音の出力を終了させ(SG24)、メインルーチンに戻る。   In addition, when the current position of the pedestrian 3 specified by the current walking state specifying unit 31 in SG2 of FIG. 16 matches the destination of the pedestrian 3 acquired by the destination acquisition unit 32 in SA2 of FIG. 10 (SG3, Yes ), When the current position of the pedestrian 3 identified by the current walking state identification unit 31 in SG14 of FIG. 17 matches the destination of the pedestrian 3 (SG15, Yes), and the current walking state identification unit in SG21 of FIG. When the current position of the pedestrian 3 identified by 31 matches the destination of the pedestrian 3 (SG22, Yes), the process returns to FIG. 16 and the output processing unit 34 returns the illumination illuminance to the normal illuminance (SG23). The sound output from the output unit 20 is terminated (SG24), and the process returns to the main routine.

図10に戻り、SA10で出力部20からの音の出力を終了させた後、又はSA11で引き込み出力処理を実行した後、SA1に戻り、現在歩行状態特定部31は歩行者3の有無を判定する(SA1)。以降、同様にSA1からSA11の処理を所定の周期で繰り返し実行する。   Returning to FIG. 10, after finishing the output of the sound from the output unit 20 in SA10 or executing the pull-in output process in SA11, the process returns to SA1, and the current walking state specifying unit 31 determines the presence or absence of the pedestrian 3 (SA1). Thereafter, similarly, the processing from SA1 to SA11 is repeatedly executed at a predetermined cycle.

(効果)
このように実施の形態によれば、歩行者3の行き先に基づいて適切な目標生理心理状態を特定することができる。さらに、目標生理心理状態に歩行者3を誘導するための歩行環境を特定し、現在歩行状態特定部31が特定した現在歩調に基づき、歩行者3の歩行環境を当該特定した歩行環境とするための出力を行うので、歩行者3を所望の歩行状態に誘導し、当該歩行者3の生理心理状態を目標とする状態に誘導することができる。
(effect)
Thus, according to the embodiment, it is possible to specify an appropriate target physiological psychological state based on the destination of the pedestrian 3. Furthermore, in order to identify the walking environment for guiding the pedestrian 3 to the target physiological psychological state, and to set the walking environment of the pedestrian 3 as the identified walking environment based on the current pace specified by the current walking state specifying unit 31. Therefore, the pedestrian 3 can be guided to a desired walking state, and the physiological and psychological state of the pedestrian 3 can be guided to a target state.

特に、歩行者3の行き先を特定するための行き先情報を取得し、当該行き先情報に対応する行き先に関連付けて格納されている目標生理心理状態を目標心理テーブル41から取得し、当該取得した目標生理心理状態を歩行者3の目標生理心理状態として特定するので、歩行者3に適した目標生理心理状態をより正確に特定することができる。   In particular, the destination information for specifying the destination of the pedestrian 3 is acquired, the target physiological psychological state stored in association with the destination corresponding to the destination information is acquired from the target psychological table 41, and the acquired target physiological Since the psychological state is specified as the target physiological psychological state of the pedestrian 3, the target physiological psychological state suitable for the pedestrian 3 can be specified more accurately.

また、現在歩行状態特定部31は歩行者3の現在の歩調を特定するので、歩行者3の歩調を介して当該歩行者3の生理心理状態を目標とする状態に誘導することができる。   Moreover, since the present walking state specific | specification part 31 specifies the present step of the pedestrian 3, it can be induced | guided | derived to the state which makes the target the physiological state of the said pedestrian 3 through the step of the pedestrian 3.

また、出力部20に音を出力させるので、歩行者3の音環境を制御することができ、歩行者3の聴覚を通じて当該歩行者3を所望の歩行状態に誘導し、目標とする生理心理状態に誘導することができる。   Moreover, since the output unit 20 outputs a sound, the sound environment of the pedestrian 3 can be controlled, and the physiology and psychological state targeted by guiding the pedestrian 3 to a desired walking state through the hearing of the pedestrian 3. Can be guided to.

また、出力処理部34は、出力する音の種別を音環境として特定するので、歩行者3の生理心理状態を目標生理心理状態に誘導するために適当な音種を特定し、当該音種の音によって歩行者3の生理心理状態を目標生理心理状態に誘導することができる。   Further, since the output processing unit 34 specifies the type of sound to be output as the sound environment, the output processing unit 34 specifies an appropriate sound type in order to induce the physiological psychological state of the pedestrian 3 to the target physiological psychological state, and The physiological psychological state of the pedestrian 3 can be guided to the target physiological psychological state by sound.

また、出力処理部34は、現在歩行状態特定部31が特定した現在歩行状態に基づき音を出力するタイミングを、音環境として特定するので、音の出力タイミングに歩行者3の歩調を引き込み、歩行状態の変化を介して当該歩行者3の生理心理状態を目標生理心理状態に誘導することができる。   In addition, the output processing unit 34 specifies the sound output timing as the sound environment based on the current walking state specified by the current walking state specifying unit 31. The physiological state of the pedestrian 3 can be guided to the target physiological state through the change of state.

〔III〕実施の形態に対する変形例
以上、実施の形態について説明したが、本発明の具体的な構成及び手段は、特許請求の範囲に記載した各発明の技術的思想の範囲内において、任意に改変及び改良することができる。以下、このような変形例について説明する。
[III] Modifications to Embodiments Although the embodiment has been described above, the specific configuration and means of the present invention are arbitrary within the scope of the technical idea of each invention described in the claims. Modifications and improvements can be made. Hereinafter, such a modification will be described.

(解決しようとする課題や発明の効果について)
まず、発明が解決しようとする課題や発明の効果は、前記した内容に限定されるものではなく、発明の実施環境や構成の細部に応じて異なる可能性があり、上述した課題の一部のみを解決したり、上述した効果の一部のみを奏することがある。さらに、本発明によって、上述していない課題を解決したり、上述していない効果を奏することもある。
(About problems to be solved and effects of the invention)
First, the problems to be solved by the invention and the effects of the invention are not limited to the above contents, and may vary depending on the implementation environment of the invention and the details of the configuration, and only a part of the problems described above. May be solved, or only some of the effects described above may be achieved. Furthermore, according to the present invention, problems not described above may be solved or effects not described above may be achieved.

(分散や統合について)
また、上述した各電気的構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成できる。例えば、複数の入力部10や出力部20を、ネットワークを介して処理部30と相互に通信可能に接続してもよい。
(About distribution and integration)
Further, each of the electrical components described above is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each part is not limited to the one shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads and usage conditions. Can be configured. For example, a plurality of input units 10 and output units 20 may be connected to the processing unit 30 via a network so that they can communicate with each other.

(適用対象について)
上述の実施の形態では、オフィス2における歩行環境の制御に歩行環境制御システム1を適用した場合を例示したが、商業施設、公園、病院、公共施設等、任意の歩行環境の制御に歩行環境制御システム1を適用することもできる。例えば、商業施設への入口近傍を歩行環境制御システム1の制御対象領域とし、現在歩行状態特定部31により歩行者3の現在位置が商業施設への進入路内であると特定された場合、目標生理心理状態を「リラックス」とし、現在位置が商業施設への進入路外であると特定された場合、目標生理心理状態を「普通」とする。これにより、歩行者3の興味を商業施設に向かう方向に引き付けることができ、当該歩行者3を商業施設へと誘導することができる。また、歩行者3を誘導する方向を歩行者3の属性に基づいて変化させたり(例えば、歩行者3が女性の場合は商業施設に向かう方向、男性の場合は娯楽施設に向かう方向等)、全歩行者中の一定の割合の歩行者3を当該歩行者3の属性や希望とは無関係に所定方向に向かわせたりすることができる。また、歩行者3の気分を高揚させるような音を足の接地タイミングに合わせて出力することにより、歩行者3の購買意欲の促進に資することができる。
(Applicable items)
In the above-described embodiment, the case where the walking environment control system 1 is applied to the control of the walking environment in the office 2 is exemplified. However, the walking environment control is used to control an arbitrary walking environment such as a commercial facility, a park, a hospital, or a public facility. The system 1 can also be applied. For example, when the vicinity of the entrance to the commercial facility is set as a control target area of the walking environment control system 1 and the current walking state specifying unit 31 determines that the current position of the pedestrian 3 is within the approach path to the commercial facility, the target When the physiological psychological state is “relaxed” and the current position is specified to be out of the approach path to the commercial facility, the target physiological psychological state is “normal”. Thereby, the interest of the pedestrian 3 can be attracted in the direction toward the commercial facility, and the pedestrian 3 can be guided to the commercial facility. In addition, the direction in which the pedestrian 3 is guided is changed based on the attribute of the pedestrian 3 (for example, a direction toward a commercial facility when the pedestrian 3 is a woman, a direction toward an amusement facility when the pedestrian 3 is a man), A certain percentage of the pedestrians 3 among all the pedestrians can be directed in a predetermined direction regardless of the attributes and wishes of the pedestrians 3. Moreover, the sound which raises the mood of the pedestrian 3 can be contributed to promotion of the purchase will of the pedestrian 3 by outputting according to the ground contact timing of a foot | leg.

また、歩行者3の行き先を、歩行者3の属性、歩行者3により公知の入力手段を介して事前に入力された希望の行き先、あるいは歩行者3とは切り離された基準等に基づいて特定してもよい。例えば、行き先情報を格納する行き先情報格納手段を備え、行き先取得部32は、必要に応じて当該行き先情報格納手段に格納された行き先情報を参照することで、歩行者3の行き先を特定できる。   Further, the destination of the pedestrian 3 is specified based on the attribute of the pedestrian 3, the desired destination input in advance by the pedestrian 3 through a known input means, or a standard separated from the pedestrian 3. May be. For example, a destination information storage unit that stores destination information is provided, and the destination acquisition unit 32 can identify the destination of the pedestrian 3 by referring to the destination information stored in the destination information storage unit as necessary.

(生理心理状態について)
上述の実施の形態では、歩行者3の生理心理状態を「リラックス」「普通」「緊張」の3種類に分類したが、他の基準によって生理心理状態を分類してもよい。例えば、「執務中向き」「出社時向き」「情報消化向き」「長期休憩向き」等、業務の場面を基準として生理心理状態を分類してもよい。あるいは、「心地よさ」の程度に応じて、生理心理状態を複数段階に分類してもよい。
(About physiological psychological state)
In the above-described embodiment, the physiological psychological state of the pedestrian 3 is classified into three types of “relaxed”, “normal”, and “tension”, but the physiological psychological state may be classified according to other criteria. For example, the physiological and psychological states may be classified on the basis of work scenes, such as “for working,” “for going to work,” “for information digestion”, and “for long-term rest”. Alternatively, the physiological psychological state may be classified into a plurality of stages according to the degree of “comfort”.

(現在歩行状態の特定について)
上述の実施の形態では、現在歩行状態特定部31は歩行者3の現在の歩調及び位置を取得すると説明したが、他の情報を取得してもよい。例えば、歩行者3の心拍数、ホルモン分泌、皮膚電位、体表面温度、呼吸間隔、まばたき数等の生体情報を測定してもよい。さらに、これらの情報に基づき、歩行者3の現在の生理心理状態を特定してもよい。これにより、例えば歩行者3の現在の生理心理状態が目標生理心理状態と一致しているか否か等を判断することができる。
(About identification of the current walking state)
In the above-described embodiment, it has been described that the current walking state specifying unit 31 acquires the current pace and position of the pedestrian 3, but other information may be acquired. For example, biological information such as the heart rate, hormone secretion, skin potential, body surface temperature, breathing interval, and blinking number of the pedestrian 3 may be measured. Furthermore, you may identify the present physiological and psychological state of the pedestrian 3 based on such information. Thereby, for example, it can be determined whether or not the current physiological state of the pedestrian 3 matches the target physiological state.

(目標心理テーブルについて)
実施の形態では、目標心理テーブル41は、歩行者3の行き先と、歩行者3の生理心理状態を誘導する目標としての目標生理心理状態とを、相互に関連付けて格納すると説明したが、行き先以外の歩行者3の属性と目標生理心理状態とを相互に関連付けて格納してもよい。例えば、歩行者3の嗜好と目標生理心理状態とを相互に関連付けて格納してもよい。この場合、現在歩行状態特定部31が特定した歩行者3の現在位置が、当該歩行者3の嗜好に合致する店舗の近傍である場合に、目標生理心理状態を「緊張」状態とするような制御を行うことができ、当該歩行者3の購買意欲を刺激することも可能である。
(About the target psychology table)
In the embodiment, the target psychological table 41 has been described as storing the destination of the pedestrian 3 and the target physiological psychological state as a target for guiding the physiological psychological state of the pedestrian 3 in association with each other. The attribute of the pedestrian 3 and the target physiological psychological state may be stored in association with each other. For example, the preference of the pedestrian 3 and the target physiological psychological state may be stored in association with each other. In this case, when the current position of the pedestrian 3 specified by the current walking state specifying unit 31 is in the vicinity of the store that matches the preference of the pedestrian 3, the target physiological psychological state is set to the “tension” state. Control can be performed, and it is also possible to stimulate the pedestrian 3's willingness to purchase.

(接地センサについて)
上述の実施の形態では、接地センサ11として赤外線遮蔽センサを用いる場合を例に挙げて説明したが、他の手段を用いることもできる。例えば、床面近傍に設けたレーザーレンジファインダ等の距離センサを用いて歩行者3の足の接地を検出することができる。あるいは、床面に埋設した圧力センサを用いて、歩行者3の足から当該床面に加えられた圧力を検出することにより、歩行者3の足の接地を検出することができる。あるいは、カメラ12を用いて撮影した床面近傍の画像情報を公知の画像解析技術を用いて解析することにより、歩行者3の足の接地を検出することもできる。
(About ground sensor)
In the above-described embodiment, the case where an infrared shielding sensor is used as the ground sensor 11 has been described as an example. However, other means may be used. For example, the ground contact of the pedestrian 3 can be detected using a distance sensor such as a laser range finder provided near the floor. Alternatively, by detecting the pressure applied to the floor surface from the foot of the pedestrian 3 using a pressure sensor embedded in the floor surface, the grounding of the foot of the pedestrian 3 can be detected. Alternatively, the contact of the foot of the pedestrian 3 can be detected by analyzing the image information of the vicinity of the floor surface photographed using the camera 12 using a known image analysis technique.

(出力部について)
上述の実施の形態では、出力部20は音を出力すると説明したが、歩行者3の歩行環境に影響を与える他の出力を行わせてもよい。例えば、床に埋設されたアクチュエータを用いて、振動を出力させてもよい。すなわち、歩行者3の足の接地タイミングに合わせて床を振動させてもよい。さらに、制御対象領域に設置された照明やプロジェクタを用いて、歩行者3の周囲の明るさを変化させたり、歩行者3の視界範囲内に映像を表示させてもよい。これにより、歩行者3の振動環境や視覚環境を制御することができ、歩行者3の触覚や視覚を通じて当該歩行者3を所望の歩行状態に誘導し、目標とする生理心理状態に誘導することができる。
(About the output section)
In the above-described embodiment, it has been described that the output unit 20 outputs sound, but other output that affects the walking environment of the pedestrian 3 may be performed. For example, vibration may be output using an actuator embedded in the floor. That is, the floor may be vibrated in accordance with the ground contact timing of the foot of the pedestrian 3. Furthermore, the brightness around the pedestrian 3 may be changed using a lighting or projector installed in the control target area, or an image may be displayed within the view range of the pedestrian 3. Thereby, the vibration environment and visual environment of the pedestrian 3 can be controlled, and the pedestrian 3 is guided to a desired walking state through the haptic sense and visual sense of the pedestrian 3, and is guided to a target physiological psychological state. Can do.

(出力部が出力する音について)
上述の実施の形態では、出力部20が出力する音として「枯葉」「水たまり」「鉄板」等を例示したが、その他の音を出力させてもよい。例えば、電子音、雷、楽器等の音を出力させてもよい。
(About the sound output by the output unit)
In the above-described embodiment, “dead leaves”, “puddle”, “iron plate”, and the like are exemplified as sounds output from the output unit 20, but other sounds may be output. For example, sounds such as electronic sounds, lightning, and musical instruments may be output.

この発明に係る歩行環境制御システムは、歩行環境を制御し、目標とする生理心理状態に歩行者を誘導することができる、歩行環境制御システムに有用である。   The walking environment control system according to the present invention is useful for a walking environment control system capable of controlling a walking environment and guiding a pedestrian to a target physiological psychological state.

1 歩行環境制御システム
2 オフィス
2a 第1空間
2b 第2空間
2c 第3空間
3 歩行者
10 入力部
11 接地センサ
12 カメラ
20 出力部
30 処理部
31 現在歩行状態特定部
32 行き先取得部
33 目標生理心理状態特定部
34 出力処理部
40 記憶部
41 目標心理テーブル
42 目標歩調テーブル
43 目標心理−音種テーブル
44 好み−音種テーブル
45 履歴−音種DB
46 自然環境−音種テーブル
47 上下限歩調決定テーブル
DESCRIPTION OF SYMBOLS 1 Walking environment control system 2 Office 2a 1st space 2b 2nd space 2c 3rd space 3 Pedestrian 10 Input part 11 Grounding sensor 12 Camera 20 Output part 30 Processing part 31 Current walk state specific | specification part 32 Destination acquisition part 33 Target physiological psychology State specifying unit 34 Output processing unit 40 Storage unit 41 Target psychology table 42 Target pace table 43 Target psychology-sound type table 44 Preference-sound type table 45 History-sound type DB
46 Natural environment-sound type table 47 Upper / lower limit step determination table

Claims (6)

歩行者の行き先と、当該歩行者の生理心理状態を誘導する目標としての目標生理心理状態とを、相互に関連づけて格納する目標生理心理状態格納手段と、
歩行者の行き先を所定方法で取得する行き先取得手段と、
前記行き先取得手段が取得した行き先に関連付けて格納されている目標生理心理状態を前記目標生理心理状態格納手段から取得し、当該取得した目標生理心理状態を前記歩行者の目標生理心理状態として特定する、目標生理心理状態特定手段と、
前記歩行者の歩行動作を検出することにより、当該歩行者の現在の歩行に関する現在歩行状態を特定する、現在歩行状態特定手段と、
前記目標生理心理状態特定手段が特定した目標生理心理状態に前記歩行者を誘導するための歩行環境を特定し、前記現在歩行状態特定手段が特定した現在歩行状態に基づき、前記歩行者の歩行環境を前記特定した歩行環境とするための出力を行う出力手段と、
を備えた歩行環境制御システム。
A target physiological and psychological state storage means for storing a destination of a pedestrian and a target physiological and psychological state as a target for inducing the physiological and psychological state of the pedestrian;
A destination acquisition means for acquiring the destination of the pedestrian by a predetermined method;
The target physiological psychological state stored in association with the destination acquired by the destination acquisition means is acquired from the target physiological psychological state storage means, and the acquired target physiological psychological state is specified as the target physiological psychological state of the pedestrian. , A target physiological psychological state specifying means,
A current walking state identification means for identifying a current walking state relating to the current walking of the pedestrian by detecting the walking motion of the pedestrian;
A walking environment for guiding the pedestrian to the target physiological state specified by the target physiological state is specified, and the walking environment of the pedestrian is determined based on the current walking state specified by the current walking state specification unit. Output means for making the specified walking environment an output,
A walking environment control system.
前記行き先取得手段は、
前記歩行者の行き先を特定するための行き先情報を取得し、
前記目標生理心理状態特定手段は、
前記行き先取得手段が取得した行き先情報に対応する行き先に関連付けて格納されている目標生理心理状態を前記目標生理心理状態格納手段から取得し、当該取得した目標生理心理状態を前記歩行者の目標生理心理状態として特定する、
請求項1に記載の歩行環境制御システム。
The destination acquisition means is
Obtaining destination information for identifying the destination of the pedestrian,
The target physiological psychological state specifying means includes
The target physiological psychological state stored in association with the destination corresponding to the destination information acquired by the destination acquisition means is acquired from the target physiological psychological state storage means, and the acquired target physiological psychological state is the target physiological of the pedestrian. Identify as psychological state,
The walking environment control system according to claim 1.
前記現在歩行状態特定手段は、前記歩行者の現在の歩調を特定する、
請求項1又は2に記載の歩行環境制御システム。
The current walking state specifying means specifies the current pace of the pedestrian,
The walking environment control system according to claim 1 or 2.
前記出力手段は、前記歩行環境として音環境を特定し、前記歩行者の音環境を当該特定した音環境とするための音を出力する、
請求項1から3のいずれか一項に記載の歩行環境制御システム。
The output means specifies a sound environment as the walking environment, and outputs a sound for setting the sound environment of the pedestrian as the specified sound environment.
The walking environment control system according to any one of claims 1 to 3.
前記出力手段は、出力する音の種別を前記音環境として特定する、
請求項4に記載の歩行環境制御システム。
The output means specifies the type of sound to be output as the sound environment;
The walking environment control system according to claim 4.
前記出力手段は、前記現在歩行状態特定手段が特定した現在歩行状態に基づき前記音を出力するタイミングを、前記音環境として特定する、
請求項4又は5に記載の歩行環境制御システム。
The output means specifies the timing of outputting the sound based on the current walking state specified by the current walking state specifying means as the sound environment.
The walking environment control system according to claim 4 or 5.
JP2009123869A 2009-05-22 2009-05-22 Walking environment control system Active JP5396151B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009123869A JP5396151B2 (en) 2009-05-22 2009-05-22 Walking environment control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009123869A JP5396151B2 (en) 2009-05-22 2009-05-22 Walking environment control system

Publications (2)

Publication Number Publication Date
JP2010270516A true JP2010270516A (en) 2010-12-02
JP5396151B2 JP5396151B2 (en) 2014-01-22

Family

ID=43418755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009123869A Active JP5396151B2 (en) 2009-05-22 2009-05-22 Walking environment control system

Country Status (1)

Country Link
JP (1) JP5396151B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2972431B2 (en) * 1992-01-29 1999-11-08 株式会社河合楽器製作所 Sound generator
JP2003205009A (en) * 2001-03-23 2003-07-22 Osaka Gas Co Ltd Generator for environmental information for bathroom

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2972431B2 (en) * 1992-01-29 1999-11-08 株式会社河合楽器製作所 Sound generator
JP2003205009A (en) * 2001-03-23 2003-07-22 Osaka Gas Co Ltd Generator for environmental information for bathroom

Also Published As

Publication number Publication date
JP5396151B2 (en) 2014-01-22

Similar Documents

Publication Publication Date Title
JP7102510B2 (en) How to detect danger situations and their systems
JP6719535B2 (en) Information processing system, server system, information processing program, and information processing method
Camurri et al. Multimodal analysis of expressive gesture in music and dance performances
JP5863423B2 (en) Information processing apparatus, information processing method, and program
RU2560340C2 (en) Computer-aided generation of target image
US20050187437A1 (en) Information processing apparatus and method
CN113532464A (en) Control method, personal authentication apparatus, and recording medium
KR20150099430A (en) Electronic device
Saarikallio et al. Dance moves reflect current affective state illustrative of approach–avoidance motivation.
CN104991464B (en) A kind of information processing method and control system
JP5396151B2 (en) Walking environment control system
KR102241705B1 (en) Apparatus and method for detecting action based on multi-modal
Mandradjieff Reimaging Human Bodies and Death with Vibrant (Dark) Matters and Puppetry
JP2020065097A (en) Electronic device control method, electronic device control system, electronic device, and program
JP2020042557A (en) Excitement promotion system
JP7082543B2 (en) Karaoke equipment
US20240233777A1 (en) Information processing apparatus, information processing method, information processing program, and information processing system
WO2022153977A1 (en) Control method, program, and robot
Hacker Have steps, will travel: on stage, gypsies
JP2023109640A (en) Information processing device, information processing method, and program
CN117492562A (en) Exhibition hall control method, system and storage medium combined with intelligent wearing
Rogoff Reimagining Modern Classics
Billing The Emperor's New Clothes: Review of Titus Andronicus (directed by Yukio Ninagawa) at the Royal Shakespeare Theatre, June 2006
Braund Dervish Sound Dress; a development of a musical interface garment which explores wearable technology using sound and haptic feedback for performance and interaction SMC 2018
KR20160030664A (en) Emotion information determination device and method for determining emotion information of the non-verbal expression

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131021

R150 Certificate of patent or registration of utility model

Ref document number: 5396151

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150