JP2012185632A - Electronic apparatus, processing system, and processing program - Google Patents

Electronic apparatus, processing system, and processing program Download PDF

Info

Publication number
JP2012185632A
JP2012185632A JP2011047748A JP2011047748A JP2012185632A JP 2012185632 A JP2012185632 A JP 2012185632A JP 2011047748 A JP2011047748 A JP 2011047748A JP 2011047748 A JP2011047748 A JP 2011047748A JP 2012185632 A JP2012185632 A JP 2012185632A
Authority
JP
Japan
Prior art keywords
processing
unit
input
sensor
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011047748A
Other languages
Japanese (ja)
Inventor
Kazuyoshi Takahashi
和敬 高橋
Mami Muratani
真美 村谷
Naoto Yamada
直人 山田
Shinjiro Muraki
伸次郎 村木
Yuya Adachi
裕也 阿達
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011047748A priority Critical patent/JP2012185632A/en
Priority to CN201280011645.4A priority patent/CN103430125B/en
Priority to PCT/JP2012/052994 priority patent/WO2012120959A1/en
Priority to US13/983,923 priority patent/US20140067204A1/en
Publication of JP2012185632A publication Critical patent/JP2012185632A/en
Priority to US15/912,254 priority patent/US20180194279A1/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus which performs appropriate processing according to a movement of a target person.SOLUTION: An electronic apparatus comprises: a first input unit (31) for inputting a detection result by a biometric sensor (21) which detects change in biological information of a target person; a second input unit (32) for inputting a recognition result by a recognition devices (13, 23, 33) which recognize a movement of the target person; and a processing unit (40) for performing processing according to the movement of the target person based on input results in the first and second input units.

Description

本発明は、電子機器、処理システム及び処理プログラムに関する。   The present invention relates to an electronic device, a processing system, and a processing program.

ユーザがカメラに向かってジェスチャーを行なうことで機器を操作するインターフェース装置が提案されている(例えば、特許文献1)。   An interface device has been proposed in which a user operates a device by making a gesture toward a camera (for example, Patent Document 1).

特開2004−246856号公報JP 2004-246856 A

しかしながら、従来のインターフェース装置では、ユーザが行った動作がジェスチャーかどうか必ずしも正確に判定することができなかった。   However, the conventional interface device cannot always accurately determine whether the action performed by the user is a gesture.

そこで本発明は上記の課題に鑑みてなされたものであり、対象者の動作に応じた適切な処理を行うことが可能な電子機器、処理システム及び処理プログラムを提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide an electronic device, a processing system, and a processing program capable of performing appropriate processing according to the operation of the subject.

本発明の電子機器は、対象者の生体情報の変化を検出する生体センサ(21)の検出結果を入力する第1入力部(31)と、前記対象者の動作を認識する認識装置(13,23,33)の認識結果を入力する第2入力部(32)と、前記第1、第2入力部の入力結果に基づいて、前記対象者の動作に応じた処理を行う処理部(40)と、を備える電子機器(19)である。   An electronic apparatus according to the present invention includes a first input unit (31) for inputting a detection result of a biological sensor (21) that detects a change in biological information of a subject, and a recognition device (13, 13) that recognizes the operation of the subject. 23, 33) a second input unit (32) for inputting the recognition result, and a processing unit (40) for performing processing according to the operation of the subject based on the input results of the first and second input units. And an electronic device (19).

この場合において、前記認識装置は、異なる複数のセンサを有し、前記処理部は、前記第1入力部への生体情報の変化の入力がない場合でも、前記第2入力部が入力する前記複数のセンサの認識結果に基づいて、前記対象者の動作に応じた処理を行うことができる。   In this case, the recognition device includes a plurality of different sensors, and the processing unit inputs the plurality of inputs that the second input unit inputs even when there is no input of changes in biological information to the first input unit. Based on the recognition result of the sensor, it is possible to perform processing according to the movement of the subject.

また、前記複数のセンサは、撮像装置と、接触式のセンサとを含み、前記接触式のセンサが対象者の動作を認識したときに、前記撮像装置による撮像を行う制御部(40)を備えることができる。この場合、前記撮像装置は、前記接触式のセンサよりも上方に設けられていることとしてもよい。   The plurality of sensors includes an imaging device and a contact-type sensor, and includes a control unit (40) that performs imaging by the imaging device when the contact-type sensor recognizes an action of a subject. be able to. In this case, the imaging device may be provided above the contact sensor.

また、本発明の電子機器では、前記認識装置の少なくとも一部は、前記生体センサの近傍に設けられていることとしてもよい。また、前記処理部は、前記対象者に向けて音を出力するスピーカ(15)により、音を出力する処理を行うこととしてもよく、前記スピーカは、限られた方向に前記音を出力する指向性スピーカであることとしてもよい。   In the electronic device of the present invention, at least a part of the recognition device may be provided in the vicinity of the biometric sensor. The processing unit may perform a process of outputting a sound by a speaker (15) that outputs a sound toward the target person, and the speaker is directed to output the sound in a limited direction. It may be a sexual speaker.

また、本発明の電子機器では、前記処理部は、音声を入力する音声入力装置(16)から、前記対象者が発する音声を受け付けることとすることができる。この場合、前記音声入力装置から受け付けた音声を識別する音声識別部(34)を備えることとしてもよい。   Moreover, in the electronic device of the present invention, the processing unit can accept a voice uttered by the subject from a voice input device (16) that inputs voice. In this case, it is good also as providing the audio | voice identification part (34) which identifies the audio | voice received from the said audio | voice input apparatus.

また、本発明の電子機器は、前記対象者の生体情報が変化している時間と、前記対象者の動作が認識されている時間と、を計時する計時部(20)を備え、前記処理部は、前記入力結果と、前記計時部の計時結果と、に応じた処理を実行することとしてもよい。また、前記対象者が、移動可能な移動装置(50)内に存在する場合、前記処理部は、前記移動装置の動きを検出する検出装置(11)の検出結果を考慮して、前記処理を行うこととしてもよい。   Moreover, the electronic device of the present invention includes a time measuring unit (20) that measures a time when the biological information of the subject changes and a time when the operation of the subject is recognized, and the processing unit May execute processing according to the input result and the timing result of the timing unit. In addition, when the target person exists in the movable mobile device (50), the processing unit performs the processing in consideration of the detection result of the detection device (11) that detects the movement of the mobile device. It may be done.

本発明の処理システムは、対象者の生体情報の変化を検出する生体センサ(21)と、前記対象者の動作を認識する認識装置(13,23,33)と、本発明の電子機器(19)と、を備える処理システム(100)である。   The processing system of the present invention includes a biological sensor (21) for detecting a change in biological information of a subject, a recognition device (13, 23, 33) for recognizing the motion of the subject, and an electronic device (19) of the present invention. And a processing system (100).

本発明の処理プログラムは、対象者の生体情報の変化を検出する生体センサ(21)の検出結果を入力する第1入力工程と、前記対象者の動作を認識する認識装置(13,23,33)の認識結果を入力する第2入力工程と、前記第1、第2入力工程の入力結果に基づいて、前記対象者の動作に応じた処理を行う処理工程と、をコンピュータ(90)に実行させる処理プログラムである。   The processing program of the present invention includes a first input step for inputting a detection result of the biosensor (21) for detecting a change in the biometric information of the subject, and a recognition device (13, 23, 33 for recognizing the motion of the subject. ) To the computer (90), the second input step for inputting the recognition result of), and the processing step for performing processing according to the action of the subject based on the input results of the first and second input steps. Is a processing program to be executed.

なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。   In addition, in order to explain the present invention in an easy-to-understand manner, the above description has been made in association with the reference numerals of the drawings representing one embodiment. However, the present invention is not limited to this, and the configuration of an embodiment described later is provided. May be modified as appropriate, or at least a part thereof may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at a position where the function can be achieved.

本発明の電子機器、処理システム及び処理プログラムは、対象者の動作に応じた適切な処理を行うことができるという効果を奏する。   The electronic device, the processing system, and the processing program of the present invention have an effect of being able to perform appropriate processing according to the operation of the subject.

一実施形態に係るトラブル対応システムの構成を概略的に示す図である。It is a figure showing roughly the composition of the trouble response system concerning one embodiment. トラブル対応システムの電車内への実装例を示す図である。It is a figure which shows the example of mounting in the train of a trouble handling system. つり革に設けられた圧力センサ及び生体センサを示す図である。It is a figure which shows the pressure sensor and biological sensor which were provided in the strap. リファレンス画像の一例を示す図である。It is a figure which shows an example of a reference image. 電子機器のハードウェア構成図である。It is a hardware block diagram of an electronic device. 電子機器の機能ブロック図である。It is a functional block diagram of an electronic device. トラブル対応システム(電子機器の処理・制御部)の処理を示すフローチャートである。It is a flowchart which shows the process of a trouble response system (process and control part of an electronic device).

以下、一実施形態に係るトラブル対応システム100について詳細に説明する。図1は、トラブル対応システム100の概略構成を示すブロック図である。図1に示すように、トラブル対応システム100は、処理装置19と、本体部12と、生体センサ21と、圧電センサ13と、圧力センサ23と、車両センサ11と、空調部29と、タイマー20と、フラッシュメモリ30と、を備える。   Hereinafter, the trouble handling system 100 according to an embodiment will be described in detail. FIG. 1 is a block diagram showing a schematic configuration of the trouble handling system 100. As shown in FIG. 1, the trouble handling system 100 includes a processing device 19, a main body 12, a biosensor 21, a piezoelectric sensor 13, a pressure sensor 23, a vehicle sensor 11, an air conditioning unit 29, and a timer 20. And a flash memory 30.

図2にはトラブル対応システム100の実装例が示されている。この図2に示すように、本実施形態では、トラブル対応システム100は、電車50内に設けられるものとする。例えば、処理装置19や本体部12は、電車50の天井部に設けられ、圧電センサ13は、電車50の床面に設けられる。また、生体センサ21や圧力センサ23は、電車50内のつり革22(図3参照)に設けられる。更に、その他の装置についても電車50内に設けられるものとする。   FIG. 2 shows an implementation example of the trouble handling system 100. As shown in FIG. 2, in this embodiment, the trouble handling system 100 is provided in a train 50. For example, the processing device 19 and the main body 12 are provided on the ceiling of the train 50, and the piezoelectric sensor 13 is provided on the floor of the train 50. In addition, the living body sensor 21 and the pressure sensor 23 are provided on the straps 22 (see FIG. 3) in the train 50. Furthermore, it is assumed that other devices are also provided in the train 50.

本体部12は、図1に示すように、撮像部14、スピーカ15、マイク16、LED(Light Emitting Diode)18、及び駆動装置9を有する。本体部12は、各装置を1つのユニットとして構成してもよいが、少なくとも1つの装置を分離配置することとしてもよい。   As shown in FIG. 1, the main body unit 12 includes an imaging unit 14, a speaker 15, a microphone 16, an LED (Light Emitting Diode) 18, and a driving device 9. In the main body 12, each device may be configured as one unit, but at least one device may be separately arranged.

撮像部14は、撮影レンズ、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、及び撮像素子を制御する制御回路などを有する。撮像部14は、前述のように電車50の天井部に設けられているので、主に、乗客の頭部を撮像する。また、撮像部14は、乗客が天井の方向を見たときに当該乗客の顔を撮像する。なお、撮像部14が主に頭部を撮像するのは、乗客のプライバシーを守るためである。   The imaging unit 14 includes an imaging lens, an imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), a control circuit that controls the imaging device, and the like. Since the imaging unit 14 is provided on the ceiling of the train 50 as described above, the imaging unit 14 mainly images the passenger's head. Moreover, the imaging part 14 images the said passenger's face, when a passenger looks at the direction of a ceiling. The reason why the imaging unit 14 mainly images the head is to protect passenger privacy.

スピーカ15は、車内でトラブルが発生した際にトラブルを抑制するためのアナウンスをしたり、乗客に問いかけてトラブルが発生しているかどうかを確認するためのものである。スピーカ15は、処理装置19(処理・制御部40(図6参照))からの指示に基づいて、例えば“大丈夫ですか”、“落ち着いて下さい”などといった音声合成技術を用いて合成された音声を出力する。スピーカ15としては、種々のスピーカを用いることができるが、例えば、超音波トランスデューサを有し、限られた方向のみに音声を伝達する指向性スピーカや超指向性スピーカを用いることができる。指向性のあるスピーカを用いた場合、車両全体ではなく、トラブルが起きている付近に向けて音声を発することができる。   The speaker 15 is used for making an announcement for suppressing a trouble when a trouble occurs in the vehicle, and for asking a passenger whether the trouble has occurred. The speaker 15 is synthesized based on an instruction from the processing device 19 (the processing / control unit 40 (see FIG. 6)) using, for example, a speech synthesis technique such as “Is it all right” or “Please calm down”. Is output. Various speakers can be used as the speaker 15. For example, a directional speaker or a superdirectional speaker that has an ultrasonic transducer and transmits sound only in a limited direction can be used. When a directional speaker is used, a voice can be emitted not to the entire vehicle but to the vicinity where the trouble occurs.

マイク16は、車内の音声を集音するものである。マイク16では、例えば、トラブル時に乗客から発せられる“助けて”や“キャー”などの音声を集音し、処理装置19(処理・制御部40)に入力する。   The microphone 16 collects sound in the vehicle. For example, the microphone 16 collects voices such as “help” and “car” uttered by passengers in the event of trouble and inputs them to the processing device 19 (processing / control unit 40).

LED18は、トラブルが発生している付近に向けて光を照射するものであり、トラブルが発生していることを周りの乗客や駅員などに知らせるものである。   The LED 18 emits light toward the vicinity where the trouble is occurring, and informs the passengers, station staff, and the like that the trouble is occurring.

駆動装置9は、例えばボイスコイルモータ等を含み、撮像部14、スピーカ15、マイク16及びLED18の位置・姿勢の調節を行うものである。   The drive device 9 includes, for example, a voice coil motor, and adjusts the position and orientation of the imaging unit 14, the speaker 15, the microphone 16, and the LED 18.

上述のように構成される本体部12は、車両毎に1台もしくは複数台設けることができる(図2では、2台の場合を図示している)。本体部12を何台設けるかは、例えば、撮像部14の撮像領域に応じて(車両全体を撮像できるように)決定することができる。   One or a plurality of main body portions 12 configured as described above can be provided for each vehicle (in FIG. 2, the case of two units is illustrated). The number of the main body units 12 provided can be determined according to the imaging region of the imaging unit 14 (so that the entire vehicle can be imaged), for example.

圧電センサ13は、ピエゾ素子を有し、外部から与えられた力を圧電効果により電圧に変換することで、振動を電気的に検出するものである。多数の圧電センサ13を車両内の全域をカバーするように配置すれば、車両内のどの位置において振動が生じているかを検出することができる。   The piezoelectric sensor 13 has a piezo element, and electrically detects vibration by converting an externally applied force into a voltage by a piezoelectric effect. If a large number of piezoelectric sensors 13 are arranged so as to cover the entire area in the vehicle, it is possible to detect at which position in the vehicle the vibration is generated.

例えば、車両内の女性が複数の男性に囲まれて困っており、床(圧電センサ13)を何回か強く踏んだとする。この場合、圧電センサ13がその振動を検出して処理装置19(処理・制御部40)に当該検出結果を送信することで、処理装置19(処理・制御部40)ではトラブル発生の可能性及びその位置を検出することができる。なお、トラブルの検出方法の詳細については、後述する。   For example, it is assumed that a woman in a vehicle is in trouble with being surrounded by a plurality of men and has stepped strongly on the floor (piezoelectric sensor 13) several times. In this case, if the piezoelectric sensor 13 detects the vibration and transmits the detection result to the processing device 19 (processing / control unit 40), the processing device 19 (processing / control unit 40) may cause trouble. That position can be detected. The details of the trouble detection method will be described later.

タイマー20は、計時機能を有し、圧電センサ13が振動を検出した時間を計測するものである。例えば、タイマー20は、振動が5秒以上続けて検出された場合や、所定時間(例えば30秒)内に断続的に振動が検出された場合に、処理装置19(処理・制御部40)に対してその旨を通知する。   The timer 20 has a time measuring function and measures the time when the piezoelectric sensor 13 detects vibration. For example, when the vibration is detected continuously for 5 seconds or more, or when vibration is detected intermittently within a predetermined time (for example, 30 seconds), the timer 20 causes the processing device 19 (processing / control unit 40) to To that effect.

生体センサ21は、心拍数、血中酸素濃度、血圧などの生体情報を検出するものであり、図1に示すように、LED24、フォトセンサ25、発汗センサ26を有する。LED24、フォトセンサ25、発汗センサ26は、図3に示すように、電車50内に設けられるつり革22の手すり部分22aに設けられるものとする。具体的には、手すり部分22aには、LED24とフォトセンサ25が、交互に複数配置されるとともに、LED24とフォトセンサ25とを挟むように一対の発汗センサ26が設けられている。   The biological sensor 21 detects biological information such as heart rate, blood oxygen concentration, blood pressure, and the like, and includes an LED 24, a photo sensor 25, and a sweat sensor 26 as shown in FIG. As shown in FIG. 3, the LED 24, the photosensor 25, and the sweat sensor 26 are provided on the handrail portion 22 a of the strap 22 provided in the train 50. Specifically, a plurality of LEDs 24 and photosensors 25 are alternately arranged on the handrail portion 22a, and a pair of sweating sensors 26 are provided so as to sandwich the LEDs 24 and the photosensors 25.

LED24とフォトセンサ25は、LED24の照射する光を指に当てたときに反射する光をフォトセンサ25で受光することにより心拍数や血中酸素濃度を検出する。発汗センサ26は、複数の電極により手のインピーダンスを測定して、発汗量を検出する。なお、LED24、フォトセンサ25、発汗センサ26の数や配置は適宜設定することができる。   The LED 24 and the photosensor 25 detect the heart rate and blood oxygen concentration by receiving light reflected by the photosensor 25 when the light emitted from the LED 24 is applied to the finger. The perspiration sensor 26 measures the impedance of the hand with a plurality of electrodes and detects the perspiration amount. The number and arrangement of the LEDs 24, photosensors 25, and sweating sensors 26 can be set as appropriate.

また、図3のつり革22の手すり部分22aには、圧力センサ23も設けられているものとする。圧力センサ23としては、歪センサを用いてもよいし、静電容量の変化から圧力を検出するセンサを用いてもよい。圧力センサ23は、乗客がつり革22につかまっていることを検出したり、あるいは、乗客がトラブルに巻き込まれた場合などにおいてつり革22を強く握るなどの通常と異なる握り方(ジェスチャー)をしたことを検出する。なお、圧力センサ23を設ける数や配置は適宜設定することができる。   Further, it is assumed that a pressure sensor 23 is also provided on the handrail portion 22a of the strap 22 shown in FIG. As the pressure sensor 23, a strain sensor may be used, or a sensor that detects pressure from a change in capacitance may be used. The pressure sensor 23 detects that the passenger is caught in the strap 22 or makes a different grip (gesture) such as strongly holding the strap 22 when the passenger is involved in trouble. Detect that. The number and arrangement of the pressure sensors 23 can be set as appropriate.

なお、本実施形態においては、図3に示すように生体センサ21の一部と、圧力センサ23を近接配置したが、別々に設けてもよく、また、これらを一つのユニットとしてもよい。なお、つり革22の位置は、予めわかっており、各つり革22の位置の情報は、フラッシュメモリ30等に格納されているものとする。   In the present embodiment, a part of the biosensor 21 and the pressure sensor 23 are arranged close to each other as shown in FIG. 3, but they may be provided separately or may be a single unit. It is assumed that the position of the strap 22 is known in advance, and the information on the position of each strap 22 is stored in the flash memory 30 or the like.

車両センサ11は、電車が走行、停止等することで生じる電車自体の振動を検出する振動センサを含む。また、車両センサ11は、車両内の温度を検出する温度センサを含んでいてもよい。車両センサ11の検出結果は、処理装置19(処理・制御部40)に対して送信される。   The vehicle sensor 11 includes a vibration sensor that detects vibration of the train itself that occurs when the train travels, stops, and the like. The vehicle sensor 11 may include a temperature sensor that detects the temperature inside the vehicle. The detection result of the vehicle sensor 11 is transmitted to the processing device 19 (processing / control unit 40).

空調部29は、車両内の空調を行なうものであり、本実施の形態においては、撮像部14により撮像された頭の数(すなわち乗客数)に基づいて、処理装置19(処理・制御部40)により制御される。   The air conditioning unit 29 performs air conditioning in the vehicle. In the present embodiment, the processing device 19 (processing / control unit 40) is based on the number of heads (that is, the number of passengers) imaged by the imaging unit 14. ).

フラッシュメモリ30は、各種データを記憶している不揮発性のメモリであり、本実施形態においては、フラッシュメモリ30には、乗客の頭を基準とした、手、足の位置を示すリファレンス画像が記憶されている。図4は、リファレンス画像の一例を示す図である。図4において、破線で囲まれた領域が、頭の位置を基準とした手の存在範囲(存在している可能性が高い範囲)であり、一点鎖線で囲まれた領域が、頭の位置を基準とした足の存在範囲である。   The flash memory 30 is a non-volatile memory that stores various data. In the present embodiment, the flash memory 30 stores a reference image indicating the positions of hands and feet with respect to the passenger's head. Has been. FIG. 4 is a diagram illustrating an example of a reference image. In FIG. 4, the area surrounded by the broken line is the presence range of the hand based on the position of the head (the range that is likely to exist), and the area surrounded by the alternate long and short dash line indicates the position of the head. It is the range of foot presence as a reference.

次に、処理装置19について、詳細に説明する。処理装置19は、トラブル対応システム100全体を制御するものであり、生体センサ21や圧電センサ13、圧力センサ23等の出力に基づいて、車両内でトラブルが発生しているかどうかの判断を行う。また、処理装置19は、トラブルが発生した際にトラブルが沈静化するような動作・処理を、本体部12等に行わせる。   Next, the processing device 19 will be described in detail. The processing device 19 controls the entire trouble handling system 100, and determines whether or not a trouble has occurred in the vehicle based on outputs from the biological sensor 21, the piezoelectric sensor 13, the pressure sensor 23, and the like. Further, the processing device 19 causes the main body unit 12 and the like to perform operations and processing that cause the trouble to calm down when trouble occurs.

図5には、処理装置19のハードウェア構成図が示されている。この図5に示すように、処理装置19は、CPU90、ROM92、RAM94、記憶部(ここではHDD(Hard Disk Drive))96等を備えており、処理装置19の構成各部は、バス98に接続されている。処理装置19では、ROM92あるいはHDD96に格納されている処理プログラムをCPU90が実行することにより、図6の各部の機能が実現される。   FIG. 5 shows a hardware configuration diagram of the processing device 19. As shown in FIG. 5, the processing device 19 includes a CPU 90, a ROM 92, a RAM 94, a storage unit (here, HDD (Hard Disk Drive)) 96, and the like, and each component of the processing device 19 is connected to a bus 98. Has been. In the processing device 19, the functions of each unit in FIG. 6 are realized by the CPU 90 executing the processing program stored in the ROM 92 or the HDD 96.

図6には、処理装置19の機能ブロック図が示されている。この図6に示すように、処理装置19は、CPU90が処理プログラムを実行することで、生体情報入力部31、動作情報入力部32、顔認識部33、音声認識部34、及び処理・制御部40としての機能を発揮する。   FIG. 6 shows a functional block diagram of the processing device 19. As shown in FIG. 6, the processing device 19 has a biological information input unit 31, an operation information input unit 32, a face recognition unit 33, a voice recognition unit 34, and a processing / control unit by the CPU 90 executing a processing program. The function as 40 is demonstrated.

生体情報入力部31には、生体センサ21において検出された検出結果が入力される。生体情報入力部31は、入力された情報を、処理・制御部40に対して出力する。   A detection result detected by the biometric sensor 21 is input to the biometric information input unit 31. The biological information input unit 31 outputs the input information to the processing / control unit 40.

動作情報入力部32には、圧電センサ13、圧力センサ23において検出された検出結果、及び後述する顔認識部33の認識結果が入力される。動作情報入力部32は、入力された情報を、処理・制御部40に対して出力する。   The operation information input unit 32 receives the detection results detected by the piezoelectric sensor 13 and the pressure sensor 23 and the recognition result of the face recognition unit 33 described later. The operation information input unit 32 outputs the input information to the processing / control unit 40.

顔認識部33は、撮像部14が撮像した画像を取得し、当該画像中の顔画像を検出するものである。顔認識部33は、目、鼻、口といった顔の特徴部分を画像として検出することにより顔と判定する。本実施形態においては、撮像部14が車両の天井部に設けられているため、顔認識部33は、撮像部14で撮像した画像に含まれる略円形状の画像が、頭部であるか、顔であるかを判別しているとも言える。また、顔認識部33は、頭部の動きを非接触にて検出するものでもある。なお、車内においては天井を見るために顔を動かすことが難しい状況もある。したがって、顔認識部33は、乗客があごを上げて額と目が撮像部14に撮像されたときに、顔の検出が行われたとするアルゴリズムを採用してもよい。   The face recognition unit 33 acquires an image captured by the imaging unit 14 and detects a face image in the image. The face recognition unit 33 determines a face by detecting facial features such as eyes, nose, and mouth as images. In the present embodiment, since the imaging unit 14 is provided on the ceiling of the vehicle, the face recognition unit 33 determines whether the substantially circular image included in the image captured by the imaging unit 14 is the head. It can also be said that the face is determined. The face recognition unit 33 also detects the movement of the head without contact. In some cases, it is difficult to move the face in the car to see the ceiling. Therefore, the face recognizing unit 33 may adopt an algorithm that the face is detected when the passenger raises his chin and the forehead and eyes are imaged by the imaging unit 14.

音声認識部34は、音声認識辞書を有しており、当該音声認識辞書を用いて、マイク16から入力された音声の識別を行う。本実施形態では、音声認識辞書には、“助けて”、“キャー”というような、非常時に発する音声が登録されているものとする。なお、マイク16から処理・制御部40に対しては、音声のみならず、集音された音声の大きさ(dB)も入力されるものとする。なお、図6では、音声認識部34に、マイク16から処理装置19に入力された音声が、処理・制御部40を介して入力されているが、これに限られるものではない。マイク16から音声認識部34に直接音声が入力されることとしてもよい。   The speech recognition unit 34 has a speech recognition dictionary, and identifies speech input from the microphone 16 using the speech recognition dictionary. In the present embodiment, it is assumed that a voice uttered in an emergency such as “help” or “car” is registered in the voice recognition dictionary. It is assumed that not only the voice but also the magnitude (dB) of the collected voice is input from the microphone 16 to the processing / control unit 40. In FIG. 6, the voice input from the microphone 16 to the processing device 19 is input to the voice recognition unit 34 via the processing / control unit 40, but is not limited thereto. A voice may be directly input from the microphone 16 to the voice recognition unit 34.

処理・制御部40は、処理装置19内部又は外部から入力される情報を用いて、各種処理を行ったり、処理装置19内部又は外部の装置の制御を行ったりする。例えば、処理・制御部40は、フラッシュメモリ30に記憶されているリファレンス画像を用いることで、顔認識部33で認識された頭又は顔の画像を基準として、生体センサ21、圧電センサ13、圧力センサ23の出力が同一人物(一人の乗客)からの出力であるかどうかを判別する。この場合、リファレンス画像を拡大、縮小、回転させて乗客とのパターンマッチングを行うことにより同一人物かどうかの判別を行うものとする。なお、処理・制御部40は、リファレンス画像の拡大、縮小を、頭の大きさに基づいて行うことができる。このようにするのは、頭の大きさに応じて体格が異なるためである。なお、処理・制御部40は、ジェスチャーを検出した圧力センサ23及び生体情報の変化を検出した生体センサ21の位置を、つり革22の位置情報(フラッシュメモリ30等に格納されている)に基づいて取得することができる。なお、リファレンス画像として男性用、女性用、子供用などをそれぞれの平均的な体格からフラッシュメモリ30に記憶させてもよい。   The processing / control unit 40 performs various processes using information input from inside or outside of the processing device 19 and controls devices inside or outside the processing device 19. For example, the processing / control unit 40 uses the reference image stored in the flash memory 30, so that the biometric sensor 21, the piezoelectric sensor 13, the pressure is detected based on the head or face image recognized by the face recognition unit 33. It is determined whether the output of the sensor 23 is an output from the same person (one passenger). In this case, it is determined whether or not they are the same person by enlarging, reducing, and rotating the reference image and performing pattern matching with the passenger. Note that the processing / control unit 40 can enlarge or reduce the reference image based on the size of the head. This is because the physique differs depending on the size of the head. The processing / control unit 40 determines the positions of the pressure sensor 23 that has detected the gesture and the biosensor 21 that has detected a change in the biometric information based on the position information of the strap 22 (stored in the flash memory 30 or the like). Can be obtained. Note that men, women, children, and the like may be stored in the flash memory 30 from their average physiques as reference images.

また、処理・制御部40は、生体センサ21や圧電センサ13、圧力センサ23の検出結果に基づいて、乗客が車内でトラブルに巻き込まれたか否かを判断する。ここで、トラブルに巻き込まれた乗客は、生体情報が変化したり、あるいは床を何回か踏むというジェスチャー(アクション)や、つり革22を強く握るというジェスチャー(アクション)や、顔を上げて天井を見るといったジェスチャー(アクション)を行う。また、トラブルに巻き込まれた乗客は、恐怖のあまりに足がガタガタ震えだしたり、つり革22を無意識に強くにぎることがあるため、乗客は無意識にジェスチャー(アクション)を行なうことができる。したがって、処理・制御部40は、生体センサ21や圧電センサ13、圧力センサ23、顔認識部33からの情報に基づいて、トラブルの発生の有無を判断することができる。なお、圧電センサ13、圧力センサ23、顔認識部33は、上記のようなジェスチャー(アクション)を検出しているので、ジェスチャー(アクション)検出部であるともいえる。以下においては、圧電センサ13、圧力センサ23、顔認識部33を纏めて、ジェスチャー検出部(13,23,33)と呼ぶものとする。   Further, the processing / control unit 40 determines whether or not the passenger is involved in a trouble in the vehicle based on the detection results of the biosensor 21, the piezoelectric sensor 13, and the pressure sensor 23. Here, the passenger involved in the trouble changes the biological information, or gestures (action) to step on the floor several times, gestures (action) to hold the strap 22 strongly, or raise the face to the ceiling Do gestures (actions) such as watching. In addition, the passenger involved in the trouble may shake his / her feet tremblingly or he / she may unconsciously and strongly grip the strap 22 so that the passenger can unconsciously perform a gesture (action). Therefore, the processing / control unit 40 can determine whether or not trouble has occurred based on information from the biological sensor 21, the piezoelectric sensor 13, the pressure sensor 23, and the face recognition unit 33. In addition, since the piezoelectric sensor 13, the pressure sensor 23, and the face recognition part 33 are detecting the above gestures (action), it can be said that they are gesture (action) detection parts. Hereinafter, the piezoelectric sensor 13, the pressure sensor 23, and the face recognition unit 33 are collectively referred to as a gesture detection unit (13, 23, 33).

また、処理・制御部40は、前述した本体部12を駆動する駆動装置9を制御して、トラブルが発生した場所に向けて、音声や光を発したり、トラブルが発生した場所で発せられる音声を集音する。更に、処理・制御部40は、生体センサ21や圧電センサ13、圧力センサ23、顔認識部33からの情報に基づいてトラブルが発生したと判断したタイミングで、マイク16などのスイッチをオンにする(通常はオフの状態が維持される)ような制御を行うこともできる。これにより、省エネルギー化を図ることができる。また、省エネルギー化の観点からすると、処理・制御部40は、つり革22に設けられたLED24やフォトセンサ25の近傍の圧力センサ23で、乗客がつり革につかまったことを検出している間だけ、LED24を発光させるようにしてもよい。   Further, the processing / control unit 40 controls the driving device 9 that drives the main body unit 12 to emit sound or light toward the place where the trouble has occurred, or the sound that is emitted at the place where the trouble has occurred. To collect sound. Furthermore, the processing / control unit 40 turns on a switch such as the microphone 16 at a timing when it is determined that a trouble has occurred based on information from the biological sensor 21, the piezoelectric sensor 13, the pressure sensor 23, and the face recognition unit 33. It is also possible to perform such control (normally the off state is maintained). Thereby, energy saving can be achieved. Further, from the viewpoint of energy saving, the processing / control unit 40 detects that the passenger is caught on the strap by the LED 24 provided on the strap 22 or the pressure sensor 23 near the photo sensor 25. Only the LED 24 may emit light.

次に、上述したように構成されるトラブル対応システム100の処理・動作について、図7のフローチャートに沿って説明する。   Next, the processing and operation of the trouble handling system 100 configured as described above will be described with reference to the flowchart of FIG.

図7の処理では、ステップS10において、生体情報入力部31が生体センサ21から入力される生体情報を、処理・制御部40に入力する。具体的には、生体情報入力部31は、処理・制御部40に対して、LED24およびフォトセンサ25で検出された心拍数および血中酸素濃度を入力するとともに、発汗センサ26で検出された発汗量を入力する。なお、生体センサ21から生体情報入力部31に入力される生体情報は、1つの情報であっても複数の情報であってもよい。また、生体情報には、例えば血圧の情報などが含まれていてもよい。なお、ステップS10では、生体情報入力部31は、複数の乗客の生体情報を、処理・制御部40に繰り返し入力するものとする。   In the process of FIG. 7, in step S <b> 10, the biological information input unit 31 inputs biological information input from the biological sensor 21 to the processing / control unit 40. Specifically, the biological information input unit 31 inputs the heart rate and blood oxygen concentration detected by the LED 24 and the photosensor 25 to the processing / control unit 40 and the sweating detected by the sweating sensor 26. Enter the amount. The biological information input from the biological sensor 21 to the biological information input unit 31 may be one piece of information or a plurality of pieces of information. The biological information may include blood pressure information, for example. In step S <b> 10, the biological information input unit 31 repeatedly inputs biological information of a plurality of passengers to the processing / control unit 40.

次いで、ステップS12では、圧電センサ13、圧力センサ23の検出情報及び顔認識部33の認識結果を用いて、処理・制御部40が、ジェスチャーの検出を行う。なお、本実施形態では、圧電センサ13、圧力センサ23、顔認識部33を利用してジェスチャー検出を行うが、トラブル検出のシチュエーションに応じて、圧電センサ13、圧力センサ23、顔認識部17の少なくとも1つを利用してジェスチャー検出を行うこととしてもよい。また、圧電センサ13、圧力センサ23、顔認識部17とは別のセンサを利用してジェスチャー検出を行うこととしてもよい。なお、処理・制御部40は、生体センサ21による生体情報の検出と、圧電センサ13又は圧力センサ23によるジェスチャー検出の少なくとも一方があった場合に、撮像部14による撮像を行い、それ以外の場合は撮像部14のスイッチをオフにしておく(又は電源を供給しない)こととしてもよい。   Next, in step S <b> 12, the processing / control unit 40 detects a gesture using the detection information of the piezoelectric sensor 13 and the pressure sensor 23 and the recognition result of the face recognition unit 33. In the present embodiment, gesture detection is performed using the piezoelectric sensor 13, the pressure sensor 23, and the face recognition unit 33, but the piezoelectric sensor 13, the pressure sensor 23, and the face recognition unit 17 depend on the trouble detection situation. Gesture detection may be performed using at least one. Moreover, it is good also as performing gesture detection using a sensor different from the piezoelectric sensor 13, the pressure sensor 23, and the face recognition part 17. FIG. The processing / control unit 40 performs imaging by the imaging unit 14 when there is at least one of detection of biological information by the biological sensor 21 and gesture detection by the piezoelectric sensor 13 or the pressure sensor 23, and otherwise The switch of the imaging unit 14 may be turned off (or power is not supplied).

なお、ステップS10とステップS12の実行順は入れ替えてもよい。この場合、ステップS10において圧力センサ23からの出力がなかったつり革22においては、ステップS12の生体センサ21による検出を省略してもよい。この場合、生体センサ21への電力供給を、同一のつり革22に設けられた圧力センサ23による圧力の検出タイミングで行うこととしてもよい。   Note that the execution order of step S10 and step S12 may be switched. In this case, in the strap 22 where there was no output from the pressure sensor 23 in step S10, the detection by the biological sensor 21 in step S12 may be omitted. In this case, power supply to the biosensor 21 may be performed at a pressure detection timing by the pressure sensor 23 provided on the same strap 22.

次いで、ステップS14では、処理・制御部40が、ステップS10,S12の結果に基づき電車50内でトラブルが発生しているか否かの判断を行う。具体的には、まず、処理・制御部40は、フラッシュメモリ30に記憶されているリファレンス画像(図4)を用いて、乗客の頭又は顔の位置と、生体センサ21及びジェスチャー検出部(圧電センサ13、圧力センサ23)の位置関係(手と足の位置関係)から、どの乗客の生体情報が変化しているか、どの乗客がジェスチャーをしているか、及び、それは同一の乗客かどうかを判断する。そして、処理・制御部40は、乗客が特定できた後に、トラブルが発生しているかどうかを判断する。この場合、処理・制御部40は、以下の(a)〜(c)の判断基準を満たしている場合に、トラブルが発生していると判断する。   Next, in step S14, the processing / control unit 40 determines whether or not a trouble has occurred in the train 50 based on the results of steps S10 and S12. Specifically, first, the processing / control unit 40 uses the reference image (FIG. 4) stored in the flash memory 30 to detect the position of the passenger's head or face, the biosensor 21 and the gesture detection unit (piezoelectric). From the positional relationship (the positional relationship between the hand and foot) of the sensor 13 and the pressure sensor 23), it is determined which biological information of which passenger is changing, which passenger is making a gesture, and whether it is the same passenger. To do. Then, the processing / control unit 40 determines whether or not a trouble has occurred after the passenger has been identified. In this case, the processing / control unit 40 determines that a trouble has occurred when the following criteria (a) to (c) are satisfied.

(a) 同一の乗客に関し、生体センサ21が、心拍数もしくは血中酸素濃度の変化を検出するとともに、ジェスチャー検出部(13,23,33)の少なくとも1つが乗客のジェスチャーを検出した場合。
(b) 車両センサ11(温度センサ)による検出の結果、車内の温度が高くない(例えば、23℃以下)にもかかわらず、同一の乗客に関し、発汗センサ26が所定量以上の発汗を検出し、かつジェスチャー検出部(13,23,33)の少なくとも1つのセンサが乗客のジェスチャーを検出した場合。
(c) 同一の乗客に関し、圧力センサ23の出力がない(すなわち生体センサ21からの出力も得られていない)が、圧電センサ13と顔認識部33から所定量以上のジェスチャーを検出した場合。
(A) Regarding the same passenger, when the biosensor 21 detects a change in heart rate or blood oxygen concentration, and at least one of the gesture detectors (13, 23, 33) detects a passenger's gesture.
(B) As a result of detection by the vehicle sensor 11 (temperature sensor), the perspiration sensor 26 detects perspiration of a predetermined amount or more with respect to the same passenger even though the temperature inside the vehicle is not high (for example, 23 ° C. or less). When at least one sensor of the gesture detection unit (13, 23, 33) detects a passenger's gesture.
(C) When there is no output from the pressure sensor 23 (that is, no output from the biological sensor 21 is obtained) with respect to the same passenger, but a gesture of a predetermined amount or more is detected from the piezoelectric sensor 13 and the face recognition unit 33.

なお、車両内に乗客の体温を検出することが可能な赤外線センサを設ける場合には、処理・制御部40は、以下の(d)の判断基準を満たす場合に、トラブルが発生していると判断してもよい。
(d) 同一の乗客に関し、圧力センサ23の出力がないが、赤外線センサにて体温の上昇が検出されるとともに、圧電センサ13と顔認識部17との少なくとも一方から所定量以上のジェスチャーを検出した場合。
In addition, when providing the infrared sensor which can detect a passenger's body temperature in a vehicle, when the process / control part 40 satisfy | fills the judgment criteria of the following (d), the trouble has generate | occur | produced. You may judge.
(D) Regarding the same passenger, there is no output from the pressure sensor 23, but an increase in body temperature is detected by the infrared sensor, and a gesture of a predetermined amount or more is detected from at least one of the piezoelectric sensor 13 and the face recognition unit 17 if you did this.

ここで、赤外線センサは、乗客から出ている赤外線放出エネルギー量を検出して、温度に変換するものであり、広い範囲の表面温度の分布を検出することができる。この場合、乗客の頭部の温度変化を検出して、トラブル発生の検出ができる。赤外線カメラのような非接触のセンサを用いれば、乗客に特別なセンサを持たせる(掴ませる)ことなく、乗客の生体情報を入手することができる。   Here, the infrared sensor detects the amount of infrared emission energy emitted from the passenger and converts it into temperature, and can detect a wide range of surface temperature distributions. In this case, the occurrence of trouble can be detected by detecting the temperature change of the passenger's head. If a non-contact sensor such as an infrared camera is used, the passenger's biological information can be obtained without giving (grabbing) a special sensor to the passenger.

なお、上記(a)〜(d)の判断では、処理・制御部40は、タイマー20の計時結果に基づいて、生体センサ21の出力値の変化が5秒以上続いた場合、もしくは生体センサ21の出力値が30秒以内に断続的に変化している場合に、生体センサ21の出力値の変化があったと判断する。ただし、これに限らず、処理・制御部40は、生体センサ21の出力値の変化が大きい場合(例えば変化量が元の値の10%以上となった場合)に、生体情報の変化があったと判断することとしてもよい。また、処理・制御部40は、タイマー20の計時結果に基づいて、ジェスチャー検出部(13,23,33)の出力値の変化が5秒以上続いた場合、もしくはジェスチャー検出部(13,23,33)の出力値が30秒以内に断続的に変化している場合に、乗客がジェスチャーを行ったと判断する。   In the determinations (a) to (d) above, the processing / control unit 40 determines that the change in the output value of the biosensor 21 has continued for 5 seconds or more based on the time measurement result of the timer 20, or the biosensor 21. When the output value of the biosensor 21 changes intermittently within 30 seconds, it is determined that the output value of the biosensor 21 has changed. However, the present invention is not limited to this, and the processing / control unit 40 changes the biological information when the change in the output value of the biological sensor 21 is large (for example, when the change amount is 10% or more of the original value). It may be determined that In addition, the processing / control unit 40 determines whether the change in the output value of the gesture detection unit (13, 23, 33) continues for 5 seconds or more based on the timing result of the timer 20, or the gesture detection unit (13, 23, 33). If the output value of 33) changes intermittently within 30 seconds, it is determined that the passenger has made a gesture.

また、電車が急停車した場合や、揺れが大きい場合、あるいは乗客が乗り降りする場合などにおいては、ジェスチャー検出部(13,23,33)の検出結果が、トラブル発生時と同様の検出結果となる場合がある。このような場合に、トラブルが発生したと判断することが無いようにするため、処理・制御部40は、車両センサ11の検出結果を考慮して、トラブル発生有無の判断を行うこととしてもよい。   Also, when the train stops suddenly, when shaking is large, or when passengers get on and off, the detection result of the gesture detection unit (13, 23, 33) is the same detection result as when a trouble occurs. There is. In such a case, in order not to determine that a trouble has occurred, the processing / control unit 40 may determine whether or not a trouble has occurred in consideration of the detection result of the vehicle sensor 11. .

上記のような判断により、ステップS14の判断が肯定された場合には、ステップS22に移行し、否定された場合には、ステップS16に移行する。   If the determination in step S14 is affirmed by the above determination, the process proceeds to step S22. If the determination is negative, the process proceeds to step S16.

ステップS16に移行した場合、処理・制御部40は、トラブルが発生しているかいないかが明確に判断できないかどうか(すなわち、確認が必要かどうか)を判断する。具体的には、処理・制御部40は、以下の(A)及び(B)のいずれかの条件を満足するか否かに基づいた判断を行う。   When the process proceeds to step S16, the processing / control unit 40 determines whether it is not possible to clearly determine whether or not a trouble has occurred (that is, whether confirmation is necessary). Specifically, the processing / control unit 40 makes a determination based on whether one of the following conditions (A) and (B) is satisfied.

(A) 生体センサ21が生体情報の変化を検出している一方、ジェスチャー検出部(13,23,33)の検出結果からはジェスチャーが行われていることを確認できない場合。
(B) 圧力センサ23の検出結果からジェスチャーが行われていることを確認できる場合で、生体センサ21が生体情報の変化を検出しておらず、圧電センサ13の検出結果及び顔認識部33の認識結果の少なくとも一方からジェスチャーが行われていることを確認できる場合。
(A) While the biosensor 21 detects a change in biometric information, it cannot be confirmed from the detection result of the gesture detection unit (13, 23, 33) that a gesture is being performed.
(B) In the case where it can be confirmed from the detection result of the pressure sensor 23 that the gesture is performed, the biosensor 21 has not detected a change in the biometric information, and the detection result of the piezoelectric sensor 13 and the face recognition unit 33 You can confirm that a gesture is being made from at least one of the recognition results.

上記(A)、(B)のいずれかの条件を満たす場合には、ステップS16の判断が肯定され、ステップS18に移行する。一方、上記(A)、(B)のいずれの条件も満たさない場合には、トラブルが発生している可能性はほとんどないとして、ステップS16の判断が否定され、ステップS10に戻る。   If either of the above conditions (A) and (B) is satisfied, the determination in step S16 is affirmed and the process proceeds to step S18. On the other hand, if neither of the above conditions (A) and (B) is satisfied, it is determined that there is almost no possibility that a trouble has occurred, the determination in step S16 is denied, and the process returns to step S10.

ステップS18に移行した場合、処理・制御部40は、ステップS14で特定した乗客に対して確認を行う。具体的には、処理・制御部40は、スピーカ15及びマイク16を駆動装置9により駆動して、特定した乗客に向け、スピーカ15を用いて“大丈夫ですか?”などの音声で問い掛けを行う。また、処理・制御部40は、問い掛けたタイミングでマイク16のスイッチをオンにして、問い掛けに対する乗客からの応答音声を取得する。そして、処理・制御部40は、応答音声を音声認識部34に送信し、音声認識部34による音声認識結果を取得する。   When the process proceeds to step S18, the processing / control unit 40 confirms the passenger specified in step S14. Specifically, the processing / control unit 40 drives the speaker 15 and the microphone 16 by the driving device 9 and asks the identified passenger using a sound such as “Are you okay?” Using the speaker 15. . Further, the processing / control unit 40 turns on the switch of the microphone 16 at the timing of the inquiry, and obtains a response voice from the passenger to the inquiry. Then, the processing / control unit 40 transmits the response voice to the voice recognition unit 34 and acquires the voice recognition result by the voice recognition unit 34.

次いで、ステップS20では、処理・制御部40が、音声認識部34の認識結果及びステップS16からステップS18の間の生体センサ21およびジェスチャー検出部(13,23,33)の出力に基づいて、トラブルが発生しているか否かを判断する。例えば、処理・制御部40は、音声認識部34の認識結果が“大丈夫です”などであった場合にはトラブルがなかったと判断し、“助けて”や“キャー”などであった場合には、トラブルが発生していると判断する。また、例えば、乗客からの応答音声が無い一方、当該乗客においてジェスチャーがされた場合には、トラブルが発生していると判断する。なお、処理・制御部40は、集音された応答音声の大きさ(dB)を考慮して、トラブルの発生有無を判断してもよい。   Next, in step S20, the processing / control unit 40 causes trouble based on the recognition result of the speech recognition unit 34 and the outputs of the biosensor 21 and the gesture detection unit (13, 23, 33) between step S16 and step S18. It is determined whether or not this has occurred. For example, the processing / control unit 40 determines that there is no trouble when the recognition result of the voice recognition unit 34 is “OK”, and when it is “help” or “car”, etc. It is determined that a problem has occurred. Further, for example, when there is no response voice from a passenger and a gesture is made by the passenger, it is determined that a trouble has occurred. The processing / control unit 40 may determine whether or not trouble has occurred in consideration of the magnitude (dB) of the collected response voice.

ステップS20の判断が否定された場合(トラブルが発生していない場合)には、ステップS10に戻るが、肯定された場合(トラブルが発生していた場合)には、ステップS22に移行する。   If the determination in step S20 is negative (when no trouble has occurred), the process returns to step S10. If the determination is positive (if a trouble has occurred), the process proceeds to step S22.

上記ステップS20の判断、又は前述したステップS14の判断が肯定されて、ステップS22に移行すると、処理・制御部40は、トラブル抑制処理を実行する。   When the determination in step S20 or the determination in step S14 described above is affirmed and the process proceeds to step S22, the processing / control unit 40 executes trouble suppression processing.

具体的には、処理・制御部40は、トラブルを抑制するために、駆動装置9を制御して、撮像部14、スピーカ15、マイク16及びLED18を特定した乗客(トラブルに巻き込まれた乗客)及びその周辺に向ける。そして、処理・制御部40は、スピーカ15から、“どうかしましたか”、“大丈夫ですか”などと問い掛けを行ったり、スピーカ15から“トラブルが発生した恐れがありますので、状況を記録いたします”などとアナウンスした後、撮像部14により撮像した映像やマイク16により集音した音声をフラッシュメモリ30に記録する。また、処理装置19は、LED18を発光させ、特定した乗客がいる付近に向け光を照射する。処理・制御部40が、ステップS22を実行すれば、車内で痴漢行為が行われているような場合に、痴漢行為の実行者は行為続行を躊躇する可能性が高い。これにより、その後の痴漢行為の発生を抑制することが可能となる。なお、処理・制御部40は、上記アナウンス、撮像、録音、照射のうちの少なくとも1つの動作を行うこととしてもよい。例えば、LED18の発光は、撮像部14の撮像結果、圧電センサの検出結果などから、乗車率が高いと判断できる場合、あるいは夜間などにおいてのみ、行うこととしてもよい。   Specifically, in order to suppress trouble, the processing / control unit 40 controls the driving device 9 to identify the imaging unit 14, the speaker 15, the microphone 16, and the LED 18 (passengers caught in trouble). And around it. Then, the processing / control unit 40 will ask the speaker 15 “How did you do it”, “Is it all right”, etc., or “Some troubles may have occurred from the speaker 15, so record the situation. After the announcement “etc.”, the image picked up by the image pickup unit 14 and the sound collected by the microphone 16 are recorded in the flash memory 30. Moreover, the processing apparatus 19 makes LED18 light-emit, and irradiates light toward the vicinity where the identified passenger exists. If processing / control part 40 performs Step S22, when the molester act is performed in the car, the person who performs the molester act is likely to hesitate to continue the act. Thereby, it becomes possible to suppress generation | occurrence | production of the subsequent molester act. The processing / control unit 40 may perform at least one of the announcement, imaging, recording, and irradiation. For example, the light emission of the LED 18 may be performed only when it can be determined that the boarding rate is high from the imaging result of the imaging unit 14, the detection result of the piezoelectric sensor, or at night.

次いで、ステップS24では、処理・制御部40は、トラブルが沈静化したか否かの確認を行う。この場合、処理・制御部40は、前述したステップS18と同様、スピーカ15を用いた問い掛けを行い、マイク16から取得した応答音声の音声認識部34による認識結果に基づいて、トラブルが沈静化したか否かを判断する。なお、処理・制御部40は、生体センサ21、ジェスチャー検出部(13,23,33)の検出結果に基づいてトラブルが沈静化したか否かを判断することとしてもよい。この場合、生体センサ21、ジェスチャー検出部(13,23,33)の検出結果が正常の値に戻っていれば、トラブルが沈静化したと判断することができる。   Next, in step S24, the processing / control unit 40 checks whether or not the trouble has subsided. In this case, the processing / control unit 40 makes an inquiry using the speaker 15 as in step S18 described above, and the trouble is calmed based on the recognition result of the response speech acquired from the microphone 16 by the speech recognition unit 34. Determine whether or not. Note that the processing / control unit 40 may determine whether or not the trouble has subsided based on the detection results of the biological sensor 21 and the gesture detection unit (13, 23, 33). In this case, if the detection results of the biosensor 21 and the gesture detection unit (13, 23, 33) return to normal values, it can be determined that the trouble has calmed down.

ステップS24における判断が肯定された場合には、ステップS10に戻る。一方、ステップS24の判断が否定された場合には、ステップS26に移行する。ステップS26では、処理・制御部40は、次の停車駅の駅員にトラブルが発生している車両を通知する。この場合、処理・制御部40は、図4のCPUによって実現される通信機能(電話機能やメール機能など)や、処理装置に接続される通信装置を用いて、次の停車駅の駅員に通知することができる。   If the determination in step S24 is affirmative, the process returns to step S10. On the other hand, if the determination in step S24 is negative, the process proceeds to step S26. In step S26, the processing / control unit 40 notifies the station staff at the next stop station of the vehicle in which the trouble has occurred. In this case, the processing / control unit 40 notifies the station staff at the next stop station using a communication function (telephone function, mail function, etc.) realized by the CPU of FIG. 4 or a communication device connected to the processing device. can do.

以上の処理を、電車運行中に繰り返し実行することで、電車内におけるトラブル発生の検出及びトラブルの沈静化を図ることが可能となる。   By repeatedly executing the above processing during train operation, it is possible to detect occurrence of trouble in the train and to calm down the trouble.

以上、詳細に説明したように、本実施形態によると、処理・制御部40は、生体情報入力部31から入力される電車内の乗客の生体情報の変化を検出する生体センサ21の検出結果と、動作情報入力部32から入力される乗客の動作を認識するジェスチャー検出部(13,23,33)の認識結果とに基づいて、乗客の動作(ジェスチャー)に応じた処理を行う。すなわち、処理・制御部40は、ジェスチャー検出部(13,23,33)が認識した動作に加えて、生体センサ21の検出結果を考慮した処理(トラブル発生有無の判断やトラブル沈静化の処理)を行うことで、乗客の動作に応じた適切な処理を行うことができる。   As described above in detail, according to the present embodiment, the processing / control unit 40 detects the change in the biological information of the passenger in the train input from the biological information input unit 31 and the detection result of the biological sensor 21. Based on the recognition result of the gesture detection unit (13, 23, 33) for recognizing the passenger motion input from the motion information input unit 32, processing corresponding to the passenger motion (gesture) is performed. In other words, the processing / control unit 40 considers the detection result of the biosensor 21 in addition to the operation recognized by the gesture detection unit (13, 23, 33) (determination of occurrence of trouble or processing for calming the trouble). By performing this, it is possible to perform appropriate processing according to the passenger's movement.

また、本実施形態によると、ジェスチャー検出部(13,23,33)が、異なる複数のセンサを有しており、処理・制御部40は、生体情報入力部31への生体情報の変化の入力がない場合でも、動作情報入力部32が入力する複数のセンサの認識結果に基づいて、乗客の動作に応じた処理を行うこととしている。したがって、複数のセンサの動作(ジェスチャー)の認識結果に基づく処理を行うことで、乗客の動作に応じた処理をより適切に行うことが可能となる。   Further, according to the present embodiment, the gesture detection unit (13, 23, 33) has a plurality of different sensors, and the processing / control unit 40 inputs biological information change to the biological information input unit 31. Even if there is not, the process according to the motion of the passenger is performed based on the recognition results of the plurality of sensors input by the motion information input unit 32. Therefore, by performing processing based on the recognition results of motions (gestures) of a plurality of sensors, it is possible to more appropriately perform processing according to passenger motion.

また、本実施形態によると、ジェスチャー検出部が、非接触センサである顔認識部33と、圧電センサ13や圧力センサ23などの接触式のセンサとを含んでおり、処理・制御部40は、接触式のセンサが乗客の動作を認識したときに、撮像部14による撮像を行う。これにより、撮像部14は、接触式のセンサが乗客の動作を認識するまでの間、電源をオフにすることができるので省エネルギー化を図ることが可能となる。   In addition, according to the present embodiment, the gesture detection unit includes the face recognition unit 33 that is a non-contact sensor, and contact sensors such as the piezoelectric sensor 13 and the pressure sensor 23. The processing / control unit 40 includes: When the contact sensor recognizes the movement of the passenger, the imaging unit 14 performs imaging. Thereby, the imaging unit 14 can turn off the power until the contact-type sensor recognizes the movement of the passenger, so that energy saving can be achieved.

また、本実施形態によると、撮像部14は、接触式のセンサよりも上方(天井部)に設けられているので、撮像部14では、主に乗客の頭を撮像することができる。これにより、乗客のプライバシーを守ることが可能となる。   Moreover, according to this embodiment, since the imaging part 14 is provided above (ceiling part) rather than the contact-type sensor, the imaging part 14 can mainly image a passenger's head. Thereby, it becomes possible to protect a passenger's privacy.

また、本実施形態によると、ジェスチャー検出部の少なくとも一部(本実施形態では圧力センサ23)が、生体センサ21の近傍に設けられているので、ジェスチャーを行った手自体の生体情報の変化を生体センサ21で検出することができる。この場合、ジェスチャーと生体情報の変化の関連が高いため、乗客の動作に応じた処理をより適切に行うことが可能となる。   In addition, according to the present embodiment, since at least a part of the gesture detection unit (the pressure sensor 23 in the present embodiment) is provided in the vicinity of the biological sensor 21, the change in the biological information of the hand that performed the gesture itself can be detected. It can be detected by the biosensor 21. In this case, since the relationship between the gesture and the change in the biological information is high, it is possible to more appropriately perform the process according to the passenger's motion.

また、本実施形態によると、処理・制御部40は、乗客の動作に応じた処理として、乗客に向けてスピーカ15から音を出力する処理を行うので、乗客への問い掛けや乗客の行為に対する注意などを行うことができる。これにより、トラブル発生有無の判断やトラブル抑制の処理を適切に行うことができる。   Moreover, according to this embodiment, since the process / control part 40 performs the process which outputs a sound from the speaker 15 toward a passenger as a process according to a passenger | crew's operation | movement, attention to a passenger's inquiry and a passenger's action And so on. As a result, it is possible to appropriately determine whether or not trouble has occurred and to prevent trouble.

また、本実施形態では、スピーカ15が、限られた方向に音を出力する指向性スピーカとすることができる。この場合、乗客への問い掛けや注意を、特定の乗客(ジェスチャーを行った乗客)やその周囲の乗客に限定して、行うことができる。   In the present embodiment, the speaker 15 can be a directional speaker that outputs sound in a limited direction. In this case, it is possible to limit the question and attention to the passengers to a specific passenger (passenger who performed the gesture) and passengers around it.

また、本実施形態によると、処理・制御部40は、音声を入力するマイク16から乗客が発する音声を受け付け、音声認識部34に音声を識別させるので、処理・制御部40は、乗客が発した音声の意味に基づいた適切な処理(トラブル発生の確認など)を行うことが可能となる。   In addition, according to the present embodiment, the processing / control unit 40 receives the voice uttered by the passenger from the microphone 16 that inputs the voice and causes the voice recognition unit 34 to identify the voice. It is possible to perform appropriate processing (confirmation of trouble occurrence) based on the meaning of the voice.

また、本実施形態では、乗客の生体情報が変化している時間と、乗客のジェスチャーが認識されている時間と、を計時するタイマー20を備えており、処理・制御部40は、生体情報入力部31及び動作情報入力部32の入力結果と、タイマー20の計時結果と、に応じた処理を実行する。例えば、処理・制御部40は、入力結果の変化が5秒以上続けて検出された場合や、所定時間(例えば30秒)内に断続的に入力結果が変化した場合に、ジェスチャーが行われたと判断して、処理を実行するようにする。これにより、ジェスチャーが行われたことの判断を適切に行うことができ、ひいては処理を適切に実行することが可能となる。   Moreover, in this embodiment, the timer 20 which measures the time when the passenger's biometric information is changing and the time when the passenger's gesture is recognized is provided, and the processing / control unit 40 is configured to input the biometric information. The process according to the input result of the part 31 and the operation information input part 32 and the timing result of the timer 20 is executed. For example, the processing / control unit 40 determines that a gesture is performed when a change in the input result is detected continuously for 5 seconds or more, or when the input result changes intermittently within a predetermined time (for example, 30 seconds). Judgment is made and processing is executed. Thereby, it is possible to appropriately determine that the gesture has been performed, and thus it is possible to appropriately execute the process.

また、本実施形態では、乗客が、電車という移動可能な装置内に存在しており、処理・制御部40は、電車の動きを検出する車両センサ11の検出結果を考慮して、処理を行うこととしている。すなわち、急な加減速、停止、乗客の昇降などにおいて生じる電車の動きを考慮することで、電車の動きに起因する乗客の動作があっても乗客のジェスチャーの有無を適切に判断することができ、ひいては、適切な処理を行うことが可能となる。   In the present embodiment, the passenger is present in a movable device called a train, and the processing / control unit 40 performs processing in consideration of the detection result of the vehicle sensor 11 that detects the movement of the train. I am going to do that. In other words, by taking into account the movement of the train that occurs during sudden acceleration / deceleration, stoppage, passenger up / down, etc., it is possible to appropriately determine the presence / absence of the passenger's gesture even if there is a passenger movement due to the movement of the train. As a result, appropriate processing can be performed.

また、本実施形態では、動作情報入力部32が、乗客の手の動きを検出する圧力センサ23の検出結果、足の動きを検出する圧電センサ13の検出結果、及び頭部の動きを検出する顔認識部33の認識結果を入力し、処理・制御部40が、手、足、頭部が同一人物の一部であるか否かを判定するので、処理・制御部40は、同一人物の手、足、頭部の動きの検出結果を関連付けることが可能となる。また、本実施形態では、処理・制御部40は、同一人物の手、足、頭の動きの検出結果に基づいた処理を行うので、手、足、頭部の動きに基づいた適切な処理を行うことができる。   In the present embodiment, the motion information input unit 32 detects the detection result of the pressure sensor 23 that detects the movement of the passenger's hand, the detection result of the piezoelectric sensor 13 that detects the movement of the foot, and the movement of the head. The recognition result of the face recognition unit 33 is input, and the processing / control unit 40 determines whether the hand, foot, and head are part of the same person. It becomes possible to associate detection results of hand, foot, and head movements. In the present embodiment, the processing / control unit 40 performs processing based on the detection results of the movements of the hands, feet, and head of the same person, and therefore performs appropriate processing based on the movements of the hands, feet, and head. It can be carried out.

また、本実施形態では、処理・制御部40は、手の動きを検出した圧力センサ23の位置情報、足の動きを検出した圧電センサ13の位置情報に基づいて、手と足とが、同一人物のものであるか否かを判定するので、位置情報に基づく適切な判定が可能となる。   In this embodiment, the processing / control unit 40 determines that the hand and the foot are the same based on the position information of the pressure sensor 23 that detects the movement of the hand and the position information of the piezoelectric sensor 13 that detects the movement of the foot. Since it is determined whether or not it belongs to a person, appropriate determination based on position information can be performed.

また、本実施形態では、動作情報入力部32に加えて、乗客の生体情報の変化を検出する生体センサ21の検出結果を入力する生体情報入力部31を備えているので、ジェスチャーと生体情報の変化とに基づいた適切な処理を行うことが可能となる。   Further, in the present embodiment, in addition to the motion information input unit 32, the biometric information input unit 31 that inputs the detection result of the biosensor 21 that detects a change in the biometric information of the passenger is provided. Appropriate processing based on the change can be performed.

また、本実施形態では、処理・制御部40は、顔認識部33から入力される、頭部の動きと頭部以外(手や足)の動きとに基づいた処理を行うので、頭部の動きや頭部以外の動きいずれかに基づいた処理を行う場合と比べて、適切な処理を行うことが可能となる。   In the present embodiment, the processing / control unit 40 performs processing based on head movement and movements other than the head (hands and feet) input from the face recognition unit 33. It is possible to perform appropriate processing as compared with the case where processing based on either movement or movement other than the head is performed.

なお、上記実施形態では、処理装置19が、音声認識部34、顔認識部33の機能を有する場合について説明した。しかしながら、これに限られるものではなく、音声認識部34と同等の機能を有する装置や顔認識部33と同等の機能を有する装置(CPUなど)が、処理装置19の外部に設けられることとしてもよい。   In the above embodiment, the case where the processing device 19 has the functions of the voice recognition unit 34 and the face recognition unit 33 has been described. However, the present invention is not limited to this, and a device (such as a CPU) having a function equivalent to the speech recognition unit 34 or a function equivalent to the face recognition unit 33 may be provided outside the processing device 19. Good.

なお、上記実施形態では、圧電センサ13に代えて、又はこれとともに、乗客が身に付ける加速度センサをジェスチャー検出部の一部として採用することとしてもよい。加速度センサは、例えば、靴に内蔵する又は取り付けることとする。加速度センサの情報は、処理装置19又はフラッシュメモリ30に登録しておく。そして、乗客が車内で床を踏むジェスチャーを行った際には、加速度センサの検出結果が、無線通信などにより処理装置19(動作情報入力部32)に入力される。このようにすることで、圧電センサ13を利用した場合と同様の処理を行うことが可能となる。また、加速度センサをつま先部分とかかと部分にそれぞれ設けることとすれば、車内でどのような姿勢になった場合でも、乗客が行った床を踏むというジェスチャーを検出することが可能となる。このように加速度センサを使用した場合には、トラブルの発生をより正確に検出することが可能である。   In the above embodiment, an acceleration sensor worn by a passenger may be adopted as a part of the gesture detection unit instead of or together with the piezoelectric sensor 13. The acceleration sensor is built in or attached to shoes, for example. Information on the acceleration sensor is registered in the processing device 19 or the flash memory 30. When the passenger makes a gesture of stepping on the floor in the vehicle, the detection result of the acceleration sensor is input to the processing device 19 (operation information input unit 32) by wireless communication or the like. By doing in this way, it becomes possible to perform the same process as the case where the piezoelectric sensor 13 is utilized. Further, if acceleration sensors are provided at the toe portion and the heel portion, respectively, it becomes possible to detect a gesture that the passenger steps on the floor, regardless of the posture in the vehicle. When the acceleration sensor is used in this way, it is possible to detect the occurrence of trouble more accurately.

なお、上記実施形態では、生体センサ21をつり革22に設ける場合について説明したが、これに限られるものではない。例えば、生体センサ21を乗客が身に付ける時計型の装身具や指輪型の装身具に設けることとしてもよい。この場合、装身具には無線ユニットを設けておき、無線ユニットを用いて生体センサ21が検出した生体情報を無線送信するようにする。また、生体センサ21は、処理装置19に登録しておく。この場合、乗客が生体センサ21を身につけておけば、例えば乗客が痴漢行為を受け心拍数が上昇したときに(すなわち、生体情報が変化したときに)、無線ユニットを用いて処理装置19に痴漢行為の発生の可能性を通知することができる。また、この場合、痴漢行為を受けている乗客がつり革を掴んでいなくてもよいため、より正確にトラブルの発生を検出することができる。   In addition, although the said embodiment demonstrated the case where the biosensor 21 was provided in the strap 22, it is not restricted to this. For example, the biometric sensor 21 may be provided on a watch-type accessory or a ring-type accessory that a passenger wears. In this case, the accessory is provided with a wireless unit, and the biological information detected by the biological sensor 21 is wirelessly transmitted using the wireless unit. The biosensor 21 is registered in the processing device 19 in advance. In this case, if the passenger wears the biometric sensor 21, for example, when the passenger is perverted and the heart rate is increased (that is, when the biometric information is changed), the wireless device is used for the processing device 19. It is possible to notify the possibility of the occurrence of a molester act. Further, in this case, since the passenger receiving the molester action does not have to hold the strap, the occurrence of the trouble can be detected more accurately.

なお、上記実施形態では、処理装置19が車両内に設けられた場合について説明したが、これに限られるものではない。例えば、処理装置19は、車両外(例えば駅や鉄道管制施設など)に設けることとしてもよい。この場合、図1に示す処理装置19以外の各部と、処理装置19とが通信可能である必要がある。   In addition, although the said embodiment demonstrated the case where the processing apparatus 19 was provided in the vehicle, it is not restricted to this. For example, the processing device 19 may be provided outside the vehicle (for example, a station or a railway control facility). In this case, it is necessary that each unit other than the processing device 19 shown in FIG. 1 and the processing device 19 can communicate with each other.

なお、上記実施形態では、車両内のつり革22に生体センサ21や圧力センサ23を設ける場合について説明したが、これに限らず、車両内に設けられた棒状の手すりに生体センサ21や圧力センサ23を設けることとしてもよい。   In the above embodiment, the case where the living body sensor 21 and the pressure sensor 23 are provided on the strap 22 in the vehicle has been described. However, the present invention is not limited to this, and the living body sensor 21 and the pressure sensor are attached to a bar-shaped handrail provided in the vehicle. 23 may be provided.

なお、トラブル対応システム100は、電車内に設ける場合に限らず、バスやエレベータなど人が搭乗することが可能な移動装置内に設置することが可能であり、これに加えて、学校、病院、銀行、商業施設、自宅などへ設置することも可能である。   The trouble handling system 100 is not limited to being installed in a train, but can be installed in a mobile device that can be boarded by a person such as a bus or an elevator. It can also be installed in banks, commercial facilities, homes, etc.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

11 車両センサ
13 圧電センサ
15 スピーカ
16 マイク
19 処理装置
20 タイマー
21 生体センサ
23 圧力センサ
31 生体情報入力部
32 動作情報入力部
33 顔認識部
34 音声認識部
40 処理・制御部
50 電車
90 CPU
100 トラブル対応システム
DESCRIPTION OF SYMBOLS 11 Vehicle sensor 13 Piezoelectric sensor 15 Speaker 16 Microphone 19 Processing apparatus 20 Timer 21 Biosensor 23 Pressure sensor 31 Biometric information input part 32 Operation information input part 33 Face recognition part 34 Voice recognition part 40 Processing / control part 50 Train 90 CPU
100 Trouble response system

Claims (13)

対象者の生体情報の変化を検出する生体センサの検出結果を入力する第1入力部と、
前記対象者の動作を認識する認識装置の認識結果を入力する第2入力部と、
前記第1、第2入力部の入力結果に基づいて、前記対象者の動作に応じた処理を行う処理部と、を備えたことを特徴とする電子機器。
A first input unit for inputting a detection result of a biological sensor that detects a change in biological information of the subject;
A second input unit for inputting a recognition result of a recognition device for recognizing the movement of the subject;
An electronic apparatus comprising: a processing unit that performs processing according to the operation of the subject based on input results of the first and second input units.
前記認識装置は、異なる複数のセンサを有し、
前記処理部は、前記第1入力部への生体情報の変化の入力がない場合でも、前記第2入力部が入力する前記複数のセンサの認識結果に基づいて、前記対象者の動作に応じた処理を行うことを特徴とする請求項1に記載の電子機器。
The recognition device has a plurality of different sensors,
The processing unit responds to the operation of the subject based on the recognition results of the plurality of sensors input by the second input unit even when there is no input of changes in biological information to the first input unit. The electronic device according to claim 1, wherein processing is performed.
前記複数のセンサは、撮像装置と、接触式のセンサとを含み、
前記接触式のセンサが対象者の動作を認識したときに、前記撮像装置による撮像を行う制御部を備えることを特徴とする請求項1または2に記載の電子機器。
The plurality of sensors includes an imaging device and a contact sensor,
3. The electronic apparatus according to claim 1, further comprising a control unit configured to perform imaging by the imaging device when the contact-type sensor recognizes a motion of the subject.
前記撮像装置は、前記接触式のセンサよりも上方に設けられていることを特徴とする請求項3に記載の電子機器。   The electronic apparatus according to claim 3, wherein the imaging device is provided above the contact sensor. 前記認識装置の少なくとも一部は、前記生体センサの近傍に設けられていることを特徴とする請求項1〜4のいずれか一項に記載の電子機器。   The electronic apparatus according to claim 1, wherein at least a part of the recognition device is provided in the vicinity of the biometric sensor. 前記処理部は、前記対象者に向けて音を出力するスピーカにより、音を出力する処理を行うことを特徴とする請求項1〜5のいずれか一項に記載の電子機器。   The electronic device according to claim 1, wherein the processing unit performs a process of outputting sound with a speaker that outputs sound toward the target person. 前記スピーカは、限られた方向に前記音を出力する指向性スピーカであることを特徴とする請求項6に記載の電子機器。   The electronic apparatus according to claim 6, wherein the speaker is a directional speaker that outputs the sound in a limited direction. 前記処理部は、音声を入力する音声入力装置から、前記対象者が発する音声を受け付けることを特徴とする請求項1から7のいずれか一項に記載の電子機器。   The electronic device according to any one of claims 1 to 7, wherein the processing unit receives a voice uttered by the subject from a voice input device that inputs voice. 前記音声入力装置から受け付けた音声を識別する音声識別部を備えることを特徴とする請求項8に記載の電子機器。   The electronic apparatus according to claim 8, further comprising a voice identification unit that identifies voice received from the voice input device. 前記対象者の生体情報が変化している時間と、前記対象者の動作が認識されている時間と、を計時する計時部を備え、
前記処理部は、前記入力結果と、前記計時部の計時結果と、に応じた処理を実行することを特徴とする請求項1〜9のいずれか一項に記載の電子機器。
A time measuring unit for measuring the time when the biological information of the subject is changing and the time when the operation of the subject is recognized;
The electronic device according to any one of claims 1 to 9, wherein the processing unit executes processing according to the input result and a timing result of the timing unit.
前記対象者が、移動可能な移動装置内に存在する場合、
前記処理部は、前記移動装置の動きを検出する検出装置の検出結果を考慮して、前記処理を行うことを特徴とする請求項1〜10のいずれか一項に記載の電子機器。
If the subject is present in a movable mobile device,
The electronic device according to claim 1, wherein the processing unit performs the processing in consideration of a detection result of a detection device that detects a movement of the mobile device.
対象者の生体情報の変化を検出する生体センサと、
前記対象者の動作を認識する認識装置と、
請求項1〜11のいずれか一項に記載の電子機器と、を備える処理システム。
A biological sensor for detecting a change in biological information of the subject,
A recognition device for recognizing the movement of the subject;
A processing system comprising: the electronic device according to claim 1.
対象者の生体情報の変化を検出する生体センサの検出結果を入力する第1入力工程と、
前記対象者の動作を認識する認識装置の認識結果を入力する第2入力工程と、
前記第1、第2入力工程の入力結果に基づいて、前記対象者の動作に応じた処理を行う処理工程と、をコンピュータに実行させることを特徴とする処理プログラム。
A first input step of inputting a detection result of a biological sensor that detects a change in biological information of the subject;
A second input step of inputting a recognition result of a recognition device for recognizing the movement of the subject;
A processing program for causing a computer to execute a processing step of performing processing according to the operation of the subject based on input results of the first and second input steps.
JP2011047748A 2011-03-04 2011-03-04 Electronic apparatus, processing system, and processing program Pending JP2012185632A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011047748A JP2012185632A (en) 2011-03-04 2011-03-04 Electronic apparatus, processing system, and processing program
CN201280011645.4A CN103430125B (en) 2011-03-04 2012-02-09 Electronic equipment and processing system
PCT/JP2012/052994 WO2012120959A1 (en) 2011-03-04 2012-02-09 Electronic apparatus, processing system, and processing program
US13/983,923 US20140067204A1 (en) 2011-03-04 2012-02-09 Electronic apparatus, processing system, and computer readable storage medium
US15/912,254 US20180194279A1 (en) 2011-03-04 2018-03-05 Electronic apparatus, processing system, and processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011047748A JP2012185632A (en) 2011-03-04 2011-03-04 Electronic apparatus, processing system, and processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015239648A Division JP2016053990A (en) 2015-12-08 2015-12-08 Electronic apparatus

Publications (1)

Publication Number Publication Date
JP2012185632A true JP2012185632A (en) 2012-09-27

Family

ID=47015680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011047748A Pending JP2012185632A (en) 2011-03-04 2011-03-04 Electronic apparatus, processing system, and processing program

Country Status (1)

Country Link
JP (1) JP2012185632A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016009407A (en) * 2014-06-25 2016-01-18 日本電信電話株式会社 User state estimation device and user state estimation method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005146725A (en) * 2003-11-18 2005-06-09 Omron Corp Door control device
JP2008117056A (en) * 2006-11-01 2008-05-22 Nec Corp Mobile terminal with acceleration sensor, method for registering pattern of acceleration, and method and program for comparing pattern of acceleration
JP2009217477A (en) * 2008-03-10 2009-09-24 Mitsubishi Electric Corp Input device
JP2010110864A (en) * 2008-11-06 2010-05-20 Nec Corp Robot system and method and program for activating communication
JP2010226319A (en) * 2009-03-23 2010-10-07 Fujifilm Corp Imaging apparatus and imaging method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005146725A (en) * 2003-11-18 2005-06-09 Omron Corp Door control device
JP2008117056A (en) * 2006-11-01 2008-05-22 Nec Corp Mobile terminal with acceleration sensor, method for registering pattern of acceleration, and method and program for comparing pattern of acceleration
JP2009217477A (en) * 2008-03-10 2009-09-24 Mitsubishi Electric Corp Input device
JP2010110864A (en) * 2008-11-06 2010-05-20 Nec Corp Robot system and method and program for activating communication
JP2010226319A (en) * 2009-03-23 2010-10-07 Fujifilm Corp Imaging apparatus and imaging method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016009407A (en) * 2014-06-25 2016-01-18 日本電信電話株式会社 User state estimation device and user state estimation method

Similar Documents

Publication Publication Date Title
WO2012120959A1 (en) Electronic apparatus, processing system, and processing program
US20160379463A1 (en) Method and apparatus for setting a notification readout mode based on proximity detection
JP5366048B2 (en) Information provision system
US9838771B1 (en) In-ear utility device having a humidity sensor
US11517252B2 (en) Using a hearable to generate a user health indicator
CN111475206B (en) Method and apparatus for waking up wearable device
US20180009118A1 (en) Robot control device, robot, robot control method, and program recording medium
US10536852B2 (en) Electronic apparatus, method for authenticating the same, and recording medium
US20170347183A1 (en) In-Ear Utility Device Having Dual Microphones
WO2017205558A1 (en) In-ear utility device having dual microphones
JP2016053990A (en) Electronic apparatus
WO2021095832A1 (en) Neck-worn device
JP5923858B2 (en) Electronic device, processing system and processing program
JP2012185632A (en) Electronic apparatus, processing system, and processing program
JP2018106729A (en) Electronic apparatus
JP2007155985A (en) Robot and voice recognition device, and method for the same
JP2022060288A (en) Control device, robot, control method, and program
CN115968461A (en) Terminal control system and method
US20220020257A1 (en) Method and system for monitoring a user
JP2021082802A (en) Neck-mounted device
JP2007190620A (en) Robot device controller and method thereof
KR20190104704A (en) a terminal for detecting fall
US12039223B2 (en) Head-mountable information processing apparatus
JP6786139B1 (en) Voice input device
WO2015092635A1 (en) Device, method and computer program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150413

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150415

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150908