JP2012185632A - Electronic apparatus, processing system, and processing program - Google Patents
Electronic apparatus, processing system, and processing program Download PDFInfo
- Publication number
- JP2012185632A JP2012185632A JP2011047748A JP2011047748A JP2012185632A JP 2012185632 A JP2012185632 A JP 2012185632A JP 2011047748 A JP2011047748 A JP 2011047748A JP 2011047748 A JP2011047748 A JP 2011047748A JP 2012185632 A JP2012185632 A JP 2012185632A
- Authority
- JP
- Japan
- Prior art keywords
- processing
- unit
- input
- sensor
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、電子機器、処理システム及び処理プログラムに関する。 The present invention relates to an electronic device, a processing system, and a processing program.
ユーザがカメラに向かってジェスチャーを行なうことで機器を操作するインターフェース装置が提案されている(例えば、特許文献1)。 An interface device has been proposed in which a user operates a device by making a gesture toward a camera (for example, Patent Document 1).
しかしながら、従来のインターフェース装置では、ユーザが行った動作がジェスチャーかどうか必ずしも正確に判定することができなかった。 However, the conventional interface device cannot always accurately determine whether the action performed by the user is a gesture.
そこで本発明は上記の課題に鑑みてなされたものであり、対象者の動作に応じた適切な処理を行うことが可能な電子機器、処理システム及び処理プログラムを提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide an electronic device, a processing system, and a processing program capable of performing appropriate processing according to the operation of the subject.
本発明の電子機器は、対象者の生体情報の変化を検出する生体センサ(21)の検出結果を入力する第1入力部(31)と、前記対象者の動作を認識する認識装置(13,23,33)の認識結果を入力する第2入力部(32)と、前記第1、第2入力部の入力結果に基づいて、前記対象者の動作に応じた処理を行う処理部(40)と、を備える電子機器(19)である。 An electronic apparatus according to the present invention includes a first input unit (31) for inputting a detection result of a biological sensor (21) that detects a change in biological information of a subject, and a recognition device (13, 13) that recognizes the operation of the subject. 23, 33) a second input unit (32) for inputting the recognition result, and a processing unit (40) for performing processing according to the operation of the subject based on the input results of the first and second input units. And an electronic device (19).
この場合において、前記認識装置は、異なる複数のセンサを有し、前記処理部は、前記第1入力部への生体情報の変化の入力がない場合でも、前記第2入力部が入力する前記複数のセンサの認識結果に基づいて、前記対象者の動作に応じた処理を行うことができる。 In this case, the recognition device includes a plurality of different sensors, and the processing unit inputs the plurality of inputs that the second input unit inputs even when there is no input of changes in biological information to the first input unit. Based on the recognition result of the sensor, it is possible to perform processing according to the movement of the subject.
また、前記複数のセンサは、撮像装置と、接触式のセンサとを含み、前記接触式のセンサが対象者の動作を認識したときに、前記撮像装置による撮像を行う制御部(40)を備えることができる。この場合、前記撮像装置は、前記接触式のセンサよりも上方に設けられていることとしてもよい。 The plurality of sensors includes an imaging device and a contact-type sensor, and includes a control unit (40) that performs imaging by the imaging device when the contact-type sensor recognizes an action of a subject. be able to. In this case, the imaging device may be provided above the contact sensor.
また、本発明の電子機器では、前記認識装置の少なくとも一部は、前記生体センサの近傍に設けられていることとしてもよい。また、前記処理部は、前記対象者に向けて音を出力するスピーカ(15)により、音を出力する処理を行うこととしてもよく、前記スピーカは、限られた方向に前記音を出力する指向性スピーカであることとしてもよい。 In the electronic device of the present invention, at least a part of the recognition device may be provided in the vicinity of the biometric sensor. The processing unit may perform a process of outputting a sound by a speaker (15) that outputs a sound toward the target person, and the speaker is directed to output the sound in a limited direction. It may be a sexual speaker.
また、本発明の電子機器では、前記処理部は、音声を入力する音声入力装置(16)から、前記対象者が発する音声を受け付けることとすることができる。この場合、前記音声入力装置から受け付けた音声を識別する音声識別部(34)を備えることとしてもよい。 Moreover, in the electronic device of the present invention, the processing unit can accept a voice uttered by the subject from a voice input device (16) that inputs voice. In this case, it is good also as providing the audio | voice identification part (34) which identifies the audio | voice received from the said audio | voice input apparatus.
また、本発明の電子機器は、前記対象者の生体情報が変化している時間と、前記対象者の動作が認識されている時間と、を計時する計時部(20)を備え、前記処理部は、前記入力結果と、前記計時部の計時結果と、に応じた処理を実行することとしてもよい。また、前記対象者が、移動可能な移動装置(50)内に存在する場合、前記処理部は、前記移動装置の動きを検出する検出装置(11)の検出結果を考慮して、前記処理を行うこととしてもよい。 Moreover, the electronic device of the present invention includes a time measuring unit (20) that measures a time when the biological information of the subject changes and a time when the operation of the subject is recognized, and the processing unit May execute processing according to the input result and the timing result of the timing unit. In addition, when the target person exists in the movable mobile device (50), the processing unit performs the processing in consideration of the detection result of the detection device (11) that detects the movement of the mobile device. It may be done.
本発明の処理システムは、対象者の生体情報の変化を検出する生体センサ(21)と、前記対象者の動作を認識する認識装置(13,23,33)と、本発明の電子機器(19)と、を備える処理システム(100)である。 The processing system of the present invention includes a biological sensor (21) for detecting a change in biological information of a subject, a recognition device (13, 23, 33) for recognizing the motion of the subject, and an electronic device (19) of the present invention. And a processing system (100).
本発明の処理プログラムは、対象者の生体情報の変化を検出する生体センサ(21)の検出結果を入力する第1入力工程と、前記対象者の動作を認識する認識装置(13,23,33)の認識結果を入力する第2入力工程と、前記第1、第2入力工程の入力結果に基づいて、前記対象者の動作に応じた処理を行う処理工程と、をコンピュータ(90)に実行させる処理プログラムである。 The processing program of the present invention includes a first input step for inputting a detection result of the biosensor (21) for detecting a change in the biometric information of the subject, and a recognition device (13, 23, 33 for recognizing the motion of the subject. ) To the computer (90), the second input step for inputting the recognition result of), and the processing step for performing processing according to the action of the subject based on the input results of the first and second input steps. Is a processing program to be executed.
なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。 In addition, in order to explain the present invention in an easy-to-understand manner, the above description has been made in association with the reference numerals of the drawings representing one embodiment. However, the present invention is not limited to this, and the configuration of an embodiment described later is provided. May be modified as appropriate, or at least a part thereof may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at a position where the function can be achieved.
本発明の電子機器、処理システム及び処理プログラムは、対象者の動作に応じた適切な処理を行うことができるという効果を奏する。 The electronic device, the processing system, and the processing program of the present invention have an effect of being able to perform appropriate processing according to the operation of the subject.
以下、一実施形態に係るトラブル対応システム100について詳細に説明する。図1は、トラブル対応システム100の概略構成を示すブロック図である。図1に示すように、トラブル対応システム100は、処理装置19と、本体部12と、生体センサ21と、圧電センサ13と、圧力センサ23と、車両センサ11と、空調部29と、タイマー20と、フラッシュメモリ30と、を備える。
Hereinafter, the
図2にはトラブル対応システム100の実装例が示されている。この図2に示すように、本実施形態では、トラブル対応システム100は、電車50内に設けられるものとする。例えば、処理装置19や本体部12は、電車50の天井部に設けられ、圧電センサ13は、電車50の床面に設けられる。また、生体センサ21や圧力センサ23は、電車50内のつり革22(図3参照)に設けられる。更に、その他の装置についても電車50内に設けられるものとする。
FIG. 2 shows an implementation example of the
本体部12は、図1に示すように、撮像部14、スピーカ15、マイク16、LED(Light Emitting Diode)18、及び駆動装置9を有する。本体部12は、各装置を1つのユニットとして構成してもよいが、少なくとも1つの装置を分離配置することとしてもよい。
As shown in FIG. 1, the
撮像部14は、撮影レンズ、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、及び撮像素子を制御する制御回路などを有する。撮像部14は、前述のように電車50の天井部に設けられているので、主に、乗客の頭部を撮像する。また、撮像部14は、乗客が天井の方向を見たときに当該乗客の顔を撮像する。なお、撮像部14が主に頭部を撮像するのは、乗客のプライバシーを守るためである。
The imaging unit 14 includes an imaging lens, an imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), a control circuit that controls the imaging device, and the like. Since the imaging unit 14 is provided on the ceiling of the
スピーカ15は、車内でトラブルが発生した際にトラブルを抑制するためのアナウンスをしたり、乗客に問いかけてトラブルが発生しているかどうかを確認するためのものである。スピーカ15は、処理装置19(処理・制御部40(図6参照))からの指示に基づいて、例えば“大丈夫ですか”、“落ち着いて下さい”などといった音声合成技術を用いて合成された音声を出力する。スピーカ15としては、種々のスピーカを用いることができるが、例えば、超音波トランスデューサを有し、限られた方向のみに音声を伝達する指向性スピーカや超指向性スピーカを用いることができる。指向性のあるスピーカを用いた場合、車両全体ではなく、トラブルが起きている付近に向けて音声を発することができる。
The
マイク16は、車内の音声を集音するものである。マイク16では、例えば、トラブル時に乗客から発せられる“助けて”や“キャー”などの音声を集音し、処理装置19(処理・制御部40)に入力する。
The
LED18は、トラブルが発生している付近に向けて光を照射するものであり、トラブルが発生していることを周りの乗客や駅員などに知らせるものである。
The
駆動装置9は、例えばボイスコイルモータ等を含み、撮像部14、スピーカ15、マイク16及びLED18の位置・姿勢の調節を行うものである。
The drive device 9 includes, for example, a voice coil motor, and adjusts the position and orientation of the imaging unit 14, the
上述のように構成される本体部12は、車両毎に1台もしくは複数台設けることができる(図2では、2台の場合を図示している)。本体部12を何台設けるかは、例えば、撮像部14の撮像領域に応じて(車両全体を撮像できるように)決定することができる。
One or a plurality of
圧電センサ13は、ピエゾ素子を有し、外部から与えられた力を圧電効果により電圧に変換することで、振動を電気的に検出するものである。多数の圧電センサ13を車両内の全域をカバーするように配置すれば、車両内のどの位置において振動が生じているかを検出することができる。
The
例えば、車両内の女性が複数の男性に囲まれて困っており、床(圧電センサ13)を何回か強く踏んだとする。この場合、圧電センサ13がその振動を検出して処理装置19(処理・制御部40)に当該検出結果を送信することで、処理装置19(処理・制御部40)ではトラブル発生の可能性及びその位置を検出することができる。なお、トラブルの検出方法の詳細については、後述する。
For example, it is assumed that a woman in a vehicle is in trouble with being surrounded by a plurality of men and has stepped strongly on the floor (piezoelectric sensor 13) several times. In this case, if the
タイマー20は、計時機能を有し、圧電センサ13が振動を検出した時間を計測するものである。例えば、タイマー20は、振動が5秒以上続けて検出された場合や、所定時間(例えば30秒)内に断続的に振動が検出された場合に、処理装置19(処理・制御部40)に対してその旨を通知する。
The
生体センサ21は、心拍数、血中酸素濃度、血圧などの生体情報を検出するものであり、図1に示すように、LED24、フォトセンサ25、発汗センサ26を有する。LED24、フォトセンサ25、発汗センサ26は、図3に示すように、電車50内に設けられるつり革22の手すり部分22aに設けられるものとする。具体的には、手すり部分22aには、LED24とフォトセンサ25が、交互に複数配置されるとともに、LED24とフォトセンサ25とを挟むように一対の発汗センサ26が設けられている。
The
LED24とフォトセンサ25は、LED24の照射する光を指に当てたときに反射する光をフォトセンサ25で受光することにより心拍数や血中酸素濃度を検出する。発汗センサ26は、複数の電極により手のインピーダンスを測定して、発汗量を検出する。なお、LED24、フォトセンサ25、発汗センサ26の数や配置は適宜設定することができる。
The
また、図3のつり革22の手すり部分22aには、圧力センサ23も設けられているものとする。圧力センサ23としては、歪センサを用いてもよいし、静電容量の変化から圧力を検出するセンサを用いてもよい。圧力センサ23は、乗客がつり革22につかまっていることを検出したり、あるいは、乗客がトラブルに巻き込まれた場合などにおいてつり革22を強く握るなどの通常と異なる握り方(ジェスチャー)をしたことを検出する。なお、圧力センサ23を設ける数や配置は適宜設定することができる。
Further, it is assumed that a
なお、本実施形態においては、図3に示すように生体センサ21の一部と、圧力センサ23を近接配置したが、別々に設けてもよく、また、これらを一つのユニットとしてもよい。なお、つり革22の位置は、予めわかっており、各つり革22の位置の情報は、フラッシュメモリ30等に格納されているものとする。
In the present embodiment, a part of the
車両センサ11は、電車が走行、停止等することで生じる電車自体の振動を検出する振動センサを含む。また、車両センサ11は、車両内の温度を検出する温度センサを含んでいてもよい。車両センサ11の検出結果は、処理装置19(処理・制御部40)に対して送信される。 The vehicle sensor 11 includes a vibration sensor that detects vibration of the train itself that occurs when the train travels, stops, and the like. The vehicle sensor 11 may include a temperature sensor that detects the temperature inside the vehicle. The detection result of the vehicle sensor 11 is transmitted to the processing device 19 (processing / control unit 40).
空調部29は、車両内の空調を行なうものであり、本実施の形態においては、撮像部14により撮像された頭の数(すなわち乗客数)に基づいて、処理装置19(処理・制御部40)により制御される。
The
フラッシュメモリ30は、各種データを記憶している不揮発性のメモリであり、本実施形態においては、フラッシュメモリ30には、乗客の頭を基準とした、手、足の位置を示すリファレンス画像が記憶されている。図4は、リファレンス画像の一例を示す図である。図4において、破線で囲まれた領域が、頭の位置を基準とした手の存在範囲(存在している可能性が高い範囲)であり、一点鎖線で囲まれた領域が、頭の位置を基準とした足の存在範囲である。
The
次に、処理装置19について、詳細に説明する。処理装置19は、トラブル対応システム100全体を制御するものであり、生体センサ21や圧電センサ13、圧力センサ23等の出力に基づいて、車両内でトラブルが発生しているかどうかの判断を行う。また、処理装置19は、トラブルが発生した際にトラブルが沈静化するような動作・処理を、本体部12等に行わせる。
Next, the
図5には、処理装置19のハードウェア構成図が示されている。この図5に示すように、処理装置19は、CPU90、ROM92、RAM94、記憶部(ここではHDD(Hard Disk Drive))96等を備えており、処理装置19の構成各部は、バス98に接続されている。処理装置19では、ROM92あるいはHDD96に格納されている処理プログラムをCPU90が実行することにより、図6の各部の機能が実現される。
FIG. 5 shows a hardware configuration diagram of the
図6には、処理装置19の機能ブロック図が示されている。この図6に示すように、処理装置19は、CPU90が処理プログラムを実行することで、生体情報入力部31、動作情報入力部32、顔認識部33、音声認識部34、及び処理・制御部40としての機能を発揮する。
FIG. 6 shows a functional block diagram of the
生体情報入力部31には、生体センサ21において検出された検出結果が入力される。生体情報入力部31は、入力された情報を、処理・制御部40に対して出力する。
A detection result detected by the
動作情報入力部32には、圧電センサ13、圧力センサ23において検出された検出結果、及び後述する顔認識部33の認識結果が入力される。動作情報入力部32は、入力された情報を、処理・制御部40に対して出力する。
The operation
顔認識部33は、撮像部14が撮像した画像を取得し、当該画像中の顔画像を検出するものである。顔認識部33は、目、鼻、口といった顔の特徴部分を画像として検出することにより顔と判定する。本実施形態においては、撮像部14が車両の天井部に設けられているため、顔認識部33は、撮像部14で撮像した画像に含まれる略円形状の画像が、頭部であるか、顔であるかを判別しているとも言える。また、顔認識部33は、頭部の動きを非接触にて検出するものでもある。なお、車内においては天井を見るために顔を動かすことが難しい状況もある。したがって、顔認識部33は、乗客があごを上げて額と目が撮像部14に撮像されたときに、顔の検出が行われたとするアルゴリズムを採用してもよい。
The
音声認識部34は、音声認識辞書を有しており、当該音声認識辞書を用いて、マイク16から入力された音声の識別を行う。本実施形態では、音声認識辞書には、“助けて”、“キャー”というような、非常時に発する音声が登録されているものとする。なお、マイク16から処理・制御部40に対しては、音声のみならず、集音された音声の大きさ(dB)も入力されるものとする。なお、図6では、音声認識部34に、マイク16から処理装置19に入力された音声が、処理・制御部40を介して入力されているが、これに限られるものではない。マイク16から音声認識部34に直接音声が入力されることとしてもよい。
The
処理・制御部40は、処理装置19内部又は外部から入力される情報を用いて、各種処理を行ったり、処理装置19内部又は外部の装置の制御を行ったりする。例えば、処理・制御部40は、フラッシュメモリ30に記憶されているリファレンス画像を用いることで、顔認識部33で認識された頭又は顔の画像を基準として、生体センサ21、圧電センサ13、圧力センサ23の出力が同一人物(一人の乗客)からの出力であるかどうかを判別する。この場合、リファレンス画像を拡大、縮小、回転させて乗客とのパターンマッチングを行うことにより同一人物かどうかの判別を行うものとする。なお、処理・制御部40は、リファレンス画像の拡大、縮小を、頭の大きさに基づいて行うことができる。このようにするのは、頭の大きさに応じて体格が異なるためである。なお、処理・制御部40は、ジェスチャーを検出した圧力センサ23及び生体情報の変化を検出した生体センサ21の位置を、つり革22の位置情報(フラッシュメモリ30等に格納されている)に基づいて取得することができる。なお、リファレンス画像として男性用、女性用、子供用などをそれぞれの平均的な体格からフラッシュメモリ30に記憶させてもよい。
The processing /
また、処理・制御部40は、生体センサ21や圧電センサ13、圧力センサ23の検出結果に基づいて、乗客が車内でトラブルに巻き込まれたか否かを判断する。ここで、トラブルに巻き込まれた乗客は、生体情報が変化したり、あるいは床を何回か踏むというジェスチャー(アクション)や、つり革22を強く握るというジェスチャー(アクション)や、顔を上げて天井を見るといったジェスチャー(アクション)を行う。また、トラブルに巻き込まれた乗客は、恐怖のあまりに足がガタガタ震えだしたり、つり革22を無意識に強くにぎることがあるため、乗客は無意識にジェスチャー(アクション)を行なうことができる。したがって、処理・制御部40は、生体センサ21や圧電センサ13、圧力センサ23、顔認識部33からの情報に基づいて、トラブルの発生の有無を判断することができる。なお、圧電センサ13、圧力センサ23、顔認識部33は、上記のようなジェスチャー(アクション)を検出しているので、ジェスチャー(アクション)検出部であるともいえる。以下においては、圧電センサ13、圧力センサ23、顔認識部33を纏めて、ジェスチャー検出部(13,23,33)と呼ぶものとする。
Further, the processing /
また、処理・制御部40は、前述した本体部12を駆動する駆動装置9を制御して、トラブルが発生した場所に向けて、音声や光を発したり、トラブルが発生した場所で発せられる音声を集音する。更に、処理・制御部40は、生体センサ21や圧電センサ13、圧力センサ23、顔認識部33からの情報に基づいてトラブルが発生したと判断したタイミングで、マイク16などのスイッチをオンにする(通常はオフの状態が維持される)ような制御を行うこともできる。これにより、省エネルギー化を図ることができる。また、省エネルギー化の観点からすると、処理・制御部40は、つり革22に設けられたLED24やフォトセンサ25の近傍の圧力センサ23で、乗客がつり革につかまったことを検出している間だけ、LED24を発光させるようにしてもよい。
Further, the processing /
次に、上述したように構成されるトラブル対応システム100の処理・動作について、図7のフローチャートに沿って説明する。
Next, the processing and operation of the
図7の処理では、ステップS10において、生体情報入力部31が生体センサ21から入力される生体情報を、処理・制御部40に入力する。具体的には、生体情報入力部31は、処理・制御部40に対して、LED24およびフォトセンサ25で検出された心拍数および血中酸素濃度を入力するとともに、発汗センサ26で検出された発汗量を入力する。なお、生体センサ21から生体情報入力部31に入力される生体情報は、1つの情報であっても複数の情報であってもよい。また、生体情報には、例えば血圧の情報などが含まれていてもよい。なお、ステップS10では、生体情報入力部31は、複数の乗客の生体情報を、処理・制御部40に繰り返し入力するものとする。
In the process of FIG. 7, in step S <b> 10, the biological information input unit 31 inputs biological information input from the
次いで、ステップS12では、圧電センサ13、圧力センサ23の検出情報及び顔認識部33の認識結果を用いて、処理・制御部40が、ジェスチャーの検出を行う。なお、本実施形態では、圧電センサ13、圧力センサ23、顔認識部33を利用してジェスチャー検出を行うが、トラブル検出のシチュエーションに応じて、圧電センサ13、圧力センサ23、顔認識部17の少なくとも1つを利用してジェスチャー検出を行うこととしてもよい。また、圧電センサ13、圧力センサ23、顔認識部17とは別のセンサを利用してジェスチャー検出を行うこととしてもよい。なお、処理・制御部40は、生体センサ21による生体情報の検出と、圧電センサ13又は圧力センサ23によるジェスチャー検出の少なくとも一方があった場合に、撮像部14による撮像を行い、それ以外の場合は撮像部14のスイッチをオフにしておく(又は電源を供給しない)こととしてもよい。
Next, in step S <b> 12, the processing /
なお、ステップS10とステップS12の実行順は入れ替えてもよい。この場合、ステップS10において圧力センサ23からの出力がなかったつり革22においては、ステップS12の生体センサ21による検出を省略してもよい。この場合、生体センサ21への電力供給を、同一のつり革22に設けられた圧力センサ23による圧力の検出タイミングで行うこととしてもよい。
Note that the execution order of step S10 and step S12 may be switched. In this case, in the
次いで、ステップS14では、処理・制御部40が、ステップS10,S12の結果に基づき電車50内でトラブルが発生しているか否かの判断を行う。具体的には、まず、処理・制御部40は、フラッシュメモリ30に記憶されているリファレンス画像(図4)を用いて、乗客の頭又は顔の位置と、生体センサ21及びジェスチャー検出部(圧電センサ13、圧力センサ23)の位置関係(手と足の位置関係)から、どの乗客の生体情報が変化しているか、どの乗客がジェスチャーをしているか、及び、それは同一の乗客かどうかを判断する。そして、処理・制御部40は、乗客が特定できた後に、トラブルが発生しているかどうかを判断する。この場合、処理・制御部40は、以下の(a)〜(c)の判断基準を満たしている場合に、トラブルが発生していると判断する。
Next, in step S14, the processing /
(a) 同一の乗客に関し、生体センサ21が、心拍数もしくは血中酸素濃度の変化を検出するとともに、ジェスチャー検出部(13,23,33)の少なくとも1つが乗客のジェスチャーを検出した場合。
(b) 車両センサ11(温度センサ)による検出の結果、車内の温度が高くない(例えば、23℃以下)にもかかわらず、同一の乗客に関し、発汗センサ26が所定量以上の発汗を検出し、かつジェスチャー検出部(13,23,33)の少なくとも1つのセンサが乗客のジェスチャーを検出した場合。
(c) 同一の乗客に関し、圧力センサ23の出力がない(すなわち生体センサ21からの出力も得られていない)が、圧電センサ13と顔認識部33から所定量以上のジェスチャーを検出した場合。
(A) Regarding the same passenger, when the
(B) As a result of detection by the vehicle sensor 11 (temperature sensor), the
(C) When there is no output from the pressure sensor 23 (that is, no output from the
なお、車両内に乗客の体温を検出することが可能な赤外線センサを設ける場合には、処理・制御部40は、以下の(d)の判断基準を満たす場合に、トラブルが発生していると判断してもよい。
(d) 同一の乗客に関し、圧力センサ23の出力がないが、赤外線センサにて体温の上昇が検出されるとともに、圧電センサ13と顔認識部17との少なくとも一方から所定量以上のジェスチャーを検出した場合。
In addition, when providing the infrared sensor which can detect a passenger's body temperature in a vehicle, when the process /
(D) Regarding the same passenger, there is no output from the
ここで、赤外線センサは、乗客から出ている赤外線放出エネルギー量を検出して、温度に変換するものであり、広い範囲の表面温度の分布を検出することができる。この場合、乗客の頭部の温度変化を検出して、トラブル発生の検出ができる。赤外線カメラのような非接触のセンサを用いれば、乗客に特別なセンサを持たせる(掴ませる)ことなく、乗客の生体情報を入手することができる。 Here, the infrared sensor detects the amount of infrared emission energy emitted from the passenger and converts it into temperature, and can detect a wide range of surface temperature distributions. In this case, the occurrence of trouble can be detected by detecting the temperature change of the passenger's head. If a non-contact sensor such as an infrared camera is used, the passenger's biological information can be obtained without giving (grabbing) a special sensor to the passenger.
なお、上記(a)〜(d)の判断では、処理・制御部40は、タイマー20の計時結果に基づいて、生体センサ21の出力値の変化が5秒以上続いた場合、もしくは生体センサ21の出力値が30秒以内に断続的に変化している場合に、生体センサ21の出力値の変化があったと判断する。ただし、これに限らず、処理・制御部40は、生体センサ21の出力値の変化が大きい場合(例えば変化量が元の値の10%以上となった場合)に、生体情報の変化があったと判断することとしてもよい。また、処理・制御部40は、タイマー20の計時結果に基づいて、ジェスチャー検出部(13,23,33)の出力値の変化が5秒以上続いた場合、もしくはジェスチャー検出部(13,23,33)の出力値が30秒以内に断続的に変化している場合に、乗客がジェスチャーを行ったと判断する。
In the determinations (a) to (d) above, the processing /
また、電車が急停車した場合や、揺れが大きい場合、あるいは乗客が乗り降りする場合などにおいては、ジェスチャー検出部(13,23,33)の検出結果が、トラブル発生時と同様の検出結果となる場合がある。このような場合に、トラブルが発生したと判断することが無いようにするため、処理・制御部40は、車両センサ11の検出結果を考慮して、トラブル発生有無の判断を行うこととしてもよい。
Also, when the train stops suddenly, when shaking is large, or when passengers get on and off, the detection result of the gesture detection unit (13, 23, 33) is the same detection result as when a trouble occurs. There is. In such a case, in order not to determine that a trouble has occurred, the processing /
上記のような判断により、ステップS14の判断が肯定された場合には、ステップS22に移行し、否定された場合には、ステップS16に移行する。 If the determination in step S14 is affirmed by the above determination, the process proceeds to step S22. If the determination is negative, the process proceeds to step S16.
ステップS16に移行した場合、処理・制御部40は、トラブルが発生しているかいないかが明確に判断できないかどうか(すなわち、確認が必要かどうか)を判断する。具体的には、処理・制御部40は、以下の(A)及び(B)のいずれかの条件を満足するか否かに基づいた判断を行う。
When the process proceeds to step S16, the processing /
(A) 生体センサ21が生体情報の変化を検出している一方、ジェスチャー検出部(13,23,33)の検出結果からはジェスチャーが行われていることを確認できない場合。
(B) 圧力センサ23の検出結果からジェスチャーが行われていることを確認できる場合で、生体センサ21が生体情報の変化を検出しておらず、圧電センサ13の検出結果及び顔認識部33の認識結果の少なくとも一方からジェスチャーが行われていることを確認できる場合。
(A) While the
(B) In the case where it can be confirmed from the detection result of the
上記(A)、(B)のいずれかの条件を満たす場合には、ステップS16の判断が肯定され、ステップS18に移行する。一方、上記(A)、(B)のいずれの条件も満たさない場合には、トラブルが発生している可能性はほとんどないとして、ステップS16の判断が否定され、ステップS10に戻る。 If either of the above conditions (A) and (B) is satisfied, the determination in step S16 is affirmed and the process proceeds to step S18. On the other hand, if neither of the above conditions (A) and (B) is satisfied, it is determined that there is almost no possibility that a trouble has occurred, the determination in step S16 is denied, and the process returns to step S10.
ステップS18に移行した場合、処理・制御部40は、ステップS14で特定した乗客に対して確認を行う。具体的には、処理・制御部40は、スピーカ15及びマイク16を駆動装置9により駆動して、特定した乗客に向け、スピーカ15を用いて“大丈夫ですか?”などの音声で問い掛けを行う。また、処理・制御部40は、問い掛けたタイミングでマイク16のスイッチをオンにして、問い掛けに対する乗客からの応答音声を取得する。そして、処理・制御部40は、応答音声を音声認識部34に送信し、音声認識部34による音声認識結果を取得する。
When the process proceeds to step S18, the processing /
次いで、ステップS20では、処理・制御部40が、音声認識部34の認識結果及びステップS16からステップS18の間の生体センサ21およびジェスチャー検出部(13,23,33)の出力に基づいて、トラブルが発生しているか否かを判断する。例えば、処理・制御部40は、音声認識部34の認識結果が“大丈夫です”などであった場合にはトラブルがなかったと判断し、“助けて”や“キャー”などであった場合には、トラブルが発生していると判断する。また、例えば、乗客からの応答音声が無い一方、当該乗客においてジェスチャーがされた場合には、トラブルが発生していると判断する。なお、処理・制御部40は、集音された応答音声の大きさ(dB)を考慮して、トラブルの発生有無を判断してもよい。
Next, in step S20, the processing /
ステップS20の判断が否定された場合(トラブルが発生していない場合)には、ステップS10に戻るが、肯定された場合(トラブルが発生していた場合)には、ステップS22に移行する。 If the determination in step S20 is negative (when no trouble has occurred), the process returns to step S10. If the determination is positive (if a trouble has occurred), the process proceeds to step S22.
上記ステップS20の判断、又は前述したステップS14の判断が肯定されて、ステップS22に移行すると、処理・制御部40は、トラブル抑制処理を実行する。
When the determination in step S20 or the determination in step S14 described above is affirmed and the process proceeds to step S22, the processing /
具体的には、処理・制御部40は、トラブルを抑制するために、駆動装置9を制御して、撮像部14、スピーカ15、マイク16及びLED18を特定した乗客(トラブルに巻き込まれた乗客)及びその周辺に向ける。そして、処理・制御部40は、スピーカ15から、“どうかしましたか”、“大丈夫ですか”などと問い掛けを行ったり、スピーカ15から“トラブルが発生した恐れがありますので、状況を記録いたします”などとアナウンスした後、撮像部14により撮像した映像やマイク16により集音した音声をフラッシュメモリ30に記録する。また、処理装置19は、LED18を発光させ、特定した乗客がいる付近に向け光を照射する。処理・制御部40が、ステップS22を実行すれば、車内で痴漢行為が行われているような場合に、痴漢行為の実行者は行為続行を躊躇する可能性が高い。これにより、その後の痴漢行為の発生を抑制することが可能となる。なお、処理・制御部40は、上記アナウンス、撮像、録音、照射のうちの少なくとも1つの動作を行うこととしてもよい。例えば、LED18の発光は、撮像部14の撮像結果、圧電センサの検出結果などから、乗車率が高いと判断できる場合、あるいは夜間などにおいてのみ、行うこととしてもよい。
Specifically, in order to suppress trouble, the processing /
次いで、ステップS24では、処理・制御部40は、トラブルが沈静化したか否かの確認を行う。この場合、処理・制御部40は、前述したステップS18と同様、スピーカ15を用いた問い掛けを行い、マイク16から取得した応答音声の音声認識部34による認識結果に基づいて、トラブルが沈静化したか否かを判断する。なお、処理・制御部40は、生体センサ21、ジェスチャー検出部(13,23,33)の検出結果に基づいてトラブルが沈静化したか否かを判断することとしてもよい。この場合、生体センサ21、ジェスチャー検出部(13,23,33)の検出結果が正常の値に戻っていれば、トラブルが沈静化したと判断することができる。
Next, in step S24, the processing /
ステップS24における判断が肯定された場合には、ステップS10に戻る。一方、ステップS24の判断が否定された場合には、ステップS26に移行する。ステップS26では、処理・制御部40は、次の停車駅の駅員にトラブルが発生している車両を通知する。この場合、処理・制御部40は、図4のCPUによって実現される通信機能(電話機能やメール機能など)や、処理装置に接続される通信装置を用いて、次の停車駅の駅員に通知することができる。
If the determination in step S24 is affirmative, the process returns to step S10. On the other hand, if the determination in step S24 is negative, the process proceeds to step S26. In step S26, the processing /
以上の処理を、電車運行中に繰り返し実行することで、電車内におけるトラブル発生の検出及びトラブルの沈静化を図ることが可能となる。 By repeatedly executing the above processing during train operation, it is possible to detect occurrence of trouble in the train and to calm down the trouble.
以上、詳細に説明したように、本実施形態によると、処理・制御部40は、生体情報入力部31から入力される電車内の乗客の生体情報の変化を検出する生体センサ21の検出結果と、動作情報入力部32から入力される乗客の動作を認識するジェスチャー検出部(13,23,33)の認識結果とに基づいて、乗客の動作(ジェスチャー)に応じた処理を行う。すなわち、処理・制御部40は、ジェスチャー検出部(13,23,33)が認識した動作に加えて、生体センサ21の検出結果を考慮した処理(トラブル発生有無の判断やトラブル沈静化の処理)を行うことで、乗客の動作に応じた適切な処理を行うことができる。
As described above in detail, according to the present embodiment, the processing /
また、本実施形態によると、ジェスチャー検出部(13,23,33)が、異なる複数のセンサを有しており、処理・制御部40は、生体情報入力部31への生体情報の変化の入力がない場合でも、動作情報入力部32が入力する複数のセンサの認識結果に基づいて、乗客の動作に応じた処理を行うこととしている。したがって、複数のセンサの動作(ジェスチャー)の認識結果に基づく処理を行うことで、乗客の動作に応じた処理をより適切に行うことが可能となる。
Further, according to the present embodiment, the gesture detection unit (13, 23, 33) has a plurality of different sensors, and the processing /
また、本実施形態によると、ジェスチャー検出部が、非接触センサである顔認識部33と、圧電センサ13や圧力センサ23などの接触式のセンサとを含んでおり、処理・制御部40は、接触式のセンサが乗客の動作を認識したときに、撮像部14による撮像を行う。これにより、撮像部14は、接触式のセンサが乗客の動作を認識するまでの間、電源をオフにすることができるので省エネルギー化を図ることが可能となる。
In addition, according to the present embodiment, the gesture detection unit includes the
また、本実施形態によると、撮像部14は、接触式のセンサよりも上方(天井部)に設けられているので、撮像部14では、主に乗客の頭を撮像することができる。これにより、乗客のプライバシーを守ることが可能となる。 Moreover, according to this embodiment, since the imaging part 14 is provided above (ceiling part) rather than the contact-type sensor, the imaging part 14 can mainly image a passenger's head. Thereby, it becomes possible to protect a passenger's privacy.
また、本実施形態によると、ジェスチャー検出部の少なくとも一部(本実施形態では圧力センサ23)が、生体センサ21の近傍に設けられているので、ジェスチャーを行った手自体の生体情報の変化を生体センサ21で検出することができる。この場合、ジェスチャーと生体情報の変化の関連が高いため、乗客の動作に応じた処理をより適切に行うことが可能となる。
In addition, according to the present embodiment, since at least a part of the gesture detection unit (the
また、本実施形態によると、処理・制御部40は、乗客の動作に応じた処理として、乗客に向けてスピーカ15から音を出力する処理を行うので、乗客への問い掛けや乗客の行為に対する注意などを行うことができる。これにより、トラブル発生有無の判断やトラブル抑制の処理を適切に行うことができる。
Moreover, according to this embodiment, since the process /
また、本実施形態では、スピーカ15が、限られた方向に音を出力する指向性スピーカとすることができる。この場合、乗客への問い掛けや注意を、特定の乗客(ジェスチャーを行った乗客)やその周囲の乗客に限定して、行うことができる。
In the present embodiment, the
また、本実施形態によると、処理・制御部40は、音声を入力するマイク16から乗客が発する音声を受け付け、音声認識部34に音声を識別させるので、処理・制御部40は、乗客が発した音声の意味に基づいた適切な処理(トラブル発生の確認など)を行うことが可能となる。
In addition, according to the present embodiment, the processing /
また、本実施形態では、乗客の生体情報が変化している時間と、乗客のジェスチャーが認識されている時間と、を計時するタイマー20を備えており、処理・制御部40は、生体情報入力部31及び動作情報入力部32の入力結果と、タイマー20の計時結果と、に応じた処理を実行する。例えば、処理・制御部40は、入力結果の変化が5秒以上続けて検出された場合や、所定時間(例えば30秒)内に断続的に入力結果が変化した場合に、ジェスチャーが行われたと判断して、処理を実行するようにする。これにより、ジェスチャーが行われたことの判断を適切に行うことができ、ひいては処理を適切に実行することが可能となる。
Moreover, in this embodiment, the
また、本実施形態では、乗客が、電車という移動可能な装置内に存在しており、処理・制御部40は、電車の動きを検出する車両センサ11の検出結果を考慮して、処理を行うこととしている。すなわち、急な加減速、停止、乗客の昇降などにおいて生じる電車の動きを考慮することで、電車の動きに起因する乗客の動作があっても乗客のジェスチャーの有無を適切に判断することができ、ひいては、適切な処理を行うことが可能となる。
In the present embodiment, the passenger is present in a movable device called a train, and the processing /
また、本実施形態では、動作情報入力部32が、乗客の手の動きを検出する圧力センサ23の検出結果、足の動きを検出する圧電センサ13の検出結果、及び頭部の動きを検出する顔認識部33の認識結果を入力し、処理・制御部40が、手、足、頭部が同一人物の一部であるか否かを判定するので、処理・制御部40は、同一人物の手、足、頭部の動きの検出結果を関連付けることが可能となる。また、本実施形態では、処理・制御部40は、同一人物の手、足、頭の動きの検出結果に基づいた処理を行うので、手、足、頭部の動きに基づいた適切な処理を行うことができる。
In the present embodiment, the motion
また、本実施形態では、処理・制御部40は、手の動きを検出した圧力センサ23の位置情報、足の動きを検出した圧電センサ13の位置情報に基づいて、手と足とが、同一人物のものであるか否かを判定するので、位置情報に基づく適切な判定が可能となる。
In this embodiment, the processing /
また、本実施形態では、動作情報入力部32に加えて、乗客の生体情報の変化を検出する生体センサ21の検出結果を入力する生体情報入力部31を備えているので、ジェスチャーと生体情報の変化とに基づいた適切な処理を行うことが可能となる。
Further, in the present embodiment, in addition to the motion
また、本実施形態では、処理・制御部40は、顔認識部33から入力される、頭部の動きと頭部以外(手や足)の動きとに基づいた処理を行うので、頭部の動きや頭部以外の動きいずれかに基づいた処理を行う場合と比べて、適切な処理を行うことが可能となる。
In the present embodiment, the processing /
なお、上記実施形態では、処理装置19が、音声認識部34、顔認識部33の機能を有する場合について説明した。しかしながら、これに限られるものではなく、音声認識部34と同等の機能を有する装置や顔認識部33と同等の機能を有する装置(CPUなど)が、処理装置19の外部に設けられることとしてもよい。
In the above embodiment, the case where the
なお、上記実施形態では、圧電センサ13に代えて、又はこれとともに、乗客が身に付ける加速度センサをジェスチャー検出部の一部として採用することとしてもよい。加速度センサは、例えば、靴に内蔵する又は取り付けることとする。加速度センサの情報は、処理装置19又はフラッシュメモリ30に登録しておく。そして、乗客が車内で床を踏むジェスチャーを行った際には、加速度センサの検出結果が、無線通信などにより処理装置19(動作情報入力部32)に入力される。このようにすることで、圧電センサ13を利用した場合と同様の処理を行うことが可能となる。また、加速度センサをつま先部分とかかと部分にそれぞれ設けることとすれば、車内でどのような姿勢になった場合でも、乗客が行った床を踏むというジェスチャーを検出することが可能となる。このように加速度センサを使用した場合には、トラブルの発生をより正確に検出することが可能である。
In the above embodiment, an acceleration sensor worn by a passenger may be adopted as a part of the gesture detection unit instead of or together with the
なお、上記実施形態では、生体センサ21をつり革22に設ける場合について説明したが、これに限られるものではない。例えば、生体センサ21を乗客が身に付ける時計型の装身具や指輪型の装身具に設けることとしてもよい。この場合、装身具には無線ユニットを設けておき、無線ユニットを用いて生体センサ21が検出した生体情報を無線送信するようにする。また、生体センサ21は、処理装置19に登録しておく。この場合、乗客が生体センサ21を身につけておけば、例えば乗客が痴漢行為を受け心拍数が上昇したときに(すなわち、生体情報が変化したときに)、無線ユニットを用いて処理装置19に痴漢行為の発生の可能性を通知することができる。また、この場合、痴漢行為を受けている乗客がつり革を掴んでいなくてもよいため、より正確にトラブルの発生を検出することができる。
In addition, although the said embodiment demonstrated the case where the
なお、上記実施形態では、処理装置19が車両内に設けられた場合について説明したが、これに限られるものではない。例えば、処理装置19は、車両外(例えば駅や鉄道管制施設など)に設けることとしてもよい。この場合、図1に示す処理装置19以外の各部と、処理装置19とが通信可能である必要がある。
In addition, although the said embodiment demonstrated the case where the
なお、上記実施形態では、車両内のつり革22に生体センサ21や圧力センサ23を設ける場合について説明したが、これに限らず、車両内に設けられた棒状の手すりに生体センサ21や圧力センサ23を設けることとしてもよい。
In the above embodiment, the case where the living
なお、トラブル対応システム100は、電車内に設ける場合に限らず、バスやエレベータなど人が搭乗することが可能な移動装置内に設置することが可能であり、これに加えて、学校、病院、銀行、商業施設、自宅などへ設置することも可能である。
The
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
11 車両センサ
13 圧電センサ
15 スピーカ
16 マイク
19 処理装置
20 タイマー
21 生体センサ
23 圧力センサ
31 生体情報入力部
32 動作情報入力部
33 顔認識部
34 音声認識部
40 処理・制御部
50 電車
90 CPU
100 トラブル対応システム
DESCRIPTION OF SYMBOLS 11
100 Trouble response system
Claims (13)
前記対象者の動作を認識する認識装置の認識結果を入力する第2入力部と、
前記第1、第2入力部の入力結果に基づいて、前記対象者の動作に応じた処理を行う処理部と、を備えたことを特徴とする電子機器。 A first input unit for inputting a detection result of a biological sensor that detects a change in biological information of the subject;
A second input unit for inputting a recognition result of a recognition device for recognizing the movement of the subject;
An electronic apparatus comprising: a processing unit that performs processing according to the operation of the subject based on input results of the first and second input units.
前記処理部は、前記第1入力部への生体情報の変化の入力がない場合でも、前記第2入力部が入力する前記複数のセンサの認識結果に基づいて、前記対象者の動作に応じた処理を行うことを特徴とする請求項1に記載の電子機器。 The recognition device has a plurality of different sensors,
The processing unit responds to the operation of the subject based on the recognition results of the plurality of sensors input by the second input unit even when there is no input of changes in biological information to the first input unit. The electronic device according to claim 1, wherein processing is performed.
前記接触式のセンサが対象者の動作を認識したときに、前記撮像装置による撮像を行う制御部を備えることを特徴とする請求項1または2に記載の電子機器。 The plurality of sensors includes an imaging device and a contact sensor,
3. The electronic apparatus according to claim 1, further comprising a control unit configured to perform imaging by the imaging device when the contact-type sensor recognizes a motion of the subject.
前記処理部は、前記入力結果と、前記計時部の計時結果と、に応じた処理を実行することを特徴とする請求項1〜9のいずれか一項に記載の電子機器。 A time measuring unit for measuring the time when the biological information of the subject is changing and the time when the operation of the subject is recognized;
The electronic device according to any one of claims 1 to 9, wherein the processing unit executes processing according to the input result and a timing result of the timing unit.
前記処理部は、前記移動装置の動きを検出する検出装置の検出結果を考慮して、前記処理を行うことを特徴とする請求項1〜10のいずれか一項に記載の電子機器。 If the subject is present in a movable mobile device,
The electronic device according to claim 1, wherein the processing unit performs the processing in consideration of a detection result of a detection device that detects a movement of the mobile device.
前記対象者の動作を認識する認識装置と、
請求項1〜11のいずれか一項に記載の電子機器と、を備える処理システム。 A biological sensor for detecting a change in biological information of the subject,
A recognition device for recognizing the movement of the subject;
A processing system comprising: the electronic device according to claim 1.
前記対象者の動作を認識する認識装置の認識結果を入力する第2入力工程と、
前記第1、第2入力工程の入力結果に基づいて、前記対象者の動作に応じた処理を行う処理工程と、をコンピュータに実行させることを特徴とする処理プログラム。 A first input step of inputting a detection result of a biological sensor that detects a change in biological information of the subject;
A second input step of inputting a recognition result of a recognition device for recognizing the movement of the subject;
A processing program for causing a computer to execute a processing step of performing processing according to the operation of the subject based on input results of the first and second input steps.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011047748A JP2012185632A (en) | 2011-03-04 | 2011-03-04 | Electronic apparatus, processing system, and processing program |
CN201280011645.4A CN103430125B (en) | 2011-03-04 | 2012-02-09 | Electronic equipment and processing system |
PCT/JP2012/052994 WO2012120959A1 (en) | 2011-03-04 | 2012-02-09 | Electronic apparatus, processing system, and processing program |
US13/983,923 US20140067204A1 (en) | 2011-03-04 | 2012-02-09 | Electronic apparatus, processing system, and computer readable storage medium |
US15/912,254 US20180194279A1 (en) | 2011-03-04 | 2018-03-05 | Electronic apparatus, processing system, and processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011047748A JP2012185632A (en) | 2011-03-04 | 2011-03-04 | Electronic apparatus, processing system, and processing program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015239648A Division JP2016053990A (en) | 2015-12-08 | 2015-12-08 | Electronic apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012185632A true JP2012185632A (en) | 2012-09-27 |
Family
ID=47015680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011047748A Pending JP2012185632A (en) | 2011-03-04 | 2011-03-04 | Electronic apparatus, processing system, and processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012185632A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016009407A (en) * | 2014-06-25 | 2016-01-18 | 日本電信電話株式会社 | User state estimation device and user state estimation method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005146725A (en) * | 2003-11-18 | 2005-06-09 | Omron Corp | Door control device |
JP2008117056A (en) * | 2006-11-01 | 2008-05-22 | Nec Corp | Mobile terminal with acceleration sensor, method for registering pattern of acceleration, and method and program for comparing pattern of acceleration |
JP2009217477A (en) * | 2008-03-10 | 2009-09-24 | Mitsubishi Electric Corp | Input device |
JP2010110864A (en) * | 2008-11-06 | 2010-05-20 | Nec Corp | Robot system and method and program for activating communication |
JP2010226319A (en) * | 2009-03-23 | 2010-10-07 | Fujifilm Corp | Imaging apparatus and imaging method |
-
2011
- 2011-03-04 JP JP2011047748A patent/JP2012185632A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005146725A (en) * | 2003-11-18 | 2005-06-09 | Omron Corp | Door control device |
JP2008117056A (en) * | 2006-11-01 | 2008-05-22 | Nec Corp | Mobile terminal with acceleration sensor, method for registering pattern of acceleration, and method and program for comparing pattern of acceleration |
JP2009217477A (en) * | 2008-03-10 | 2009-09-24 | Mitsubishi Electric Corp | Input device |
JP2010110864A (en) * | 2008-11-06 | 2010-05-20 | Nec Corp | Robot system and method and program for activating communication |
JP2010226319A (en) * | 2009-03-23 | 2010-10-07 | Fujifilm Corp | Imaging apparatus and imaging method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016009407A (en) * | 2014-06-25 | 2016-01-18 | 日本電信電話株式会社 | User state estimation device and user state estimation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2012120959A1 (en) | Electronic apparatus, processing system, and processing program | |
US20160379463A1 (en) | Method and apparatus for setting a notification readout mode based on proximity detection | |
JP5366048B2 (en) | Information provision system | |
US9838771B1 (en) | In-ear utility device having a humidity sensor | |
US11517252B2 (en) | Using a hearable to generate a user health indicator | |
CN111475206B (en) | Method and apparatus for waking up wearable device | |
US20180009118A1 (en) | Robot control device, robot, robot control method, and program recording medium | |
US10536852B2 (en) | Electronic apparatus, method for authenticating the same, and recording medium | |
US20170347183A1 (en) | In-Ear Utility Device Having Dual Microphones | |
WO2017205558A1 (en) | In-ear utility device having dual microphones | |
JP2016053990A (en) | Electronic apparatus | |
WO2021095832A1 (en) | Neck-worn device | |
JP5923858B2 (en) | Electronic device, processing system and processing program | |
JP2012185632A (en) | Electronic apparatus, processing system, and processing program | |
JP2018106729A (en) | Electronic apparatus | |
JP2007155985A (en) | Robot and voice recognition device, and method for the same | |
JP2022060288A (en) | Control device, robot, control method, and program | |
CN115968461A (en) | Terminal control system and method | |
US20220020257A1 (en) | Method and system for monitoring a user | |
JP2021082802A (en) | Neck-mounted device | |
JP2007190620A (en) | Robot device controller and method thereof | |
KR20190104704A (en) | a terminal for detecting fall | |
US12039223B2 (en) | Head-mountable information processing apparatus | |
JP6786139B1 (en) | Voice input device | |
WO2015092635A1 (en) | Device, method and computer program product |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150210 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150413 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150415 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150908 |