CN103430125A - 电子设备、处理系统以及处理程序 - Google Patents

电子设备、处理系统以及处理程序 Download PDF

Info

Publication number
CN103430125A
CN103430125A CN2012800116454A CN201280011645A CN103430125A CN 103430125 A CN103430125 A CN 103430125A CN 2012800116454 A CN2012800116454 A CN 2012800116454A CN 201280011645 A CN201280011645 A CN 201280011645A CN 103430125 A CN103430125 A CN 103430125A
Authority
CN
China
Prior art keywords
sensor
input
movement
electronic equipment
testing result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012800116454A
Other languages
English (en)
Other versions
CN103430125B (zh
Inventor
高桥和敬
村谷真美
山田直人
村木伸次郎
阿达裕也
关口政一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2011047748A external-priority patent/JP2012185632A/ja
Priority claimed from JP2011047749A external-priority patent/JP5923858B2/ja
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of CN103430125A publication Critical patent/CN103430125A/zh
Application granted granted Critical
Publication of CN103430125B publication Critical patent/CN103430125B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60HARRANGEMENTS OF HEATING, COOLING, VENTILATING OR OTHER AIR-TREATING DEVICES SPECIALLY ADAPTED FOR PASSENGER OR GOODS SPACES OF VEHICLES
    • B60H1/00Heating, cooling or ventilating [HVAC] devices
    • B60H1/00642Control systems or circuits; Control members or indication devices for heating, cooling or ventilating devices
    • B60H1/00735Control systems or circuits characterised by their input, i.e. by the detection, measurement or calculation of particular conditions, e.g. signal treatment, dynamic models
    • B60H1/00742Control systems or circuits characterised by their input, i.e. by the detection, measurement or calculation of particular conditions, e.g. signal treatment, dynamic models by detection of the vehicle occupants' presence; by detection of conditions relating to the body of occupants, e.g. using radiant heat detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60HARRANGEMENTS OF HEATING, COOLING, VENTILATING OR OTHER AIR-TREATING DEVICES SPECIALLY ADAPTED FOR PASSENGER OR GOODS SPACES OF VEHICLES
    • B60H1/00Heating, cooling or ventilating [HVAC] devices
    • B60H1/00642Control systems or circuits; Control members or indication devices for heating, cooling or ventilating devices
    • B60H1/00735Control systems or circuits characterised by their input, i.e. by the detection, measurement or calculation of particular conditions, e.g. signal treatment, dynamic models
    • B60H1/00757Control systems or circuits characterised by their input, i.e. by the detection, measurement or calculation of particular conditions, e.g. signal treatment, dynamic models by the input of sound, e.g. by using a voice synthesizer
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • B60Q5/005Arrangement or adaptation of acoustic signal devices automatically actuated
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61DBODY DETAILS OR KINDS OF RAILWAY VEHICLES
    • B61D27/00Heating, cooling, ventilating, or air-conditioning
    • B61D27/0018Air-conditioning means, i.e. combining at least two of the following ways of treating or supplying air, namely heating, cooling or ventilating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61KAUXILIARY EQUIPMENT SPECIALLY ADAPTED FOR RAILWAYS, NOT OTHERWISE PROVIDED FOR
    • B61K13/00Other auxiliaries or accessories for railways
    • B61K13/04Passenger-warning devices attached to vehicles; Safety devices for preventing accidents to passengers when entering or leaving vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Thermal Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本发明提供一种进行与对象者的动作相应的适当处理的电子设备,具有:第1输入部,其输入用于检测对象者的生物体信息的变化的生物体传感器的检测结果;第2输入部,其输入用于识别所述对象者的动作的识别装置的识别结果;和处理部,其基于所述第1、第2输入部的输入结果来进行与所述对象者的动作相应的处理。

Description

电子设备、处理系统以及处理程序
技术领域
本发明涉及电子设备、处理系统以及处理程序。
背景技术
提出了一种通过用户面向照相机做出姿势(gesture)来操作设备的界面装置(例如专利文献1)。
现有技术文献
专利文献
专利文献1:日本特开2004-246856号公报
发明内容
发明要解决的问题
然而,在以往的界面装置中,未必能够正确判定用户进行的动作是不是姿势。
于是,本发明是鉴于上述的问题而完成的,其目的在于提供一种能够进行与对象者的动作相应的适当处理的电子设备、处理系统以及处理程序。
用于解决问题的手段
本发明的电子设备是如下的电子设备,具有:第1输入部,其输入用于检测对象者的生物体信息的变化的生物体传感器的检测结果;第2输入部,其输入用于识别所述对象者的动作的识别装置的识别结果;和处理部,其基于所述第1、第2输入部的输入结果,进行与所述对象者的动作相应的处理。
在该情况下,所述识别装置具有不同的多个传感器,即使在没有向所述第1输入部输入生物体信息的变化的情况下,所述处理部也能够基于所述第2输入部输入的所述多个传感器的识别结果来进行与所述对象者的动作相应的处理。
另外,所述多个传感器包含拍摄装置和接触式的传感器,所述电子设备可以具有控制部,该控制部在所述接触式的传感器识别出对象者的动作时,进行所述拍摄装置的拍摄。该情况下,所述拍摄装置可以设置于所述接触式的传感器的上方。
另外,在本发明的电子设备中,所述识别装置的至少一部分可以设置在所述生物体传感器的附近。另外,所述处理部可以利用向所述对象者输出音响的扬声器来进行输出音响的处理,所述扬声器可以是向受限的方向输出所述音响的指向性扬声器。
另外,在本发明的电子设备中,所述处理部可以从输入声音的声音输入装置接受所述对象者发出的声音。该情况下,可以具有对从所述声音输入装置接受的声音进行识别的声音识别部。
另外,本发明的电子设备具有对所述对象者的生物体信息变化的时间和识别所述对象者的动作的时间进行计时的计时部,所述处理部可以执行与所述输入结果和所述计时部的计时结果相应的处理。另外,在所述对象者存在于能够移动的移动装置内的情况下,所述处理部可以考虑检测所述移动装置的举动的检测装置的检测结果来进行所述处理。另外,所述第1输入部可以通过人体通信来输入所述生物体信息的变化。
本发明的处理系统是如下的处理系统,具有:检测对象者的生物体信息的变化的生物体传感器;识别所述对象者的动作的识别装置;和本发明的电子设备。该情况下,所述生物体传感器可以从对象者的手和臀部的至少一方检测所述生物体信息的变化。
本发明的电子设备是如下的电子设备,具有:第1输入部,其输入用于检测身体的第1部分的举动的第1传感器的检测结果;第2输入部,其输入用于检测与所述第1部分不同的身体的第2部分的举动的与所述第1传感器不同的第2传感器的检测结果;和判定部,其判定所述第1部分和所述第2部分是否是同一人物的一部分。
在该情况下,可以具有处理部,该处理部在所述判定部判定为是同一人物的一部分的情况下,进行与所述第1、第2输入部输入的检测结果相应的处理。
另外,所述判定部可以基于检测到所述第1部分的举动的所述第1传感器的位置信息和检测到所述第2部分的举动的所述第2传感器的位置信息,判定所述第1部分和所述第2部分是否是同一人物的一部分。
另外,所述第1传感器可以是与所述第1部分接触来检测所述第1部分的举动的接触型传感器,所述第2传感器是可以与所述第2部分接触来检测所述第2部分的举动的接触型传感器。
另外,所述第1传感器和所述第2传感器的一方可以是检测手的举动的手检测传感器,所述第1传感器和所述第2传感器的另一方可以是检测脚的举动的脚检测传感器。
另外,所述第1传感器可以是与所述第1部分接触来检测所述第1部分的举动的接触型传感器,所述第2传感器可以是不与所述第2部分接触地检测所述第2部分的举动的非接触型传感器。
另外,所述第2传感器可以是检测头部的举动的头部检测传感器。
在本发明的电子设备中,可以具有第3输入部,该第3输入部输入用于检测与所述第1、第2部分不同的身体的第3部分的举动的第3传感器的检测结果。
另外,可以具有第4输入部,该第4输入部输入用于检测身体的生物体信息的变化的生物体传感器的检测结果。
本发明的电子设备是如下的电子设备,具有:第1输入部,其输入以非接触方式检测头部的举动的非接触传感器的检测结果;第2输入部,其输入与不同于所述头部的身体的部分接触来检测该部分的举动的接触传感器的检测结果;和处理部,其进行与所述第1、第2输入部输入的检测结果相应的处理。
在该情况下,可以具有控制部,该控制部在通过所述接触传感器检测到所述举动时,进行所述非接触传感器的检测。另外,可以具有判定部,该判定部判定所述非接触传感器检测到举动的头部和所述接触传感器检测到举动的所述身体的部分是否是同一人物的一部分。
另外,在所述判定部的判定结果为所述非接触传感器检测到举动的头部和所述接触传感器检测到举动的所述身体的部分是同一人物的一部分的情况下,所述处理部可以进行与所述第1、第2输入部输入的检测结果相应的处理。
另外,所述接触传感器可以具有检测所述身体的第1部分的举动的第1传感器和检测与所述第1部分不同的第2部分的举动的第2传感器。
另外,可以具有生物体信息输入部,该生物体信息输入部输入用于检测身体的生物体信息的变化的生物体传感器的检测结果。
本发明的处理系统是如下的处理系统,具有:检测身体的第1部分的举动的第1传感器;检测与所述第1部分不同的身体的第2部分的举动的第2传感器;和本发明的电子设备。
本发明的处理系统是如下的处理系统,具有:以非接触方式检测头部的举动的非接触传感器;与不同于所述头部的身体的部分接触来检测该部分的举动的接触传感器;和本发明的电子设备。
本发明的处理程序是使计算机执行如下工序的处理程序:第1输入工序,将检测对象者的生物体信息的变化的生物体传感器的检测结果输入;第2输入工序,将识别所述对象者的动作的识别装置的识别结果输入;和处理工序,基于所述第1、第2输入工序的输入结果,进行与所述对象者的动作相应的处理。
本发明的处理程序是使计算机执行如下工序的处理程序:第1输入工序,将检测身体的第1部分的举动的第1传感器的检测结果输入;第2输入工序,将检测与所述第1部分不同的身体的第2部分的举动的与所述第1传感器不同的第2传感器的检测结果输入;和判定工序,判定所述第1部分和所述第2部分是否是同一人物的一部分。
本发明的处理程序是使计算机执行如下工序的处理程序:第1输入工序,将以非接触方式检测头部的举动的非接触传感器的检测结果输入;第2输入工序,将与不同于所述头部的身体的部分接触来检测该部分的举动的接触传感器的检测结果输入;和处理工序,进行与所述第1、第2输入部输入的检测结果相应的处理。
发明的效果
本发明的电子设备、处理系统以及处理程序起到能够进行与对象者的动作相应的适当处理的效果。
附图说明
图1是概略表示一个实施方式的事故应对系统的构成的图。
图2是表示事故应对系统安装到电车内的安装例的图。
图3是表示设置于吊环的压力传感器及生物体传感器的图。
图4是表示参考图像的一例的图。
图5是电子设备的硬件构成图。
图6是电子设备的功能框图。
图7是表示事故应对系统(电子设备的处理控制部)的处理的流程图。
具体实施方式
下面对一个实施方式的事故应对系统100进行详细说明。图1是表示事故应对系统100的概略构成的框图。如图1所示,事故应对系统100具有处理装置19、主体部12、生物体传感器21、压电传感器13、压力传感器23、车辆传感器11、空调部29、计时器20和闪存30。
图2中示出了事故应对系统100的安装例。如该图2所示,在本实施方式中,事故应对系统100设置在电车50内。例如,处理装置19和主体部12设置于电车50的顶棚部,压电传感器13设置于电车50的地板面。另外,生物体传感器21和压力传感器23设置于电车50内的吊环22(参照图3)。进而,对于其他装置也设置在电车50内。
如图1所示,主体部12具有拍摄部14、扬声器15,麦克风16、LED(Light Emitting Diode:发光二极管)18以及驱动装置9。主体部12可以将各装置构成为1个单元,也可以将至少1个装置分离配置。
拍摄部14具有拍摄镜头、CCD(Charge Coupled Device:电荷耦合器件)或CMOS(Complementary Metal Oxide Semiconductor:互补金属氧化物半导体)等拍摄元件以及控制拍摄元件的控制电路等。因为拍摄部14如上述那样设置于电车50的顶棚部,所以主要拍摄乘客的头部。另外,拍摄部14在乘客看向顶棚的方向时拍摄该乘客的面部。此外,拍摄部14主要拍摄头部是为了保护乘客的隐私。
扬声器15是用于在车内发生了事故时发出用于抑制事故的广播,或者询问乘客来确认是否发生了事故的装置。扬声器15基于来自处理装置19(处理控制部40(参照图6))的指示,输出例如“没事吧”、“请安静″等使用声音合成技术所合成的声音。作为扬声器15,可以使用各种扬声器,例如可以使用具有超声波变频器并仅向受限的方向传达声音的指向性扬声器或超指向性扬声器。在使用有指向性的扬声器的情况下,能够不向整个车辆而向发生事故的附近发出声音。
麦克风16是收集车内的声音的装置。在麦克风16中,收集例如在事故时由乘客发出的“救命”、“啊”等声音并输入到处理装置19(处理控制部40)。
LED18是向发生事故的附近照射光的装置,将发生事故这一情况通知给周围的乘客和站务员等。
驱动装置9包含例如音圈电机等,是进行拍摄部14、扬声器15、麦克风16以及LED18的位置、姿势的调节的装置。
如上述那样构成的主体部12能够在每台车辆上设置1个或多个(图2中示出了2个的情况)。设置几个主体部12例如能够根据拍摄部14的拍摄区域(以使能够拍摄整个车辆)来决定。
压电传感器13具有压电元件,是通过将从外部施加的力利用压电效果转换成电压来以电方式检测振动的装置。如果将大量的压电传感器13配置成覆盖车辆内的全部区域,则能够检测在车辆内的哪个位置产生了振动。
例如车辆内的女性被多个男性包围被困,用力踩踏了几次地板(压电传感器13)。该情况下,压电传感器13检测该振动并将该检测结果发送到处理装置19(处理控制部40),由此在处理装置19(处理控制部40)中能够检测发生事故的可能性及其位置。此外,将在后面详细描述事故的检测方法。
计时器20具有计时功能,是对压电传感器13检测到振动的时间进行计测的装置。例如,在检测到振动持续5秒以上或在预定时间(例如30秒)内断续地检测到振动的情况下,计时器20将该意思通知给处理装置19(处理控制部40)。
生物体传感器21是检测心跳数、血液氧浓度、血压等生物体信息的装置,如图1所示,具有LED24、光传感器25、出汗传感器26。如图3所示,LED24、光传感器25、出汗传感器26设置于在电车50内设置的吊环22的把手部分22a。具体而言,在把手部分22a,LED24和光传感器25交替地配置有多个,并且以夹着LED24和光传感器25的方式设置有一对出汗传感器26。
LED24和光传感器25通过将手指碰到LED24照射光时所反射的光由光传感器25来接收,从而检测心跳数和/或血液氧浓度。出汗传感器26利用多个电极测定手的阻抗来检测出汗量。此外,LED24、光传感器25、出汗传感器26的数量和配置能够进行适当设定。
另外,在图3的吊环22的把手部分22a还设有压力传感器23。作为压力传感器23,可以使用应变传感器,也可以使用根据静电电容的变化来检测压力的传感器。压力传感器23检测乘客抓住吊环22这一情况,或者检测在乘客卷入了事故的情况等下用力攥住吊环22等做出不同于通常的抓握方式(姿势)这一情况。此外,设置压力传感器23的数量和配置能够进行适当设定。
此外,在本实施方式中,如图3所示,将生物体传感器21的一部分和压力传感器23接近地配置,但也可以分开设置,另外也可以将它们作为一个单元。此外,吊环22的位置预先可知,各吊环22的位置的信息被存储在闪存30等中。
车辆传感器11包含检测由于电车行驶、停止等所产生的电车本身的振动的振动传感器。另外,车辆传感器11也可以包含检测车辆内的温度的温度传感器。车辆传感器11的检测结果被发送到处理装置19(处理控制部40)。
空调部29是进行车辆内的空气调节的装置,在本实施方式中,基于由拍摄部14拍摄到的头的数量(即乘客数量),由处理装置19(处理控制部40)控制该空调部29。
闪存30是存储有各种数据的非易失性的存储器,在本实施方式中,在闪存30中存储有表示以乘客的头为基准的手、脚的位置的参考图像。图4是表示参考图像的一例的图。在图4中,由虚线包围的区域是以头的位置为基准的手的存在范围(存在的可能性高的范围),由点划线包围的域是以头的位置为基准的脚的存在范围。
接着,对处理装置19进行详细说明。处理装置19是控制事故应对系统100整体的装置,基于生物体传感器21、压电传感器13、压力传感器23等的输出,进行车辆内是否发生了事故的判断。另外,处理装置19在发生了事故时使主体部12等进行稳定事故的动作、处理。
图5中示出了处理装置19的硬件构成图。如该图5所示,处理装置19具有CPU90、ROM92、RAM94、存储部(在此为HDD(HardDisk Drive:硬盘驱动器))96等,处理装置19的构成各部连接于总线98。在处理装置19中,通过CPU90执行存储在ROM92或HDD96中的处理程序来实现图6的各部的功能。
图6中示出了处理装置19的功能框图。如该图6所示,处理装置19通过由CPU90执行处理程序来发挥作为生物体信息输入部31、动作信息输入部32、面部识别部33、声音识别部34以及处理控制部40的功能。
在生物体信息输入部31中被输入生物体传感器21中检测到的检测结果。生物体信息输入部31将所输入来的信息对处理控制部40输出。
在动作信息输入部32中被输入压电传感器13、压力传感器23中检测到的检测结果以及后述的面部识别部33的识别结果。动作信息输入部32将所输入来的信息对处理控制部40输出。
面部识别部33是取得拍摄部14拍摄到的图像并检测该图像中的面部图像的单元。面部识别部33通过将眼睛、鼻、口这样的面部的特征部分作为图像进行检测而判定为面部。在本实施方式中,由于拍摄部14设置于车辆的顶棚部,所以也可以说面部识别部33判别由拍摄部14拍摄到的图像所包含的大致圆形的图像是头部还是面部。另外,面部识别部33也是以非接触方式来检测头部的举动的单元。此外,也有在车内难以为看顶棚而活动面部的情况。因此,面部识别部33也可以采用在乘客抬高下巴而被拍摄部拍摄到额头和眼睛时就设为进行了面部的检测的算法。
声音识别部34具有声音识别辞典,使用该声音识别辞典来进行从麦克风16输入的声音的识别。在本实施方式中,在声音识别辞典中登记有“救命”、“啊”这样的紧急时发出的声音。此外,从麦克风16对处理控制部40不仅输入声音还输入所收集的声音的大小(dB)。此外,在图6中,从麦克风16输入到处理装置19的声音经由处理控制部40而输入到声音识别部34,但并不限于此。也可以从麦克风16向声音识别部34直接输入声音。
处理控制部40使用从处理装置19内部或外部输入的信息来进行各种处理,或进行处理装置19内部或外部的装置的控制。例如,处理控制部40通过使用存储在闪存30中的参考图像,以由面部识别部33识别出的头或面部的图像为基准,判别生物体传感器21、压电传感器13、压力传感器23的输出是否为来自同一人物(一个乘客)的输出。该情况下,通过使参考图像放大、缩小、旋转来与乘客进行图案匹配,从而进行是否是同一人物的判别。此外,处理控制部40能够基于头的大小来进行参考图像的放大、缩小。如此是因为体格根据头的大小而不同。此外,处理控制部40能够基于吊环22的位置信息(保存在闪存30等中)来取得检测到姿势的压力传感器23及检测到生物体信息的变化的生物体传感器21的位置。此外,作为参考图像也可以将男性用、女性用、儿童用的参考图像等根据各自的平均体格而存储在闪存30中。
另外,处理控制部40基于生物体传感器21、压电传感器13、压力传感器23的检测结果,判断乘客是否在车内卷入了事故中。在此,卷入了事故的乘客做出生物体信息变化或踩踏几次地板这样的姿势(action,举动)、用力攥紧吊环22这样的姿势(举动)、抬头看顶棚这样的姿势(举动)。另外,由于卷入了事故的乘客有时因过于恐怖而瑟瑟发抖,或无意地用力攥紧吊环22,所以乘客能够无意地做出姿势(举动)。因此,处理控制部40能够基于来自生物体传感器21、压电传感器13、压力传感器23、面部识别部33的信息来判断有无事故发生。此外,压电传感器13、压力传感器23、面部识别部33因为检测上述那样的姿势(举动)故而也称为姿势(举动)检测部。以下,将压电传感器13、压力传感器23、面部识别部33综合而称为姿势检测部(13、23、33)。
另外,处理控制部40控制驱动前述的主体部12的驱动装置9,向发生了事故的地方发出声音和/或光,或收集在发生了事故的地方所发出的声音。进而,处理控制部40也能够在基于来自生物体传感器21、压电传感器13、压力传感器23、面部识别部33的信息判断为发生了事故的时刻(timing),进行使麦克风16等的开关打开(通常维持为关闭的状态)这样的控制。由此能够实现节能。另外,从节能的观点出发,处理·控制部40也可以仅在由设置于吊环22的LED24或光传感器25附近的压力传感器23检测到有乘客抓住了吊环的期间使LED24发光。
接着,对于如上述那样构成的事故应对系统100的处理、动作,沿着图7的流程图进行说明。
在图7的处理中,在步骤S10中,生物体信息输入部31将从生物体传感器21输入的生物体信息输入到处理控制部40。具体而言,生物体信息输入部31对处理控制部40输入由LED24及光传感器25检测到的心跳数及血液氧浓度,并且输入由出汗传感器26检测到的出汗量。此外,从生物体传感器21输入到生物体信息输入部31的生物体信息可以是1个信息也可以是多个信息。另外,生物体信息也可以包含例如血压的信息等。此外,在步骤S10中,生物体信息输入部31将多个乘客的生物体信息反复输入到处理控制部40。
接着,在步骤S12中,处理控制部40使用压电传感器13、压力传感器23的检测信息及面部识别部33的识别结果来进行姿势的检测。此外,在本实施方式中,利用压电传感器13、压力传感器23、面部识别部33来进行姿势检测,但也可以根据事故检测的状况,利用压电传感器13、压力传感器23、面部识别部17的至少1个来进行姿势检测。另外,也可以利用与压电传感器13、压力传感器23、面部识别部17不同的传感器来进行姿势检测。此外,处理控制部40也可以在生物体传感器21的生物体信息的检测和压电传感器13或压力传感器23的姿势检测的至少一方存在的情况下进行拍摄部14的拍摄,在除此以外的情况下使拍摄部14的开关关闭(或不供给电源)。
此外,步骤S10和步骤S12的执行顺序也可以交换。该情况下,在步骤S10中没有来自压力传感器23的输出的吊环22上,可以省略步骤S12的生物体传感器21的检测。该情况下,也可以在由设置于同一吊环22的压力传感器23进行压力检测的时刻进行向生物体传感器21的电力供给。
接着,在步骤S14中,处理控制部40基于步骤S10、S12的结果来进行电车50内是否发生了事故的判断。具体而言,首先,处理控制部40使用存储在闪存30中的参考图像(图4),根据乘客的头或面部的位置和生物体传感器21及姿势检测部(压电传感器13、压力传感器23)的位置关系(手和脚的位置关系)来判断哪个乘客的生物体信息发生了变化、哪个乘客做出了姿势、以及这是否是同一乘客。然后,处理控制部40在特定出了乘客之后判断是否发生了事故。该情况下,在满足了以下的(a)~(c)的判断基准的情况下,处理控制部40判断为发生了事故。
(a)对于同一乘客,生物体传感器21检测到心跳数或血液氧浓度的变化,并且姿势检测部(13、23、33)的至少1个检测到乘客的姿势。
(b)尽管车辆传感器11(温度传感器)的检测的结果为车内的温度不高(例如,23℃以下),但对于同一乘客,出汗传感器26检测到预定量以上的出汗,且姿势检测部(13、23、33)的至少1个传感器检测到乘客的姿势。
(c)对于同一乘客,虽然没有压力传感器23输出(即也没有获得来自生物体传感器21的输出),但从压电传感器13和面部识别部33检测到预定量以上的姿势。
此外,在车辆内设置有能够检测乘客的体温的红外线传感器的情况下,处理控制部40在满足以下的(d)的判断基准的情况下也可以判断为发生了事故。
(d)对于同一乘客,虽然没有压力传感器23的输出,但由红外线传感器检测到体温的上升,并且从压电传感器13和面部识别部17的至少一方检测到预定量以上的姿势。
在此,红外线传感器是检测从乘客射出的红外线射出能量并转换成温度的装置,能够检测大范围的表面温度的分布。该情况下,能够检测乘客的头部的温度变化进行事故发生的检测。如果使用红外线照相机这样的非接触的传感器,则不用乘客持有(握)特别的传感器就能够获得乘客的生物体信息。
此外,在上述(a)~(d)的判断中,处理控制部40基于计时器20的计时结果,在生物体传感器21的输出值的变化持续了5秒以上的情况下,或生物体传感器21的输出值在30秒以内断续地变化的情况下,判断为生物体传感器21的输出值有变化。但并不限于此,处理控制部40也可以在生物体传感器21的输出值的变化大的情况(例如变化量为原来值的10%以上的情况)下,判断为生物体信息有变化。另外,处理控制部40基于计时器20的计时结果,在姿势检测部(13、23、33)的输出值的变化持续了5秒以上的情况下,或姿势检测部(13、23、33)的输出值在30秒以内断续地变化的情况下,判断为乘客做出了姿势。
另外,在电车急刹车或摇晃大的情况下,或乘客上下车的情况下等,姿势检测部(13、23、33)的检测结果有时会成为与事故发生时同样的检测结果。在这样的情况下,为了不会判断为发生了事故,处理控制部40可以考虑车辆传感器11的检测结果来进行有无事故发生的判断。
通过上述那样的判断,在步骤S14的判断为肯定的情况下移向步骤S22,在为否定的情况下移向步骤S16。
在移向了步骤S16的情况下,处理控制部40对是否无法明确断定发生了还是没有发生事故(即是否需要进行确认)进行判断。具体而言,处理控制部40基于是否满足以下的(A)及(B)的任一个条件来进行判断。
(A)生物体传感器21检测到生物体信息的变化,而根据姿势检测部(13、23、33)的检测结果无法确认是否做出了姿势。
(B)在根据压力传感器23的检测结果能够确认做出了姿势的情况下,生物体传感器21没有检测生物体信息的变化,而根据压电传感器13的检测结果和面部识别部33的识别结果的至少一方能够确认做出了姿势。
在满足上述(A)、(B)的任一条件的情况下,步骤S16的判断为肯定,移向步骤S18。另一方面,在上述(A)、(B)的条件都没有满足的情况下,作为发生事故的可能性几乎不存在,步骤S16的判断为否定,返回到步骤S10。
在移向了步骤S18的情况下,处理控制部40对由步骤S14特定出的乘客进行确认。具体而言,处理控制部40通过驱动装置9驱动扬声器15及麦克风16,使用扬声器15以“没事吧?”等声音向所特定出的乘客进行询问。另外,处理控制部40在询问的时刻使麦克风16的开关打开,从乘客取得对询问的回答声音。然后,处理控制部40将回答声音发送到声音识别部34,取得声音识别部34的声音识别结果。
接着,在步骤S20中,处理控制部40基于声音识别部34的识别结果和步骤S16~步骤S18间的生物体传感器21及姿势检测部(13、23、33)的输出,判断是否发生了事故。例如,处理控制部40在声音识别部34的识别结果为“没事”等的情况下判断为没有事故,在声音识别部34的识别结果为“救命”、“啊”等的情况下判断为发生了事故。另外,例如,在没有来自乘客的回答声音但该乘客做出了姿势的情况下判断为发生了事故。此外,处理控制部40也可以考虑收集来的回答声音的大小(dB)来判断有无事故发生。
在步骤S20的判断为否定的情况(没有发生事故的情况)下,返回到步骤S10,而在步骤S20的判断为肯定的情况(发生了事故的情况)下,移向步骤S22。
在上述步骤S20的判断或前述的步骤S14的判断为肯定而移向步骤S22时,处理控制部40执行事故抑制处理。
具体而言,处理控制部40为了抑制事故而控制驱动装置9,使拍摄部14、扬声器15、麦克风16以及LED18面向所特定出的乘客(卷入了事故的乘客)及其周边。然后,处理控制部40在从扬声器15询问“怎么了”、“没事吧?”等、或从扬声器15广播“因为有可能发生了事故,所以要对状况进行记录”等之后,将由拍摄部14拍摄到的影像和/或由麦克风16收集的声音记录在闪存30中。另外,处理装置19使LED18发光,向所特定出的乘客所在的附近照射光。如果处理控制部40执行步骤S22,则在车内有流氓行为的情况下,流氓行为的实施者犹豫是否继续实施的可能性就高。由此,能够抑制之后的流氓行为的发生。此外,处理控制部40也可以进行上述广播、拍摄、录音、照射中的至少1个动作。例如,LED18的发光也可以仅在根据拍摄部14的拍摄结果、压电传感器的检测结果等能够判断为乘车率高的情况下或在夜间等进行。
接着,在步骤S24中,处理控制部40进行事故是否已稳定的确认。该情况下,与前述的步骤S18同样,处理控制部40进行使用扬声器15的询问,基于从麦克风16取得的回答声音的声音识别部34的识别结果,判断事故是否已稳定。此外,处理控制部40也可以基于生物体传感器21、姿势检测部(13、23、33)的检测结果来判断事故是否已稳定。该情况下,如果生物体传感器21、姿势检测部(13、23、33)的检测结果恢复到正常的值,则能够判断为事故已稳定。
在步骤S24的判断为肯定的情况下返回到步骤S10。另一方面,在步骤S24的判断为否定的情况下移向步骤S26。在步骤S26中,处理控制部40将发生了事故的车辆通知给下一个停车站的站务员。该情况下,处理控制部40能够使用由图4的CPU实现的通信功能(电话功能或短信功能等)或与处理装置连接的通信装置来通知给下一个停车站的站务员。
通过在电车运行中反复执行以上的处理,能够实现电车内的事故发生的检测及事故的稳定。
以上进行了详细说明,根据本实施方式,处理控制部40基于从生物体信息输入部31输入的检测电车内的乘客的生物体信息的变化的生物体传感器21的检测结果和从动作信息输入部32输入的识别乘客的动作的姿势检测部(13、23、33)的识别结果,进行与乘客的动作(姿势)相应的处理。也就是说,处理·控制部40通过进行除了姿势检测部(13、23、33)识别出的动作以外还考虑了生物体传感器21的检测结果的处理(有无事故发生的判断或稳定事故的处理),能够进行与乘客的动作相应的适当处理。
另外,根据本实施方式,姿势检测部(13、23、33)具有不同的多个传感器,在没有向生物体信息输入部31输入生物体信息的变化的情况下,处理控制部40也基于动作信息输入部32输入的多个传感器的识别结果来进行与乘客的动作相应的处理。因此,通过基于多个传感器的动作(姿势)的识别结果的处理,能够更适当地进行与乘客的动作相应的处理。
另外,根据本实施方式,姿势检测部包括作为非接触传感器的面部识别部33和压电传感器13、压力传感器23等接触式的传感器,处理控制部40在接触式的传感器识别出乘客的动作时,进行拍摄部14的拍摄。由此,拍摄部14在接触式的传感器识别乘客的动作之前的期间能够关闭电源,因此能够实现节能。
另外,根据本实施方式,拍摄部14相比于接触式的传感器而设置在上方(顶棚部),因此能够在拍摄部14中主要拍摄乘客的头。由此,能够保护乘客的隐私。
另外,根据本实施方式,姿势检测部的至少一部分(本实施方式中为压力传感器23)设置在生物体传感器21的附近,因此能够由生物体传感器21检测做出了姿势的手本身的生物体信息的变化。该情况下,由于姿势和生物体信息的变化的关联度高,所以能够更适当地进行与乘客的动作相应的处理。
另外,根据本实施方式,处理控制部40作为与乘客的动作相应的处理而进行从扬声器15向乘客输出音响的处理,因此能够向乘客进行询问、或引起对乘客行为的注意等。由此,能够适当地进行有无事故发生的判断和事故抑制的处理。
另外,在本实施方式中,能够将扬声器15设为向受限的方向输出音响的指向性扬声器。该情况下,能够限定于特定的乘客(做出了姿势的乘客)或其周围的乘客来进行向乘客的询问或注意。
另外,根据本实施方式,处理控制部40从输入声音的麦克风16接受乘客发出的声音,使声音识别部34识别声音,因此处理控制部40能够进行与乘客发出的声音的意思相应的适当处理(确认事故发生等)。
另外,在本实施方式中,具有对乘客的生物体信息变化的时间和识别乘客的姿势的时间进行计时的计时器20,处理控制部40执行与生物体信息输入部31及动作信息输入部32的输入结果和计时器20的计时结果相应的处理。例如,处理控制部40在检测到输入结果的变化持续5秒以上的情况下,或输入结果在预定时间(例如30秒)内断续地变化的情况下,判断为做出了姿势并执行处理。由此,能够适当进行是否做出了姿势的判断,进而能够适当地执行处理。
另外,在本实施方式中,乘客存在于电车这种能够移动的装置内,处理控制部40考虑检测电车的举动的车辆传感器11的检测结果来进行处理。也就是说,通过考虑在急加减速、停止、乘客上下车等时所产生的电车的举动,即使存在因电车的举动引起的乘客的动作也能够适当地判断有无乘客的姿势,进而能够进行适当的处理。
另外,在本实施方式中,动作信息输入部32输入检测乘客的手的举动的压力传感器23的检测结果、检测脚的举动的压电传感器13的检测结果以及检测头部的举动的面部识别部33的识别结果,处理·控制部40判断手、脚、头部是否是同一人物的一部分,因此处理控制部40能够将同一人物的手、脚、头部的举动的检测结果相关联。另外,在本实施方式中,处理控制部40进行基于同一人物的手、脚、头的举动的检测结果的处理,因此能够进行基于手、脚、头部的举动的适当处理。
另外,在本实施方式中,处理控制部40基于检测到手的举动的压力传感器23的位置信息、检测到脚的举动的压电传感器13的位置信息,判断手和脚是否是同一人物的手和脚,因此能够进行基于位置信息的适当的判定。
另外,在本实施方式中,除了动作信息输入部32以外,还具有将检测乘客的生物体信息的变化的生物体传感器21的检测结果输入的生物体信息输入部31,因此能够进行基于姿势和生物体信息的变化的适当处理。
另外,在本实施方式中,处理控制部40进行基于从面部识别部33输入的头部的举动和头部以外(手和/或脚)的举动的处理,因此与进行基于头部的举动和头部以外的举动的某一方的处理的情况相比,能够进行更适当的处理。
此外,在上述实施方式中,对处理装置19具有声音识别部34、面部识别部33的功能的情况进行了说明。但并不限定于此,也将具有与声音识别部34同等功能的装置和/或与面部识别部33具有同等功能的装置(CPU等)设置在处理装置19的外部。
此外,在上述实施方式中,也可以取代压电传感器13或与其一起,将乘客自带的加速度传感器作为姿势检测部的一部分来采用。加速度传感器例如设为内置或安装于鞋中。加速度传感器的信息预先登记在处理装置19或闪存30中。而且,当乘客在车内做出了踩踏地板的姿势时,加速度传感器的检测结果通过无线通信等被输入到处理装置19(动作信息输入部32)。如此一来,能够进行与利用压电传感器13的情况同样的处理。另外,如果将加速度传感器分别设置在脚尖部分和脚后跟部分,则无论乘客在车内处于何种姿势,都能够检测乘客踩踏地板这样的姿势。在如此使用了加速度传感器的情况下,能够更正确地检测事故的发生。
此外,在上述实施方式中,对将生物体传感器21设置于吊环22的情况进行了说明,当并不限于此。例如,也可以将生物体传感器21设置于乘客自带的时钟型的装饰品或戒指型的装饰品。作为手表型的生物体传感器,可以应用日本特开2007-215749号(美国公开2007-0191718号)所记载的技术。该情况下,在装饰品预先设无线单元,使用无线单元以无线方式发送生物体传感器21检测到的生物体信息。另外,生物体传感器21预先登记在处理装置19中。该情况下,如果乘客自带有生物体传感器21,则例如在乘客遭受流氓行为而心跳数上升时(即生物体信息发生了变化时),能够使用无线单元向处理装置19通知有可能发生了流氓行为。另外,该情况下,由于遭受流氓行为的乘客没有握着吊环也可以,所以能够更正确地检测事故的发生。
另外,也可以在具有生物体传感器的手表设置人体通信用的电极,并且在吊环或把手也设置人体通信用的电极,通过人体通信将由生物体传感器检测到的生物体信息输入到处理装置19。此外,作为具有人体通信功能的手表,可以应用日本特许第4023253号所记载的技术。
另外,作为坐着的乘客用的生物体传感器21,可以在座位(椅子)的内部设置流体袋和压力传感器。该情况下,流体袋例如是填充有空气的气体袋,以与尾骨或坐骨接触的方式根据臀部的位置而设置于座位椅子即可。另外,压力传感器是检测流体袋的内压的装置,能够使用半导体传感器或使用压电元件的振动型的压力传感器等。该情况下,在由尾骨或坐骨压迫到流体袋的状态下动脉的脉搏传递到流体袋,流体袋的内压发生变化,由此能够取得呼吸或心跳等生物体信息。此外,对于使用流体袋的生物体信息的检测,例如可以应用日本特许第3906649号所记载的技术。
此外,在上述实施方式中,对处理装置19设置在车辆内的情况进行了说明,但并不限于此。例如,处理装置19也可以设置在车辆外(例如车站或轨道管制设置等)。该情况下,需要使图1所示的处理装置19以外的各部与处理装置19能够通信。
此外,在上述实施方式中,对在车辆内的吊环22设置生物体传感器21和压力传感器23的情况进行了说明,但并不限于此,也可以在设置于车辆内的棒状的把手设置生物体传感器21和/或压力传感器23。
此外,事故应对系统100并不限于设置在电车内的情况,可以设置在公交车或电梯等能够搭乘人的移动装置内,除此以外,也可以向学校、医院、银行、商业设施(电影院或剧院)、自家等设置。
上述的实施方式是本发明的优选的实施例。但并不限于此,在不脱离本发明的要旨的范围内能够实施各种变形。

Claims (34)

1.一种电子设备,其特征在于,具有:
第1输入部,其输入用于检测对象者的生物体信息的变化的生物体传感器的检测结果;
第2输入部,其输入用于识别所述对象者的动作的识别装置的识别结果;和
处理部,其基于所述第1输入部、第2输入部的输入结果,进行与所述对象者的动作相应的处理。
2.根据权利要求1所述的电子设备,其特征在于,
所述识别装置具有不同的多个传感器,
即使在没有向所述第1输入部输入生物体信息的变化的情况下,所述处理部也基于所述第2输入部输入的所述多个传感器的识别结果来进行与所述对象者的动作相应的处理。
3.根据权利要求1或2所述的电子设备,其特征在于,
所述多个传感器包括拍摄装置和接触式的传感器,
所述电子设备具有控制部,该控制部在所述接触式的传感器识别出对象者的动作时,进行基于所述拍摄装置的拍摄。
4.根据权利要求3所述的电子设备,其特征在于,
所述拍摄装置设置在所述接触式的传感器的上方。
5.根据权利要求1~4中任一项所述的电子设备,其特征在于,
所述识别装置的至少一部分设置在所述生物体传感器的附近。
6.根据权利要求1~5中任一项所述的电子设备,其特征在于,
所述处理部利用向所述对象者输出音响的扬声器来进行输出音响的处理。
7.根据权利要求6所述的电子设备,其特征在于,
所述扬声器是向受限的方向输出所述音响的指向性扬声器。
8.根据权利要求1~7中任一项所述的电子设备,其特征在于,
所述处理部从输入声音的声音输入装置接受所述对象者发出的声音。
9.根据权利要求8所述的电子设备,其特征在于,
具有对从所述声音输入装置接受的声音进行识别的声音识别部。
10.根据权利要求1~9中任一项所述的电子设备,其特征在于,
具有对所述对象者的生物体信息发生变化的时间和识别所述对象者的动作的时间进行计时的计时部,
所述处理部执行与所述输入结果和所述计时部的计时结果相应的处理。
11.根据权利要求1~10中任一项所述的电子设备,其特征在于,
在所述对象者存在于能够移动的移动装置内的情况下,所述处理部考虑检测所述移动装置的举动的检测装置的检测结果来进行所述处理。
12.根据权利要求1~11中任一项所述的电子设备,其特征在于,
所述第1输入部通过人体通信来输入所述生物体信息的变化。
13.一种处理系统,其特征在于,具有:
检测对象者的生物体信息的变化的生物体传感器;
识别所述对象者的动作的识别装置;和
权利要求1~11中任一项所述的电子设备。
14.根据权利要求13所述的处理系统,其特征在于,
所述生物体传感器从对象者的手和臀部的至少一方检测所述生物体信息的变化。
15.一种电子设备,其特征在于,具有:
第1输入部,其输入用于检测身体的第1部分的举动的第1传感器的检测结果;
第2输入部,其输入用于检测与所述第1部分不同的身体的第2部分的举动的、与所述第1传感器不同的第2传感器的检测结果;和
判定部,其判定所述第1部分和所述第2部分是否是同一人物的一部分。
16.根据权利要求15所述的电子设备,其特征在于,
具有处理部,该处理部在所述判定部判定为是同一人物的一部分的情况下,进行与所述第1、第2输入部输入的检测结果相应的处理。
17.根据权利要求15或16所述的电子设备,其特征在于,
所述判定部基于检测到所述第1部分的举动的所述第1传感器的位置信息和检测到所述第2部分的举动的所述第2传感器的位置信息,判定所述第1部分和所述第2部分是否是同一人物的一部分。
18.根据权利要求15~17中任一项所述的电子设备,其特征在于,
所述第1传感器是与所述第1部分接触来检测所述第1部分的举动的接触型传感器,
所述第2传感器是与所述第2部分接触来检测所述第2部分的举动的接触型传感器。
19.根据权利要求15~18中任一项所述的电子设备,其特征在于,
所述第1传感器和所述第2传感器的一方是检测手的举动的手检测传感器,
所述第1传感器和所述第2传感器的另一方是检测脚的举动的脚检测传感器。
20.根据权利要求15~17中任一项所述的电子设备,其特征在于,
所述第1传感器是与所述第1部分接触来检测所述第1部分的举动的接触型传感器,
所述第2传感器是不与所述第2部分接触地检测所述第2部分的举动的非接触型传感器。
21.根据权利要求15~17及20中任一项所述的电子设备,其特征在于,
所述第2传感器是检测头部的举动的头部检测传感器。
22.根据权利要求15~21中任一项所述的电子设备,其特征在于,
具有第3输入部,该第3输入部输入用于检测与所述第1、第2部分不同的身体的第3部分的举动的第3传感器的检测结果。
23.根据权利要求15~22中任一项所述的电子设备,其特征在于,
具有第4输入部,该第4输入部输入用于检测身体的生物体信息的变化的生物体传感器的检测结果。
24.一种电子设备,其特征在于,具有:
第1输入部,其输入以非接触方式检测头部的举动的非接触传感器的检测结果;
第2输入部,其输入与不同于所述头部的身体的部分接触地检测该部分的举动的接触传感器的检测结果;和
处理部,其进行与所述第1、第2输入部输入的检测结果相应的处理。
25.根据权利要求24所述的电子设备,其特征在于,
具有控制部,该控制部在通过所述接触传感器检测到所述举动时,进行所述非接触传感器的检测。
26.根据权利要求24或25所述的电子设备,其特征在于,
具有判定部,该判定部判定所述非接触传感器检测到举动的头部和所述接触传感器检测到举动的所述身体的部分是否是同一人物的一部分。
27.根据权利要求26所述的电子设备,其特征在于,
在所述判定部的判定结果为所述非接触传感器检测到举动的头部和所述接触传感器检测到举动的所述身体的部分是同一人物的一部分的情况下,所述处理部进行与所述第1、第2输入部输入的检测结果相应的处理。
28.根据权利要求24~27中任一项所述的电子设备,其特征在于,
所述接触传感器具有检测所述身体的第1部分的举动的第1传感器和检测与所述第1部分不同的第2部分的举动的第2传感器。
29.根据权利要求24~28中任一项所述的电子设备,其特征在于,
具有生物体信息输入部,该生物体信息输入部输入用于检测身体的生物体信息的变化的生物体传感器的检测结果。
30.一种处理系统,具有:
检测身体的第1部分的举动的第1传感器;
检测与所述第1部分不同的身体的第2部分的举动的第2传感器;和
权利要求15~23中任一项所述的电子设备。
31.一种处理系统,具有:
以非接触方式检测头部的举动的非接触传感器;
与不同于所述头部的身体的部分接触来检测该部分的举动的接触传感器;和
权利要求24~29中任一项所述的电子设备。
32.一种处理程序,其特征在于,使计算机执行如下工序:
第1输入工序,将检测对象者的生物体信息的变化的生物体传感器的检测结果输入;
第2输入工序,将识别所述对象者的动作的识别装置的识别结果输入;和
处理工序,基于所述第1、第2输入工序的输入结果,进行与所述对象者的动作相应的处理。
33.一种处理程序,其特征在于,使计算机执行如下工序:
第1输入工序,将检测身体的第1部分的举动的第1传感器的检测结果输入;
第2输入工序,将检测与所述第1部分不同的身体的第2部分的举动的与所述第1传感器不同的第2传感器的检测结果输入;和
判定工序,判定所述第1部分和所述第2部分是否是同一人物的一部分。
34.一种处理程序,其特征在于,使计算机执行如下工序:
第1输入工序,将以非接触方式检测头部的举动的非接触传感器的检测结果输入;
第2输入工序,将与不同于所述头部的身体的部分接触来检测该部分的举动的接触传感器的检测结果输入;和
处理工序,进行与所述第1、第2输入部输入的检测结果相应的处理。
CN201280011645.4A 2011-03-04 2012-02-09 电子设备及处理系统 Active CN103430125B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2011047748A JP2012185632A (ja) 2011-03-04 2011-03-04 電子機器、処理システム及び処理プログラム
JP2011047749A JP5923858B2 (ja) 2011-03-04 2011-03-04 電子機器、処理システム及び処理プログラム
JP2011-047749 2011-03-04
JP2011-047748 2011-03-04
PCT/JP2012/052994 WO2012120959A1 (ja) 2011-03-04 2012-02-09 電子機器、処理システム及び処理プログラム

Publications (2)

Publication Number Publication Date
CN103430125A true CN103430125A (zh) 2013-12-04
CN103430125B CN103430125B (zh) 2016-10-05

Family

ID=46797929

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280011645.4A Active CN103430125B (zh) 2011-03-04 2012-02-09 电子设备及处理系统

Country Status (3)

Country Link
US (2) US20140067204A1 (zh)
CN (1) CN103430125B (zh)
WO (1) WO2012120959A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103809754A (zh) * 2014-02-18 2014-05-21 联想(北京)有限公司 一种信息处理方法及电子设备
CN105491470A (zh) * 2015-11-25 2016-04-13 惠州Tcl移动通信有限公司 蓝牙耳机及其通过智能佩戴接触设备实现自动通断的方法
CN108573695A (zh) * 2017-03-08 2018-09-25 松下知识产权经营株式会社 装置、机器人、方法以及程序
CN109292570A (zh) * 2018-10-16 2019-02-01 宁波欣达(集团)有限公司 一种电梯物联网技术检测电梯困人的系统及方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101477233B1 (ko) * 2013-09-16 2014-12-29 현대모비스 주식회사 맞춤형 공조기 제어 시스템 및 방법
JP6505385B2 (ja) * 2014-07-09 2019-04-24 株式会社ナビタイムジャパン 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
JP7013407B2 (ja) 2019-03-07 2022-01-31 矢崎総業株式会社 車両管理システム
WO2022124014A1 (ja) * 2020-12-07 2022-06-16 ソニーグループ株式会社 情報処理装置、データの生成方法、グループ化モデルの生成方法、グループ化モデルの学習方法、情動推定モデルの生成方法及びグループ化用ユーザ情報の生成方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1365474A (zh) * 2000-02-02 2002-08-21 索尼公司 认证装置
CN1673946A (zh) * 2004-03-22 2005-09-28 Lg电子有限公司 移动终端及其操作方法
CN1685380A (zh) * 2002-09-27 2005-10-19 银河网路股份有限公司 远程教育系统、听讲确认方法及听讲确认程序

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6118888A (en) * 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
JP3886074B2 (ja) * 1997-02-28 2007-02-28 株式会社東芝 マルチモーダルインタフェース装置
US6766036B1 (en) * 1999-07-08 2004-07-20 Timothy R. Pryor Camera based man machine interfaces
US20020198685A1 (en) * 2001-06-26 2002-12-26 Mann W. Stephen G. Slip and fall decetor, method of evidence collection, and notice server, for uisually impaired persons, or the like
JP3954484B2 (ja) * 2002-12-12 2007-08-08 株式会社東芝 画像処理装置およびプログラム
ATE447205T1 (de) * 2003-05-12 2009-11-15 Elbit Systems Ltd Verfahren und system zur audiovisuellen kommunikation
US20060260624A1 (en) * 2005-05-17 2006-11-23 Battelle Memorial Institute Method, program, and system for automatic profiling of entities
US7855743B2 (en) * 2006-09-08 2010-12-21 Sony Corporation Image capturing and displaying apparatus and image capturing and displaying method
US8269834B2 (en) * 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US20080183049A1 (en) * 2007-01-31 2008-07-31 Microsoft Corporation Remote management of captured image sequence
JP2009204354A (ja) * 2008-02-26 2009-09-10 Toyota Motor Corp ナビゲーション制御装置
JP5223605B2 (ja) * 2008-11-06 2013-06-26 日本電気株式会社 ロボットシステム、コミュニケーション活性化方法及びプログラム
JP2010165305A (ja) * 2009-01-19 2010-07-29 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
US20110096941A1 (en) * 2009-10-28 2011-04-28 Alcatel-Lucent Usa, Incorporated Self-steering directional loudspeakers and a method of operation thereof
WO2011071461A1 (en) * 2009-12-10 2011-06-16 Echostar Ukraine, L.L.C. System and method for selecting audio/video content for presentation to a user in response to monitored user activity
US20110263946A1 (en) * 2010-04-22 2011-10-27 Mit Media Lab Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences
US8638364B2 (en) * 2010-09-23 2014-01-28 Sony Computer Entertainment Inc. User interface system and method using thermal imaging

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1365474A (zh) * 2000-02-02 2002-08-21 索尼公司 认证装置
CN1685380A (zh) * 2002-09-27 2005-10-19 银河网路股份有限公司 远程教育系统、听讲确认方法及听讲确认程序
CN1673946A (zh) * 2004-03-22 2005-09-28 Lg电子有限公司 移动终端及其操作方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103809754A (zh) * 2014-02-18 2014-05-21 联想(北京)有限公司 一种信息处理方法及电子设备
CN105491470A (zh) * 2015-11-25 2016-04-13 惠州Tcl移动通信有限公司 蓝牙耳机及其通过智能佩戴接触设备实现自动通断的方法
CN105491470B (zh) * 2015-11-25 2019-09-20 惠州Tcl移动通信有限公司 蓝牙耳机及其通过智能佩戴接触设备实现自动通断的方法
CN108573695A (zh) * 2017-03-08 2018-09-25 松下知识产权经营株式会社 装置、机器人、方法以及程序
CN109292570A (zh) * 2018-10-16 2019-02-01 宁波欣达(集团)有限公司 一种电梯物联网技术检测电梯困人的系统及方法

Also Published As

Publication number Publication date
WO2012120959A1 (ja) 2012-09-13
US20140067204A1 (en) 2014-03-06
US20180194279A1 (en) 2018-07-12
CN103430125B (zh) 2016-10-05

Similar Documents

Publication Publication Date Title
CN103430125A (zh) 电子设备、处理系统以及处理程序
US10674056B2 (en) Wearable apparatus and method for capturing image data using multiple image sensors
US20170347348A1 (en) In-Ear Utility Device Having Information Sharing
US20170347177A1 (en) In-Ear Utility Device Having Sensors
CN105303793B (zh) 使用移动终端处理车辆的事故
US11517252B2 (en) Using a hearable to generate a user health indicator
CN104840204B (zh) 一种疲劳驾驶监控方法及设备
US10045130B2 (en) In-ear utility device having voice recognition
US20160379463A1 (en) Method and apparatus for setting a notification readout mode based on proximity detection
US20170347178A1 (en) In-Ear Utility Device Having a Humidity Sensor
US20210081044A1 (en) Measurement of Facial Muscle EMG Potentials for Predictive Analysis Using a Smart Wearable System and Method
KR102314644B1 (ko) 주변 디바이스의 정보를 제공하는 시스템 및 방법
CN105988768A (zh) 智能设备控制方法、信号获取方法及相关设备
WO2017205558A1 (en) In-ear utility device having dual microphones
CN109285329A (zh) 一种吃药行为检测提醒方法、检测提醒系统
EP3323567B1 (en) Robot and robot system
WO2021095832A1 (ja) 首掛け型装置
CN117100224A (zh) 一种睡眠检测方法及智能寝具产品、存储介质
KR20160011302A (ko) 글라스형 웨어러블 디바이스의 영상 또는 이미지 처리시스템 및 처리방법
JP2016053990A (ja) 電子機器
WO2022064774A1 (ja) 画像処理装置、及び画像処理プログラム
JP2016170589A (ja) 情報処理装置、情報処理方法およびプログラム
CN105641900B (zh) 一种呼吸状态提醒方法和电子设备以及系统
JP2012185632A (ja) 電子機器、処理システム及び処理プログラム
KR101572807B1 (ko) 웨어러블 디바이스를 이용하여 영상 신호를 전송하는 방법, 이를 위한 장치 및 그 시스템

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant