CN112889270A - 信息处理方法、信息处理装置、信息处理程序以及信息处理系统 - Google Patents

信息处理方法、信息处理装置、信息处理程序以及信息处理系统 Download PDF

Info

Publication number
CN112889270A
CN112889270A CN201980069421.0A CN201980069421A CN112889270A CN 112889270 A CN112889270 A CN 112889270A CN 201980069421 A CN201980069421 A CN 201980069421A CN 112889270 A CN112889270 A CN 112889270A
Authority
CN
China
Prior art keywords
event
data
vehicle
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980069421.0A
Other languages
English (en)
Inventor
井本淳一
庄田幸惠
岩崎正宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of CN112889270A publication Critical patent/CN112889270A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/02Registering or indicating driving, working, idle, or waiting time only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Abstract

行车记录仪(1)从拍摄车辆的周围的摄像机获取影像数据,获取包含车辆的加速度、速度以及角速度的至少其中之一的传感数据,对影像数据和传感数据分别赋予表示获取的时刻的时刻信息,在车辆发生了事件时,将传感数据发送到数据解析服务器(2),数据解析服务器(2),基于传感数据识别在车辆发生的事件的内容,将识别结果发送到行车记录仪(1),行车记录仪(1)判断识别结果所示的被识别的事件是否为规定的事件,在判断为所识别的事件是规定的事件的情况下,确定被赋予了与识别所使用的传感数据被赋予的时刻信息相同的时刻信息的影像数据,将所确定的影像数据发送到影像储存服务器(3)。

Description

信息处理方法、信息处理装置、信息处理程序以及信息处理 系统
技术领域
本发明涉及一种对通过设置在车辆上的传感器获取的传感数据进行处理的技术。
背景技术
一直以来,已知有一种行车记录仪,在车辆的加速度超过规定的阈值时判断发生了危险的状况,并且,存储在发生了危险的状况的时刻的前后拍摄的图像信息。然而,在行车记录仪中存储的图像信息之中有时也包含实际上没有发生危险的状况的图像信息。
因此,例如,在专利文献1中公开了一种摄像装置,对通过包含了处理对象的图像而学习的神经网络输入在摄像部拍摄的图像,并基于来自该神经网络的输出,判断在摄像部拍摄的图像中是否包含处理对象,在判断为图像中包含处理对象的情况下,发送在摄像部拍摄的图像。
然而,在上述现有技术存在摄像装置所使用的图像数据的数据量较多,摄像装置的处理负荷增大,需要进一步的改善。
现有技术文献
专利文献
专利文献1:日本发明专利公开公报特开2018-125777号
发明内容
本发明是为了解决上述的问题而进行的发明,其目的在于提供一种可以减轻信息处理系统的处理负荷的技术。
本发明的一实施方式涉及的信息处理方法,是信息处理系统的信息处理方法,包括以下步骤:从拍摄车辆的周围的摄像机获取影像数据;获取包含所述车辆的加速度、速度以及角速度的至少其中之一的传感数据;对所述影像数据和所述传感数据分别赋予表示获取的时刻的时刻信息;基于所述传感数据,识别在所述车辆发生的事件的内容;判断所述识别的事件是否为规定的事件;在判断为所述识别的事件是所述规定的事件的情况下,确定被赋予了与对识别所使用的所述传感数据被赋予的时刻信息相同的时刻信息的影像数据;发送所述确定的影像数据。
根据本发明,因为基于与影像数据相比较数据量较少的传感数据来识别在车辆发生的事件的内容,所以可以减轻信息处理系统的处理负荷。而且,因为只发送发生了规定的事件时的影像数据,所以可以防止发送不需要的影像数据,从而能削减数据通信量以及数据通信费。
附图说明
图1是概念性地表示第一实施方式的信息处理系统的整体构成的示意图。
图2是表示第一实施方式的行车记录仪的构成的方框图。
图3是表示第一实施方式的数据解析服务器的构成的方框图。
图4是表示第一实施方式的影像储存服务器的构成的方框图。
图5是用于说明第一实施方式的信息处理系统的处理的第一流程图。
图6是用于说明第一实施方式的信息处理系统的处理的第二流程图。
图7是表示在第一实施方式、在进行了作为危险驾驶事件之一的急刹车时测量到的在X轴方向、Y轴方向以及Z轴方向的加速度与时刻之间的关系的示意图。
图8是表示在第一实施方式、在车辆越过道路上的凸起时测量到的在X轴方向、Y轴方向以及Z轴方向的加速度与时刻之间的关系的示意图。
图9是概念性地表示第二实施方式的信息处理系统的整体构成的示意图。
图10是表示第二实施方式的便携式终端的构成的方框图。
图11是用于说明第二实施方式的信息处理系统的处理的第一流程图。
图12是用于说明第二实施方式的信息处理系统的处理的第二流程图。
具体实施方式
(本发明的基础知识)
一般来说,图像数据的数据量较多。为此,在上述的现有技术,为了实现实用上的精度所需的学习数据的量会变多,学习时间也有可能会变长。而且,在将数据量较多的图像数据作为输入数据进行处理的情况下,为了实现实用上的精度需要制作复杂的模型。
为此,在上述的现有技术,摄像装置所使用的图像数据的数据量较多,摄像装置的处理负荷增大。
为了解决以上的问题,本发明的一实施方式涉及的信息处理方法,是信息处理系统的信息处理方法,包括以下步骤:从拍摄车辆的周围的摄像机获取影像数据;获取包含所述车辆的加速度、速度以及角速度的至少其中之一的传感数据;对所述影像数据和所述传感数据分别赋予表示获取的时刻的时刻信息;基于所述传感数据,识别在所述车辆发生的事件的内容;判断所述识别的事件是否为规定的事件;在判断为所述识别的事件是所述规定的事件的情况下,确定被赋予了与对识别所使用的所述传感数据被赋予的时刻信息相同的时刻信息的影像数据;发送所述确定的影像数据。
根据该构成,因为基于与影像数据相比较数据量较少的传感数据来识别在车辆发生的事件的内容,所以可以减轻信息处理系统的处理负荷。而且,因为只发送发生了规定的事件时的影像数据,所以可以防止发送不需要的影像数据,可以削减数据通信量以及数据通信费。
而且,在所述的信息处理方法,也可以是,在所述事件的识别中,将所述传感数据作为输入,将所述事件的内容作为输出,通过向机器学习而生成的识别模型输入所述传感数据来识别所述事件的内容。
根据该构成,将传感数据作为输入,将事件的内容作为输出,通过向机器学习而生成的识别模型输入传感数据来识别事件的内容。在将影像数据作为输入到识别模型的输入数据的情况下,因为影像数据的数据量比较多,为了实现实用上的精度,识别模型变成复杂的模型,学习所需的输入数据的数据量也变多,识别模型的学习时间变长。而在将传感数据作为输入到识别模型的输入数据的情况下,因为传感数据与影像数据相比数据量比较少,识别模型变成简单的模型,可以减少学习所需的输入数据的数据量,也可以缩短识别模型的学习时间。
而且,在所述的信息处理方法,也可以是,在所述的信息处理方法,所述规定的事件包含表示危险驾驶的事件、表示所述车辆的碰撞的事件、表示道路的维护状况的事件以及表示所述车辆的故障的事件的至少其中之一。
根据该构成,可以储存发生了表示危险驾驶的事件时的影像数据、发生了表示车辆的碰撞的事件时的影像数据、发生了表示道路的维护状况的事件时的影像数据以及发生了表示车辆的故障的事件时的影像数据的至少其中之一。
而且,在所述的信息处理方法,也可以是,还基于所述传感数据,判断是否发生了所述事件,在所述事件的识别中,在判断发生了所述事件的情况下,基于所述传感数据识别在所述车辆发生的事件的内容。
根据该构成,首先,基于传感数据判断是否发生了事件。而且,在判断发生了事件的情况下,基于传感数据识别在车辆发生的事件的内容。因此,并不是基于全部的传感数据来识别事件的内容,而是仅基于在判断发生了事件时的传感数据来识别事件的内容,可以缩短识别处理所需的时间。
而且,在所述的信息处理方法,也可以是,所述信息处理系统具备可装卸于所述车辆的便携式终端,在所述传感数据的获取中,从安装在所述车辆的所述便携式终端获取所述传感数据,还获取所述便携式终端的姿势,还基于所获取的所述姿势校正获取的所述传感数据。
可装卸于车辆的便携式终端的姿势,在每次安装到车辆时都有可能发生变化。然而,根据上述的构成,获取便携式终端的姿势,基于所获取的姿势校正获取的传感数据。因此,可以利用便携式终端获取影像数据以及传感数据。
而且,在所述的信息处理方法,也可以是,所述信息处理系统具备搭载于所述车辆的终端装置和与所述终端装置可通信地连接的服务器,所述终端装置还将获取的所述传感数据发送到所述服务器,所述服务器还接收所述传感数据,在所述事件的识别中,所述服务器基于所述传感数据识别在所述车辆发生的事件的内容,所述服务器还发送识别结果,所述终端装置还接收通过所述服务器发送的所述识别结果,在所述判断中,所述终端装置判断所述识别结果所示的所述识别的事件是否为规定的事件。
根据该构成,因为并不是搭载于车辆的终端装置,而是网络上的服务器基于传感数据识别在车辆发生的事件的内容,能容易地更新识别处理所需的软件,可以减轻用户的负担。
本发明的另一实施方式涉及的信息处理装置,包括:影像数据获取部,从拍摄车辆的周围的摄像机获取影像数据;传感数据获取部,获取包含所述车辆的加速度、速度以及角速度的至少其中之一的传感数据;时刻信息赋予部,对所述影像数据和所述传感数据分别赋予表示获取的时刻的时刻信息;识别部,基于所述传感数据识别在所述车辆发生的事件的内容;判断部,判断所述识别的事件是否为规定的事件;确定部,在判断为所述识别的事件是所述规定的事件的情况下,确定被赋予了与对识别所使用的所述传感数据被赋予的时刻信息相同的时刻信息的影像数据;以及,发送部,发送所述确定的影像数据。
根据该构成,因为基于与影像数据相比较数据量较少的传感数据来识别在车辆发生的事件的内容,所以可以减轻信息处理装置的处理负荷。而且,因为只发送发生了规定的事件时的影像数据,所以可以防止发送不需要的影像数据,可以削减数据通信量以及数据通信费。
本发明的另一实施方式涉及的信息处理程序,使计算机具备以下功能:影像数据获取部,从拍摄车辆的周围的摄像机获取影像数据;传感数据获取部,获取包含所述车辆的加速度、速度以及角速度的至少其中之一的传感数据;时刻信息赋予部,对所述影像数据和所述传感数据分别赋予表示获取的时刻的时刻信息;识别部,基于所述传感数据识别在所述车辆发生的事件的内容;判断部,判断所述识别的事件是否为规定的事件;确定部,在判断为所述识别的事件是所述规定的事件的情况下,确定被赋予了与对识别所使用的所述传感数据被赋予的时刻信息相同的时刻信息的影像数据;以及,发送部,发送所述确定的影像数据。
根据该构成,因为基于与影像数据相比较数据量较少的传感数据来识别在车辆发生的事件的内容,所以可以减轻计算机的处理负荷。而且,因为只发送发生了规定的事件时的影像数据,所以可以防止发送不需要的影像数据,可以削减数据通信量以及数据通信费。
本发明的另一实施方式涉及的信息处理系统,具备搭载在车辆的终端装置、与所述终端装置可通信地连接的数据解析服务器以及与所述终端装置可通信地连接的影像储存服务器,其中,所述终端装置具备:影像数据获取部,从拍摄所述车辆的周围的摄像机获取影像数据;传感数据获取部,获取包含所述车辆的加速度、速度以及角速度的至少其中之一的传感数据;时刻信息赋予部,对所述影像数据和所述传感数据分别赋予表示获取的时刻的时刻信息;以及,传感数据发送部,在所述车辆发生了事件时,将所述传感数据发送到所述数据解析服务器,所述数据解析服务器具备:传感数据接收部,接收通过所述终端装置发送的所述传感数据;识别部,基于所述传感数据,识别在所述车辆发生的事件的内容;以及,识别结果发送部,发送识别结果,所述终端装置具备:识别结果接收部,接收通过所述数据解析服务器发送的所述识别结果;判断部,判断所述识别结果所示的所述被识别的事件是否为规定的事件;确定部,在判断为所述识别的事件是所述规定的事件的情况下,确定被赋予了与识别所使用的所述传感数据被赋予的时刻信息相同的时刻信息的影像数据;以及,影像数据发送部,将所述被确定的影像数据发送到所述影像储存服务器,所述影像储存服务器具备:影像数据接收部,接收通过所述终端装置发送的所述影像数据;和,影像数据存储部,存储所述影像数据。
根据该构成,因为基于与影像数据相比较数据量较少的传感数据来识别在车辆发生的事件的内容,所以可以减轻信息处理系统的处理负荷。而且,因为只发送发生了规定的事件时的影像数据,所以可以防止发送不需要的影像数据,可以削减数据通信量以及数据通信费。
以下,参照附图对本发明的实施方式进行说明。另外,以下的实施方式只不过是用于具体化本发明的一个例子,并不用于限定本发明的技术保护范围。
(第一实施方式)
图1是概念性地表示第一实施方式的信息处理系统的整体构成的示意图。
图1所示的信息处理系统具备行车记录仪1、数据解析服务器2、影像储存服务器3。行车记录仪1是终端装置的一个例子,被搭载在车辆上。数据解析服务器2是服务器的一个例子,经由网络4与行车记录仪1可通信地连接。网络4例如是英特网。影像储存服务器3经由网络4与行车记录仪1可通信地连接。
行车记录仪1获取拍摄了车辆的行进方向的影像数据。行车记录仪1获取包含车辆的加速度、速度以及角速度的至少其中之一的传感数据。行车记录仪1对影像数据以及传感数据赋予时间戳。行车记录仪1存储赋予了时间戳的影像数据以及传感数据。如果发生了事件,行车记录仪1就将包含第一期间和第二期间的第三期间的传感数据组发送到数据解析服务器2,其中,第一期间是从发生了事件的时刻起到规定时间之前为止的期间,第二期间是从发生了事件的时刻起到规定时间之后为止的期间。行车记录仪1,在判断所发生的事件为规定的事件的情况下,将所存储的影像数据组发送到影像储存服务器3。
数据解析服务器2,基于从行车记录仪1接收到的传感数据,识别在车辆发生的事件的内容。具体而言,数据解析服务器2,将从行车记录仪1接收到的传感数据组输入到通过机器学习生成的识别模型,并将从识别模型输出的事件的内容作为识别结果来获取。数据解析服务器2将识别结果发送到行车记录仪1。
影像储存服务器3存储通过行车记录仪1发送的影像数据。具体而言,影像储存服务器3存储发生了规定的事件时的影像数据组。
以下,对行车记录仪1、数据解析服务器2、影像储存服务器3的构成进行详细的说明。
图2是表示第一实施方式的行车记录仪的构成的方框图。
行车记录仪1例如被安装在车辆的前挡风玻璃或仪表板上。行车记录仪1具备摄像机11、加速度传感器12、位置测量部13、处理器14、存储器15以及通信部16。
摄像机11拍摄车辆的周围。具体而言,摄像机11拍摄车辆的前方。另外,摄像机11也可以拍摄车辆的左方、右方以及后方。
加速度传感器12例如是3轴加速度传感器,测量表示车辆的左右方向的X轴方向、表示车辆的前后方向的Y轴方向以及表示车辆的垂直方向的Z轴方向的加速度。
位置测量部13例如是GPS(Global Positioning System)接收机,测量行车记录仪1的位置信息即车辆的位置信息。另外,位置信息用纬度以及经度来表示。通过位置测量部13测量的位置信息用于计算出车辆的速度。例如,如果已知第一位置和第二位置之间的距离以及从第一位置到第二位置为止的移动时间,就可以计算出从第一位置到第二位置为止的车辆的移动速度。
处理器14例如是CPU(中央运算处理装置),具备影像数据获取部141、传感数据获取部142、时间戳赋予部143、事件发生检测部144、事件判断部145以及影像数据确定部146。
存储器15例如是半导体存储器,具备影像数据存储部151以及传感数据存储部152。
影像数据获取部141从摄像机11获取影像数据。
传感数据获取部142获取包含车辆的加速度、速度以及角速度的至少其中之一的传感数据。传感数据获取部142从加速度传感器12获取车辆的加速度。而且,传感数据获取部142从位置测量部13获取车辆的位置信息,并基于所获取的位置信息计算出车辆的速度。
另外,在第一实施方式,行车记录仪1也可以包含测量角速度的陀螺仪传感器。传感数据获取部142也可以从陀螺仪传感器获取角速度。
而且,在第一实施方式,传感数据获取部142获取车辆的加速度以及速度,但是,本发明并不特别地限定于此,传感数据获取部142也可以仅获取车辆的加速度。而且,传感数据获取部142也可以获取X轴方向的加速度、Y轴方向的加速度以及Z轴方向的加速度中的任意一个加速度,但是,最好获取X轴方向的加速度、Y轴方向的加速度以及Z轴方向的加速度。
而且,在第一实施方式,传感数据获取部142根据从位置测量部13获取的车辆的位置信息计算出车辆的速度,但是,本发明并不特别地限定于此,也可以直接从车辆获取速度。在这种情况下,行车记录仪1也可以不具备位置测量部13。
时间戳赋予部143对所获取的影像数据以及传感数据分别赋予表示获取的时刻的时间戳(时刻信息)。时间戳赋予部143将赋予了时间戳的影像数据存储到影像数据存储部151并将赋予了时间戳的传感数据存储到传感数据存储部152。
影像数据存储部151存储通过影像数据获取部141获取的并通过时间戳赋予部143赋予了时间戳的影像数据。
传感数据存储部152存储通过传感数据获取部142获取的并通过时间戳赋予部143赋予了时间戳的传感数据。
事件发生检测部144基于通过传感数据获取部142获取的传感数据判断是否发生了事件。具体而言,事件发生检测部144,在X轴的加速度、Y轴的加速度以及Z轴的加速度的至少其中之一超过了阈值的情况下,判断发生了事件。
通信部16,在通过事件发生检测部144判断发生了事件的情况下,将传感数据发送到数据解析服务器2。此时,通信部16将以发生了事件的时刻为基准的规定期间的传感数据组发送到数据解析服务器2。进一步具体而言,通信部16将包含从发生了事件的时刻起规定时间之前为止的第一期间和从发生了事件的时刻起规定时间之后为止的第二期间的第三期间的传感数据组发送到数据解析服务器2。例如,通信部16将包含从发生了事件的时刻起10秒钟之前为止的第一期间和从发生了事件的时刻起5秒钟之后为止的第二期间的第三期间的传感数据组发送到数据解析服务器2。
通信部16接收由数据解析服务器2发送的事件的内容的识别结果。
事件判断部145判断由数据解析服务器2识别的事件是否为规定的事件。事件判断部145判断通过通信部16接收到的识别结果所示的事件是否为规定的事件。在此,规定的事件包含表示危险驾驶的事件、表示车辆的碰撞的事件、表示道路的维护状况的事件以及表示车辆的故障的事件的至少其中之一。
影像数据确定部146,在所识别的事件被判断为是规定的事件的情况下,确定被赋予了与对识别所使用的传感数据赋予的时间戳(时刻信息)相同的时间戳(时刻信息)的影像数据。即,影像数据确定部146,在通过事件判断部145判断所发生的事件是规定的事件的情况下,确定被赋予了与对识别所使用的传感数据组赋予的时间戳相同的时间戳的影像数据组。
通信部16将通过影像数据确定部146确定的影像数据发送到影像储存服务器3。即,通信部16将通过影像数据确定部146确定的影像数据组发送到影像储存服务器3。
图3是表示第一实施方式的数据解析服务器的构成的方框图。
数据解析服务器具备通信部21、处理器22以及存储器23。
通信部21接收通过行车记录仪1发送的传感数据。即,通信部21接收通过行车记录仪1发送的传感数据组。
处理器22例如是CPU,具备事件识别部221。
存储器23例如是半导体存储器或硬盘驱动器,具备识别模型存储部231。
识别模型存储部231,将传感数据作为输入,将事件的内容作为输出,预先存储通过机器学习生成的识别模型。另外,作为机器学习例如采用使用了多层神经网络的深度学习。
事件识别部221基于传感数据识别在车辆发生的事件的内容。事件识别部221通过将传感数据输入到存储在识别模型存储部231中的识别模型来识别事件的内容。事件识别部221将传感数据组输入到识别模型,并将从识别模型输出的事件的内容作为识别结果进行获取。
另外,在第一实施方式,事件识别部221通过将传感数据组输入到被机器学习的识别模型来识别事件的内容,但是本发明并不局限于此,存储器23也可以将事件的内容和表示传感数据组的波形的波形数据相互对应地进行存储。在这种情况下,事件识别部221也可以对接收到的传感数据组的波形和存储在存储器23的波形数据进行模式匹配(patternmatching),并将一致的波形数据所对应的事件的内容作为识别结果来获取。
而且,在第一实施方式,识别模型存储部231也可以根据所识别的事件的内容存储多个识别模型。例如,识别模型存储部231也可以存储用于识别危险驾驶事件的第一识别模型以及用于识别碰撞事件的第二识别模型。
通信部21将事件识别部221的识别结果发送到行车记录仪1。
图4是表示第一实施方式的影像储存服务器的构成的方框图。
影像储存服务器3具备通信部31、处理器32以及存储部33。
通信部31接收通过行车记录仪1发送的影像数据。通过行车记录仪1发送的影像数据是以发生了规定的事件的时刻为基准而获取的影像数据。
处理器32例如是CPU,具备影像数据管理部321。
影像数据管理部321将通过通信部31接收到的影像数据存储到影像数据存储部331。即,影像数据管理部321将以发生了规定的事件的时刻为基准而获取的影像数据组存储到影像数据存储部331。
存储器33例如是半导体存储器或硬盘驱动器,具备影像数据存储部331。
影像数据存储部331存储影像数据。存储在影像数据存储部331的影像数据是以发生了规定的事件的时刻为基准而获取的影像数据。影像数据被用于例如驾驶评价、动态管理或安全驾驶的辅助等。
图5是用于说明第一实施方式的信息处理系统的处理的第一流程图,图6是用于说明第一实施方式的信息处理系统的处理的第二流程图。
首先,在步骤S1,行车记录仪1的影像数据获取部141从摄像机11获取影像数据。
其次,在步骤S2,传感数据获取部142获取包含车辆的加速度以及速度的传感数据。此时,传感数据获取部142从加速度传感器12获取X轴方向的加速度、Y轴方向的加速度以及Z轴方向的加速度。而且,传感数据获取部142从位置测量部13获取车辆的位置,并计算出这一次获取的位置与上一次获取的位置之间的距离,通过将计算出的距离除以获取时间间隔计算出车辆的速度。
其次,在步骤S3,时间戳赋予部143对通过影像数据获取部141获取的影像数据和通过传感数据获取部142获取的传感数据分别赋予表示获取的时刻的时间戳。
其次,在步骤S4,时间戳赋予部143将赋予了时间戳的影像数据存储到影像数据存储部151。
其次,在步骤S5,时间戳赋予部143将赋予了时间戳的传感数据存储到传感数据存储部152。
其次,在步骤S5,事件发生检测部144基于通过传感数据获取部142获取的传感数据判断是否发生了事件。此时,事件发生检测部144判断X轴的加速度、Y轴的加速度以及Z轴的加速度的至少其中之一是否超过了阈值。而且,事件发生检测部144,在判断X轴的加速度、Y轴的加速度以及Z轴的加速度之中的任意一个加速度都没有超过阈值的情况下,判断没有发生事件。而且,事件发生检测部144,在判断X轴的加速度、Y轴的加速度以及Z轴的加速度的至少其中之一超过了阈值的情况下,判断发生了事件。
在此,在判断没有发生事件的情况下(在步骤S6为“否”),处理返回到步骤S1。
另一方面,在判断发生了事件的情况下(在步骤S6为“是”),在步骤S7,事件发生检测部144判断是否获取了规定期间的影像数据以及传感数据。在此,规定期间是将从发生了事件的时刻起规定时间之前为止的第一期间和从发生了事件的时刻起规定时间之后为止的第二期间进行合并的期间。例如,事件发生检测部144判断是否获取了从发生了事件的时刻起10秒钟之前为止的第一期间和从发生了事件的时刻起5秒钟之后为止的第二期间合并后的15秒之间的影像数据以及传感数据。
在此,在判断没有获取规定期间的影像数据以及传感数据的情况下(在步骤S7为“否”),处理返回到步骤S1。
另一方面,在判断获取了规定期间的影像数据以及传感数据的情况下(在步骤S7为“是”),在步骤S8,通信部16将在规定期间内获取的传感数据组发送到数据解析服务器2。
其次,在步骤S9,数据解析服务器2的通信部21接收通过行车记录仪1发送的传感数据组。
其次,在步骤S10,事件识别部221基于通过通信部21接收到的传感数据组识别在车辆发生的事件的内容。此时,事件识别部221,将传感数据组输入到存储在识别模型存储部231的识别模型,将从识别模型输出的事件的内容作为识别结果来获取。
其次,在步骤S11,通信部21将事件识别部221的事件内容的识别结果发送到行车记录仪1。
其次,在步骤S12,行车记录仪1的通信部16接收通过数据解析服务器2发送的事件内容的识别结果。
其次,在步骤S13,事件判断部145基于通过通信部16接收到的识别结果判断所识别的事件是否为规定的事件。此时,规定的事件根据影像储存服务器3都收集了在发生了哪种事件时的影像数据而有所不同。
例如,如果规定的事件是表示危险驾驶的事件,事件判断部145就判断所识别的事件是否为表示危险驾驶的事件即表示急刹车的事件、表示急转弯的事件、表示急加速的事件中的某一个事件。
而且,例如,如果规定的事件是表示碰撞的事件,事件判断部145就判断所识别的事件是否为表示碰撞的事件。
而且,例如,如果规定的事件是表示道路的维护状况的事件,事件判断部145就判断所识别的事件是否为表示路况不好的事件。在判断规定的事件是表示道路的维护状况的事件的情况下,最好在传感数据中包含位置信息。由此,可以确定路况不好的位置。
而且,例如,如果规定的事件是表示车辆的故障的事件,事件判断部145就判断所识别的事件是否为表示车辆的故障的事件。作为车辆的故障,例如,表示车辆的轮胎的空气压较低的状态。在这种情况下,存储器23也可以预先存储基于其它的车辆的传感数据识别出的通过了道路上的凸起的位置。而且,事件识别部221,在其它的车辆没有通过道路上的凸起但却识别出车辆通过了道路上的凸起的情况下,也可以判断车辆的轮胎的空气压处于较低的状态。
在此,在判断所识别的事件不是规定的事件的情况下(在步骤S13为“否”),处理返回到步骤S1。
另一方面,在判断所识别的事件是规定的事件的情况下(在步骤S13为“是”),在步骤S14,影像数据确定部146从影像数据存储部151中确定被赋予了与对识别所使用的传感数据组赋予的时间戳相同的时间戳的影像数据组。
其次,在步骤S15,通信部16将通过影像数据确定部146确定的影像数据组和识别所使用的传感数据组发送到影像储存服务器3。
其次,在步骤S16,影像储存服务器3的通信部31接收通过行车记录仪1发送的影像数据组以及传感数据组。
其次,在步骤S17,影像数据管理部321将通过通信部31接收到的影像数据组以及传感数据组存储到影像数据存储部331。
根据第一实施方式,因为基于与影像数据相比较数据量较少的传感数据来识别在车辆发生的事件的内容,所以可以减轻信息处理系统的处理负荷。而且,因为只发送发生了规定的事件时的影像数据,所以可以防止发送不需要的影像数据,能削减数据通信量以及数据通信费。
另外,在第一实施方式,信息处理系统具备数据解析服务器2以及影像储存服务器3,但是本发明并不特别地限定于此,也可以具备包含数据解析服务器2以及影像储存服务器3的功能的一个服务器。在这种情况下,因为服务器已经获取了传感数据组,所以在步骤S15,行车记录仪1的通信部16仅将影像数据组发送到影像储存服务器3。影像储存服务器3的通信部31接收通过行车记录仪1发送的影像数据组。而且,影像数据管理部321将通过通信部31接收到的影像数据组和识别所使用的传感数据组存储到影像数据存储部331。
而且,在第一实施方式,行车记录仪1的通信部16将影像数据组以及传感数据组发送到影像储存服务器3,但是本发明并不特别地限定于此,除了影像数据组以及传感数据组之外,也可以将事件的识别结果即事件的内容发送到影像储存服务器3。影像储存服务器3的影像数据管理部321也可以将通过通信部31接收到的影像数据组、传感数据组以及事件的识别结果存储到影像数据存储部331。
其次,对第一实施方式的事件的识别进一步进行说明。
图7是表示在第一实施方式、进行了作为危险驾驶事件之一的急刹车时测量到的X轴方向、Y轴方向以及Z轴方向的加速度与时刻之间的关系的示意图。在图7中,纵轴表示加速度(G),横轴表示时刻(sec)。而且,实线表示X轴方向的加速度,虚线表示Y轴方向的加速度,点划线表示Z轴方向的加速度。而且,时刻0(sec)表示判断发生了事件的时刻。
如图7所示,在进行了急刹车的情况下,判断Y轴方向的加速度超过了阈值,传感数据组被发送到数据解析服务器2。而且,如图7所示,在传感数据组被输入到识别模型的情况下,识别为发生了急刹车的事件。
图8是表示在第一实施方式、车辆越过道路上的凸起时测量到的X轴方向、Y轴方向以及Z轴方向的加速度与时刻之间的关系的示意图。在图8中,纵轴表示加速度(G),横轴表示时刻(sec)。而且,实线表示X轴方向的加速度,虚线表示Y轴方向的加速度,点划线表示Z轴方向的加速度。而且,时刻0(sec)表示判断发生了事件的时刻。
如图8所示,在车辆越过道路上的凸起的情况下,判断X轴方向的加速度超过了阈值,传感数据组被发送到数据解析服务器2。而且,如图8所示,在传感数据组被输入到识别模型的情况下,识别为发生了正常事件。车辆越过道路上的凸起时拍摄到的影像不是应该存储到影像储存服务器3中的影像。为此,在表示车辆越过了道路上的凸起的传感数据组被输入到识别模型的情况下,识别为发生了正常事件。正常事件不是规定的事件。为此,事件判断部145,在通过通信部16接收到的识别结果所示的事件是正常事件的情况下,判断事件不是规定的事件。
而且,当车辆行驶在环状的道路的情况下,由于方向盘被朝一定方向持续切换,判断X轴方向的加速度超过了阈值,传感数据组被发送到数据解析服务器2。这样,即使是在表示车辆行驶在环状的道路的传感数据组被输入到识别模型的情况下,也能识别为发生了正常事件。
而且,在车辆碰撞的情况下,判断X轴方向的加速度以及Y轴方向的加速度超过了阈值,传感数据组被发送到数据解析服务器2。而且,在该传感数据组被输入到识别模型的情况下,识别为发生了碰撞事件。
另外,在第一实施方式,事件识别部221不仅可以识别碰撞事件,还可以识别碰撞的程度。即,事件识别部221也可以根据X轴方向、Y轴方向以及Z轴方向的加速度的最大值来识别碰撞的程度为“大”、“中”以及“小”的某一个。
而且,在车辆越过道路上的凸起的情况下,判断X轴方向的加速度超过了阈值,传感数据组被发送到数据解析服务器2。而且,在该传感数据组被输入到识别模型的情况下,识别为发生了正常事件。在车辆越过道路上的凸起时拍摄到的影像不是应该存储到影像储存服务器3的影像。为此,在表示车辆越过了道路上的凸起的传感数据组被输入到识别模型的情况下,识别为发生了正常事件。正常事件不是规定的事件。为此,事件判断部145,在通过通信部16接收到的识别结果所示的事件是正常事件的情况下,判断事件不是规定的事件。
另外,在第一实施方式,传感数据包含3轴的加速度以及速度,但是本发明并不特别地限定于此,也可以包含表示有无刹车的数据、表示有无右转信号灯的数据以及表示有无左转信号灯的数据。
而且,第一实施方式的信息处理系统具备行车记录仪1、数据解析服务器2、影像储存服务器3,但是本发明并不特别地限定于此,也可以不具备数据解析服务器2只具备行车记录仪1和影像储存服务器3。在这种情况下,行车记录仪1也可以具备数据解析服务器2的事件识别部以及识别模型存储部。在这种情况下,事件识别部,在通过事件发生检测部144判断发生了事件的情况下,基于传感数据识别在车辆发生的事件的内容。
(第二实施方式)
第一实施方式的信息处理系统具备预先固定在车辆上的行车记录仪1,而第二实施方式的信息处理系统具备可装卸于车辆的便携式终端来代替行车记录仪1。
图9是概念性地表示第二实施方式的信息处理系统的整体构成的示意图。
图9所示的信息处理系统具备便携式终端1A、数据解析服务器2、影像储存服务器3。便携式终端1A是终端装置的一个例子,可装卸于车辆。数据解析服务器2经由网络4与便携式终端1A可通信地连接。影像储存服务器3经由网络4与便携式终端1A可通信地连接。另外,在第二实施方式,对于与第一实施方式相同的构成赋予相同的符号,并省略其说明。
由于第一实施方式的行车记录仪1被固定在车辆上,行车记录仪1相对于车辆的姿势不会发生变化。而第二实施方式的便携式终端1A由于为可装卸,每次将便携式终端1A安装到车辆时,便携式终端1A相对于车辆的姿势有可能会发生变化。在此,便携式终端1A获取便携式终端1A的姿势,并基于所获取的姿势校正所获取的传感数据。
图10是表示第二实施方式的便携式终端的构成的方框图。
便携式终端1A例如是智能手机。便携式终端1A例如安装在车辆的仪表板上。便携式终端1A具备摄像机11、加速度传感器12、位置测量部13、处理器14A、存储器15、通信部16以及陀螺仪传感器17。
陀螺仪传感器17检测便携式终端1A的姿势。便携式终端1A的姿势用便携式终端1A的角速度来表示。陀螺仪传感器17例如是3轴陀螺仪传感器,检测便携式终端1A绕X轴的角速度、绕Y轴的角速度以及绕Z轴的角速度。
处理器14A例如是CPU,具备影像数据获取部141、传感数据获取部142、时间戳赋予部143、事件发生检测部144、事件判断部145、影像数据确定部146以及预处理部147。
预处理部147从陀螺仪传感器17获取便携式终端1A的姿势。即,预处理部147从陀螺仪传感器17获取便携式终端1A绕X轴的角速度、绕Y轴的角速度以及绕Z轴的角速度。预处理部147基于所获取的姿势校正获取的传感数据。在便携式终端1A具有作为基准的安装姿势。预处理部147,根据所获取的便携式终端1A绕X轴的角速度、绕Y轴的角速度以及绕Z轴的角速度,计算便携式终端1A相对于基准姿势在绕X轴、绕Y轴以及绕Z轴倾斜到哪种程度。而且,预处理部147根据计算出的倾斜角度校正通过加速度传感器12检测到的X轴方向、Y轴方向以及Z轴方向的加速度。
时间戳赋予部143对通过影像数据获取部141获取的影像数据和通过预处理部147校正的传感数据分别赋予表示获取的时刻的时间戳。
图11是用于说明第二实施方式的信息处理系统的处理的第一流程图,图12是用于说明第二实施方式的信息处理系统的处理的第二流程图。
图11所示的步骤S21以及步骤S22的处理因为与图5所示的步骤S1以及步骤S2的处理相同,所以省略其说明。
其次,在步骤S23,便携式终端1A的预处理部147从陀螺仪传感器17获取便携式终端1A的姿势。此时,预处理部147从陀螺仪传感器17获取便携式终端1A绕X轴的角速度、绕Y轴的角速度以及绕Z轴的角速度。
其次,在步骤S24,预处理部147基于所获取的便携式终端1A的姿势校正通过传感数据获取部142获取的传感数据。具体而言,预处理部147,基于所获取的便携式终端1A绕X轴的角速度、绕Y轴的角速度以及绕Z轴的角速度,校正通过传感数据获取部142获取的X轴方向、Y轴方向以及Z轴方向的加速度。
其次,在步骤S25,时间戳赋予部143对通过影像数据获取部141获取的影像数据和通过预处理部147校正的传感数据分别赋予表示获取的时刻的时间戳。
图11所示的步骤S26至图12所示的步骤S39的处理因为与图5所示的步骤S4至图6所示的步骤S17的处理相同,所以省略其说明。
另外,在本实施方式,便携式终端1A在每次获取传感数据时,获取便携式终端1A的姿势并校正传感数据,但是,本发明并不特别地限定于此。便携式终端1A也可以在最初获取传感数据之前获取便携式终端1A的姿势。而且,便携式终端1A也可以在每次获取传感数据时,使用最初获取的便携式终端1A的姿势来校正传感数据。
另外,在上述各实施方式,每个构成要素即可以由专用的硬件构成,也可以通过执行适合于每个构成要素的软件程序来实现。每个构成要素也可以通过让CPU或处理器等程序执行部读出并执行存储在硬盘或半导体存储器等存储介质中的软件程序来实现。
本发明的实施方式所涉及的装置的功能的一部分或全部可以典型地作为集成电路LSI(Large Scale Integration)来实现。这些功能的一部分或全部即可以分别地形成芯片化,也可以形成为包含一部分或全部的芯片化。而且,集成电路不局限于LSI,也可以用专用电路或通用处理器来实现。也可以利用在制造LSI之后可编程的FPGA(FieldProgrammable GateArray)或可重新构筑LSI内部的电路单元的连接或设定的可重构处理器。
而且,本发明的实施方式所涉及的装置的功能的一部分或全部也可以通过让CPU等处理器执行程序来实现。
而且,在上述所使用的数字都是为了具体地说明本发明而给出的示例,本发明不局限于这些被示例的数字。
而且,上述流程图所示的各步骤被执行的顺序只是为了具体地说明本发明而给出的示例,在能够获得同样效果的范围内也可以是上述以外的顺序。而且,上述步骤的一部分也可以与其它的步骤同时(并行)执行。
产业上的可利用性
本发明涉及的技术,因为可以减轻信息处理系统的处理负荷,作为对通过设置在车辆的传感器获取的传感数据进行处理的技术有其实用价值。

Claims (9)

1.一种信息处理方法,是信息处理系统的信息处理方法,其特征在于包括以下步骤:
从拍摄车辆的周围的摄像机获取影像数据;
获取包含所述车辆的加速度、速度以及角速度的至少其中之一的传感数据;
对所述影像数据和所述传感数据分别赋予表示获取的时刻的时刻信息;
基于所述传感数据,识别在所述车辆发生的事件的内容;
判断所述识别的事件是否为规定的事件;
在判断为所述识别的事件是所述规定的事件的情况下,确定被赋予了与对识别所使用的所述传感数据被赋予的时刻信息相同的时刻信息的影像数据;
发送所述确定的影像数据。
2.根据权利要求1所述的信息处理方法,其特征在于,
在所述事件的识别中,将所述传感数据作为输入,将所述事件的内容作为输出,通过向机器学习而生成的识别模型输入所述传感数据来识别所述事件的内容。
3.根据权利要求1或2所述的信息处理方法,其特征在于,
所述规定的事件包含表示危险驾驶的事件、表示所述车辆的碰撞的事件、表示道路的维护状况的事件以及表示所述车辆的故障的事件的至少其中之一。
4.根据权利要求1至3中任一项所述的信息处理方法,其特征在于,
还基于所述传感数据,判断是否发生了所述事件,
在所述事件的识别中,在判断发生了所述事件的情况下,基于所述传感数据识别在所述车辆发生的事件的内容。
5.根据权利要求1至4中任一项所述的信息处理方法,其特征在于,
所述信息处理系统具备可装卸于所述车辆的便携式终端,
在所述传感数据的获取中,从安装在所述车辆的所述便携式终端获取所述传感数据,
还获取所述便携式终端的姿势,
还基于所获取的所述姿势校正所获取的所述传感数据。
6.根据权利要求1至5中任一项所述的信息处理方法,其特征在于,
所述信息处理系统具备搭载于所述车辆的终端装置和与所述终端装置可通信地连接的服务器,
所述终端装置还将所获取的所述传感数据发送到所述服务器,
所述服务器还接收所述传感数据,
在所述事件的识别中,所述服务器基于所述传感数据识别在所述车辆发生的事件的内容,
所述服务器还发送识别结果,
所述终端装置还接收通过所述服务器发送的所述识别结果,
在所述判断中,所述终端装置判断所述识别结果所示的所述识别的事件是否为规定的事件。
7.一种信息处理装置,其特征在于包括:
影像数据获取部,从拍摄车辆的周围的摄像机获取影像数据;
传感数据获取部,获取包含所述车辆的加速度、速度以及角速度的至少其中之一的传感数据;
时刻信息赋予部,对所述影像数据和所述传感数据分别赋予表示获取的时刻的时刻信息;
识别部,基于所述传感数据识别在所述车辆发生的事件的内容;
判断部,判断所述识别的事件是否为规定的事件;
确定部,在判断为所述识别的事件是所述规定的事件的情况下,确定被赋予了与对识别所使用的所述传感数据被赋予的时刻信息相同的时刻信息的影像数据;以及,
发送部,发送所述确定的影像数据。
8.一种信息处理程序,其特征在于,使计算机具备以下功能:
影像数据获取部,从拍摄车辆的周围的摄像机获取影像数据;
传感数据获取部,获取包含所述车辆的加速度、速度以及角速度的至少其中之一的传感数据;
时刻信息赋予部,对所述影像数据和所述传感数据分别赋予表示获取的时刻的时刻信息;
识别部,基于所述传感数据识别在所述车辆发生的事件的内容;
判断部,判断所述识别的事件是否为规定的事件;
确定部,在判断为所述识别的事件是所述规定的事件的情况下,确定被赋予了与对识别所使用的所述传感数据被赋予的时刻信息相同的时刻信息的影像数据;以及,
发送部,发送所述确定的影像数据。
9.一种信息处理系统,具备搭载在车辆的终端装置、与所述终端装置可通信地连接的数据解析服务器以及与所述终端装置可通信地连接的影像储存服务器,其特征在于,
所述终端装置具备:
影像数据获取部,从拍摄所述车辆的周围的摄像机获取影像数据;
传感数据获取部,获取包含所述车辆的加速度、速度以及角速度的至少其中之一的传感数据;
时刻信息赋予部,对所述影像数据和所述传感数据分别赋予表示获取的时刻的时刻信息;以及,
传感数据发送部,在所述车辆发生了事件时,将所述传感数据发送到所述数据解析服务器,
所述数据解析服务器具备:
传感数据接收部,接收通过所述终端装置发送的所述传感数据;
识别部,基于所述传感数据,识别在所述车辆发生的事件的内容;以及,
识别结果发送部,发送识别结果,
所述终端装置具备:
识别结果接收部,接收通过所述数据解析服务器发送的所述识别结果;
判断部,判断所述识别结果所示的所述识别的事件是否为规定的事件;
确定部,在判断为所述识别的事件是所述规定的事件的情况下,确定被赋予了与对识别所使用的所述传感数据被赋予的时刻信息相同的时刻信息的影像数据;以及,
影像数据发送部,将所述确定的影像数据发送到所述影像储存服务器,
所述影像储存服务器具备:
影像数据接收部,接收通过所述终端装置发送的所述影像数据;和,
影像数据存储部,存储所述影像数据。
CN201980069421.0A 2018-10-22 2019-10-18 信息处理方法、信息处理装置、信息处理程序以及信息处理系统 Pending CN112889270A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862748747P 2018-10-22 2018-10-22
US62/748,747 2018-10-22
PCT/JP2019/041021 WO2020085223A1 (ja) 2018-10-22 2019-10-18 情報処理方法、情報処理装置、情報処理プログラム及び情報処理システム

Publications (1)

Publication Number Publication Date
CN112889270A true CN112889270A (zh) 2021-06-01

Family

ID=70331427

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980069421.0A Pending CN112889270A (zh) 2018-10-22 2019-10-18 信息处理方法、信息处理装置、信息处理程序以及信息处理系统

Country Status (4)

Country Link
US (1) US20210240991A1 (zh)
JP (1) JP7438126B2 (zh)
CN (1) CN112889270A (zh)
WO (1) WO2020085223A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7423426B2 (ja) 2020-06-03 2024-01-29 株式会社トランストロン 運転能力低下検知装置、運転能力低下検知システム及び運転能力低下検知プログラム
CN115359587B (zh) * 2022-10-21 2023-02-17 常州海图信息科技股份有限公司 一种微型cvbs图像采集系统及方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227701A (ja) * 2010-04-20 2011-11-10 Rohm Co Ltd ドライブレコーダ
CN102442314A (zh) * 2011-11-02 2012-05-09 电子科技大学 一种感知、记录汽车运动特性的方法和记录、警示装置
CN102592412A (zh) * 2012-02-29 2012-07-18 胡乐乐 一种基于智能手机的行车安全保障系统
JP2013008347A (ja) * 2011-05-20 2013-01-10 Pai-R Co Ltd 携帯通信端末
CN103794035A (zh) * 2012-10-29 2014-05-14 鸿富锦精密工业(武汉)有限公司 车辆紧急事故回报系统及方法
CN104504903A (zh) * 2014-12-31 2015-04-08 北京赛维安讯科技发展有限公司 交通事件采集装置及方法、交通事件监测系统及方法
JP5889463B1 (ja) * 2015-03-30 2016-03-22 ソフトバンク株式会社 画像管理システム、サーバ、画像管理方法、サーバ制御方法、及びサーバプログラム
US9457754B1 (en) * 2015-07-13 2016-10-04 State Farm Mutual Automobile Insurance Company Method and system for identifying vehicle collisions using sensor data
WO2016170934A1 (ja) * 2015-04-24 2016-10-27 株式会社パイ・アール ドライブレコーダ
JP2017116998A (ja) * 2015-12-21 2017-06-29 セゾン自動車火災保険株式会社 情報処理装置、情報処理システム、情報処理方法、情報処理プログラム
CN106934876A (zh) * 2017-03-16 2017-07-07 广东翼卡车联网服务有限公司 一种车辆异常驾驶事件的识别方法及系统
US20170278323A1 (en) * 2016-03-25 2017-09-28 Qualcomm Incorporated Methods and Systems for Utilizing Information Collected from Multiple Sensors to Protect a Vehicle from Malware and Attacks
CN108108766A (zh) * 2017-12-28 2018-06-01 东南大学 基于多传感器数据融合的驾驶行为识别方法及系统
CN108288312A (zh) * 2017-03-06 2018-07-17 腾讯科技(深圳)有限公司 驾驶行为确定方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210295441A1 (en) * 2016-06-22 2021-09-23 State Farm Mutual Automobile Insurance Company Using vehicle data and crash force data in determining an indication of whether a vehicle in a vehicle collision is a total loss
US10814788B2 (en) * 2016-07-05 2020-10-27 Mitsubishi Electric Corporation Recognized-region estimation device, recognized-region estimation method, and recognized-region estimation program
US10733460B2 (en) * 2016-09-14 2020-08-04 Nauto, Inc. Systems and methods for safe route determination
JP2018078500A (ja) * 2016-11-11 2018-05-17 パイオニア株式会社 撮像装置、制御方法、プログラム及び記憶媒体
JP2018125777A (ja) * 2017-02-02 2018-08-09 パナソニックIpマネジメント株式会社 撮像装置、学習サーバ、撮像システム
US10332320B2 (en) * 2017-04-17 2019-06-25 Intel Corporation Autonomous vehicle advanced sensing and response
US11184471B2 (en) * 2017-11-23 2021-11-23 Mikko Vaananen Mobile secretary cloud application
JP6627995B2 (ja) * 2018-05-10 2020-01-08 株式会社Jvcケンウッド 記録装置、記録方法、およびプログラム
JP7015748B2 (ja) * 2018-08-03 2022-02-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報収集方法、情報収集システム、及び情報収集プログラム

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227701A (ja) * 2010-04-20 2011-11-10 Rohm Co Ltd ドライブレコーダ
JP2013008347A (ja) * 2011-05-20 2013-01-10 Pai-R Co Ltd 携帯通信端末
CN102442314A (zh) * 2011-11-02 2012-05-09 电子科技大学 一种感知、记录汽车运动特性的方法和记录、警示装置
CN102592412A (zh) * 2012-02-29 2012-07-18 胡乐乐 一种基于智能手机的行车安全保障系统
CN103794035A (zh) * 2012-10-29 2014-05-14 鸿富锦精密工业(武汉)有限公司 车辆紧急事故回报系统及方法
CN104504903A (zh) * 2014-12-31 2015-04-08 北京赛维安讯科技发展有限公司 交通事件采集装置及方法、交通事件监测系统及方法
JP5889463B1 (ja) * 2015-03-30 2016-03-22 ソフトバンク株式会社 画像管理システム、サーバ、画像管理方法、サーバ制御方法、及びサーバプログラム
WO2016170934A1 (ja) * 2015-04-24 2016-10-27 株式会社パイ・アール ドライブレコーダ
US9457754B1 (en) * 2015-07-13 2016-10-04 State Farm Mutual Automobile Insurance Company Method and system for identifying vehicle collisions using sensor data
JP2017116998A (ja) * 2015-12-21 2017-06-29 セゾン自動車火災保険株式会社 情報処理装置、情報処理システム、情報処理方法、情報処理プログラム
US20170278323A1 (en) * 2016-03-25 2017-09-28 Qualcomm Incorporated Methods and Systems for Utilizing Information Collected from Multiple Sensors to Protect a Vehicle from Malware and Attacks
CN108288312A (zh) * 2017-03-06 2018-07-17 腾讯科技(深圳)有限公司 驾驶行为确定方法及装置
CN106934876A (zh) * 2017-03-16 2017-07-07 广东翼卡车联网服务有限公司 一种车辆异常驾驶事件的识别方法及系统
CN108108766A (zh) * 2017-12-28 2018-06-01 东南大学 基于多传感器数据融合的驾驶行为识别方法及系统

Also Published As

Publication number Publication date
JP7438126B2 (ja) 2024-02-26
US20210240991A1 (en) 2021-08-05
WO2020085223A1 (ja) 2020-04-30
JPWO2020085223A1 (ja) 2021-10-07

Similar Documents

Publication Publication Date Title
US11577734B2 (en) System and method for analysis of driver behavior
US10767994B2 (en) Sensor output correction apparatus
US20130271607A1 (en) Positioning apparatus and positioning method
CN108466616B (zh) 一种自动识别碰撞事件的方法、存储介质及车载终端
KR101738414B1 (ko) 차량 사고 감지장치 및 이를 이용한 긴급 콜 시스템
JP7135796B2 (ja) サーバ装置、サーバ制御方法、サーバ制御プログラム、車両、車両制御方法、及び車両制御プログラム
US20210240991A1 (en) Information processing method, information processing device, non-transitory computer-readable recording medium recording information processing program, and information processing system
US11292478B2 (en) Method and control unit for detecting drowsiness of a driver for a driver assistance system for a vehicle
KR101894052B1 (ko) 차량용 사고영상 기록장치의 차량 속도 측정 장치 및 방법
JP7112255B2 (ja) 車両データの時刻同期装置及び方法
JP2019504986A (ja) 自動車用視覚システム及び視覚システムを制御する方法
US11295429B2 (en) Imaging abnormality diagnosis device
JP2013206417A (ja) 車載記録装置
KR101311112B1 (ko) 차량 사고 판단 장치 및 그 방법
US20210370956A1 (en) Apparatus and method for determining state
US11313691B2 (en) Information processing apparatus for vehicle, information processing system for vehicle, and control apparatus for vehicle
CN116615765A (zh) 驾驶员状态检测方法、装置及存储介质
JP7030000B2 (ja) 情報処理方法、情報処理システム、および、プログラム
JP2019144920A (ja) 処理装置、処理方法及びプログラム
EP3709670A1 (en) System for monitoring transport infrastructure and method thereof
US11302123B2 (en) Information recording device, information recording method, and program for recording information
JP7094728B2 (ja) 電子機器、イベント検知方法及びプログラム
CA3201927A1 (en) A mount security detection method
CN117723055A (zh) 一种用于自主代客泊车的低成本定位方法及系统
JP2022072304A (ja) ドライブレコーダ、ドライブレコーダの制御方法、及びドライブレコーダの制御プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination