CN109309810A - 信息处理装置、信息处理方法以及信息处理系统 - Google Patents
信息处理装置、信息处理方法以及信息处理系统 Download PDFInfo
- Publication number
- CN109309810A CN109309810A CN201810687633.2A CN201810687633A CN109309810A CN 109309810 A CN109309810 A CN 109309810A CN 201810687633 A CN201810687633 A CN 201810687633A CN 109309810 A CN109309810 A CN 109309810A
- Authority
- CN
- China
- Prior art keywords
- image
- information
- information processing
- vehicle
- supervision object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/21—Monitoring or handling of messages
- H04L51/222—Monitoring or handling of messages using geographical location information, e.g. messages transmitted or received in proximity of a certain spot or area
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/42—Mailbox-related aspects, e.g. synchronisation of mailboxes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Alarm Systems (AREA)
- Traffic Control Systems (AREA)
- Emergency Alarm Devices (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明的信息处理装置具有:取得部,其取得通过被搭载于车辆上的摄像装置而拍摄到的图像;判断部,其针对所述取得部所取得的图像而实施图像识别,并实施是否包括预先登记的监视对象的判断。所述判断部针对在以与所述监视对象建立关联的方式被设定的地理范围内所拍摄到的图像而实施所述判断。
Description
技术领域
本发明涉及一种信息处理装置、信息处理方法以及信息处理系统。
背景技术
在相关技术中,以走失的儿童或徘徊老人等的搜索为目的,而研究了如下技术,即,对通过多个摄像机而拍摄到的图像和预先输入的表示搜索对象的图像信息或文字信息进行核对,并对拍摄图像中是否存在表示搜索对象的信息进行判断(例如,日本特开2001-333419)。
发明内容
在日本特开2001-333419的技术中,随着拍摄图像的增加,用于对从拍摄图像之中判断是否存在表示搜索对象的信息的处理负载会增加,从而存在有效的搜索变得困难的可能性。
本发明提供一种能够使使用了被拍摄到的图像的监视效率化的信息处理装置、信息处理方法以及信息处理系统。
本发明的第一方式所涉及的信息处理装置具有:取得部,其以取得通过被搭载于车辆上的摄像装置而拍摄到的图像的方式被构成;判断部,其以针对所述取得部所取得的图像而实施图像识别并实施是否包含预先登记的监视对象的判断的方式被构成。所述判断部针对在以与所述监视对象建立关联的方式被设定的地理范围内所拍摄到的图像而实施所述判断。
根据本发明的第一方式,能够将是否包含预先登记的监视对象的判断的对象限定为,在以与监视对象建立关联的方式被设定的地理范围内所拍摄到的图像。
因此,能够使利用了所拍摄到的图像的监视效率化。
在本发明的第一方式中,也可以采用如下方式,即,所述取得部取得在所述地理范围内所拍摄到的图像。
根据本发明的第一方式,能够将取得对象的图像限定为,在以与监视对象建立关联的方式被设定的地理范围内所拍摄到的图像。
因此,能够使利用了所拍摄到的图像的监视效率化。
在本发明的第一方式中,也可以采用如下方式,即,所述地理范围根据预定的区域、使用地图而被指定的范围、或者预定的移动终端所记录的位置信息的履历而被特别指定。
根据本发明的第一方式,能够通过各种方法来指定地理范围。
因此,能够指定适合于监视对象的地理范围。
在本发明的第一方式中,也可以采用如下方式,即,所述地理范围在经由网络而连接的终端上根据需要而被设定。
根据本发明的第一方式,能够根据用户的期望而对地理范围进行指定。
因此,能够指定适合于监视对象的地理范围。
在本发明的第一方式中,也可以采用如下结构,即,针对关于预先取得图像的事项已获得同意的监视对象,所述判断部针对所述取得部所取得的图像而实施图像识别。
根据本发明的第一方式,能够在关于预先取得图像的事项已获得同意的情况下,执行与监视对象相关的图像识别。
因此,能够防止因对擅自拍摄当事人而得到的图像进行处理所导致的问题的产生。
在本发明的第一方式中,也可以采用如下方式,即,所述判断部使用从所述监视对象的人物的脸部图像中提取出的第一信息、或者除了所述第一信息以外从所述人物的随身物品的图像中提取出的第二信息来实施所述图像识别。
根据本发明的第一方式,可基于能够将监视对象与其他人区别开来的可能性较高的信息来实施图像识别。
因此,能够提高从图像中检测出监视对象的可能性。
在本发明的第一方式中,也可以采用如下方式,即,所述取得部取得由所述摄像装置拍摄到的图像和表示所述图像被拍摄的位置的位置信息。所述判断部在所述取得部所取得的图像中包含所述监视对象的情况下,将所述位置信息以与所述监视对象建立关联的方式存储于存储部中。
根据本发明的第一方式,即使监视对象不具有特定的发送器等,也能够对监视对象的位置进行特别指定。
因此,能够使监视对象的监视效率化。
在本发明的第一方式中,也可以采用如下方式,即,具备提供部,所述提供部根据来自经由网络而连接的终端的要求而将被存储于所述存储部中的所述位置信息提供给所述终端。
根据本发明的第一方式,能够根据来自监视者的要求而提供监视对象的位置信息。
因此,能够使监视对象的监视效率化。
本发明的第二方式所涉及的信息处理方法包括:由计算机取得通过被搭载于车辆上的摄像装置而拍摄到的图像;由计算机针对所取得的所述图像而实施图像识别,并实施是否包含预先登记的监视对象的判断。所述判断为,针对在以与所述监视对象建立关联的方式被设定的地理范围内所拍摄到的图像的判断。
根据本发明的第二方式,能够将取得对象的图像限定为,在以与监视对象建立关联的方式被设定的地理范围内所拍摄到的图像。
因此,能够使利用了所拍摄到的图像的监视效率化。
在本发明的第三方式所涉及的信息处理系统中,包括:车载器,其被搭载于车辆上;信息处理装置,其能够经由网络而与所述车载器进行通信。所述信息处理系统具有:取得部,其取得通过被搭载于车辆上的摄像装置而拍摄到的图像;判断部,其针对所述取得部所取得的图像而实施图像识别,并实施是否包含预先登记的监视对象的判断。所述判断部针对在以与所述监视对象建立关联的方式被设定的地理范围内所拍摄到的图像而实施所述判断。
根据本发明的第三方式,能够将取得对象的图像限定为,在以与监视对象建立关联的方式被设定的地理范围内所拍摄到的图像。
因此,能够使利用了所拍摄到的图像的监视效率化。
根据本发明的方式,能够使利用了所拍摄到的图像的监视效率化。
附图说明
以下,参照附图来对本发明的示例性实施例的特征、优点以及技术和工业意义进行描述,其中,相同的附图标记表示相同的元件。
图1为表示本发明的实施方式中的信息处理系统的结构例的图。
图2为表示本发明的实施方式中的中心的硬件结构例的图。
图3为表示本发明的实施方式中的车载器的硬件结构例的图。
图4为表示本发明的实施方式中的经销商终端、中心以及车载器的功能结构例的图。
图5为用于对经销商终端所执行的处理顺序的一个示例进行说明的流程图。
图6为表示来自多个角度的脸部图像的示例的图。
图7为用于对学习数据的一个示例进行说明的映射图。
图8为用于对在登记信息的接收时中心所执行的处理顺序的一个示例进行说明的流程图。
图9表示登记信息存储部的结构例的表格。
图10为用于对车载器根据辅助电源的断开操作而执行的处理顺序的一个示例进行说明的流程图。
图11为表示监视区域存储部的结构例的表格。
图12为用于对车载器根据辅助电源的导通而执行的处理顺序的一个示例进行说明的流程图。
图13为用于对中心根据监视数据的接收而执行的处理顺序的一个示例进行说明的流程图。
图14为表示监护数据存储部的结构例的表格。
图15为用于对被监护人的位置的履历的输出处理的处理顺序的一个示例进行说明的流程图。
具体实施方式
以下,基于附图来对本发明的实施方式进行说明。图1为表示本发明的实施方式中的信息处理系统1的结构例的图。在图1中,信息处理系统1包括车载器20和中心10。车载器20和中心10能够经由将多个基站作为终端的无线通信网即移动通信网或包括因特网等在内的预定的通信网络NW1而进行通信。虽然在图1中,为了便于说明,而仅示出了一个车载器20,但是多个车辆40的各自的车载器20均能够经由通信网络NW1而与中心10进行通信。
车载器20为,被搭载于车辆40上、且具有信息处理功能以及通信功能的装置。例如,车载器20也可以包括导航系统。在本实施方式中,车载器20与以能够对车辆40的前方进行拍摄的方式而被设置于车辆40上的摄像机30相连接,并输入由摄像机30拍摄的动态画面,并且将从所述动态画面中提取出的静止画面(图像数据)向中心10发送。摄像机30可以是例如行车记录仪或者出于驾驶辅助目的而被设置的摄像机。
中心10为一个以上的计算机(信息处理装置)的集合。在本实施方式中,中心10根据从各个车辆40的车载器20收集的图像数据来执行用于对作为被监护人而被指定的人物的图像进行检测的处理。
在图1中,在中心10中,经由因特网等网络而与一个以上的经销商终端50连接。经销商终端50例如为被设置在车辆40的经销商(销售人员)的各个店铺内的PC(PersonalComputer:个人计算机)等的终端。经销商终端50在被监护人的图像的登记等中被使用。
被监护人是指,被作为监护人(监视者)的立场的人监视的监视对象(监护对象),并经由经销商终端50作为被监护人而向中心10登记过的人物。例如,可考虑是被监护人为儿童,而监护人为所述儿童的父母的情况。此外,也考虑是被监护人为高龄的父母,而监护人为所述高龄的父母的儿子或者女儿等的情况。但是,被监护人和监护人的关系并不限定于上述关系。
在本实施方式中,能够利用由多个车辆40的摄像机30所拍摄到的图像而实现被监护人的监护(监视)。
图2为表示本发明的实施方式中的中心10的硬件结构例的图。图2的中心10具有分别通过总线B而相互连接的驱动器装置100、辅助存储装置102、存储器装置103、CPU(Central Processing Unit:中央处理单元)104以及接口装置105等。
实现中心10中的处理的程序由CD-ROM(Compact Disk-Read Only Memory:只读光盘存储器)等记录介质101提供。当存储有程序的记录介质101被安置于驱动器装置100中时,程序从记录介质101经由驱动器装置100而被安装于辅助存储装置102中。但是,程序的安装并非必须由记录介质101来实施,也可以采用如下方式,即,经由网络而从其他的计算机下载。辅助存储装置102对被安装的程序进行存储,并且对必要的文件或数据等进行存储。
存储器装置103在具有程序的启动指示的情况下,从辅助存储装置102中读出程序并进行存储。CPU104按照被存储于存储器装置103中的程序来执行中心10所涉及的功能。接口装置105作为用于与网络连接的接口而被使用。
图3为表示本发明的实施方式中的车载器20的硬件结构例的图。图3的车载器20具有:驱动器装置200、辅助存储装置202、存储器装置203、CPU204、通信装置205、显示装置206、输入装置207以及GPS接收器208等。
实现车载器20中的处理的程序由SD(Secure Digital:安全数字)存储卡等记录介质201提供。当存储有程序的记录介质201被安置于驱动器装置200中时,程序从记录介质201经由驱动器装置200而被安装于辅助存储装置202中。但是,程序的安装并非必须由记录介质201实施,也可以采用如下方式,即,经由网络而从其他的计算机下载。辅助存储装置202对被安装的程序进行存储,并且对必要的文件或数据等进行存储。
存储器装置203在具有程序的启动指示的情况下,从辅助存储装置202中读取出程序并进行存储。CPU204按照被存储于存储器装置203中的程序而实现车载器20所涉及的功能。通信装置205为,用于通过无线通信而与网络连接的装置。通信装置205可以使用例如DCM(Data Communication Module:数据通信模块)来实现。显示装置206例如为液晶显示器等,并对由程序实现的GUI(Graphical User Interface:图形用户界面)等进行显示。输入装置207是为了供用户输入各种操作指示而使用的。例如,输入装置207也可以是触摸面板。GPS接收器208对从GPS(Global Positioning System:全球定位系统)卫星发送的GPS信号进行接收,并基于所述GPS信号而测定车辆40的当前位置。
图4为表示本发明的实施方式中的经销商终端50、中心10以及车载器20的功能结构例的图。在图4中,经销商终端50具有登记部51、学习部52以及登记信息发送部53等。上述各部通过使经销商终端50的CPU执行被安装于经销商终端50中的一个以上的程序的处理而被实现。
登记部51接受与监护人以及被监护人相关的信息的输入。例如,除了监护人以及被监护人的姓名等之外,还可输入监视区域或被监护人的脸部图像等。此外,根据需要,也可输入被监护人所携带的移动终端所发出的电波的电波ID,或者被监护人的衣服的图像或被监护人的携带物品(皮包等)等被监护人随身携带的物品的图像等。监视区域是指,作为用于对被监护人进行监视的范围而根据监护人的期望而被指定的地理范围。
学习部52从被监护人的脸部图像中提取特征量,并基于所述特征量而生成与被监护人的脸部图像相关的学习数据。另外,虽然在本实施方式中作为学习模型而假想了SVM(Support Vector Machine:支持向量机),但是在采用其他的学习模型的情况下,只要从脸部图像中提取出适合于其他的学习模型的信息即可。此外,学习部52在输入了被监护人的衣服的图像或被监护人的携带物品的图像等的其他的图像的情况下,也会针对其他的图像而同样地生成学习数据。因此,对于一个被监护人而生成了一个以上的学习数据。
登记信息发送部53向中心10发送包括登记部51接受输入的信息、学习部52所生成的学习数据等在内的登记信息。
中心10具有登记信息接收部11、监视区域发送部12、监视数据接收部13、识别部14以及监护信息提供部15等。上述各部通过使CPU104执行被安装于中心10中的一个以上的程序的处理而被实现。此外,中心10还利用登记信息存储部111以及监护数据存储部112。上述的各个存储部例如能够使用辅助存储装置102或者能够经由网络而与中心10连接的存储装置等来实现。
登记信息接收部11对从经销商终端50发送的登记信息进行接收,并将所述登记信息存储于登记信息存储部111中。因此,在登记信息存储部111中,基本上针对每一对监护人和被监护人而存储有登记信息。
监视区域发送部12例如向各个车辆40的车载器20发送表示被存储于登记信息存储部111中的各个登记信息中所包含的各个监视区域的信息(以下,称为“监视区域信息”。)。
监视数据接收部13从所述车载器20接收如下数据,即,从接收到了监视区域信息的车载器20发送的、搭载了所述车载器20的车辆40位于任意一个监视区域时由所述车辆40的摄像机30拍摄到的图像数据、包括拍摄所述图像数据时的所述车辆40的位置信息以及拍摄所述图像的日期和时间等在内的监视数据。
识别部14针对被接收的监视数据中所包含的图像数据而执行使用了被存储于登记信息存储部111中的学习数据的图像识别处理,从而实施个人识别(即,任意的被监护人的检测)。识别部14在从被接收的监视数据所包含的图像数据中检测到了任意的被监护人的情况下,将包括所述监视数据和与所述被监护人相关的登记信息的识别符(登记ID)在内的数据作为监护数据而存储于监护数据存储部112中。
监护信息提供部15根据来自监护人所利用的终端的要求而向所述终端提供对于所述监护人而言的被监护人所涉及的一个以上的监护数据(即,所述被监护人的位置信息的履历等)。
车载器20具有:图像输入部21、监视区域取得部22、位置取得部23、提取判断部24、电波检测部25、图像提取部26以及监视数据发送部27等。
上述各部通过使CPU204执行被安装于车载器20中的一个以上的程序的处理而被实现。此外,车载器20还具有监视区域存储部211以及图像存储部212等。上述各个存储部例如能够使用辅助存储装置202等来实现。
图像输入部21以预定的形式而输入由摄像机30拍摄到的图像(动态画面),并以MP4等动态画面形式而将所述图像保存于图像存储部212中。
监视区域取得部22从中心10取得(接收)监视区域信息,并将所取得的监视区域信息存储于监视区域存储部211中。
位置取得部23从GPS接收器208取得表示车辆40的当前位置的位置信息。提取判断部24基于车辆40的当前位置是否在存储于监视区域存储部211中的任意的监视区域信息所表示的监视区域内,而对是否需要实施从图像存储部212的图像数据的提取(取得)进行判断。
电波检测部25在车辆40位于任意的监视区域内的情况下,尝试进行来自移动终端的电波的检测。电波检测部25在能够检测出所述电波的情况下,取得所述电波的电波ID。图像提取部26从图像存储部212中提取(取得)在通过提取判断部24而被判断为需要进行图像数据的提取的时间点下所拍摄到的图像数据。
监视数据发送部27向中心10发送包括由图像提取部26提取的图像数据、由位置取得部23取得的位置信息以及所述图像数据被拍摄的日期和时间等在内的监视数据。在通过电波检测部25而取得了电波ID的情况下,所述电波ID也被包含在监视数据之中。
以下,对在信息处理系统1等中被执行的处理顺序进行说明。首先,监护人和被监护人访问车辆40的经销商,并且需要实施被监护人的登记。在所述登记中,利用到经销商终端50。
图5为用于对经销商终端50所执行的处理顺序的一个示例进行说明的流程图。
当输入了监护人以及被监护人的登记指示时,经销商终端50的登记部51显示同意书画面(S101)。在同意书画面中显示出关于如下内容的同意书,即,在之后的步骤中所指定的范围(监视区域)内,在通过非特定的车辆40的摄像机30而拍摄到了被监护人的图像的情况下,取得所述图像,并管理所述图像以及所述图像的拍摄位置的位置信息等。
当不同意同意书画面中所显示的同意书的意思被输入到经销商终端50时(步骤102为“否”),登记失败,并结束图5的处理。当同意所述同意书的意思被输入到经销商终端50时(步骤102为“是”),进入步骤S103。另外,通过在同意书获得同意的情况下才能够进行被监护人的监视,从而能够防止因对擅自拍摄当事人而得到的图像进行处理所导致的问题的产生。
在步骤S103中,登记部51对用户登记画面进行显示。在用户登记画面中,可输入例如用户ID、密码、监护人以及被监护人的各自的姓名、监护人的联系地址(例如,邮件地址等)。用户ID以及密码为,在监护人对表示被监护人的所在位置的履历的画面进行阅览时需要输入的用户ID以及密码。
接下来,登记部51对监视区域设定画面进行显示(S104)。监视区域设定画面为,用于接受监视区域的范围的设定的画面。例如,在监视区域设定画面中,可显示被输入的住所或当前地点(经销商的店铺)的附近等的周边地图,并可通过在所述地图上的预定的操作而设定监视区域。例如,如果被监护人是上小学的儿童,则可以将所述小学的学区等预定的区域设为监视区域的初始值。可以通过对初始值的边界进行扩大或者缩小等来设定最终的监视区域。
监视区域的设定方法并不限定于特定的方法。此外,也可以设定多个监视区域。例如,如果被监护人持有智能手机或移动电话等的附带GPS功能的移动终端,则可以将记录于所述移动终端中的位置信息的履历输入到经销商终端50中,并将基于所述位置信息的履历而确定的范围设为监视区域。在上述情况下,例如,既可以将包括全部的履历的位置信息在内的最小矩形的范围设为监视区域,也可以将包括一部分的履历的位置信息在内的范围设为监视区域。此外,在被监护人是高龄人等成人的情况下,且在有可能随车辆而进行移动的情况下,也可以取代上述移动终端的位置信息的履历而利用所述车辆的移动履历。所述移动履历例如可以基于所述车辆的ID等而从中心10下载到经销商终端50中。如上文所述,能够通过各种方法,而且能够根据监护人的需要来设定监视区域。通过采用上述方式,从而能够实现适合于被监护人的监视区域的设定。
当完成监视区域的设定时,登记部51显示脸部图像拍摄画面(S105)。脸部图像拍摄图像为显示例如如下消息的画面,所述消息表示在通过与经销商终端50连接的摄像机30(例如,Web摄像机(网络摄像机)30等)而对被监护人的脸部的图像(脸部图像)进行拍摄时,应该针对被监护人而采用的姿态。
在接着脸部图像拍摄画面的显示之后,登记部51输入由摄像机30拍摄的脸部图像(S106)。另外,由于脸部图像希望能够例如从多个角度进行拍摄,因此按照所述多个角度的数量而重复步骤S105以及步骤S106。在此期间,由摄像机30拍摄到的脸部图像作为动态画面而被输入。但是,也可以输入针对每个角度而拍摄的静止画面。
图6为表示来自多个角度的脸部图像的示例的图。通过重复步骤S105及S106,从而输入有图6所示这样的脸部图像。
当完成脸部图像的拍摄时(步骤S107中为“是”),登记部51对是否需要其他特定信息的登记进行判断(S108)。例如,在登记部51中显示出询问是否需要其他特定信息的登记的画面,并基于针对所述画面的输入而实施上述那样的判断。
其他特定信息是指,例如被监护人穿着频率较高的衣服(例如,制服等)、或携带频率较高的物品(例如,皮包等)的图像等的、除了脸部图像以外的对被监护人的确定或检测有用的信息(能够将被监护人与其他人区别开来的可能性较高的信息)。此外,被监护人所持的移动终端的电波的ID(例如,BlueTooth(注册商标)的电波ID)等也可以被包含在其他特定信息中。通过利用包括脸部图像在内的、能够将被监护人与其他人区别开来的可能性比较高的信息,从而能够进一步提高从被拍摄到的图像中检测出被监护人的可能性。
在登记了其他特定信息的情况下(S108中为“是”),登记部51输入其他特定信息(S109)。例如,被输入有衣服的图像、携带物品的图像等,或者电波ID等。上述这样的图像也可以通过与经销商终端50连接的摄像机30而被拍摄。或者,如果相应的图像被存在监护人或者被监护人的移动终端中,则也可以从所述移动终端向经销商终端50输入所述图像。此外,也可以通过经销商终端50接收移动终端所发出的电波从而输入电波ID。
在其他特定信息未被登记的情况下(S108中为“否”),将不执行步骤S109。
接下来,学习部52针对被输入的一个以上的脸部图像而执行学习处理(S110)。具体而言,学习部52从各个脸部图像中提取特征量(数值数据)。学习部52基于被提取出的特征量和从预先被登记在经销商终端50中的非特定多个其他人的脸部图像中提取出的特征量,而生成关于被监护人的脸部的学习数据。
图7为用于对学习数据的一个示例进行说明的映射图。在图7中,□以及■表示非特定多个其他人的特征量。○以及●表示从被监护人的各个脸部图像中提取出的特征量。
学习部52针对图7所示这种特征量组而特别指定被监护人与非特定多个其他人的边界线,并提取出有助于所述边界线的形成的特征量。被提取出的特征量相当于支持向量。在图7中,●以及■为支持向量。学习部52将●以及■的集合设为被监护人的学习数据(即,识别器)。如上文所述,学习数据与被监护人的脸部图像的特征量相比数据量较少。因此,通过生成学习数据,从而能够期待网络负载或处理负载的降低。但是,也可以将从被监护人的脸部图像中提取出的特征量本身作为学习数据。
在输入了其他特定信息的情况下,也会针对所述其他特定信息中所包含的图像而实施学习。学习方法可以与脸部图像相同。例如,也可以在输入了被监护人的衣服的图像的情况下,基于从所述衣服的图像中提取出的多个特征量和从预先登记于经销商终端50内的多个其他衣服的图像中提取出的特征量,而生成被监护人的衣服的学习数据(识别器)。
接下来,登记信息发送部53向中心10发送登记信息(S111)。在登记信息中,例如包括在上述各个步骤中被输入的、用户ID、密码、监护人姓名、被监护人姓名、监护人联系地址、监视区域信息、学习数据(基于脸部图像的学习数据、基于其他特定信息的学习数据等)、以及电波ID等。例如在依矩形而设定监视区域的情况下,监视区域信息可以是所述矩形的对角的顶点的各自的纬度以及经度(即,一组纬度以及经度)。另外,在未输入有电波ID的情况下,在登记信息中将不包含电波ID。
对中心10根据登记信息的接收而执行的处理顺序进行说明。图8是用于对在登记信息的接收时中心10所执行的处理顺序的一个示例进行说明的流程图。
中心10的登记信息接收部11对登记信息的接收进行待机(S201)。当登记信息接收部11接收到从任意的经销商终端50的登记信息发送部53发送的登记信息时(S201中为“是”),将包括所述登记信息在内的记录登记于登记信息存储部111中(S202)。
图9为表示登记信息存储部111的结构例的表格。如图9所示,登记信息存储部111的各记录以与登记ID建立关联的方式而包括登记信息。登记ID是针对每个登记信息而分配的识别信息。
对车载器20所执行的处理顺序进行说明。图10为用于对车载器20根据辅助电源的断开操作而执行的处理顺序的一个示例进行说明的流程图。另外,图10的处理顺序也可以通过非特定的车辆40的车载器20来执行。即,执行图10的处理顺序的车载器20可以不限于任意的监护人的车辆40的车载器20。
在车辆40中,当实施了辅助电源的断开操作时,被搭载于所述车辆40上的车载器20的监视区域取得部22向中心10的监视区域发送部12发送有无登记信息的更新的询问(S301)。在所述询问中,包括已经被存储于监视区域存储部211中的各个监视区域的登记ID。中心10的监视区域发送部12根据所述询问而对包括除了所述询问中包括的登记ID以外的登记ID在内的登记信息是否被存储于登记信息存储部111中进行判断。在该登记信息被存储于登记信息存储部111中的情况下,监视区域发送部12将包括该全部登记信息的登记ID的应答回复给监视区域取得部22。在该登记信息未被存储于登记信息存储部111中的情况下,监视区域发送部12将表示不存在新的登记信息的应答回复给监视区域取得部22。
接下来,监视区域取得部22基于来自监视区域发送部12的应答而对有无登记信息的更新进行判断(S302)。监视区域取得部22在所述应答表示没有新的登记信息的情况下(S302中为“否”),结束图10的处理。
另一方面,在所述应答中包括一个以上的登记ID的情况下(S302中为“是”),监视区域取得部22从中心10下载应答中所包括的全部登记ID所涉及的登记信息的监视区域信息(S303)。即,监视区域取得部22向中心10的监视区域发送部12发送监视区域信息的取得要求。在所述取得要求中,包括应答中所包括的各个登记ID。监视区域发送部12将包括在所述取得要求中的各个登记ID所涉及的登记信息(图9)中所包括的监视区域信息与各自的登记ID建立关联并进行回复。监视区域取得部22将接收到的各个监视区域信息与和所述监视区域信息建立了关联的登记ID建立关联并存储于监视区域存储部211中。
图11为表示监视区域存储部211的结构例的表格。如图11所示,在监视区域存储部211中,存储有从存储于中心10的登记信息存储部111中的登记信息中提取出登记ID以及监视区域信息后获得的结果。
作为取得对象的监视区域信息可以被限定为,在从车辆40的当前位置起的预定范围内一部分或者全部重叠的监视区域所涉及的监视区域信息。通过采用上述方式,从而能够防止取得与成为车辆40的移动目的地的可能性较低的地域所涉及的监视区域信息,进而能够进一步减轻网络负载或车载器20的处理负载等。在上述的情况下,监视区域取得部22除了登记ID以外,只要还将车辆40的当前位置的位置信息包括在监视区域信息的取得要求中即可。中心10的监视区域发送部12只要将回复如下信息即可,即,被包括在所述取得要求中的各个登记ID所涉及的登记信息(图9)中所包括的监视区域信息中的、在所述位置信息所涉及的位置至预定范围内一部分或者全部重叠的监视区域所涉及的监视区域信息。
对在车辆40中在辅助电源为导通状态下车载器20所执行的处理顺序进行说明。
图12为用于对车载器20根据辅助电源(ACC)的导通而执行的处理顺序的一个示例进行说明的流程图。
当辅助电源成为导通时,图像输入部21开始进行由摄像机30拍摄到的图像(动态画面)的输入(S401)。被输入的动态画面连续地被保存于图像存储部212中。另外,在图像存储部212的容量将要不足的情况下,也可以对拍摄时期较早的动态画面实施覆盖。
接下来,位置取得部23从GPS接收器208取得车辆40的当前的所在地(当前位置)的位置信息(纬度以及经度)(S402)。另外,在步骤S402以后,图12的处理顺序在车辆40的行驶中被重复。因此,在步骤S402中所取得的位置信息有可能每次都不同。
接下来,提取判断部24对由位置取得部23取得的位置信息所表示的当前位置是否在被存储于监视区域存储部211中的任意的监视区域信息所表示的监视区域内进行判断(S403)。
在当前位置处于任意的监视区域内的情况下(S403中为“是”),图像提取部26从被存储于图像存储部212中的动态画面中取得与当前时刻相对应的局部的静止画面(以下,称为“图像数据”。)。接下来,电波检测部25尝试进行BlueTooth(注册商标)等的近距离无线通信的电波的检测(S405)。在能够检测出所述电波的情况下,取得所述电波的电波ID。
接下来,监视数据发送部27将包括在步骤S402中取得的位置信息、在步骤S404中取得的图像数据以及当前的日期和时间在内的监视数据向中心(S406)进行发送。此时,在步骤S405中取得了电波ID的情况下,电波ID也被包括在监视数据中。此外,与在步骤S403中被判断为包括当前位置的各个监视区域相对应的一个以上的登记ID的列表也可以同监视数据一起被发送至中心10。
接下来,监视数据发送部27待机一定时间(S407)。所述一定时间的待机的目的在于,对在车辆40位于任意的监视区域内的期间中所发送的监视数据的量进行抑制。即,这是因为,由于可认为是即使对于监护人而言知晓被监护人的每隔一秒钟等的短期间内的状况的必要性是较低的,因此针对利用者的要求而进行的过量的监视数据的发送会导致无用的网络负载以及处理负载的增加。另外,只要能够实现上述目的,则也能够通过其他处理来代替步骤S407。例如,也可以实施待机直至车辆40移动了预定的距离为止。
步骤S402之后的处理被重复进行,直至在车辆40中执行了辅助电源的断开操作为止(S408)。当在车辆40中执行了辅助电源的断开操作时(S408中为“是”),结束图12的处理。在上述情况下,在图10中说明过的处理被执行。
由于在车辆40行驶中,在车载器20与中心10之间会产生与本实施方式的关联性较低的各种数据通信,因此监视数据向中心10的发送(S406)也可以在辅助电源的断开操作后(即,在图10的处理顺序中)被执行。在上述情况下,在步骤S406中,也可以采用如下方式,即,监视数据发送部27将监视数据存储于车载器20的辅助存储装置202等中。
对中心10根据在步骤S406中发送的监视数据的接收而执行的处理顺序进行说明。
图13是用于对中心10根据监视数据的接收而执行的处理顺序的一个示例进行说明的流程图。
当通过监视数据接收部13而接收到监视数据时,识别部14对所述监视数据中是否包括电波ID进行判断(S501)。在所述监视数据中包括电波ID的情况下(S501中为“是”),识别部14对包括与所述电波ID相同的电波ID的登记信息是否被存储于登记信息存储部111(图9)中进行判断(S502)。在具有该登记信息的情况下(S502中为“是”),识别部14将关联了所述登记信息的登记ID和所述监视数据的数据作为监护数据而存储到监护数据存储部112(S505)中。即,在上述情况下,由于所述监视数据中所包括的图像数据是在所述登记信息所涉及的被监护人的移动终端位于所述监视数据的发送地的车辆40的附近时被拍摄到的数据,因此可推定在所述图像数据中包含所述被监护人的图像。由此,将所述监视数据以与所述登记信息的登记ID建立关联的方式被存储于监护数据存储部112中。
图14为表示监护数据存储部112的结构例的表格。如图14所示,在监护数据存储部112的各记录中,包括登记ID、图像数据、位置信息以及日期和时间等项目。在步骤S505中,将如下的一个记录作为监护数据而存储于监护数据存储部112中,所述一个记录包括:包括与所接收的监视数据中所包括的电波ID相同的电波ID的登记信息的登记ID、和所述监视数据中所包括的图像数据、位置信息以及日期和时间。另外,所述监视数据中所包括的电波ID也可以不包括在监护数据中。
另一方面,在所接收的监视数据中不包括电波ID的情况下(S501中为“否”),或者在不具有包括与所述监视数据中所包括的电波ID相同的电波ID的登记信息的情况下(S502中为“否”),识别部14利用被存储于登记信息存储部111(图9)中的各个登记信息的学习数据而对监视数据中所包括的图像数据实施图像识别。由此,识别部14尝试从所述图像数据中进行任意的被监护人的检测(任意的被监护人的个人识别)(S503)。具体而言,识别部14对监视数据中所包括的图像数据中相当于人的脸部的部分进行检测,并从所述部分中提取特征量。识别部14基于被提取出的特征量与包含在各个登记信息中的学习数据(基于脸部图像的学习数据)的比较,从而针对各个学习数据而求出所述特征量和同一人物相对应的概率。作为映像,通过对所述特征量是被包括在基于各个学习数据而形成的边界中的哪个边界内进行判断,从而求出所述概率。如果具有包括所述概率最高、且所述概率超过阈值α的学习数据在内的登记信息,则识别部14判断为,所述登记信息所涉及的被监护人的图像被包括在监视数据所包括的图像数据中。即,针对所述图像数据而检测出了所述被监护人。
在不存在该登记信息的情况下,也可以针对各个登记信息中所包括的学习数据中的、基于衣服的图像或携带物品的图像等的学习数据而求出与监视数据中所包括的图像数据中包括的衣服或者携带物品相一致的概率,并根据所述概率来调节所述阈值α。例如,在针对基于脸部图像的学习数据的概率最高的登记信息中所述概率低于阈值的情况下,并且在所述登记信息中针对基于衣服的图像的学习数据的概率非常高的情况下(例如,在高于阈值β的情况下),也可以降低针对脸部图像的阈值α。上述的结果是,如果针对基于所述脸部图像的学习数据的概率变得高于阈值α,则可以判断出所述学习数据为,与监视数据中所包括的图像数据为同一人物所涉及的学习数据。
此时,在登记ID的列表与监视数据一起被接收的情况下,也可以通过仅将所述列表中所包括的登记ID所涉及的登记信息的学习数据设为图像识别的对象,从而实现处理的效率化。
关于利用了图像数据的个人识别,存在多个公知技术。因此,步骤S503的处理也可以被其他的公知技术置换。
在能够针对所述图像数据而检测出任意的被监护人的情况下(S504中为“是”),识别部14将包括与所述被监护人对应的登记信息的登记ID和所接收到的监视数据在内的监护数据存储于监护数据存储部112中(S505)。在无法针对所述图像数据而检测出任意被监护人的情况下(S504中为“否”),则所述监视数据被废弃。
在图13的处理顺序中示出了以下示例,即,在监视数据中包括电波ID的情况下,基于包括所述电波ID的登记信息所涉及的被监护人已被包括在所述监视数据的图像数据中这一推定,而在不再执行步骤S503的条件下,将所述监视数据作为监护数据进行存储。但是,在监视数据中包括电波ID的情况下,也可以采用如下方式,即,利用包括所述电波ID的登记信息中所包括的学习数据而针对所述监视数据中所包括的图像数据来执行图像识别。上述的结果是,在能够于所述图像数据中检测出所述登记信息所涉及的被监护人的情况下,也可以将包括所述监视数据的监护数据存储于监护数据存储部112中。
图13的处理顺序例如可以定期地、或在每当接收到预定数量的监视数据等的定时下,批量地执行。在上述的情况下,只要针对在定期的期间内所接收到的各个监视数据、或者预定数量的各个监视数据而执行图13的处理顺序即可。
例如,也可以采用如下方式,即,监护信息提供部15向在步骤S505的定时下被存储的监护数据中所包括的登记ID所涉及的登记信息中包括的监护人联系地址所表示的邮件地址发送包括所述监护数据的位置信息的电子邮件。即,被监护人的位置信息也可以即时地通知给监护人。在上述的情况下,也可以采用如下方式,即,通过对通知的定时设置限制,从而防止对监护人而言成为麻烦的这种状况。例如,既可以在最后发送电子邮件之后在预定期间内不发送电子邮件,也可以不再对距最后被通知的位置信息为预定的距离以内的位置信息进行通知。
对在中心10根据来自监护人的要求而输出被监护人的位置的履历时所执行的处理顺序的一个示例进行说明。
图15为用于对被监护人的位置的履历的输出处理的处理顺序的一个示例进行说明的流程图。
监护信息提供部15例如在接收到从任意的监护人所利用的终端(以下,称为“监护人终端”)发送的、被监护人的位置履历的显示要求时(S601),向所述监护人终端回复登记画面的画面数据(S602)。在监护人终端,基于所述画面数据而显示进入画面。例如,所述显示要求也可以根据针对被显示于监护人终端的Web浏览器(网页浏览器)的预定的URL(Uniform Resource Locator:统一资源定位符)的输入而从监护人终端发送出去。在上述的情况下,所述画面数据可以是由HTML(Hyper Text Markup Language:超文本标识语言)数据等构成的Web页面(网页)。
接下来,监护信息提供部15对用户ID以及密码的接收进行待机(S603)。当接收到在监护人终端处针对进入画面而输入的用户ID以及密码时,监护信息提供部15从被存储于登记信息存储部111的登记信息之中特别指定包括所述用户ID以及密码的登记信息(S604)。
在该登记信息未被特别指定的情况下(S605中为“否”),向监护人终端回复表示用户ID以及密码不正确的错误画面的画面数据(S610)。
另一方面,在特别指定了该登记信息(以下,称为“对象登记信息”。)的情况下(S605中为“是”),监护信息提供部15从监护数据存储部112中检索包括对象登记信息的登记ID的监护数据(S606)。例如,可以按日期和时间的值按较新的顺序而以3~5个作为上限来对监护数据进行检索。或者,也能够在监护人终端上指定日期和时间的范围,并对包括所述范围内的日期和时间的全部的监护数据进行检索。
在该监护数据一个也没有的情况下(S607中为“否”),监护信息提供部15将表示不存在该数据的画面的画面数据回复给监护人终端(S611)。另一方面,在检索到了一个以上的监护数据的情况下(S607中为“是”),监护信息提供部15例如生成包括如下的监护画面的画面数据(S608),在所述监护画面中包括以对象登记信息的监视区域为范围的地图,且包括针对被检索出的各个监护数据的位置信息所表示的位置而配置了预定的对象物的地图。另外,所述对象物例如可以是预定的图形,也可以是被包括在各个监护数据中的图形数据的缩略图(thumbnail)。此外,也可以在选择了所述对象物时,以显示出包括与所述对象物的位置相对应的位置信息的监护数据的图形数据以及日期和时间的方式生成所述画面数据。
接下来,监护信息提供部15将所生成的画面数据回复给监护人终端(S609)。上述的结果是,在监护人终端上显示出监护画面,并且监护人能够对被监护人的位置的履历进行确认。
在上文中,对监视区域事先被固定地设定的示例进行了说明。但是,例如,在与某个被监护人相关的最后的监视数据中所包括的位置信息所涉及的位置至预定的范围(例如,几平方公里)超出了所述被监护人所涉及的监视区域的情况下,也可以扩大所述监视区域以便包括所述预定的范围。上述这样的处理,例如可以在每次监视数据接收部13接收监视数据时执行。
虽然在本实施方式中,对中心10具有识别部14的示例进行了说明,但是也可以采用如下方式,即,车载器20具有识别部14。也就是说,车载器20也可以执行图像识别。在上述的情况下,只要不是监视数据被发送至中心10,而是将监护数据发送到中心10中即可。
如上文所述,根据本实施方式,将在针对每个被监护人而设定的监视区域内所拍摄到的图像数据设为处理对象。因此,能够使利用了被拍摄到的图像的监视效率化。
在本实施方式中,由于基于被搭载于车辆40的摄像机30所拍摄到的图像数据来特别指定被监护人的位置,因此即使被监护人不具有特定的发送器等,也能够特别指定被监护人的位置。
在本实施方式中,中心10或者车载器20为信息处理装置的一个示例。监视数据接收部13或图像提取部26为取得部的一个示例。识别部14为判断部的一个示例。监护信息提供部15为提供部的一个示例。摄像机30为摄像装置的一个示例。
虽然以上对本发明的实施方式进行了详细叙述,但是本发明并不限定于上述特定的实施方式,能够在权利要求书所记载的本发明的主旨的范围内进行各种变形、变更。
Claims (10)
1.一种信息处理装置,其特征在于,包括:
取得部,其以取得通过被搭载于车辆上的摄像装置而拍摄到的图像的方式被构成;
判断部,其以针对所述取得部所取得的图像而实施图像识别并实施是否包括预先登记的监视对象的判断的方式被构成,
其中,所述判断部针对在以与所述监视对象建立关联的方式被设定的地理范围内所拍摄到的图像而实施所述判断。
2.如权利要求1所述的信息处理装置,其特征在于,
所述取得部取得在所述地理范围内所拍摄到的图像。
3.如权利要求1或2所述的信息处理装置,其特征在于,
所述地理范围根据预定的区域、使用地图而被指定的范围、或者预定的移动终端所记录的位置信息的履历而被特别指定。
4.如权利要求1至3中任一项所述的信息处理装置,其特征在于,
所述地理范围在经由网络而连接的终端上根据需要而被设定。
5.如权利要求1至4中任一项所述的信息处理装置,其特征在于,
针对关于预先取得图像的事项已获得同意的监视对象,所述判断部针对所述取得部所取得的所述监视对象的所述图像而实施图像识别。
6.如权利要求1至5中任一项所述的信息处理装置,其特征在于,
所述判断部使用从所述监视对象的人物的脸部图像中提取出的第一信息、或者除了所述第一信息以外从所述人物的随身物品的图像中提取出的第二信息来实施所述图像识别。
7.如权利要求1至6中的任一项所述的信息处理装置,其特征在于,
所述取得部取得由所述摄像装置所拍摄到的图像和表示所述图像被拍摄的位置的位置信息,
所述判断部在所述取得部所取得的图像中包括所述监视对象的情况下,将所述位置信息以与所述监视对象建立关联的方式存储于存储部中。
8.如权利要求7所述的信息处理装置,其特征在于,
还包括提供部,所述提供部根据来自经由网络而连接的终端的要求而将被存储于所述存储部中的所述位置信息提供给所述终端。
9.一种信息处理方法,其特征在于,包括:
由计算机取得通过被搭载于车辆上的摄像装置而拍摄到的图像;
由计算机针对所取得的所述图像而实施图像识别,并实施是否包括预先登记的监视对象的判断,
其中,所述判断为,针对在以与所述监视对象建立关联的方式被设定的地理范围内所拍摄到的图像的判断。
10.一种信息处理系统,其包括被搭载于车辆上的车载器、和能够经由网络而与所述车载器进行通信的信息处理装置,所述信息处理系统的特征在于,包括:
取得部,其取得通过被搭载于车辆上的摄像装置而拍摄到的图像;
判断部,其针对所述取得部所取得的图像而实施图像识别,并实施是否包括预先登记的监视对象的判断,
其中,所述判断部针对在以与所述监视对象建立关联的方式被设定的地理范围内所拍摄到的图像而实施所述判断。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017147073A JP6805996B2 (ja) | 2017-07-28 | 2017-07-28 | 情報処理装置、情報処理方法及び情報処理システム |
JP2017-147073 | 2017-07-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109309810A true CN109309810A (zh) | 2019-02-05 |
CN109309810B CN109309810B (zh) | 2020-12-22 |
Family
ID=65138237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810687633.2A Active CN109309810B (zh) | 2017-07-28 | 2018-06-28 | 信息处理装置、信息处理方法以及信息处理系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11275954B2 (zh) |
JP (1) | JP6805996B2 (zh) |
CN (1) | CN109309810B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113168183A (zh) * | 2019-03-05 | 2021-07-23 | 株式会社日立制作所 | 移动范围设定系统以及移动范围设定方法 |
CN114332851A (zh) * | 2020-09-25 | 2022-04-12 | 丰田自动车株式会社 | 信息处理装置、信息处理方法以及记录介质 |
CN115023384A (zh) * | 2020-01-31 | 2022-09-06 | 株式会社东芝 | 设施诊断系统 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021096578A (ja) * | 2019-12-16 | 2021-06-24 | オムロン株式会社 | 異常動作検出装置および異常動作検出方法 |
IT202200008276A1 (it) * | 2022-04-27 | 2023-10-27 | Fiat Ricerche | "Autoveicolo a guida autonoma, dotato di un sistema per il riconoscimento a distanza, ed il recupero, di un passeggero, e relativo procedimento" |
IT202200010040A1 (it) * | 2022-05-16 | 2023-11-16 | Fiat Ricerche | "Autoveicolo a guida autonoma, dotato di un sistema per rilevare e riconoscere caratteristiche identificative di un passeggero, e relativo procedimento" |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013069128A (ja) * | 2011-09-22 | 2013-04-18 | Nec Embedded Products Ltd | 迷子発見システム及び方法 |
CN103714108A (zh) * | 2012-09-28 | 2014-04-09 | 美禄可控股集团股份有限公司 | 信息处理系统、信息处理装置以及信息处理方法 |
CN103780872A (zh) * | 2012-10-22 | 2014-05-07 | 索尼公司 | 信息处理设备、信息处理方法、程序和信息处理系统 |
JP2014191664A (ja) * | 2013-03-27 | 2014-10-06 | Fujitsu Ltd | 車両追跡プログラム、画像送信プログラム、サーバ装置、情報処理装置および車両追跡方法 |
CN105389490A (zh) * | 2014-08-27 | 2016-03-09 | 科恩托罗尼丝株式会社 | 利用面部识别和动作识别的汽车控制装置及方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5379190B2 (ja) | 1999-09-22 | 2013-12-25 | 雅信 鯨田 | 捜索システム及び方法 |
JP2001333419A (ja) | 1999-09-22 | 2001-11-30 | Masanobu Kujirada | 捜索システム及び方法 |
JP6671627B2 (ja) * | 2015-08-26 | 2020-03-25 | 特定非営利活動法人e自警ネットワーク研究会 | プライバシ保護を可能とするカメラシステム |
JP2017058806A (ja) | 2015-09-15 | 2017-03-23 | テクダイヤ株式会社 | 安全見守りシステム |
EP3312762B1 (en) * | 2016-10-18 | 2023-03-01 | Axis AB | Method and system for tracking an object in a defined area |
JP6930126B2 (ja) * | 2017-02-13 | 2021-09-01 | 日本電気株式会社 | 人物検出システム |
WO2018156139A1 (en) * | 2017-02-24 | 2018-08-30 | Ford Global Technologies, Llc | Drone-based tracking |
-
2017
- 2017-07-28 JP JP2017147073A patent/JP6805996B2/ja active Active
-
2018
- 2018-06-28 CN CN201810687633.2A patent/CN109309810B/zh active Active
- 2018-07-03 US US16/026,874 patent/US11275954B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013069128A (ja) * | 2011-09-22 | 2013-04-18 | Nec Embedded Products Ltd | 迷子発見システム及び方法 |
CN103714108A (zh) * | 2012-09-28 | 2014-04-09 | 美禄可控股集团股份有限公司 | 信息处理系统、信息处理装置以及信息处理方法 |
CN103780872A (zh) * | 2012-10-22 | 2014-05-07 | 索尼公司 | 信息处理设备、信息处理方法、程序和信息处理系统 |
JP2014191664A (ja) * | 2013-03-27 | 2014-10-06 | Fujitsu Ltd | 車両追跡プログラム、画像送信プログラム、サーバ装置、情報処理装置および車両追跡方法 |
CN105389490A (zh) * | 2014-08-27 | 2016-03-09 | 科恩托罗尼丝株式会社 | 利用面部识别和动作识别的汽车控制装置及方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113168183A (zh) * | 2019-03-05 | 2021-07-23 | 株式会社日立制作所 | 移动范围设定系统以及移动范围设定方法 |
CN113168183B (zh) * | 2019-03-05 | 2023-12-12 | 株式会社日立制作所 | 移动范围设定系统以及移动范围设定方法 |
CN115023384A (zh) * | 2020-01-31 | 2022-09-06 | 株式会社东芝 | 设施诊断系统 |
CN114332851A (zh) * | 2020-09-25 | 2022-04-12 | 丰田自动车株式会社 | 信息处理装置、信息处理方法以及记录介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109309810B (zh) | 2020-12-22 |
US20190034738A1 (en) | 2019-01-31 |
US11275954B2 (en) | 2022-03-15 |
JP2019029812A (ja) | 2019-02-21 |
JP6805996B2 (ja) | 2020-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109309810A (zh) | 信息处理装置、信息处理方法以及信息处理系统 | |
US9906906B1 (en) | Integrated geospatial activity reporting | |
JP5889463B1 (ja) | 画像管理システム、サーバ、画像管理方法、サーバ制御方法、及びサーバプログラム | |
KR101662048B1 (ko) | 맞춤형 운송 서비스 제공 방법 및 시스템 | |
US10089531B2 (en) | Mobile terminal and method for operating the same | |
CN103221953A (zh) | 在增强现实中用于分组内容的方法,装置和计算机程序产品 | |
CN103994764B (zh) | 一种随身定位系统 | |
CN108322545A (zh) | 信息推送方法、装置、服务器及计算机可读介质 | |
JP2002108873A (ja) | 空間情報利用システム、情報取得装置、およびサーバシステム | |
JP6223735B2 (ja) | 捜索制御装置、捜索制御方法、及びプログラム | |
CN110619027B (zh) | 一种房源信息的推荐方法、装置、终端设备及介质 | |
JP2012202879A (ja) | 携帯電子機器および移動経路記録方法 | |
CN109086796A (zh) | 图像识别方法、装置、移动终端以及存储介质 | |
WO2020063115A1 (zh) | 一种图形编码展示方法和装置 | |
US20150099545A1 (en) | Location information-based communication apparatus and method, and location information-based communication application apparatus | |
CN107888827A (zh) | 图像处理方法及相关产品 | |
CN110348912A (zh) | 一种基于位置定价的方法 | |
CN113395316B (zh) | 信息处理装置以及信息处理系统 | |
CA3009236A1 (en) | Integrated location-based message personalization | |
JP2023027548A (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
KR20130006387A (ko) | 스마트폰을 이용한 미아찾기 방법 및 시스템, 그리고, 기록매체 | |
JP6284559B2 (ja) | 携帯電子機器および移動経路記録方法 | |
US20240346692A1 (en) | Object tracking via glasses device | |
JP3898478B2 (ja) | 位置表示システムおよび位置表示方法 | |
CN106357920A (zh) | 一种提醒方法及移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |