JP7375079B2 - Target detection method - Google Patents

Target detection method Download PDF

Info

Publication number
JP7375079B2
JP7375079B2 JP2022046706A JP2022046706A JP7375079B2 JP 7375079 B2 JP7375079 B2 JP 7375079B2 JP 2022046706 A JP2022046706 A JP 2022046706A JP 2022046706 A JP2022046706 A JP 2022046706A JP 7375079 B2 JP7375079 B2 JP 7375079B2
Authority
JP
Japan
Prior art keywords
information
person
service
vehicle
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022046706A
Other languages
Japanese (ja)
Other versions
JP2022075904A (en
Inventor
寛 助川
賢二 馬場
信 落合
洋一 島田
達夫 小坂谷
隆三 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2022046706A priority Critical patent/JP7375079B2/en
Publication of JP2022075904A publication Critical patent/JP2022075904A/en
Application granted granted Critical
Publication of JP7375079B2 publication Critical patent/JP7375079B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明の実施形態は、画像処理技術に関する。 Embodiments of the present invention relate to image processing technology.

商業施設や公共施設(役所)、あるいは病院などの施設に足を運ぶ人々(利用者あるいはユーザ)はサービスを受けることを目的としている。しかし求めるサービスの内容はそれぞれ異なるので、サービスを受けるための確認作業や情報を得るための操作を、個人が自発的に実施する必要があった。このため利用者にとっては有益な情報を得る機会を逃したり、サービス提供者にとっては販売機会の喪失につながるといった不便があった。 People (users) who visit commercial facilities, public facilities (government offices), hospitals, and other facilities aim to receive services. However, since the content of the desired services differs from person to person, individuals have had to voluntarily carry out confirmation work and operations to obtain information in order to receive the service. This has been inconvenient for users, such as missing out on opportunities to obtain useful information, and for service providers, resulting in lost sales opportunities.

このような事情に対し、画像処理技術を応用したソリューションが幾つか提案されている。例えば画像に含まれる複数の人物をグループ化し、グループ属性を推定する技術がある。しかし、推定した属性をサービスの提供に活かすことはできない。また、画像に車や所有物などの物体が含まれていても、人物とそれらとの関連は考慮されない。 In response to this situation, several solutions applying image processing technology have been proposed. For example, there is a technique for grouping multiple people included in an image and estimating group attributes. However, the estimated attributes cannot be used to provide services. Furthermore, even if objects such as cars or property are included in the image, the relationship between the person and these objects is not taken into account.

また、性別や身長に基づく属性判別により、顧客グループの構成に応じた選定メニューを提供する方法も提案されている。しかしこの技術によっても、メニューを選ぶために利用される情報は依然として限定的であり、総合的な観点からのサービスを提供することはできない。 Furthermore, a method has been proposed in which a selection menu is provided according to the composition of a customer group by determining attributes based on gender and height. However, even with this technology, the information used to select a menu is still limited, and it is not possible to provide services from a comprehensive perspective.

特許第4198951号公報Patent No. 4198951 特開2008-262435号公報Japanese Patent Application Publication No. 2008-262435 特開2011-141610号公報Japanese Patent Application Publication No. 2011-141610

以上述べたように、利用者ごとに適切なサービスを提供するということについては多分に改善の余地がある。人物だけでなく、付随する物体なども考慮して、より適切なサービスを提供できるようにする技術が要望されている。
目的は、利用者に応じて適切なサービスを提供することの可能な対象検出方法を提供することにある。
As mentioned above, there is much room for improvement in providing appropriate services to each user. There is a need for technology that can provide more appropriate services by taking into account not only the person but also accompanying objects.
The purpose is to provide an object detection method that can provide appropriate services depending on the user.

実施形態によれば、対象検出方法は、撮像装置と情報処理装置から構成されるシステムから画像データを取得する、対象検出方法である。対象検出方法は、取得された画像データから人物に係る所有物、着衣物、着用物および車両の少なくとも一つを対象として検出する過程と、システムが、検出された対象の特徴情報に基づいて当該対象の形状もしくは色を認識する過程と、システムが、人物を画像データから認識する過程と、システムが、認識された対象と、認識された人物とを対応付ける過程と、システムが、認識された対象に対応付けられる人物を個人特定する過程と、システムが、個人特定された人物の過去のサービスの利用状況を確認する過程とを具備する。 According to the embodiment, the object detection method is an object detection method that acquires image data from a system including an imaging device and an information processing device. The object detection method consists of a process of detecting at least one of a person's possessions, clothes, worn items, and a vehicle from the acquired image data, and a process in which the system detects the object based on characteristic information of the detected object. A process in which the system recognizes the shape or color of an object, a process in which the system recognizes a person from image data, a process in which the system associates the recognized object with the recognized person, and a process in which the system recognizes the recognized object. The system includes a step of personally identifying a person associated with the person, and a step of the system confirming past service usage status of the identified person .

図1は、第1の実施形態に係るサービス提供システムの一例を示す図である。FIG. 1 is a diagram showing an example of a service providing system according to the first embodiment. 図2は、画像データに含まれる対象の一例を示す図である。FIG. 2 is a diagram showing an example of objects included in image data. 図3は、特徴情報管理部500により管理される情報の構造の一例を示す図である。FIG. 3 is a diagram showing an example of the structure of information managed by the feature information management section 500. 図4は、上記構成におけるサービスの情報の流れの一例を示す図である。FIG. 4 is a diagram showing an example of the flow of service information in the above configuration. 図5は、第2の実施形態に係るサービス提供システムの一例を示す図である。FIG. 5 is a diagram illustrating an example of a service providing system according to the second embodiment. 図6は、第3の実施形態に係るサービス提供システムの一例を示す図である。FIG. 6 is a diagram illustrating an example of a service providing system according to the third embodiment. 図7は、判定結果に応じてサービス提供メニューを変更するためのテーブルの一例を示す図である。FIG. 7 is a diagram showing an example of a table for changing the service provision menu according to the determination result.

[第1の実施形態]
図1は、第1の実施形態に係るサービス提供システムの一例を示す図である。図1に示されるサービス提供システムは、コンピュータ100と、コンピュータ100にLAN(Local Area Network)などの通信回線800を介して接続される対面装置200とを備える。
対面装置200は例えば現金自動支払機、カード決済端末、病院の会計端末、あるいは役所の手続き用の端末など、利用者と対面する装置である。この実施形態ではガスステーションまたは充電スタンドに設置される装置を考える。この種の設備の周辺には他の施設や店舗が形成されることが多い。コンピュータ100は通信回線800を介して、周辺施設・店舗700と通信することが可能である。
[First embodiment]
FIG. 1 is a diagram showing an example of a service providing system according to the first embodiment. The service providing system shown in FIG. 1 includes a computer 100 and a face-to-face device 200 connected to the computer 100 via a communication line 800 such as a LAN (Local Area Network).
The face-to-face device 200 is a device that faces the user, such as an automatic teller machine, a card payment terminal, a hospital accounting terminal, or a procedure terminal in a government office. In this embodiment, a device installed at a gas station or a charging station will be considered. Other facilities and stores are often formed around this type of facility. The computer 100 can communicate with surrounding facilities/stores 700 via a communication line 800.

対面装置200はカメラ300と、ディスプレイ400とを備える。カメラ300は、例えばディスプレイ400に正対する対象を視野に捉えるように設置され、視野を撮影して得た画像データを出力する。カメラ300は対面装置200の周囲に少なくとも1つ、あるいは複数の地点に設置される。画像データには、対面装置200の前に立つ人物900、人物900と一緒にいる他の人物、人物900の所有する所有物、車両、車両の運転席に乗っている人物、助手席に乗っている人物などを含めることができる。 The facing device 200 includes a camera 300 and a display 400. The camera 300 is installed so as to capture, for example, an object directly facing the display 400 in its field of view, and outputs image data obtained by photographing the field of view. The camera 300 is installed at at least one or multiple locations around the facing device 200. The image data includes a person 900 standing in front of the facing device 200, other people with the person 900, property owned by the person 900, a vehicle, a person in the driver's seat of the vehicle, and a person in the passenger seat. It can include people who are present.

カメラ300は例えばITVカメラやIPカメラであり、レンズをとおして得られた光学的な情報をアナログ/ディジタル変換して画像データを得る。カメラ300は時間的に連続する画像を取り込むことも可能である。図2は、画像データに含まれる対象の一例を示す図である。 The camera 300 is, for example, an ITV camera or an IP camera, and obtains image data by converting optical information obtained through a lens from analog to digital. The camera 300 is also capable of capturing temporally continuous images. FIG. 2 is a diagram showing an example of objects included in image data.

ディスプレイ400はデジタルサイネージ(digital signage)技術を応用した表示メディアであり、操作情報や広告情報などを表示する。
コンピュータ100は、実施形態に係る処理機能として入力部1、検出部2、認識部3、操作部4、制御部5および出力部6を備える。
入力部1は、カメラ300から出力される画像データを取得する。検出部2は、取得された画像データを画像処理し、カメラ300の視野内の対象を個別に検出し、特定する。例えば人物900、車両、あるいは人物900の所有物などが検出される。このほか、検出された人物900の年齢、性別、身長、人種、着用物、視線、顔の向き、乗車する車両のナンバープレート、車種、および車の色の組合せの少なくともいずれか1つが対象として検出される。
The display 400 is a display medium using digital signage technology, and displays operation information, advertising information, and the like.
The computer 100 includes an input section 1, a detection section 2, a recognition section 3, an operation section 4, a control section 5, and an output section 6 as processing functions according to the embodiment.
The input unit 1 acquires image data output from the camera 300. The detection unit 2 performs image processing on the acquired image data, and individually detects and specifies objects within the field of view of the camera 300. For example, the person 900, a vehicle, or property of the person 900 is detected. In addition, at least one of the following combinations of the detected person 900's age, gender, height, race, clothing, line of sight, direction of face, license plate of the vehicle in which the person is riding, vehicle type, and vehicle color may be considered. Detected.

認識部3は、検出された対象を、特徴情報管理部500に記憶される特徴情報との比較により個別に認識する。認識の結果、対象の属性、種別、個体の識別情報(ID)などの特徴情報が得られる。特徴情報管理部500は、撮影され得る対象に係わる特徴情報を記憶するデータベースである。 The recognition unit 3 individually recognizes the detected object by comparing it with the feature information stored in the feature information management unit 500. As a result of recognition, characteristic information such as object attributes, types, and individual identification information (ID) is obtained. The feature information management unit 500 is a database that stores feature information related to objects that can be photographed.

操作部4は、対面装置200の例えば利用者の手の届くところに配置される、タッチパネルやテンキーなどのユーザインタフェースである。操作部4を介して利用者は、システムに操作情報を入力することができる。 The operation unit 4 is a user interface such as a touch panel or a numeric keypad, which is arranged within the user's reach of the face-to-face device 200, for example. A user can input operation information into the system via the operation unit 4.

サービス情報管理部600は、利用者に提供するためのサービス情報や、認識部3で識別された対象に関連する情報などを記憶するデータベースである。制御部5は、サービス情報管理部600に記憶される複数のサービス情報から、認識部3で得られた認識結果に応じたサービス情報を読み出し、出力部6に渡す。操作部4から入力された操作情報に基づいてサービス情報を選択することも可能である。 The service information management unit 600 is a database that stores service information to be provided to users, information related to the object identified by the recognition unit 3, and the like. The control unit 5 reads service information corresponding to the recognition result obtained by the recognition unit 3 from a plurality of pieces of service information stored in the service information management unit 600 and passes it to the output unit 6. It is also possible to select service information based on operation information input from the operation unit 4.

出力部6は、読み出されたサービス情報をディスプレイ400に表示したり、音声情報としてスピーカ(図示せず)から出力する。また出力部6は、周辺施設・店舗700にサービス情報を通知したり、サービスの提供を依頼するためのメッセージ信号を出力する機能も備える。さらに出力部6は、予め登録された人物の携帯端末にサービス情報を通知する機能も備える。次に、上記構成についてさらに詳しく説明する。 The output unit 6 displays the read service information on the display 400 or outputs it as audio information from a speaker (not shown). The output unit 6 also has a function of outputting a message signal for notifying the surrounding facilities/stores 700 of service information and requesting the provision of services. Furthermore, the output unit 6 also has a function of notifying service information to the mobile terminal of a person registered in advance. Next, the above configuration will be explained in more detail.

入力部1は、対面装置200を利用しようとしている、あるいは付近に接近した、人物、物または車両などの画像データを取得する。画像データはカメラ300から直接取得するほか、デジタルスチルカメラで撮影された画像ファイル、あるいは動画ファイルを媒体経由で取り込むこともできる。 The input unit 1 acquires image data of a person, object, vehicle, or the like who is about to use the facing device 200 or has approached the vicinity. In addition to acquiring image data directly from the camera 300, it is also possible to import an image file shot with a digital still camera or a video file via a medium.

この種のデータはカメラ300からのほか、人物が所有する携帯機器から取得されることもできる。例えば携帯電話機に備わる無線LAN、赤外線通信やBluetooth(登録商標)、RFID(無線ID)などの通信手段により、入力部1は画像データを取得することができる。また、接触式の情報交換手段、フラッシュメモリカードなどの記録媒体を抜き差しして画像データを授受することももちろん可能である。 This type of data can be obtained not only from the camera 300 but also from a mobile device owned by the person. For example, the input unit 1 can acquire image data using communication means such as wireless LAN, infrared communication, Bluetooth (registered trademark), and RFID (radio ID) provided in the mobile phone. It is also of course possible to exchange image data by inserting and removing a contact type information exchange means or a recording medium such as a flash memory card.

さらに、その他の所有物や、車両に搭載される機器との情報交換により画像データを授受することもできる。例えば車両からはETCカードの情報を用いることで車両識別のための情報を取得可能であるし、燃料やバッテリーの残容量情報、ナビゲーションシステムにより管理される走行履歴情報などを無線通信で伝送することも実現可能である。これらも同様に、無線式の情報手段、専用メディア、あるいは接触式の情報交換手段などにより実現可能である。要するに入力部1は、処理対象とするデジタルの画像データを、何らかの手法で取得できれば良い。 Furthermore, image data can also be sent and received by exchanging information with other belongings or equipment mounted on the vehicle. For example, information for vehicle identification can be obtained from a vehicle using ETC card information, and information such as fuel and battery remaining capacity information, driving history information managed by a navigation system, etc. can be transmitted via wireless communication. is also possible. These can also be realized using wireless information means, dedicated media, or contact information exchange means. In short, the input unit 1 only needs to be able to acquire digital image data to be processed by some method.

検出部2は、画像データに含まれる人物、物、車両などを検出する。例えば人物を検出するには、人物の顔領域を検出することが好ましい。顔領域を検出するために、検出部2は画像上の輝度情報を利用して顔の領域を示す座標を求める。例えば参考文献1(三田雄志ほか:「顔検出に適した共起に基づくJoint Haar-like特徴」電子情報通信学会論文誌(D),vol.J89-D, 8,pp1791-1801(2006))に記載される方法を利用することが可能である。 The detection unit 2 detects people, objects, vehicles, etc. included in the image data. For example, in order to detect a person, it is preferable to detect the face area of the person. In order to detect the face area, the detection unit 2 uses brightness information on the image to find coordinates indicating the face area. For example, Reference 1 (Yushi Mita et al.: "Joint Haar-like features based on co-occurrence suitable for face detection" IEICE Transactions (D), vol. J89-D, 8, pp1791-1801 (2006)) It is possible to use the method described in .

検出された結果を示す情報は、顔の向きや大きさにより任意の形状で構わない。この実施形態では簡単のために顔領域を矩形情報で示し、矩形の角の座標を検出結果として利用することとする。このほか、予め用意されたテンプレートを画像内で移動させながら相関値を求めることにより、最も高い相関値を与える位置を顔領域とする方法、固有空間法や部分空間法を利用した顔抽出法なども利用可能である。 The information indicating the detected result may have any shape depending on the direction and size of the face. In this embodiment, for simplicity, the face area is represented by rectangular information, and the coordinates of the corners of the rectangle are used as the detection results. Other methods include a method of determining the correlation value while moving a pre-prepared template within the image, and determining the position that gives the highest correlation value as the face region, and a face extraction method that uses the eigenspace method or subspace method. is also available.

さらに、顔だけでなく人物領域全体を検出する技術を利用してもよい。この種の技術としては参考文献2(Watanabeら,”Co-occurrence Histograms of Oriented Gradients for Pedestrian Detection, In Proceedings of the 3rd Pacific-Rim Symposium on Image and Video Technology” (PSIVT2009), pp. 37-47. 、以降”Co-HOG特徴”と表記する)に記載の技術が挙げられる。 Furthermore, a technique for detecting not only the face but also the entire human region may be used. This type of technology is described in Reference 2 (Watanabe et al., “Co-occurrence Histograms of Oriented Gradients for Pedestrian Detection, In Proceedings of the 3rd Pacific-Rim Symposium on Image and Video Technology” (PSIVT2009), pp. 37-47. , hereinafter referred to as "Co-HOG features").

顔や人物の領域が検出されれば、頭部や顔からの相対的な位置関係に基づき、人物の着用している着衣の種類や所有物を検出することが可能である。前述のJoint Haar-like特徴や、Co-HOG特徴を利用し、事前に検出対象物の画像を多数集めて統計的な学習をすることによりこれらのアイテムを検出することが可能となる。同様にして画像内の車両の全体、または一部を検出することも可能である。 Once a face or a person's area is detected, it is possible to detect the type of clothing worn by the person or the belongings they own based on the relative positional relationship from the head or face. These items can be detected by collecting many images of objects to be detected in advance and performing statistical learning using the aforementioned Joint Haar-like features and Co-HOG features. It is also possible to detect all or part of a vehicle within an image in a similar manner.

なお、同じ対象が時間的に複数フレームにわたり連続して映っていることが想定される。そこで、所定の時間が経過して存在している対象物体の種類や数が同じであることを対応付けて管理すべく、追跡処理を行うことが望ましい。これは、例えばオプティカルフローを使って検出した顔が次のフレームでどの位置にいるか対応付けする手法や、既知の技術(例えば特開2011-170711号公報に記載)により実現可能である。 Note that it is assumed that the same object is temporally shown continuously over multiple frames. Therefore, it is desirable to perform a tracking process in order to manage the existence of the same type and number of target objects after a predetermined period of time has elapsed. This can be realized by, for example, a method of associating the position of a detected face in the next frame using optical flow, or a known technique (for example, described in Japanese Patent Laid-Open No. 2011-170711).

また、画像データ以外の情報が入力部1に入力された場合には、事前に策定したプロトコルにより通信対象の存在を取得することが可能である。これにより画像データを用いるのと同等に、対象を検出することが可能である。 Furthermore, when information other than image data is input to the input unit 1, it is possible to acquire the existence of a communication target using a protocol established in advance. This makes it possible to detect objects in the same manner as using image data.

特徴情報管理部500は、入力部1から得られる人物、物、車両の情報を対応付けて管理するためのデータベースである。つまり特徴情報管理部500は、認識部3が対象物体の人物の個人を識別したり、車両の種類を判別する際に必要となる特徴情報を管理するデータベースである。 The feature information management unit 500 is a database for managing information on people, objects, and vehicles obtained from the input unit 1 in a manner that associates them with each other. In other words, the feature information management section 500 is a database that manages feature information necessary for the recognition section 3 to identify the person of the target object or to determine the type of vehicle.

図3は、特徴情報管理部500により管理される情報の構造の一例を示す図である。図3に示されるように特徴情報管理部500には、検出部2から出力された顔特徴情報が個人ごとに対応付けて管理される。それぞれの顔特徴情報に対応付けて、顔画像や名前、性別や年齢、身長など該当する人物に関する情報、および人物の所有物、着用する着衣、搭乗する車両情報などの関連情報を対応付けて管理することも可能である。 FIG. 3 is a diagram showing an example of the structure of information managed by the feature information management section 500. As shown in FIG. 3, the feature information management section 500 manages the facial feature information output from the detection section 2 in association with each individual. In association with each piece of facial feature information, information about the relevant person such as facial image, name, gender, age, and height, as well as related information such as the person's belongings, clothing worn, vehicle information, etc., are managed in association with each other. It is also possible to do so.

顔特徴情報として実際に管理する内容は顔特徴抽出手段で出力されたデータそのものでよく、m×nの特徴ベクトルや、部分空間やKL展開を行う直前の相関行列でも構わない。
上記特徴情報以外に、性別や年齢などの属性情報などの統計情報も、特徴情報管理部500で管理することが可能である。性別判別については男性用の特徴情報と女性用の特徴情報とを記憶し、属性判別処理の識別に利用する。他の属性についてもカテゴリを分類するために利用する特徴情報を管理する。
The content actually managed as facial feature information may be the data itself output by the facial feature extraction means, or may be an m×n feature vector, a subspace, or a correlation matrix immediately before KL expansion.
In addition to the above characteristic information, statistical information such as attribute information such as gender and age can also be managed by the characteristic information management unit 500. Regarding gender discrimination, characteristic information for men and characteristic information for women are stored and used for identification in attribute discrimination processing. For other attributes as well, feature information used to classify categories is managed.

特徴情報管理部500に、顔や関連する情報を新規に登録するには、システム管理者が利用者の同意を得たうえで登録する方法をとっても良い。あるいは、認識部3による認識の結果、いずれの人物の特徴情報の類似度も所定のしきい値を越えない場合、つまり該当する人物が存在しない場合に、新たな人物として追加登録するようにしてもよい。 In order to newly register a face and related information in the feature information management unit 500, a system administrator may register the face and related information after obtaining the consent of the user. Alternatively, as a result of the recognition by the recognition unit 3, if the similarity of the feature information of any person does not exceed a predetermined threshold, that is, if the corresponding person does not exist, the person is additionally registered as a new person. Good too.

認識部3は、検出部2により検出された人、物、車両などの情報から、詳細な種別や個体の識別、状態を含む情報を生成する。
人物を認識する方法として、顔を利用した人物の認識方法を以下に説明する。検出した顔の領域をもとに個人の特徴を示す顔特徴情報を抽出する方法としては、例えば(特開2007-4767号公報)に示されるように、1枚の人物画像情報に対してモデルを利用して顔の向きや状態を意図的に変動させた画像を作成することで顔特徴情報を取得することが可能である。同じ人物に対しては連続する複数の画像を利用し、動画像による計算を実行することでより精度の高い認識処理が行うこともできる。
The recognition unit 3 generates information including detailed type, individual identification, and state from information on the person, object, vehicle, etc. detected by the detection unit 2 .
As a method for recognizing a person, a method for recognizing a person using a face will be described below. As a method for extracting facial feature information indicating individual characteristics based on the detected facial area, for example, as shown in (Japanese Patent Laid-Open No. 2007-4767), a model is extracted for one person image information. It is possible to obtain facial feature information by creating an image in which the orientation and state of the face are intentionally changed using the . For the same person, more accurate recognition processing can be performed by using multiple consecutive images and performing calculations using moving images.

例えば、参考文献3(福井和広、山口修、前田賢一:「動画像を用いた顔認識システム」電子情報通信学会研究報告PRMU,vol97,No.113,pp17-24(1997))に開示される、相互部分空間法を用いる方法が知られている。この方法では、連続して得られる画像データからm×nピクセルの画像を切り出す。そして、これらのデータから特徴ベクトルの相関行列を求め、K-L展開による正規直交ベクトルを求めることにより、連続した画像から得られる顔の特徴を示す部分空間を計算する。このほか、参考文献4(福井和広、山口修:「形状抽出とパタン照合の組合せによる顔特徴点抽出」電子情報通信学会論文誌(D),vol.J80-D-II,No.8,pp2170-2177(1997))に記載される技術も知られている。 For example, it is disclosed in Reference 3 (Kazuhiro Fukui, Osamu Yamaguchi, Kenichi Maeda: "Face recognition system using moving images" Institute of Electronics, Information and Communication Engineers Research Report PRMU, vol97, No.113, pp17-24 (1997)) , a method using a mutual subspace method is known. In this method, an m×n pixel image is cut out from continuously obtained image data. Then, a correlation matrix of feature vectors is determined from these data, and an orthonormal vector is determined by KL expansion, thereby calculating a subspace representing facial features obtained from consecutive images. In addition, reference 4 (Kazuhiro Fukui, Osamu Yamaguchi: "Facial feature point extraction by combination of shape extraction and pattern matching" IEICE Transactions (D), vol. J80-D-II, No. 8, pp2170) -2177 (1997)) is also known.

部分空間は、特徴ベクトルの相関行列(または共分散行列)を求め、そのK-L展開による正規直交ベクトル(固有ベクトル)を求めることで計算することができる。部分空間は、固有値に対応する固有ベクトルを、固有値の大きい順にk個選び、その固有ベクトル集合を用いて表現する。 The subspace can be calculated by finding the correlation matrix (or covariance matrix) of the feature vectors and finding orthonormal vectors (eigenvectors) by KL expansion thereof. The subspace is expressed by selecting k eigenvectors corresponding to the eigenvalues in descending order of the eigenvalues and using the set of eigenvectors.

この実施形態では、相関行列Cdを特徴ベクトルから求め、相関行列Cd=ΦdΛdΦdTと対角化して、固有ベクトルの行列Φを求める。この情報が、認識の対象とする人物の顔の特徴を示す部分空間となる。上記手法で出力された部分空間のような特徴情報を、入力された画像データから検出された顔に対する個人の顔特徴情報とする。 In this embodiment, the correlation matrix Cd is determined from the feature vectors, and the correlation matrix Cd=ΦdΛdΦdT is diagonalized to determine the eigenvector matrix Φ. This information becomes a subspace indicating the facial features of the person targeted for recognition. The feature information such as the partial space output by the above method is used as the individual facial feature information for the face detected from the input image data.

このようにして計算された顔特徴情報と、特徴情報管理部500に管理される顔特徴情報とを比較することで、人物を特定することができる。この検索処理の結果として、特徴情報管理部500で個人を識別するために管理されている人物IDや、計算結果である類似性を示す指標を、類似性の高いものから順番に返す。また、特徴情報管理部500で個人ごとに管理される情報を併せて返すようにしても構わない。なお、基本的に識別IDにより対応付けが可能であるので、検索処理自体では付属情報を授受する必要は必ずしも無い。 By comparing the facial feature information calculated in this manner with the facial feature information managed by the feature information management section 500, a person can be identified. As a result of this search process, the person ID managed by the feature information management unit 500 to identify individuals and indices indicating similarity, which are calculation results, are returned in order of similarity. Further, information managed for each individual by the characteristic information management unit 500 may also be returned. Note that since correspondence can basically be established using identification IDs, it is not necessarily necessary to exchange attached information in the search process itself.

類似性指標としては、顔特徴情報として管理されている部分空間同士の類似度とする。類似度を求めるには部分空間法や複合類似度法などの計算方法を用いることができる。これらの方法では、予め蓄えられた登録情報の中の認識データも、入力されるデータも、複数の画像から計算される部分空間として表現される。そして、2つの部分空間のなす「角度」が類似度として定義される。 The similarity index is the degree of similarity between subspaces managed as facial feature information. Calculation methods such as a subspace method and a composite similarity method can be used to determine the degree of similarity. In these methods, both recognition data in registered information stored in advance and input data are expressed as a subspace calculated from a plurality of images. Then, the "angle" formed by the two subspaces is defined as the degree of similarity.

入力データ列に対して同様に相関行列Cinを求め、Cin=ΦinΛinΦinTと対角化し、固有ベクトルΦinを求める。二つのΦin,Φdで表される部分空間の部分空間間類似度(0.0~1.0)を求め、これを認識するための類似度とする。ここでも、参考文献3に開示される手法を用いることが可能である。 Correlation matrix Cin is similarly obtained for the input data string, diagonalized as Cin=ΦinΛinΦinT, and eigenvector Φin is determined. The inter-subspace similarity (0.0 to 1.0) of the two subspaces represented by Φin and Φd is determined, and this is used as the similarity for recognition. Here, too, it is possible to use the technique disclosed in reference document 3.

予め同一人物と分かる複数の人物画像をまとめて部分空間に射影し、本人であるか否かを識別することで精度を向上させることも可能である。類似度以外の類似性指標としては、特徴空間上での距離やマハラノビス距離といったものも利用可能であることは明らかである。距離を利用した場合には数値が大きいほど類似性が低くなるので、既定の閾値より小さければ小さいほど、登録された人物との類似性が高いことを示す。つまり認識部3は、検出部2で検出された人物の個人を特定し、当該特定された個人に基づいて特徴情報管理部500に記憶される特徴情報を参照することで、認識の精度を向上させる。 It is also possible to improve accuracy by projecting a plurality of human images that are known to be the same person in advance into a partial space and identifying whether or not the person is the same person. It is clear that distance on a feature space or Mahalanobis distance can also be used as a similarity index other than similarity. When distance is used, the larger the numerical value, the lower the similarity; therefore, the smaller the value is than the predetermined threshold value, the higher the similarity with the registered person. In other words, the recognition unit 3 identifies the individual of the person detected by the detection unit 2, and improves recognition accuracy by referring to the characteristic information stored in the characteristic information management unit 500 based on the identified individual. let

人物の個人を特定するには事前に特定対象の顔の情報を登録しておく必要がある。しかし、年齢や性別などの属性情報を判別するだけであれば、事前の登録をすることなく人物の情報を得ることが可能となる。例えば、(特開2012-3623号公報)に開示される技術を利用することで人物の年齢、性別を推定することが可能となる。この技術を活用し、事前の判別するカテゴリにあわせて画像を準備することで、人種、帽子や眼鏡やマスクのような顔の着用物の判別をすることが可能となる。 In order to identify a person, it is necessary to register the face information of the target in advance. However, if only attribute information such as age and gender is determined, it is possible to obtain information about a person without prior registration. For example, by using the technology disclosed in (Japanese Unexamined Patent Publication No. 2012-3623), it is possible to estimate a person's age and gender. By using this technology and preparing images according to the categories to be determined in advance, it becomes possible to determine race and what people are wearing on their faces, such as hats, glasses, and masks.

上記した、人物検出と、顔の検出結果と、カメラ300の画角情報を利用することで画像全体に対する相対比率から身長を求めることも可能である。このほか、(特開2003-141551)に記載の技術を用いることで視線、顔の向きのような顔の動き情報を得ることも可能となる。 By using the above-described person detection, face detection results, and view angle information of the camera 300, it is also possible to determine the height from the relative proportion to the entire image. In addition, by using the technology described in (Japanese Patent Application Laid-Open No. 2003-141551), it is also possible to obtain facial movement information such as line of sight and face orientation.

また、人物検出座標の頭頂位置からの相対位置、顔検出位置からの相対位置から着衣や帽子などの着用物、手に持っている所有物、鞄や腕時計といった身につけている所有物を、事前に学習した辞書との判別により特定することも可能である。 In addition, based on the relative position of the person detection coordinates from the top of the head position and the relative position from the face detection position, we can determine in advance what people are wearing such as clothes and hats, what they are holding in their hands, and what they are wearing such as bags and watches. It is also possible to identify the dictionary by comparing it with the dictionary learned in the previous study.

さらに、認識部3は、人物の乗車していた車両のナンバープレート、車種、車の色の組合せの少なくとも一つを判別する。また、所有物や車種についてはメーカーやブランドごとに画像を集めて判別用の辞書を作成することで、メーカーやブランドの判別を行うことも可能である。 Further, the recognition unit 3 determines at least one of the combination of the license plate, the type of vehicle, and the color of the vehicle in which the person was riding. Furthermore, it is also possible to identify the manufacturer and brand of owned items and car models by collecting images for each manufacturer and brand and creating a dictionary for identification.

また、車両についても、検出対象となる車種の画像を想定される向きのバリエーションに対応して画像を集めて学習することにより、CoHOG特徴を使った手法で車種の判別も可能である。カラー情報を利用することで車の色情報を判別することも可能であるほか、特許第4901676号公報に記載の技術を用いることで、車両の個体識別をすることも可能である。 In addition, it is also possible to identify vehicle types using a method using CoHOG features by collecting and learning images of vehicle types to be detected based on variations in the expected orientation. In addition to being able to determine the color information of a car by using color information, it is also possible to individually identify a vehicle by using the technology described in Japanese Patent No. 4901676.

さらに、判別された情報を複数組み合わせることで、判別精度を高めることも可能である。例えば、車両を検出した場合には車両のナンバープレート情報により車両を個体識別し、その車両に対応付けられる人物に限定して乗車している人物の個人特定が可能である。組合せを使わなければ、特徴情報管理部500に登録されている人物の顔すべてとのマッチングを行って候補者を特定する必要があるが、特徴情報管理部500に個人の顔の特徴に対応付けして所有する車の車種やナンバープレートを対応付けて管理しておくことで、検出されたナンバープレートの車に対応付けされた人物に絞って人物の照合処理を行うため、個人を誤って特定してしまうことを防ぐことができる。 Furthermore, it is also possible to improve the discrimination accuracy by combining a plurality of pieces of discriminated information. For example, when a vehicle is detected, it is possible to identify the vehicle individually based on the license plate information of the vehicle, and to identify the person riding in the vehicle, limited to the person associated with the vehicle. If a combination is not used, it would be necessary to identify a candidate by matching all the faces of people registered in the feature information management unit 500. By associating and managing the car model and license plate of the car owned by the user, the matching process will focus on the person associated with the car with the detected license plate, which will prevent erroneous identification of individuals. You can prevent it from happening.

車のナンバープレートが分からない場合でも、車の色や車種の情報、または着衣の種類や所持品と来場した人物と対応付けて履歴情報に管理しておき、それらの組合せを統計的に管理することが好ましい。このようにすれば、顔の特徴だけでは複数人の候補者が類似する指標を示した場合にも、顔以外の所有物や着衣や車両による情報を加味することで人物の特定精度を上げることが可能である。この場合、人物の顔の特徴による類似度に加え、その他の所有物や車両情報が存在した場合に所定の係数をかけて類似度に加算をするという方法によって実現が可能である。 Even if you do not know the license plate of a car, you can manage historical information by associating the color and model of the car, or the type of clothing and belongings with the person who visited the event, and statistically manage these combinations. It is preferable. In this way, even if multiple candidates show similar indicators based on facial features alone, the accuracy of identifying a person can be increased by taking into account information from possessions, clothing, and vehicles other than the face. is possible. In this case, in addition to the similarity based on the facial features of the person, if other property or vehicle information is present, this can be achieved by multiplying the similarity by a predetermined coefficient and adding the similarity.

また、所有物については人物が着用、所持していることから、人物との対応付けは容易である。これに対し、人物と人物とがグループであることを判断したり、所有者と車両とを対応付けるには、例えば同じ画面内に所定時間以上同時に検出されたものを対応付けする方法がある。または、過去の履歴において同時に検出された回数が所定回数以上あるか否かを判別したり、人物と人物、または人物と車両の距離が所定以内となる時間が所定時間以上であるか否かで判別するようにしても良い。このほか、特開2007-249953号公報に開示されるように複数地点で通過した位置関係や時刻をつかってグル―ピングする方法でも実現可能である。 Furthermore, since the property is worn or owned by the person, it is easy to associate it with the person. On the other hand, in order to determine whether a person is a group or to associate an owner with a vehicle, there is a method of associating objects detected simultaneously on the same screen for a predetermined period of time or longer, for example. Alternatively, it is possible to determine whether the number of simultaneous detections in the past history is greater than or equal to a predetermined number of times, or to determine whether the distance between a person and a person or a person and a vehicle is within a predetermined distance for a predetermined time or more. It may be determined. In addition, it is also possible to use a method of grouping using the positional relationship and time of passing at multiple points, as disclosed in Japanese Patent Application Laid-open No. 2007-249953.

同様に、利用者が対面装置200から離れている間に、利用者の所有物や、利用者と別の人物が車両に接近してきたことや、所有物や車両を持ち去られたことを検知することが可能である。例えば所有物や車両が画面内に存在している状態で人物を検出した場合、その人物が対象となる物体の所有者であるかどうか否かを、顔照合により判別することができる。この処理を、制御部5で対象物体の監視が必要であると判断された場合に実施するようにしても良い。 Similarly, while the user is away from the facing device 200, it is detected that the user's belongings, a person different from the user approaches the vehicle, or that the user's belongings or the vehicle are taken away. Is possible. For example, if a person is detected while property or a vehicle is present on the screen, it is possible to determine whether the person is the owner of the object by face matching. This process may be performed when the control unit 5 determines that monitoring of the target object is necessary.

検知された人物が車両の所有者であるか否かは、特徴情報管理部500に管理される情報を利用してもよいし、制御部5が監視を開始する直前に一緒に存在している人物を、所有者として登録するようにしてもよい。所有者ではないと判断された場合には、不審者が接近してきている可能性があると判断できる。また、対象物体が画面の外に移動したことを検知すると、対象物の持ち去りであると判断することが可能となる。 Whether or not the detected person is the owner of the vehicle may be determined using information managed by the characteristic information management section 500, or information that is present immediately before the control section 5 starts monitoring. A person may be registered as the owner. If it is determined that the person is not the owner, it can be determined that a suspicious person may be approaching. Furthermore, if it is detected that the target object has moved out of the screen, it can be determined that the target object has been taken away.

以上の処理により、入力部1から得られる画像データから、対面装置200の利用者、付帯物、付近の物体、あるいは車両に関する組合せを判定する方法、およびそれぞれに関する詳細情報を得ることが可能となる。 Through the above processing, it becomes possible to obtain a method for determining a combination regarding the user of the facing device 200, an incidental object, a nearby object, or a vehicle, and detailed information regarding each, from the image data obtained from the input unit 1. .

操作部4は、利用者の操作(オペレーション)を行った結果をシステムに入力するための手段である。例えばディスプレイ600にタッチパネルのセンサを付けることにより、画面にあわせた操作情報の入力が可能である。このほか、キーボードやマウスを設置したり、ディスプレイ600の近くに専用のボタンを設置してもよい。操作部4は、メニューを選択したり、情報検索のための文字を入力したり、場所を示すためのポインタ操作などに利用することができる。 The operation unit 4 is a means for inputting the results of user operations into the system. For example, by attaching a touch panel sensor to the display 600, it is possible to input operation information that matches the screen. In addition, a keyboard and a mouse may be installed, or a dedicated button may be installed near the display 600. The operation unit 4 can be used to select a menu, input characters for information retrieval, operate a pointer to indicate a location, and the like.

なお、利用者の所有する携帯電話やスマートフォンといった携帯端末と操作部4とを無線接続し、携帯端末を使った情報入力ができるようにしてもよい。Bluetooth(登録商標)や無線LAN等の非接触式通信を使って入力させてもよいし、ケーブル接続を使って操作情報を伝送するようにしてもよい。以上のようにして、操作部4から利用者の意図を示す情報を入力することが可能である。 Note that the operation unit 4 may be wirelessly connected to a mobile terminal such as a mobile phone or a smartphone owned by the user, so that information can be input using the mobile terminal. The input information may be input using non-contact communication such as Bluetooth (registered trademark) or wireless LAN, or the operation information may be transmitted using a cable connection. In the manner described above, it is possible to input information indicating the user's intention from the operation unit 4.

サービス情報管理部600は、利用者に提供するための情報や、認識部3で識別された対象に関連する情報などを記憶するデータベースである。つまりサービス情報管理部600は、利用者に提供するためのサービス情報を収集し、提供可能とするためのデータベースである。さらに、利用者がサービスを利用している途中に得られた情報を履歴情報として記録し管理することも可能である。 The service information management unit 600 is a database that stores information to be provided to users, information related to objects identified by the recognition unit 3, and the like. In other words, the service information management unit 600 is a database that collects and makes available service information to be provided to users. Furthermore, it is also possible to record and manage information obtained while the user is using the service as historical information.

例えばサービス情報管理部600は、サービスに関する購買履歴情報、利用日時や利用場所、利用時間などを記憶する。これらの情報は、出力部6で参考情報として表示することも可能である。これらはディスプレイ400から利用者に表示される情報、および操作部4から入力された情報を組み合わせて記録しておくことで実現可能である。 For example, the service information management unit 600 stores purchase history information, date and time of use, place of use, time of use, etc. regarding the service. This information can also be displayed on the output unit 6 as reference information. These can be realized by combining and recording the information displayed to the user from the display 400 and the information input from the operation unit 4.

また、対面装置200以外に、各地に設置される端末のどの端末を利用しているかを確認すれば、利用者の生活圏を認識できる。そこで、近隣施設でサービスが受けられない(在庫がないなど)といった場合に、利用者の生活圏の範囲で優先して別店舗の情報を提供することができる。 In addition, by checking which of the terminals installed in various places the user is using in addition to the face-to-face device 200, the user's living area can be recognized. Therefore, if the service is not available at a nearby facility (for example, out of stock), information on another store within the user's living area can be given priority.

また、利用時に、所有物である携帯電話の情報を操作部4から入力すれば、利用者のメールアドレス、名前あるいは生年月日などのプロフィールを取得して記録することや、車両から得られた情報として日頃の走行履歴等を記録しておき、サービス情報提供に利用することも可能である。 In addition, when using the mobile phone, if information from the mobile phone that is owned is entered from the operation unit 4, the user's profile such as email address, name or date of birth can be acquired and recorded, and information obtained from the vehicle can be obtained and recorded. It is also possible to record daily driving history and the like as information and use it to provide service information.

その他、インターネットに接続して、遠隔にある端末との情報共有、事前に提携した周辺の施設から提供される販売情報・在庫情報・優待情報サービス等情報、駐車場や道路の混雑状況や事故の情報、通行止めの情報、その他交通規制情報などの情報をサービス情報管理部600に管理してもよい。管理される情報は制御部5で提供する情報のソースとして利用される。サービス情報管理部600に記憶される情報はセンサなどを設置して自動更新するようにすることも可能であるし、施設側の管理者が入力して更新するようにしてもよい。 In addition, by connecting to the Internet, information can be shared with remote terminals, information such as sales information, inventory information, preferential information services, etc. provided by surrounding facilities with which we have partnered in advance, information on parking lot and road congestion conditions and accidents. The service information management unit 600 may manage information such as information, road closure information, and other traffic regulation information. The managed information is used as a source of information provided by the control unit 5. The information stored in the service information management section 600 may be automatically updated by installing a sensor or the like, or may be updated by input by a facility manager.

以上により、利用者に提供する情報や認識部3で識別した対象に関連する情報を記録しておくとともに、利用者に提供するサービス情報を収集して提供できるように管理しておくことが可能となる。 As described above, it is possible to record information to be provided to users and information related to objects identified by the recognition unit 3, and to collect and manage service information to be provided to users. becomes.

制御部5は、対面装置200を利用中の人物の情報、その人物の所有物、あるいは車両の情報などの情報、および、操作部4手段で入力された情報に基づいて、利用者へのサービス提供方法や情報提供内容を決定する。決定された情報に基づいてサービス情報管理部600の情報が読み出され、利用者に提供される。 The control unit 5 provides services to the user based on information such as information on the person using the face-to-face device 200, information on the person's property or vehicle, and information input through the operation unit 4. Decide on the provision method and content of information provision. Information from the service information management unit 600 is read out based on the determined information and provided to the user.

制御部5は、提供すべきサービス情報を判断するために、例えば以下の情報を参照することが可能である。 The control unit 5 can refer to the following information, for example, in order to determine the service information to be provided.

・認識部3で得られた認識結果(人物の属性、個人の特定、同伴者、所有物、着用物、車両情報など)。
・認識部3で判別された、個人に対応付けされて特徴情報管理部500で管理される情報(購買履歴など)。
・サービスの利用内容および利用時間。
・出力部6により出力されている情報の内容。
・操作部4で操作した情報。
なおサービス情報管理部600は、利用者と無関係に提供されるコンテンツ情報を記憶することも可能である。この種の情報としては、優待情報、周辺施設の優待情報、周辺施設の商品販売情報(タイムセールス、在庫、価格)、周辺の道路の混雑状況などがある。このほか、利用者が特定された場合には、利用者本人の過去の購買情報や、よく利用しているサービスの履歴などもサービス情報管理部600に記憶される。
- Recognition results obtained by the recognition unit 3 (person attributes, individual identification, companions, possessions, things worn, vehicle information, etc.).
- Information (purchase history, etc.) that is determined by the recognition unit 3 and is associated with the individual and managed by the characteristic information management unit 500.
・Service usage details and usage time.
- Contents of information output by the output unit 6.
- Information operated on the operation unit 4.
Note that the service information management unit 600 can also store content information provided independently of the user. This type of information includes preferential treatment information, preferential treatment information of surrounding facilities, product sales information (time sales, inventory, prices) of surrounding facilities, congestion status of surrounding roads, and the like. In addition, when a user is identified, the user's past purchase information and history of frequently used services are also stored in the service information management unit 600.

出力部6は、利用者に情報を伝達するためのユーザインタフェースであり、液晶画面などの表示デバイス(ディスプレイ400)に画像を表示したり、スピーカからの音声出力により人物900に情報を伝達する。また、対面装置200の提供するサービスの内容に応じて必要な機器を組み込むようにしてもよい。例えば、車両に給油や充電を行う装置であれば、給油装置や充電装置とディスプレイ400およびスピーカを同じ筐体に組み込むことで、利用者はサービスを利用しながら情報提供内容を確認し、併せて操作部4によるオペレーションを実行することも可能となる。 The output unit 6 is a user interface for transmitting information to the user, and displays an image on a display device (display 400) such as a liquid crystal screen, and transmits information to the person 900 by outputting audio from a speaker. Further, necessary equipment may be incorporated depending on the content of the service provided by the face-to-face device 200. For example, if it is a device that refuels or charges a vehicle, by incorporating the refueling device or charging device, the display 400, and the speaker into the same housing, the user can check the information provided while using the service, and also It is also possible to execute operations using the operation unit 4.

ディスプレイ400には、対面装置200の設置場所に応じて、周辺の商業施設の販売状況を表示する画面、役所などの手続きが可能なメニュー画面、病院の検査や診察の手続きに使用可能な画面を表示しても良い。また、対面装置200に、現金の入出金等が行えるような装置を少なくとも一つ組合せ、複数組み合わせて内蔵するようにしてもよい。サービスに応じた複数の機器を対面装置200に組み込むことで、利用者は複数のサービスを同時に利用することが可能となる。 Depending on the installation location of the face-to-face device 200, the display 400 includes a screen that displays the sales status of nearby commercial facilities, a menu screen that allows procedures at government offices, etc., and a screen that can be used for procedures for hospital tests and consultations. It may be displayed. Further, the face-to-face device 200 may include a combination of at least one or a plurality of devices capable of depositing and withdrawing cash. By incorporating a plurality of devices corresponding to services into the face-to-face device 200, a user can use a plurality of services at the same time.

さらに、外部の端末や外部の施設との連携のため、インターネットに接続するための機能を出力部6に備えるようにしてもよい。例えば携帯電話回線や無線LANなどの通信手段を利用すれば、可動式の端末で構成される場合でも同様のサービスを提供することが可能となる。さらに、利用者が対面装置200から離れる場合に連絡する手段として、電子メール通信やソケット通信を実行する通信プログラムを内蔵するようにしてもよい。これにより対面装置200から離れた場所にいる利用者への連絡手段を確保することができる。 Furthermore, the output unit 6 may be provided with a function for connecting to the Internet for cooperation with external terminals and external facilities. For example, if a communication means such as a mobile phone line or a wireless LAN is used, it is possible to provide similar services even when the terminal is composed of a movable terminal. Furthermore, as a means for contacting the user when he or she leaves the face-to-face device 200, a communication program that executes e-mail communication or socket communication may be built-in. This makes it possible to secure a means of contacting a user who is located away from the facing device 200.

図4は、上記構成におけるサービスの情報の流れの一例を示す図である。画像データから抽出された人物A、人物B、車Cについて、年齢、性別、人物AとBとの組み合わせ、車Cの車種情報、車Cの色などの情報が得られる。これらの情報は統計的に処理され、統計情報が算出される。そして、これらの対象物に関する情報に対し、統計的に最適と判断される情報が、推奨情報として優先的に出力される。 FIG. 4 is a diagram showing an example of the flow of service information in the above configuration. Information such as age, gender, combination of persons A and B, vehicle type information of car C, and color of car C can be obtained for person A, person B, and car C extracted from the image data. This information is statistically processed to calculate statistical information. Then, among the information regarding these objects, information that is statistically determined to be optimal is preferentially output as recommended information.

例えば、認識部3で認識された車両の車種が分かれば車両価格の推定値が分かるので、高額な買い物をする人物であるかどうかの情報が分かる。また、車種にあわせた推奨商品やその商品の優待情報を提供することができるようになる。 For example, if the model of the vehicle recognized by the recognition unit 3 is known, the estimated price of the vehicle can be known, and therefore information on whether the person is a person who makes expensive purchases can be known. In addition, it will be possible to provide recommended products according to the car model and information on preferential treatment of those products.

また、乗車人数が一人であれば例えば給油や充電といった、目的とするサービスを利用するだけで現れた可能性が高いと判断できる。乗車人数が二人以上であれば、充電中などのサービス利用中に他の乗車メンバーが周辺施設に行ってしまう可能性がある。そこで、周辺施設での優待情報や在庫状況、イベント情報などを出力部6により通知することに意義が生まれる。このほか、車両Cから走行履歴情報を得られれば、この後走行する周辺道路の混雑情報などを提供することや、走行経路周辺にある店舗の情報などを提供することも可能である。 Furthermore, if there is only one person on board, it can be determined that there is a high possibility that the vehicle appeared simply by using the desired service, such as refueling or charging. If the number of passengers is two or more, there is a possibility that other members of the vehicle may go to nearby facilities while charging or using the service. Therefore, it is meaningful to notify the user of preferential treatment information, inventory status, event information, etc. at surrounding facilities through the output unit 6. In addition, if driving history information can be obtained from the vehicle C, it is also possible to provide information such as congestion on surrounding roads on which the vehicle will travel later, and information on stores located around the driving route.

車両への給油や充電のサービスなどのほか、現金自動支払機やカード決済端末、役所の手続き等などにおいても、利用者に関する情報や、同伴者や、所持品に基づく判断により同様の判断材料を得ることが可能である。例えば、高級品を持っている大人と子供が検出された場合には、買い物をする可能性が高いとして子供向けの玩具の情報を紹介するなど、人の組合せや所持品を考慮して提供する情報を選択できるようにしてもよい。 In addition to vehicle refueling and charging services, cash machines, card payment terminals, government office procedures, etc., similar judgment materials are used based on information about the user, companions, and belongings. It is possible to obtain. For example, if an adult and a child are found to be carrying luxury items, information on toys for children will be provided based on the combination of people and their belongings, as they are likely to shop there. Information may be selectable.

例えば、図7に示されるように、検出された人物の年齢や性別の組合せ、所持品、車の情報などの組合せに応じて提供すべきサービスを対応付けたテーブルを準備しておくことで、組合せの判定結果に応じてサービス提供メニューを変更することができる。また、図7のテーブルにおける○×の記入される欄を人数でさらに細分化できるようにすれば、同じ「成人の女性」が一人か、あるいは複数人であるかによってメニューを変えることにも対応できる。この組み合わせは、既に述べた処理により取得可能な情報であればどのような組み合わせでもよいのは明らかである。また、テーブルを用いる手法のほか、検知された対象の組み合せに対する出力を一意に管理可能な手法を用いれば、どのような方法を使ってもよい。 For example, as shown in Figure 7, by preparing a table that associates the services to be provided according to the combination of the detected person's age, gender, belongings, car information, etc. The service provision menu can be changed according to the combination determination result. Additionally, by making it possible to further subdivide the ○/x fields in the table in Figure 7 by number of people, it is also possible to change the menu depending on whether there is one "adult woman" or multiple people. can. It is clear that this combination may be any combination of information that can be obtained through the processing described above. In addition to the method using a table, any method may be used as long as it is possible to uniquely manage outputs for combinations of detected objects.

また、人の個人特定や車両のナンバープレート情報による個体識別が成功した場合には、過去のサービスの利用状況を確認することが可能となる。それにより、利用者がサービスを利用しようとしたときに一般的なメニューからよく使うメニューを探す必要がなく、過去の履歴でよく使うメニューを優先的に表示させてあげることが可能となるのは明らかである。このように実施形態によれば、利用者の人物・所有物・車両の組合せに応じた適切なサービス提供が可能になる。 Furthermore, if the individual identification of a person or vehicle based on license plate information is successful, it will be possible to check the usage status of past services. As a result, when users try to use the service, they do not have to search for frequently used menus from the general menu, and it is possible to preferentially display frequently used menus based on past history. it is obvious. As described above, according to the embodiment, it is possible to provide appropriate services depending on the combination of the user's person, property, and vehicle.

また、予め誕生日などの記念日が登録されている場合には祝福のメッセージを出すとともに、記念日で購入しそうな商品の購買情報を提供することや割引情報や優待情報を表示するようにしてもよい。 In addition, if an anniversary such as a birthday is registered in advance, it will send a congratulatory message, provide purchase information for products likely to be purchased on the anniversary, and display information on discounts and preferential treatment. Good too.

このほか、サービス利用中の時間によって表示内容を変える方法がある。 Another method is to change the displayed content depending on the time you are using the service.

例えばサービスの利用開始時点であれば、当該サービス利用に関する優待情報を表示したり、過去の購買履歴情報に基づいて、よく利用するサービスメニューを優先的に表示したり、所持品や該当車両に関するニュースなどを表示するようにすれば良い。これにより、これからサービスを利用しようとしている人物に有益な情報を提供することが可能である。前述の誕生日のメッセージなどはサービス利用開始時に出力するのが望ましい。 For example, at the time of starting to use a service, preferential treatment information related to the use of the service may be displayed, frequently used service menus may be preferentially displayed based on past purchase history information, and news regarding personal belongings or the applicable vehicle may be displayed. It would be better to display something like this. This makes it possible to provide useful information to people who are about to use the service. It is desirable to output the aforementioned birthday message and the like when starting to use the service.

サービス利用中であれば、サービスの残り時間に応じて利用者ができる内容が変わってくるので、内容を切り替えて表示する。例えば残り時間が長ければ、その場を離れて利用可能なサービスに関する情報を提供し、サービスの残り時間が短くなってきたら決済情報に関する情報を表示する。また利用者がその場を離れている場合には、残り時間が少なくなってきた時点で電子メール等を使ってもうすぐサービスが終了する旨を伝えるようにもできる。 If the user is using the service, the content that the user can do changes depending on the remaining time of the service, so the content is switched and displayed. For example, if there is a long time remaining, the user can leave the location and provide information about available services, and if the time remaining for the service is getting short, information about payment information may be displayed. Furthermore, if the user is away from the location, when the remaining time is running low, it is possible to send an e-mail or the like to inform the user that the service will soon end.

またサービス終了後の表示については、車のサイズや購買情報にあわせて、荷物の郵送サービスに連絡する情報を提供してもよい。また次回以降使える優待情報やクーポンの発行といったこともこのタイミングでするようにできる。以上のように、利用者のサービス利用時間の残り時間に合わせて、提供されるサービスの内容を変更することが可能である。 Further, regarding the display after the service ends, information for contacting the package mailing service may be provided in accordance with the size of the car and purchase information. You can also use this timing to issue preferential treatment information and coupons that can be used from next time onwards. As described above, it is possible to change the content of the provided service according to the remaining time of the user's service usage time.

また利用者は、サービス利用中に自ら周辺施設に足を運んで別のサービスを受けることも可能である。さらに、対面装置200のディスプレイ400に表示されるメニューからサービスの代行を依頼することが可能である。 Furthermore, while using the service, the user can also visit nearby facilities and receive other services. Furthermore, it is possible to request a service on behalf of the user from the menu displayed on the display 400 of the face-to-face device 200.

例えばガスステーションの周辺の店舗の在庫状況や販売情報(価格情報)をディスプレイ400に表示し、利用者にメニューを提示して購買リストを選択させることができる。その際、認識された利用者のプロフィールをメニューに反映させることもできる。利用者は対面装置200に備え付けの支払い機能により、現金やカードで決済することで買い物を確定する。購入された物品は店舗側から対面装置200の場所まで届けたり、配送サービスで利用者の自宅まで送るようにしても良い。 For example, the inventory status and sales information (price information) of stores around the gas station can be displayed on the display 400, and a menu can be presented to the user to select a purchasing list. At that time, the recognized user's profile can also be reflected in the menu. The user finalizes the purchase by paying with cash or card using the payment function provided in the face-to-face device 200. The purchased item may be delivered from the store to the location of the facing device 200, or may be sent to the user's home by a delivery service.

特に、実施形態によれば、車の走行履歴情報や、対面装置200の利用場所の履歴から利用者ごとの生活圏を推定することができる。推定された生活圏に基づいて、近隣施設以外の施設の情報からショッピング情報を提供することも可能である。例えば在庫がないなど近隣施設で希望するサービスが受けられないような場合には、利用者の行動範囲の中の別の施設でサービスを受けられることを利用者に知らせれば良い。以上のように実施形態によれば、利用者から周辺施設にサービスの提供を依頼することが可能となる。このほか、公共機関や役所において実施する手続きの代行を、対面装置200から依頼できるようにしても良い。 In particular, according to the embodiment, the living area of each user can be estimated from the driving history information of the car and the history of the usage location of the facing device 200. It is also possible to provide shopping information from information on facilities other than nearby facilities based on the estimated living area. For example, if the desired service is not available at a nearby facility due to lack of stock, the user may be informed that the service is available at another facility within the user's range of activity. As described above, according to the embodiment, the user can request surrounding facilities to provide services. In addition, requests may be made from the face-to-face device 200 to perform procedures on behalf of public institutions or government offices.

また、利用者が希望すれば、サービスの利用中に所有物または車両を預け、サービス終了までその場を離れることを可能にしてもよい。その場合、預かった所有物は金庫に入れるなどして管理すればよいが、車両については移動式駐車場で管理するか、入力部1からの画像データを用いて不審者や持ち去りの監視をするようにしてもよい。持ち去りが発生したことは既に述べたように、認識部3の処理により認識することが可能である。認識の結果に基づいて、預けられている所有物または車両に、予め登録されている人物でない人物が接近してきたことや、預けている所有物または車両が持ち去られることを、その場を離れている利用者に通知することが可能である。以上のように実施形態によれば、利用者の所有物や車両の監視・保管サービスを実現することができる。 Furthermore, if the user desires, the user may be allowed to leave his/her belongings or vehicle while using the service and leave the location until the end of the service. In that case, you can manage the deposited property by putting it in a safe, etc., but you can manage the vehicle in a mobile parking lot, or use the image data from input unit 1 to monitor for suspicious persons or people taking things away. You may also do so. As already mentioned, it is possible to recognize that the item has been taken away by the processing of the recognition unit 3. Based on the recognition results, it is possible to detect when a person who is not registered in advance approaches the property or vehicle that has been entrusted to the vehicle, or that the property or vehicle that has been entrusted to the vehicle is being taken away. It is possible to notify the current users. As described above, according to the embodiment, it is possible to realize a monitoring and storage service for user's belongings and vehicles.

以上述べたように実施形態によれば、カメラ300により撮影された映像に映っている人物、または人物の所有物、または人物が乗車している車両情報の少なくとも一つの対象を認識できるようになる。従って、サービスを利用する対象の組合せに応じて適切な情報を提供することが可能となる。 As described above, according to the embodiment, it becomes possible to recognize at least one object of the person, the property of the person, or the vehicle information on which the person is riding that is shown in the image taken by the camera 300. . Therefore, it is possible to provide appropriate information depending on the combination of objects using the service.

すなわち、カメラ300で取得された画像データから、コンピュータ100により、画像データに含まれる対象の人物属性、同伴する人物と人物の組合せ、人物と所有物、人物と搭乗車両の組合せの少なくとも一つを認識する。また、認識した情報から個人を特定し、周辺の情報と組み合わせることで認識精度を高める。また、通信手段で情報を得る機能を備え、人物の所有する携帯電話や車両の走行履歴等を取得する。 That is, from the image data acquired by the camera 300, the computer 100 determines at least one of the attributes of the target person included in the image data, the combination of the accompanying person and the person, the person and property, and the combination of the person and the vehicle they are boarding. recognize. It also identifies individuals from the recognized information and increases recognition accuracy by combining it with surrounding information. It also has a function to obtain information through communication means, and obtains the driving history of a person's mobile phone or vehicle.

対面装置200は、映像を出力するディスプレイ400、音声を出力するスピーカ、および操作部4を備える。操作部4は利用者が所有する端末装置と情報通信可能であり、利用者の端末装置(携帯電話機など)での表示や入力が可能である。また対面装置200に、さらに給油機能、充電機能、現金自動支払い、クレジットカード等の決済機能の少なくとも一つを備えるようにしても良い。 The face-to-face device 200 includes a display 400 that outputs video, a speaker that outputs audio, and an operation unit 4. The operation unit 4 can communicate information with a terminal device owned by the user, and can perform display and input on the user's terminal device (such as a mobile phone). Further, the meeting device 200 may further include at least one of a refueling function, a charging function, an automatic cash payment function, a credit card payment function, and the like.

またコンピュータ100は、特定した人物ごとの属性情報に基づいて、同一人物には共通の情報をディスプレイ400に表示する。ディスプレイ400は、お勧め情報を表示するリコメンド画面と、利用者側で任意のメニューを選択して表示する画面とを切り替えることが可能である。 Furthermore, the computer 100 displays information common to the same person on the display 400 based on the attribute information for each identified person. The display 400 can be switched between a recommendation screen that displays recommended information and a screen that allows the user to select and display an arbitrary menu.

コンピュータ100は、対象を認証した結果に応じてリコメンド情報(優待情報(クーポン券など))を提供する。また利用者がリピーターであれば過去の履歴を参考にする。またコンピュータ100は、所有物、あるいは利用する車の情報から所得情報を推定し、リコメンドする商品を変更する。さらにコンピュータ100は、車の走行履歴を取得し、その内容に基づいて周辺道路の混雑情報や帰り道のお得情報などの情報を提供する。 The computer 100 provides recommendation information (preferential information (coupons, etc.)) according to the result of authenticating the object. Also, if the user is a repeat user, past history is used as a reference. Furthermore, the computer 100 estimates income information from information about possessions or cars used, and changes the recommended products. Further, the computer 100 obtains the driving history of the car, and based on the information, provides information such as congestion information on surrounding roads and advantageous information on the way home.

またコンピュータ100は、操作端末200のサービス利用時間に応じて出力部6から出力される内容を切り替える。すなわちコンピュータ100は、サービス(充電・給油)を利用中に周囲の必要な情報を提供したり、別のサービスの利用を代行すべく周辺施設・店舗700にメッセージ情報を通知する。これにより利用者は、待ち時間に周辺施設から所望の商品やサービスを選択することが可能になる。つまり利用者は、サービス利用をシステムに代行させ、その間に別のサービスを受けることが可能になる。さらに利用者は、サービス利用時に所有物や車をシステムに預けて管理させ、不審者監視が可能、不審者検知やサービス終了時間指定時間になれば呼び出すサービスを受けることもできる。 Further, the computer 100 switches the content output from the output unit 6 according to the service usage time of the operation terminal 200. That is, the computer 100 provides necessary information about the surroundings while using a service (charging/refueling), or notifies surrounding facilities/stores 700 of message information in order to use another service on your behalf. This allows users to select desired products and services from nearby facilities during their waiting time. In other words, the user can have the system use the service on his/her behalf and receive other services during that time. Furthermore, when using the service, users can entrust their belongings and cars to the system and have them managed, monitor for suspicious persons, and receive services that will be called when a suspicious person is detected or the service ends at a specified time.

既存の技術では、利用者はサービスを利用している間はそのサービスが完了するまで待っている必要があった。これに対し実施形態によれば、所定のサービスを利用する人物、その所有物、同伴者、利用車両などの情報を統合して適切な情報やサービスを提供することが可能になる。また実施形態によれば、利用者はサービスを利用している間に周囲の必要な情報の提供を受けたり、別のサービスの利用をシステムに代行させたり、またはサービス利用時間の管理を代行させて利用者本人が別のサービスを受けることが可能となる。 With existing technology, users have to wait until the service is completed while using the service. On the other hand, according to the embodiment, it becomes possible to provide appropriate information and services by integrating information on the person using a predetermined service, his/her belongings, companions, vehicle used, etc. Further, according to the embodiment, while using the service, the user can receive necessary information from the surroundings, have the system use another service on his or her behalf, or have the system manage the service usage time on his or her behalf. Users themselves can receive other services.

これらのことから、対面装置200の利用者、接近した人物、物や周囲の状況に応じて情報の出力形態、情報の提供方法、サービスの提供の形態を切り替えることができるようになり、従って、利用者に応じて適切なサービスを提供することの可能な対象検出方法を提供することが可能になる。 For these reasons, it is now possible to switch the output form of information, the method of providing information, and the form of service provision according to the user of the face-to-face device 200, the person approaching, the object, and the surrounding situation. It becomes possible to provide an object detection method that can provide appropriate services depending on the user.

[第2の実施形態]
図5は、第2の実施形態に係るサービス提供システムの一例を示す図である。図5において図1と共通する部分には同じ符号を付して示し、ここでは異なる部分についてのみ説明する。第2の実施形態では対面装置200およびコンピュータ100が広域にわたって複数設置される形態を想定する。コンピュータ100は広域の通信網(インターネットあるいはIP-VPNなど)で接続され、管理する情報を相互に授受して利用することが可能である。
[Second embodiment]
FIG. 5 is a diagram illustrating an example of a service providing system according to the second embodiment. In FIG. 5, parts common to those in FIG. 1 are denoted by the same reference numerals, and only the different parts will be explained here. In the second embodiment, it is assumed that a plurality of face-to-face devices 200 and computers 100 are installed over a wide area. The computers 100 are connected via a wide area communication network (such as the Internet or IP-VPN), and can mutually exchange and use managed information.

図5において、特徴情報管理部500およびサービス情報管理部600は、データセンタ1000において集約して管理される。それぞれカメラ300および対面装置200に接続される複数のコンピュータ100は、広域に敷設される通信回線1100を介してデータセンタ1000に接続され、特徴情報管理部500およびサービス情報管理部600と各種データを授受することができる。 In FIG. 5, a feature information management unit 500 and a service information management unit 600 are collectively managed in a data center 1000. A plurality of computers 100 each connected to a camera 300 and a face-to-face device 200 are connected to a data center 1000 via a communication line 1100 installed over a wide area, and exchange various data with a characteristic information management section 500 and a service information management section 600. Can be given and received.

上記構成によれば、人物やその同伴者、付帯物および車両を検出し、認識するための情報がデータセンタ1000において一元管理される。これにより端末側のコンピュータ100において管理すべきデータ量を減らせるのに加え、例えば市、県あるいは国といったレベルで情報を一元管理することが可能になり、サービスの統一性の向上を図れるなどのメリットを得ることができる。 According to the above configuration, information for detecting and recognizing people, their companions, accompanying objects, and vehicles is centrally managed in the data center 1000. This not only reduces the amount of data that must be managed on the computer 100 on the terminal side, but also makes it possible to centrally manage information at the city, prefecture, or country level, improving the uniformity of services, etc. You can get benefits.

また、データセンタ1000を、いわゆるクラウドコンピューティングシステムとして理解することも可能である。この形態では、特徴情報管理部500およびサービス情報管理部600は、広域ネットワーク上の分散型データベースに形成される。 It is also possible to understand data center 1000 as a so-called cloud computing system. In this form, the feature information management section 500 and the service information management section 600 are formed in a distributed database on a wide area network.

[第3の実施形態]
図6は、第3の実施形態に係るサービス提供システムの一例を示す図である。図6において図1および図5と共通する部分には同じ符号を付して示し、ここでは異なる部分についてのみ説明する。
[Third embodiment]
FIG. 6 is a diagram illustrating an example of a service providing system according to the third embodiment. In FIG. 6, parts common to those in FIGS. 1 and 5 are denoted by the same reference numerals, and only the different parts will be described here.

図6に示されるシステムは図5の構成をさらに集約化したものに相当する。すなわち、複数のコンピュータ(101,102,103)のそれぞれに、カメラ300からの画像データを取得する入力部1、操作部4、および出力部6を持たせ、データセンタ1000に特徴情報管理部500、サービス情報管理部600に加えて検出部2、認識部3および制御部5を持たせる。そして、コンピュータ101,102,103に通信部7を備え、データセンタ1000に通信部70を備え、TCP/IPなどの通信回線1100を介して相互に通信可能としたものである。 The system shown in FIG. 6 corresponds to a further integrated version of the configuration shown in FIG. That is, each of the plurality of computers (101, 102, 103) is provided with an input section 1, an operation section 4, and an output section 6 for acquiring image data from the camera 300, and the data center 1000 is provided with a feature information management section 500. , a detection section 2, a recognition section 3, and a control section 5 are provided in addition to the service information management section 600. The computers 101, 102, and 103 are equipped with a communication section 7, and the data center 1000 is equipped with a communication section 70, so that they can communicate with each other via a communication line 1100 such as TCP/IP.

上記構成により、コンピュータ101,102,103にはサービスを提供する現場に必要な最小限の機能を持たせ、対象の検出や認識に係わる処理をデータセンタ1000に委託することができる。これによりコンピュータ101,102,103および対面装置200を省サイズ化できるようになり、省コスト化などのメリットを得ることが可能になる。 With the above configuration, the computers 101, 102, and 103 can be provided with the minimum functions required at the site where services are provided, and processing related to object detection and recognition can be entrusted to the data center 1000. This makes it possible to reduce the size of the computers 101, 102, 103 and the face-to-face device 200, and to obtain benefits such as cost savings.

また、検出部2をコンピュータ101,102,103に持たせ、対象の検出以降の処理をデータセンタ1000に委託するようにしても良い。このように、どの程度までの処理をデータセンタ1000に委託するかは、システム要請や通信すべきデータ量、あるいは機器のハードウェアスペックに応じて決めることができる。 Alternatively, the detection unit 2 may be provided in the computers 101, 102, and 103, and processing after detection of the target may be entrusted to the data center 1000. In this way, the extent to which processing is entrusted to the data center 1000 can be determined depending on the system requirements, the amount of data to be communicated, or the hardware specs of the equipment.

さらに、データセンタ1000をクラウドコンピューティングシステムとして理解することももちろん可能である。このケースでは、検出部2、認識部3および制御部5は複数のコンピュータに分散配置される機能オブジェクトとして理解することが可能である。 Furthermore, it is of course possible to understand data center 1000 as a cloud computing system. In this case, the detection section 2, the recognition section 3, and the control section 5 can be understood as functional objects distributed and arranged in a plurality of computers.

なお本発明は上記実施形態に限定されるものではない。例えば上記実施形態ではガスステーションへの応用について説明したが、本発明は駐車場、商業施設、公共施設(役所)、病院や美容院などに適用することも可能である。 Note that the present invention is not limited to the above embodiments. For example, in the above embodiment, the application to a gas station has been described, but the present invention can also be applied to parking lots, commercial facilities, public facilities (government offices), hospitals, beauty salons, and the like.

本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.

100,101,102…コンピュータ、200…対面装置、300…カメラ、400…ディスプレイ、500…特徴情報管理部、600…サービス情報管理部、700…周辺施設・周辺店舗、800…通信回線、900…人物、1…入力部、2…検出部、3…認識部、4…操作部、5…制御部、6…出力部、1000…データセンタ、通信回線1100、7…通信部、70…通信部。 100, 101, 102... Computer, 200... Face-to-face device, 300... Camera, 400... Display, 500... Feature information management department, 600... Service information management department, 700... Surrounding facilities/surrounding stores, 800... Communication line, 900... Person, 1...Input unit, 2...Detection unit, 3...Recognition unit, 4...Operation unit, 5...Control unit, 6...Output unit, 1000...Data center, communication line 1100, 7...Communication unit, 70...Communication unit .

Claims (5)

撮像装置と情報処理装置から構成されるシステムから画像データを取得する対象検出方法であって、
取得された画像データから人物に係る所有物、着衣物、着用物の少なくとも一つ、および人物に係る車両を対象として検出する過程と、
前記システムが、前記検出された対象の特徴情報に基づいて当該対象の形状もしくは色を認識する過程と、
前記システムが、前記人物を画像データから認識する過程と、
前記システムが、前記認識された対象と、前記認識された人物とを対応付ける過程と、 前記システムが、前記認識された対象に対応付けられる人物を個人特定する過程と、
前記システムが、前記個人特定された人物の過去の情報サービスの利用状況を確認する過程と
前記システムが、預けている前記所有物または前記車両への未登録の人物の接近、または、前記預けている前記所有物または前記車両の持ち去りを、前記個人特定された人物に通知する過程とを具備する、対象検出方法。
An object detection method for acquiring image data from a system comprising an imaging device and an information processing device, the method comprising:
A step of detecting at least one of the person's possessions, clothes, and items to be worn, and the person's vehicle from the acquired image data;
a step in which the system recognizes the shape or color of the detected object based on characteristic information of the detected object;
a step in which the system recognizes the person from image data;
a step in which the system associates the recognized object with the recognized person; a step in which the system individually identifies the person associated with the recognized object;
a process in which the system verifies the past usage status of information services of the identified person ;
the system notifying the identified person of the approach of an unregistered person to the deposited property or the vehicle or the removal of the deposited property or the vehicle; An object detection method comprising:
前記システムが前記人物を画像データから認識する過程は、前記システムが前記人物の性別を判別することを含む、請求項1に記載の対象検出方法。 2. The object detection method according to claim 1, wherein the step of the system recognizing the person from image data includes the system determining the gender of the person. 前記人物にかかる所有物は、杖であることを特徴とする、請求項1に記載の対象検出方法。 The object detection method according to claim 1, wherein the property of the person is a cane. 前記人物にかかる所有物は、鞄であることを特徴とする、請求項1に記載の対象検出方法。 The object detection method according to claim 1, wherein the property of the person is a bag. 前記車両には、ETCカードが搭載され、前記人物と前記ETCカードの履歴の相関が記録されることを特徴とする、請求項1記載の対象検出方法。 2. The object detection method according to claim 1, wherein the vehicle is equipped with an ETC card, and a correlation between the history of the person and the ETC card is recorded.
JP2022046706A 2020-02-12 2022-03-23 Target detection method Active JP7375079B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022046706A JP7375079B2 (en) 2020-02-12 2022-03-23 Target detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020021664A JP7237871B2 (en) 2020-02-12 2020-02-12 Target detection method
JP2022046706A JP7375079B2 (en) 2020-02-12 2022-03-23 Target detection method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020021664A Division JP7237871B2 (en) 2020-02-12 2020-02-12 Target detection method

Publications (2)

Publication Number Publication Date
JP2022075904A JP2022075904A (en) 2022-05-18
JP7375079B2 true JP7375079B2 (en) 2023-11-07

Family

ID=71106565

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020021664A Active JP7237871B2 (en) 2020-02-12 2020-02-12 Target detection method
JP2022046706A Active JP7375079B2 (en) 2020-02-12 2022-03-23 Target detection method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020021664A Active JP7237871B2 (en) 2020-02-12 2020-02-12 Target detection method

Country Status (1)

Country Link
JP (2) JP7237871B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111976593A (en) * 2020-08-21 2020-11-24 大众问问(北京)信息科技有限公司 Voice prompt method, device, equipment and storage medium for vehicle external object

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090264A (en) 1998-09-11 2000-03-31 Omron Corp Method and device for collating living body
JP2004155427A (en) 2002-11-01 2004-06-03 Kygnus Sekiyu Kk Self-service fueling apparatus
JP2006003993A (en) 2004-06-15 2006-01-05 Calsonic Kansei Corp License plate recognition device
JP2006134072A (en) 2004-11-05 2006-05-25 Toshiba Corp Entry/exit management system and biological characteristic information verification device
JP2007264943A (en) 2006-03-28 2007-10-11 Denso Corp Vehicular communication device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173514A (en) * 1997-08-29 1999-03-16 Nissan Motor Co Ltd Recognition device for vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090264A (en) 1998-09-11 2000-03-31 Omron Corp Method and device for collating living body
JP2004155427A (en) 2002-11-01 2004-06-03 Kygnus Sekiyu Kk Self-service fueling apparatus
JP2006003993A (en) 2004-06-15 2006-01-05 Calsonic Kansei Corp License plate recognition device
JP2006134072A (en) 2004-11-05 2006-05-25 Toshiba Corp Entry/exit management system and biological characteristic information verification device
JP2007264943A (en) 2006-03-28 2007-10-11 Denso Corp Vehicular communication device

Also Published As

Publication number Publication date
JP7237871B2 (en) 2023-03-13
JP2020098629A (en) 2020-06-25
JP2022075904A (en) 2022-05-18

Similar Documents

Publication Publication Date Title
US20230017398A1 (en) Contextually aware customer item entry for autonomous shopping applications
US11341515B2 (en) Systems and methods for sensor data analysis through machine learning
JP7371614B2 (en) Store management device and store management method
JP2014160394A (en) Service provision system
JP2018093283A (en) Monitoring information gathering system
CN108242007B (en) Service providing method and device
JP5704279B1 (en) Associated program and information processing apparatus
JP7298594B2 (en) Store management device, store management method, and program
WO2008005834A2 (en) Biometric aid for customer relations
US11978105B2 (en) System, method, and apparatus for processing clothing item information for try-on
JP7092354B2 (en) Product information management device, product information management method and program
JP7490988B2 (en) Coupon issuing device, method, and program
JP2018110023A (en) Target detection method
JP7375079B2 (en) Target detection method
US20240161133A1 (en) System for and method of determining user interactions with smart items
JP2021105945A (en) Processor, processing method, and program
JP6305483B2 (en) Computer apparatus, service providing system, service providing method, and program
JP2016218894A (en) Potential customer location information notification system, method and program
JP2020135898A (en) Information processing system, method for controlling information processing system, program, and recording medium
JP5962747B2 (en) Associated program and information processing apparatus
US20210407218A1 (en) Parking management system, parking management device, and computer-readable recording medium
JP6498065B2 (en) Information processing apparatus, processing method, and program
US20220027952A1 (en) Sales support system
JP7563573B2 (en) Information processing device, information processing method, and program
JP7521333B2 (en) Automatic settlement device, automatic settlement method, program, and automatic settlement system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220422

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231025

R150 Certificate of patent or registration of utility model

Ref document number: 7375079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150