JP2022075904A - Object detection method - Google Patents

Object detection method Download PDF

Info

Publication number
JP2022075904A
JP2022075904A JP2022046706A JP2022046706A JP2022075904A JP 2022075904 A JP2022075904 A JP 2022075904A JP 2022046706 A JP2022046706 A JP 2022046706A JP 2022046706 A JP2022046706 A JP 2022046706A JP 2022075904 A JP2022075904 A JP 2022075904A
Authority
JP
Japan
Prior art keywords
information
person
service
face
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022046706A
Other languages
Japanese (ja)
Other versions
JP7375079B2 (en
Inventor
寛 助川
Hiroshi Sukegawa
賢二 馬場
Kenji Baba
信 落合
Makoto Ochiai
洋一 島田
Yoichi Shimada
達夫 小坂谷
Tatsuo Kosakaya
隆三 岡田
Ryuzo Okada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2022046706A priority Critical patent/JP7375079B2/en
Publication of JP2022075904A publication Critical patent/JP2022075904A/en
Application granted granted Critical
Publication of JP7375079B2 publication Critical patent/JP7375079B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an appropriate service in accordance with a user.
SOLUTION: An object detection method for acquiring image data from a system including an imaging apparatus and an information processing apparatus comprises the steps of: detecting at least one of belongings, clothes, accessories, and a vehicle related to a person from the acquired image data; recognizing, by the system, a shape or a color of the object on the basis of characteristic information of the detected object; recognizing, by the system, the person from the image data; associating, by the system, the recognized object with the recognized person; and identifying, by the system, the person associated with the recognized object.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明の実施形態は、画像処理技術に関する。 Embodiments of the present invention relate to image processing techniques.

商業施設や公共施設(役所)、あるいは病院などの施設に足を運ぶ人々(利用者あるいはユーザ)はサービスを受けることを目的としている。しかし求めるサービスの内容はそれぞれ異なるので、サービスを受けるための確認作業や情報を得るための操作を、個人が自発的に実施する必要があった。このため利用者にとっては有益な情報を得る機会を逃したり、サービス提供者にとっては販売機会の喪失につながるといった不便があった。 People (users or users) who visit commercial facilities, public facilities (government offices), or facilities such as hospitals are intended to receive services. However, since the content of the requested service is different, it was necessary for the individual to voluntarily carry out the confirmation work for receiving the service and the operation for obtaining the information. For this reason, there are inconveniences such as missing opportunities for users to obtain useful information and loss of sales opportunities for service providers.

このような事情に対し、画像処理技術を応用したソリューションが幾つか提案されている。例えば画像に含まれる複数の人物をグループ化し、グループ属性を推定する技術がある。しかし、推定した属性をサービスの提供に活かすことはできない。また、画像に車や所有物などの物体が含まれていても、人物とそれらとの関連は考慮されない。 To deal with such circumstances, some solutions applying image processing technology have been proposed. For example, there is a technique for grouping a plurality of people included in an image and estimating group attributes. However, the estimated attributes cannot be used to provide services. Also, even if the image contains objects such as cars and possessions, the relationship between the person and them is not considered.

また、性別や身長に基づく属性判別により、顧客グループの構成に応じた選定メニューを提供する方法も提案されている。しかしこの技術によっても、メニューを選ぶために利用される情報は依然として限定的であり、総合的な観点からのサービスを提供することはできない。 In addition, a method of providing a selection menu according to the composition of a customer group by determining attributes based on gender and height has also been proposed. However, even with this technique, the information used to select menus is still limited, and it is not possible to provide services from a comprehensive perspective.

特許第4198951号公報Japanese Patent No. 4198951 特開2008-262435号公報Japanese Unexamined Patent Publication No. 2008-262435 特開2011-141610号公報Japanese Unexamined Patent Publication No. 2011-141610

以上述べたように、利用者ごとに適切なサービスを提供するということについては多分に改善の余地がある。人物だけでなく、付随する物体なども考慮して、より適切なサービスを提供できるようにする技術が要望されている。
目的は、利用者に応じて適切なサービスを提供することの可能な対象検出方法を提供することにある。
As mentioned above, there is probably room for improvement in providing appropriate services for each user. There is a demand for a technique that enables more appropriate services to be provided in consideration of not only people but also accompanying objects.
The purpose is to provide a target detection method capable of providing an appropriate service according to a user.

実施形態によれば、対象検出方法は、撮像装置と情報処理装置から構成されるシステムから画像データを取得する、対象検出方法である。対象検出方法は、取得された画像データから人物に係る所有物、着衣物、着用物および車両の少なくとも一つを対象として検出する過程と、システムが、検出された対象の特徴情報に基づいて当該対象の形状もしくは色を認識する過程と、システムが、人物を画像データから認識する過程と、システムが、認識された対象と、認識された人物とを対応付ける過程と、システムが、認識された対象に対応付けられる人物を個人特定する過程とを具備する。 According to the embodiment, the target detection method is a target detection method that acquires image data from a system including an image pickup device and an information processing device. The target detection method is based on the process of detecting at least one of the possessions, clothes, wears and vehicles related to the person from the acquired image data, and the system based on the characteristic information of the detected target. The process of recognizing the shape or color of an object, the process of the system recognizing a person from image data, the process of associating the recognized object with the recognized person, and the process of the system recognizing the object. It includes a process of personally identifying a person associated with.

図1は、第1の実施形態に係るサービス提供システムの一例を示す図である。FIG. 1 is a diagram showing an example of a service providing system according to the first embodiment. 図2は、画像データに含まれる対象の一例を示す図である。FIG. 2 is a diagram showing an example of an object included in the image data. 図3は、特徴情報管理部500により管理される情報の構造の一例を示す図である。FIG. 3 is a diagram showing an example of the structure of information managed by the feature information management unit 500. 図4は、上記構成におけるサービスの情報の流れの一例を示す図である。FIG. 4 is a diagram showing an example of the information flow of the service in the above configuration. 図5は、第2の実施形態に係るサービス提供システムの一例を示す図である。FIG. 5 is a diagram showing an example of a service providing system according to the second embodiment. 図6は、第3の実施形態に係るサービス提供システムの一例を示す図である。FIG. 6 is a diagram showing an example of the service providing system according to the third embodiment. 図7は、判定結果に応じてサービス提供メニューを変更するためのテーブルの一例を示す図である。FIG. 7 is a diagram showing an example of a table for changing the service provision menu according to the determination result.

[第1の実施形態]
図1は、第1の実施形態に係るサービス提供システムの一例を示す図である。図1に示されるサービス提供システムは、コンピュータ100と、コンピュータ100にLAN(Local Area Network)などの通信回線800を介して接続される対面装置200とを備える。
対面装置200は例えば現金自動支払機、カード決済端末、病院の会計端末、あるいは役所の手続き用の端末など、利用者と対面する装置である。この実施形態ではガスステーションまたは充電スタンドに設置される装置を考える。この種の設備の周辺には他の施設や店舗が形成されることが多い。コンピュータ100は通信回線800を介して、周辺施設・店舗700と通信することが可能である。
[First Embodiment]
FIG. 1 is a diagram showing an example of a service providing system according to the first embodiment. The service providing system shown in FIG. 1 includes a computer 100 and a face-to-face device 200 connected to the computer 100 via a communication line 800 such as a LAN (Local Area Network).
The face-to-face device 200 is a device that faces a user, such as an automated teller machine, a card payment terminal, a hospital accounting terminal, or a terminal for procedures at a government office. In this embodiment, consider a device installed in a gas station or a charging station. Other facilities and stores are often formed around this type of equipment. The computer 100 can communicate with the peripheral facilities / stores 700 via the communication line 800.

対面装置200はカメラ300と、ディスプレイ400とを備える。カメラ300は、例えばディスプレイ400に正対する対象を視野に捉えるように設置され、視野を撮影して得た画像データを出力する。カメラ300は対面装置200の周囲に少なくとも1つ、あるいは複数の地点に設置される。画像データには、対面装置200の前に立つ人物900、人物900と一緒にいる他の人物、人物900の所有する所有物、車両、車両の運転席に乗っている人物、助手席に乗っている人物などを含めることができる。 The face-to-face device 200 includes a camera 300 and a display 400. The camera 300 is installed so as to capture, for example, an object facing the display 400 in the field of view, and outputs image data obtained by photographing the field of view. The cameras 300 are installed at at least one or a plurality of points around the facing device 200. The image data includes the person 900 standing in front of the face-to-face device 200, another person with the person 900, the property owned by the person 900, the vehicle, the person in the driver's seat of the vehicle, and the passenger in the passenger seat. Can include people who are.

カメラ300は例えばITVカメラやIPカメラであり、レンズをとおして得られた光学的な情報をアナログ/ディジタル変換して画像データを得る。カメラ300は時間的に連続する画像を取り込むことも可能である。図2は、画像データに含まれる対象の一例を示す図である。 The camera 300 is, for example, an ITV camera or an IP camera, and obtains image data by analog / digital conversion of optical information obtained through a lens. The camera 300 can also capture images that are continuous in time. FIG. 2 is a diagram showing an example of an object included in the image data.

ディスプレイ400はデジタルサイネージ(digital signage)技術を応用した表示メディアであり、操作情報や広告情報などを表示する。
コンピュータ100は、実施形態に係る処理機能として入力部1、検出部2、認識部3、操作部4、制御部5および出力部6を備える。
入力部1は、カメラ300から出力される画像データを取得する。検出部2は、取得された画像データを画像処理し、カメラ300の視野内の対象を個別に検出し、特定する。例えば人物900、車両、あるいは人物900の所有物などが検出される。このほか、検出された人物900の年齢、性別、身長、人種、着用物、視線、顔の向き、乗車する車両のナンバープレート、車種、および車の色の組合せの少なくともいずれか1つが対象として検出される。
The display 400 is a display medium to which digital signage technology is applied, and displays operation information, advertisement information, and the like.
The computer 100 includes an input unit 1, a detection unit 2, a recognition unit 3, an operation unit 4, a control unit 5, and an output unit 6 as processing functions according to the embodiment.
The input unit 1 acquires image data output from the camera 300. The detection unit 2 performs image processing on the acquired image data, individually detects and identifies an object in the field of view of the camera 300. For example, a person 900, a vehicle, or the property of the person 900 is detected. In addition, at least one of the detected person 900's age, gender, height, race, wear, line of sight, face orientation, vehicle license plate, vehicle type, and vehicle color combination is targeted. Detected.

認識部3は、検出された対象を、特徴情報管理部500に記憶される特徴情報との比較により個別に認識する。認識の結果、対象の属性、種別、個体の識別情報(ID)などの特徴情報が得られる。特徴情報管理部500は、撮影され得る対象に係わる特徴情報を記憶するデータベースである。 The recognition unit 3 individually recognizes the detected target by comparing it with the feature information stored in the feature information management unit 500. As a result of the recognition, characteristic information such as the target attribute, type, and individual identification information (ID) can be obtained. The feature information management unit 500 is a database that stores feature information related to an object that can be photographed.

操作部4は、対面装置200の例えば利用者の手の届くところに配置される、タッチパネルやテンキーなどのユーザインタフェースである。操作部4を介して利用者は、システムに操作情報を入力することができる。 The operation unit 4 is a user interface such as a touch panel or a numeric keypad, which is arranged within the reach of a user, for example, of the face-to-face device 200. The user can input operation information into the system via the operation unit 4.

サービス情報管理部600は、利用者に提供するためのサービス情報や、認識部3で識別された対象に関連する情報などを記憶するデータベースである。制御部5は、サービス情報管理部600に記憶される複数のサービス情報から、認識部3で得られた認識結果に応じたサービス情報を読み出し、出力部6に渡す。操作部4から入力された操作情報に基づいてサービス情報を選択することも可能である。 The service information management unit 600 is a database that stores service information to be provided to the user, information related to the target identified by the recognition unit 3, and the like. The control unit 5 reads out the service information according to the recognition result obtained by the recognition unit 3 from the plurality of service information stored in the service information management unit 600, and passes it to the output unit 6. It is also possible to select service information based on the operation information input from the operation unit 4.

出力部6は、読み出されたサービス情報をディスプレイ400に表示したり、音声情報としてスピーカ(図示せず)から出力する。また出力部6は、周辺施設・店舗700にサービス情報を通知したり、サービスの提供を依頼するためのメッセージ信号を出力する機能も備える。さらに出力部6は、予め登録された人物の携帯端末にサービス情報を通知する機能も備える。次に、上記構成についてさらに詳しく説明する。 The output unit 6 displays the read service information on the display 400 or outputs it as voice information from a speaker (not shown). The output unit 6 also has a function of notifying the peripheral facilities / stores 700 of the service information and outputting a message signal for requesting the provision of the service. Further, the output unit 6 also has a function of notifying the mobile terminal of a person registered in advance of the service information. Next, the above configuration will be described in more detail.

入力部1は、対面装置200を利用しようとしている、あるいは付近に接近した、人物、物または車両などの画像データを取得する。画像データはカメラ300から直接取得するほか、デジタルスチルカメラで撮影された画像ファイル、あるいは動画ファイルを媒体経由で取り込むこともできる。 The input unit 1 acquires image data of a person, an object, a vehicle, or the like who is about to use the face-to-face device 200 or has approached the vicinity. In addition to acquiring image data directly from the camera 300, it is also possible to capture an image file or a moving image file taken by a digital still camera via a medium.

この種のデータはカメラ300からのほか、人物が所有する携帯機器から取得されることもできる。例えば携帯電話機に備わる無線LAN、赤外線通信やBluetooth(登録商標)、RFID(無線ID)などの通信手段により、入力部1は画像データを取得することができる。また、接触式の情報交換手段、フラッシュメモリカードなどの記録媒体を抜き差しして画像データを授受することももちろん可能である。 This type of data can be obtained from the camera 300 as well as from a mobile device owned by a person. For example, the input unit 1 can acquire image data by a communication means such as a wireless LAN provided in a mobile phone, infrared communication, Bluetooth (registered trademark), RFID (wireless ID), and the like. Of course, it is also possible to send and receive image data by inserting and removing a recording medium such as a contact-type information exchange means and a flash memory card.

さらに、その他の所有物や、車両に搭載される機器との情報交換により画像データを授受することもできる。例えば車両からはETCカードの情報を用いることで車両識別のための情報を取得可能であるし、燃料やバッテリーの残容量情報、ナビゲーションシステムにより管理される走行履歴情報などを無線通信で伝送することも実現可能である。これらも同様に、無線式の情報手段、専用メディア、あるいは接触式の情報交換手段などにより実現可能である。要するに入力部1は、処理対象とするデジタルの画像データを、何らかの手法で取得できれば良い。 Furthermore, image data can be exchanged by exchanging information with other possessions and equipment mounted on the vehicle. For example, information for vehicle identification can be obtained from a vehicle by using the information on the ETC card, and information on the remaining capacity of fuel and battery, travel history information managed by a navigation system, etc. can be transmitted by wireless communication. Is also feasible. Similarly, these can be realized by wireless information means, dedicated media, contact type information exchange means, and the like. In short, the input unit 1 only needs to be able to acquire the digital image data to be processed by some method.

検出部2は、画像データに含まれる人物、物、車両などを検出する。例えば人物を検出するには、人物の顔領域を検出することが好ましい。顔領域を検出するために、検出部2は画像上の輝度情報を利用して顔の領域を示す座標を求める。例えば参考文献1(三田雄志ほか:「顔検出に適した共起に基づくJoint Haar-like特徴」電子情報通信学会論文誌(D),vol.J89-D, 8,pp1791-1801(2006))に記載される方法を利用することが可能である。 The detection unit 2 detects a person, an object, a vehicle, or the like included in the image data. For example, in order to detect a person, it is preferable to detect the face area of the person. In order to detect the face region, the detection unit 2 uses the luminance information on the image to obtain the coordinates indicating the face region. For example, Reference 1 (Yushi Mita et al .: "Co-occurrence-based Joint Haar-like Features Suitable for Face Detection" Journal of the Institute of Electronics, Information and Communication Engineers (D), vol.J89-D, 8, pp1791-1801 (2006)) It is possible to use the method described in.

検出された結果を示す情報は、顔の向きや大きさにより任意の形状で構わない。この実施形態では簡単のために顔領域を矩形情報で示し、矩形の角の座標を検出結果として利用することとする。このほか、予め用意されたテンプレートを画像内で移動させながら相関値を求めることにより、最も高い相関値を与える位置を顔領域とする方法、固有空間法や部分空間法を利用した顔抽出法なども利用可能である。 The information indicating the detected result may have any shape depending on the orientation and size of the face. In this embodiment, for the sake of simplicity, the face area is indicated by rectangular information, and the coordinates of the corners of the rectangle are used as the detection result. In addition, a method in which the position giving the highest correlation value is set as the face area by obtaining the correlation value while moving the template prepared in advance in the image, a face extraction method using the eigenspace method or the subspace method, etc. Is also available.

さらに、顔だけでなく人物領域全体を検出する技術を利用してもよい。この種の技術としては参考文献2(Watanabeら,”Co-occurrence Histograms of Oriented Gradients for Pedestrian Detection, In Proceedings of the 3rd Pacific-Rim Symposium on Image and Video Technology” (PSIVT2009), pp. 37-47. 、以降”Co-HOG特徴”と表記する)に記載の技術が挙げられる。 Further, a technique for detecting not only the face but the entire human area may be used. Reference 2 (Watanabe et al., "Co-occurrence Histograms of Oriented Gradients for Pedestrian Detection, In Proceedings of the 3rd Pacific-Rim Symposium on Image and Video Technology" (PSIVT2009), pp. 37-47. , Hereinafter referred to as "Co-HOG features").

顔や人物の領域が検出されれば、頭部や顔からの相対的な位置関係に基づき、人物の着用している着衣の種類や所有物を検出することが可能である。前述のJoint Haar-like特徴や、Co-HOG特徴を利用し、事前に検出対象物の画像を多数集めて統計的な学習をすることによりこれらのアイテムを検出することが可能となる。同様にして画像内の車両の全体、または一部を検出することも可能である。 If the area of the face or the person is detected, it is possible to detect the type of clothes and the possessions worn by the person based on the relative positional relationship from the head or the face. Using the above-mentioned Joint Haar-like feature and Co-HOG feature, it is possible to detect these items by collecting a large number of images of the detection target in advance and performing statistical learning. Similarly, it is possible to detect all or part of the vehicle in the image.

なお、同じ対象が時間的に複数フレームにわたり連続して映っていることが想定される。そこで、所定の時間が経過して存在している対象物体の種類や数が同じであることを対応付けて管理すべく、追跡処理を行うことが望ましい。これは、例えばオプティカルフローを使って検出した顔が次のフレームでどの位置にいるか対応付けする手法や、既知の技術(例えば特開2011-170711号公報に記載)により実現可能である。 It is assumed that the same object is continuously reflected over a plurality of frames in time. Therefore, it is desirable to perform tracking processing in order to manage the same type and number of target objects that exist after a predetermined time has passed. This can be realized by, for example, a method of associating the position of the face detected by using optical flow in the next frame, or a known technique (for example, described in Japanese Patent Application Laid-Open No. 2011-170711).

また、画像データ以外の情報が入力部1に入力された場合には、事前に策定したプロトコルにより通信対象の存在を取得することが可能である。これにより画像データを用いるのと同等に、対象を検出することが可能である。 Further, when information other than the image data is input to the input unit 1, it is possible to acquire the existence of the communication target by the protocol formulated in advance. This makes it possible to detect the target in the same way as using image data.

特徴情報管理部500は、入力部1から得られる人物、物、車両の情報を対応付けて管理するためのデータベースである。つまり特徴情報管理部500は、認識部3が対象物体の人物の個人を識別したり、車両の種類を判別する際に必要となる特徴情報を管理するデータベースである。 The feature information management unit 500 is a database for managing the information of a person, an object, and a vehicle obtained from the input unit 1 in association with each other. That is, the feature information management unit 500 is a database that manages feature information required when the recognition unit 3 identifies an individual person of a target object and determines the type of vehicle.

図3は、特徴情報管理部500により管理される情報の構造の一例を示す図である。図3に示されるように特徴情報管理部500には、検出部2から出力された顔特徴情報が個人ごとに対応付けて管理される。それぞれの顔特徴情報に対応付けて、顔画像や名前、性別や年齢、身長など該当する人物に関する情報、および人物の所有物、着用する着衣、搭乗する車両情報などの関連情報を対応付けて管理することも可能である。 FIG. 3 is a diagram showing an example of the structure of information managed by the feature information management unit 500. As shown in FIG. 3, the feature information management unit 500 manages the facial feature information output from the detection unit 2 in association with each individual. Information about the person concerned such as face image, name, gender, age, and height, and related information such as the person's property, clothes to wear, and information on the vehicle to be boarded are managed in association with each face feature information. It is also possible to do.

顔特徴情報として実際に管理する内容は顔特徴抽出手段で出力されたデータそのものでよく、m×nの特徴ベクトルや、部分空間やKL展開を行う直前の相関行列でも構わない。
上記特徴情報以外に、性別や年齢などの属性情報などの統計情報も、特徴情報管理部500で管理することが可能である。性別判別については男性用の特徴情報と女性用の特徴情報とを記憶し、属性判別処理の識別に利用する。他の属性についてもカテゴリを分類するために利用する特徴情報を管理する。
The content actually managed as the face feature information may be the data itself output by the face feature extraction means, or may be an m × n feature vector or a correlation matrix immediately before performing subspace or KL expansion.
In addition to the above-mentioned feature information, statistical information such as attribute information such as gender and age can also be managed by the feature information management unit 500. For gender discrimination, characteristic information for men and characteristic information for women are stored and used for identification in the attribute discrimination process. For other attributes, manage the feature information used to classify the categories.

特徴情報管理部500に、顔や関連する情報を新規に登録するには、システム管理者が利用者の同意を得たうえで登録する方法をとっても良い。あるいは、認識部3による認識の結果、いずれの人物の特徴情報の類似度も所定のしきい値を越えない場合、つまり該当する人物が存在しない場合に、新たな人物として追加登録するようにしてもよい。 In order to newly register the face and related information in the feature information management unit 500, the system administrator may register after obtaining the consent of the user. Alternatively, as a result of recognition by the recognition unit 3, if the similarity of the characteristic information of any person does not exceed a predetermined threshold value, that is, if the corresponding person does not exist, the person is additionally registered as a new person. May be good.

認識部3は、検出部2により検出された人、物、車両などの情報から、詳細な種別や個体の識別、状態を含む情報を生成する。
人物を認識する方法として、顔を利用した人物の認識方法を以下に説明する。検出した顔の領域をもとに個人の特徴を示す顔特徴情報を抽出する方法としては、例えば(特開2007-4767号公報)に示されるように、1枚の人物画像情報に対してモデルを利用して顔の向きや状態を意図的に変動させた画像を作成することで顔特徴情報を取得することが可能である。同じ人物に対しては連続する複数の画像を利用し、動画像による計算を実行することでより精度の高い認識処理が行うこともできる。
The recognition unit 3 generates information including detailed types, individual identifications, and states from information such as people, objects, and vehicles detected by the detection unit 2.
As a method of recognizing a person, a method of recognizing a person using a face will be described below. As a method of extracting facial feature information indicating an individual's feature based on the detected facial region, for example, as shown in (Japanese Patent Laid-Open No. 2007-4767), a model is used for one person image information. It is possible to acquire face feature information by creating an image in which the orientation and state of the face are intentionally changed by using. It is also possible to perform more accurate recognition processing by using a plurality of consecutive images for the same person and performing a calculation using a moving image.

例えば、参考文献3(福井和広、山口修、前田賢一:「動画像を用いた顔認識システム」電子情報通信学会研究報告PRMU,vol97,No.113,pp17-24(1997))に開示される、相互部分空間法を用いる方法が知られている。この方法では、連続して得られる画像データからm×nピクセルの画像を切り出す。そして、これらのデータから特徴ベクトルの相関行列を求め、K-L展開による正規直交ベクトルを求めることにより、連続した画像から得られる顔の特徴を示す部分空間を計算する。このほか、参考文献4(福井和広、山口修:「形状抽出とパタン照合の組合せによる顔特徴点抽出」電子情報通信学会論文誌(D),vol.J80-D-II,No.8,pp2170-2177(1997))に記載される技術も知られている。 For example, it is disclosed in Reference 3 (Kazuhiro Fukui, Osamu Yamaguchi, Kenichi Maeda: "Face Recognition System Using Moving Images", IEICE Technical Report PRMU, vol97, No.113, pp17-24 (1997)). , A method using the mutual subspace method is known. In this method, an image of m × n pixels is cut out from continuously obtained image data. Then, the correlation matrix of the feature vector is obtained from these data, and the orthonormal vector obtained by KL expansion is obtained to calculate the subspace showing the facial features obtained from the continuous images. In addition, Reference 4 (Kazuhiro Fukui, Osamu Yamaguchi: "Facial feature point extraction by combining shape extraction and pattern collation" Journal of the Institute of Electronics, Information and Communication Engineers (D), vol.J80-D-II, No.8, pp2170 -The technique described in 2177 (1997)) is also known.

部分空間は、特徴ベクトルの相関行列(または共分散行列)を求め、そのK-L展開による正規直交ベクトル(固有ベクトル)を求めることで計算することができる。部分空間は、固有値に対応する固有ベクトルを、固有値の大きい順にk個選び、その固有ベクトル集合を用いて表現する。 The subspace can be calculated by finding the correlation matrix (or covariance matrix) of the feature vector and finding the orthonormal vector (eigenvector) by its KL expansion. In the subspace, k eigenvectors corresponding to the eigenvalues are selected in descending order of the eigenvalues and expressed using the eigenvector set.

この実施形態では、相関行列Cdを特徴ベクトルから求め、相関行列Cd=ΦdΛdΦdTと対角化して、固有ベクトルの行列Φを求める。この情報が、認識の対象とする人物の顔の特徴を示す部分空間となる。上記手法で出力された部分空間のような特徴情報を、入力された画像データから検出された顔に対する個人の顔特徴情報とする。 In this embodiment, the correlation matrix Cd is obtained from the feature vector and diagonalized to the correlation matrix Cd = ΦdΛdΦdT to obtain the eigenvector matrix Φ. This information becomes a subspace that shows the facial features of the person to be recognized. The feature information such as the subspace output by the above method is used as the personal facial feature information for the face detected from the input image data.

このようにして計算された顔特徴情報と、特徴情報管理部500に管理される顔特徴情報とを比較することで、人物を特定することができる。この検索処理の結果として、特徴情報管理部500で個人を識別するために管理されている人物IDや、計算結果である類似性を示す指標を、類似性の高いものから順番に返す。また、特徴情報管理部500で個人ごとに管理される情報を併せて返すようにしても構わない。なお、基本的に識別IDにより対応付けが可能であるので、検索処理自体では付属情報を授受する必要は必ずしも無い。 A person can be identified by comparing the face feature information calculated in this way with the face feature information managed by the feature information management unit 500. As a result of this search process, the person ID managed to identify the individual by the feature information management unit 500 and the index showing the similarity as the calculation result are returned in order from the one with the highest similarity. Further, the information managed by the feature information management unit 500 may be returned together. In addition, since it is basically possible to associate by the identification ID, it is not always necessary to send and receive attached information in the search process itself.

類似性指標としては、顔特徴情報として管理されている部分空間同士の類似度とする。類似度を求めるには部分空間法や複合類似度法などの計算方法を用いることができる。これらの方法では、予め蓄えられた登録情報の中の認識データも、入力されるデータも、複数の画像から計算される部分空間として表現される。そして、2つの部分空間のなす「角度」が類似度として定義される。 The similarity index is the degree of similarity between subspaces managed as facial feature information. To obtain the similarity, a calculation method such as the subspace method or the compound similarity method can be used. In these methods, both the recognition data in the registered information stored in advance and the input data are expressed as a subspace calculated from a plurality of images. Then, the "angle" formed by the two subspaces is defined as the degree of similarity.

入力データ列に対して同様に相関行列Cinを求め、Cin=ΦinΛinΦinTと対角化し、固有ベクトルΦinを求める。二つのΦin,Φdで表される部分空間の部分空間間類似度(0.0~1.0)を求め、これを認識するための類似度とする。ここでも、参考文献3に開示される手法を用いることが可能である。 Similarly, the correlation matrix Cin is obtained for the input data string, diagonalized to Cin = ΦinΛinΦinT, and the eigenvector Φin is obtained. The degree of similarity between subspaces (0.0 to 1.0) of the subspace represented by two Φin and Φd is obtained, and the degree of similarity is used for recognizing this. Again, it is possible to use the method disclosed in Reference 3.

予め同一人物と分かる複数の人物画像をまとめて部分空間に射影し、本人であるか否かを識別することで精度を向上させることも可能である。類似度以外の類似性指標としては、特徴空間上での距離やマハラノビス距離といったものも利用可能であることは明らかである。距離を利用した場合には数値が大きいほど類似性が低くなるので、既定の閾値より小さければ小さいほど、登録された人物との類似性が高いことを示す。つまり認識部3は、検出部2で検出された人物の個人を特定し、当該特定された個人に基づいて特徴情報管理部500に記憶される特徴情報を参照することで、認識の精度を向上させる。 It is also possible to improve the accuracy by projecting a plurality of person images that can be identified as the same person in advance into a subspace and identifying whether or not the person is the person. It is clear that distances on the feature space and Mahalanobis distances can also be used as similarity indicators other than the degree of similarity. When the distance is used, the larger the numerical value is, the lower the similarity is. Therefore, the smaller the value is, the higher the similarity with the registered person is. That is, the recognition unit 3 identifies an individual of the person detected by the detection unit 2, and refers to the feature information stored in the feature information management unit 500 based on the identified individual, thereby improving the recognition accuracy. Let me.

人物の個人を特定するには事前に特定対象の顔の情報を登録しておく必要がある。しかし、年齢や性別などの属性情報を判別するだけであれば、事前の登録をすることなく人物の情報を得ることが可能となる。例えば、(特開2012-3623号公報)に開示される技術を利用することで人物の年齢、性別を推定することが可能となる。この技術を活用し、事前の判別するカテゴリにあわせて画像を準備することで、人種、帽子や眼鏡やマスクのような顔の着用物の判別をすることが可能となる。 In order to identify an individual person, it is necessary to register the face information of the specific target in advance. However, if only attribute information such as age and gender is determined, it is possible to obtain information on a person without prior registration. For example, by using the technique disclosed in (Japanese Unexamined Patent Publication No. 2012-3623), it is possible to estimate the age and gender of a person. By utilizing this technique and preparing images according to the category to be discriminated in advance, it is possible to discriminate between race and facial wear such as hats, glasses and masks.

上記した、人物検出と、顔の検出結果と、カメラ300の画角情報を利用することで画像全体に対する相対比率から身長を求めることも可能である。このほか、(特開2003-141551)に記載の技術を用いることで視線、顔の向きのような顔の動き情報を得ることも可能となる。 It is also possible to obtain the height from the relative ratio to the entire image by using the above-mentioned person detection, face detection result, and angle of view information of the camera 300. In addition, by using the technique described in (Japanese Patent Laid-Open No. 2003-141551), it is possible to obtain facial movement information such as the line of sight and the direction of the face.

また、人物検出座標の頭頂位置からの相対位置、顔検出位置からの相対位置から着衣や帽子などの着用物、手に持っている所有物、鞄や腕時計といった身につけている所有物を、事前に学習した辞書との判別により特定することも可能である。 In addition, from the relative position from the top position of the person detection coordinates and the relative position from the face detection position, wears such as clothes and hats, possessions in hand, and possessions such as bags and watches are previously checked. It is also possible to identify it by distinguishing it from the dictionary learned in.

さらに、認識部3は、人物の乗車していた車両のナンバープレート、車種、車の色の組合せの少なくとも一つを判別する。また、所有物や車種についてはメーカーやブランドごとに画像を集めて判別用の辞書を作成することで、メーカーやブランドの判別を行うことも可能である。 Further, the recognition unit 3 determines at least one of the license plate, the vehicle type, and the color combination of the vehicle on which the person is riding. It is also possible to identify a manufacturer or brand by collecting images for each manufacturer or brand and creating a dictionary for identification of the property or vehicle type.

また、車両についても、検出対象となる車種の画像を想定される向きのバリエーションに対応して画像を集めて学習することにより、CoHOG特徴を使った手法で車種の判別も可能である。カラー情報を利用することで車の色情報を判別することも可能であるほか、特許第4901676号公報に記載の技術を用いることで、車両の個体識別をすることも可能である。 In addition, for vehicles, it is possible to discriminate the vehicle type by a method using CoHOG features by collecting and learning the images of the vehicle type to be detected corresponding to the variation of the expected orientation. It is possible to discriminate the color information of the vehicle by using the color information, and it is also possible to identify the individual vehicle by using the technique described in Japanese Patent No. 4901676.

さらに、判別された情報を複数組み合わせることで、判別精度を高めることも可能である。例えば、車両を検出した場合には車両のナンバープレート情報により車両を個体識別し、その車両に対応付けられる人物に限定して乗車している人物の個人特定が可能である。組合せを使わなければ、特徴情報管理部500に登録されている人物の顔すべてとのマッチングを行って候補者を特定する必要があるが、特徴情報管理部500に個人の顔の特徴に対応付けして所有する車の車種やナンバープレートを対応付けて管理しておくことで、検出されたナンバープレートの車に対応付けされた人物に絞って人物の照合処理を行うため、個人を誤って特定してしまうことを防ぐことができる。 Further, it is possible to improve the discrimination accuracy by combining a plurality of the discriminated information. For example, when a vehicle is detected, the vehicle can be individually identified by the license plate information of the vehicle, and the individual person who is on board can be identified only to the person associated with the vehicle. If the combination is not used, it is necessary to identify the candidate by matching with all the faces of the person registered in the feature information management unit 500, but the feature information management unit 500 associates the features with the facial features of the individual. By associating and managing the vehicle type and license plate of the car owned by the company, the person is erroneously identified because the person is collated by focusing on the person associated with the detected license plate car. It is possible to prevent it from happening.

車のナンバープレートが分からない場合でも、車の色や車種の情報、または着衣の種類や所持品と来場した人物と対応付けて履歴情報に管理しておき、それらの組合せを統計的に管理することが好ましい。このようにすれば、顔の特徴だけでは複数人の候補者が類似する指標を示した場合にも、顔以外の所有物や着衣や車両による情報を加味することで人物の特定精度を上げることが可能である。この場合、人物の顔の特徴による類似度に加え、その他の所有物や車両情報が存在した場合に所定の係数をかけて類似度に加算をするという方法によって実現が可能である。 Even if you do not know the license plate of the car, you can manage the information of the color and model of the car, or the type of clothes and belongings in association with the person who visited, and manage the combination statistically. Is preferable. In this way, even if multiple candidates show similar indicators based on facial features alone, the accuracy of identifying a person can be improved by adding information from possessions other than the face, clothing, and vehicles. Is possible. In this case, it can be realized by a method of adding to the similarity by multiplying the similarity by a predetermined coefficient when other possessions or vehicle information exists in addition to the similarity due to the facial features of the person.

また、所有物については人物が着用、所持していることから、人物との対応付けは容易である。これに対し、人物と人物とがグループであることを判断したり、所有者と車両とを対応付けるには、例えば同じ画面内に所定時間以上同時に検出されたものを対応付けする方法がある。または、過去の履歴において同時に検出された回数が所定回数以上あるか否かを判別したり、人物と人物、または人物と車両の距離が所定以内となる時間が所定時間以上であるか否かで判別するようにしても良い。このほか、特開2007-249953号公報に開示されるように複数地点で通過した位置関係や時刻をつかってグル―ピングする方法でも実現可能である。 In addition, since a person wears and possesses the property, it is easy to associate it with the person. On the other hand, in order to determine that a person and a person are a group or to associate an owner with a vehicle, for example, there is a method of associating those detected simultaneously on the same screen for a predetermined time or longer. Alternatively, it is determined whether or not the number of simultaneous detections in the past history is a predetermined number or more, or whether the time during which the distance between a person and a person or a person and a vehicle is within a predetermined time is a predetermined time or more. You may try to discriminate. In addition, as disclosed in Japanese Patent Application Laid-Open No. 2007-249953, a method of grouping using the positional relationship and time passed at a plurality of points can also be realized.

同様に、利用者が対面装置200から離れている間に、利用者の所有物や、利用者と別の人物が車両に接近してきたことや、所有物や車両を持ち去られたことを検知することが可能である。例えば所有物や車両が画面内に存在している状態で人物を検出した場合、その人物が対象となる物体の所有者であるかどうか否かを、顔照合により判別することができる。この処理を、制御部5で対象物体の監視が必要であると判断された場合に実施するようにしても良い。 Similarly, while the user is away from the face-to-face device 200, it detects that the user's property, another person from the user has approached the vehicle, or that the property or vehicle has been taken away. It is possible. For example, when a person is detected while an object or a vehicle is present on the screen, it can be determined by face matching whether or not the person is the owner of the target object. This process may be performed when the control unit 5 determines that it is necessary to monitor the target object.

検知された人物が車両の所有者であるか否かは、特徴情報管理部500に管理される情報を利用してもよいし、制御部5が監視を開始する直前に一緒に存在している人物を、所有者として登録するようにしてもよい。所有者ではないと判断された場合には、不審者が接近してきている可能性があると判断できる。また、対象物体が画面の外に移動したことを検知すると、対象物の持ち去りであると判断することが可能となる。 Whether or not the detected person is the owner of the vehicle may be determined by using the information managed by the feature information management unit 500, or is present together immediately before the control unit 5 starts monitoring. The person may be registered as the owner. If it is determined that the owner is not the owner, it can be determined that a suspicious person may be approaching. Further, when it is detected that the target object has moved out of the screen, it can be determined that the target object has been taken away.

以上の処理により、入力部1から得られる画像データから、対面装置200の利用者、付帯物、付近の物体、あるいは車両に関する組合せを判定する方法、およびそれぞれに関する詳細情報を得ることが可能となる。 By the above processing, from the image data obtained from the input unit 1, it becomes possible to obtain a method for determining a combination of the user of the face-to-face device 200, an accessory, a nearby object, or a vehicle, and detailed information about each. ..

操作部4は、利用者の操作(オペレーション)を行った結果をシステムに入力するための手段である。例えばディスプレイ600にタッチパネルのセンサを付けることにより、画面にあわせた操作情報の入力が可能である。このほか、キーボードやマウスを設置したり、ディスプレイ600の近くに専用のボタンを設置してもよい。操作部4は、メニューを選択したり、情報検索のための文字を入力したり、場所を示すためのポインタ操作などに利用することができる。 The operation unit 4 is a means for inputting the result of the user's operation (operation) into the system. For example, by attaching a touch panel sensor to the display 600, it is possible to input operation information according to the screen. In addition, a keyboard or mouse may be installed, or a dedicated button may be installed near the display 600. The operation unit 4 can be used for selecting a menu, inputting characters for information retrieval, a pointer operation for indicating a location, and the like.

なお、利用者の所有する携帯電話やスマートフォンといった携帯端末と操作部4とを無線接続し、携帯端末を使った情報入力ができるようにしてもよい。Bluetooth(登録商標)や無線LAN等の非接触式通信を使って入力させてもよいし、ケーブル接続を使って操作情報を伝送するようにしてもよい。以上のようにして、操作部4から利用者の意図を示す情報を入力することが可能である。 A mobile terminal such as a mobile phone or a smartphone owned by the user may be wirelessly connected to the operation unit 4 so that information can be input using the mobile terminal. Input may be performed using non-contact communication such as Bluetooth (registered trademark) or wireless LAN, or operation information may be transmitted using a cable connection. As described above, it is possible to input information indicating the user's intention from the operation unit 4.

サービス情報管理部600は、利用者に提供するための情報や、認識部3で識別された対象に関連する情報などを記憶するデータベースである。つまりサービス情報管理部600は、利用者に提供するためのサービス情報を収集し、提供可能とするためのデータベースである。さらに、利用者がサービスを利用している途中に得られた情報を履歴情報として記録し管理することも可能である。 The service information management unit 600 is a database that stores information to be provided to the user, information related to the target identified by the recognition unit 3, and the like. That is, the service information management unit 600 is a database for collecting and providing service information for providing to users. Further, it is also possible to record and manage the information obtained while the user is using the service as history information.

例えばサービス情報管理部600は、サービスに関する購買履歴情報、利用日時や利用場所、利用時間などを記憶する。これらの情報は、出力部6で参考情報として表示することも可能である。これらはディスプレイ400から利用者に表示される情報、および操作部4から入力された情報を組み合わせて記録しておくことで実現可能である。 For example, the service information management unit 600 stores purchase history information, usage date / time, usage location, usage time, and the like related to the service. These pieces of information can also be displayed as reference information in the output unit 6. These can be realized by recording the information displayed to the user from the display 400 and the information input from the operation unit 4 in combination.

また、対面装置200以外に、各地に設置される端末のどの端末を利用しているかを確認すれば、利用者の生活圏を認識できる。そこで、近隣施設でサービスが受けられない(在庫がないなど)といった場合に、利用者の生活圏の範囲で優先して別店舗の情報を提供することができる。 Further, by confirming which terminal of the terminals installed in each place is used in addition to the face-to-face device 200, the living area of the user can be recognized. Therefore, when the service cannot be received at a nearby facility (out of stock, etc.), the information of another store can be provided with priority within the range of the user's living area.

また、利用時に、所有物である携帯電話の情報を操作部4から入力すれば、利用者のメールアドレス、名前あるいは生年月日などのプロフィールを取得して記録することや、車両から得られた情報として日頃の走行履歴等を記録しておき、サービス情報提供に利用することも可能である。 In addition, if the information of the mobile phone that is the property is input from the operation unit 4 at the time of use, the profile such as the user's e-mail address, name or date of birth can be acquired and recorded, or obtained from the vehicle. It is also possible to record daily driving history as information and use it for providing service information.

その他、インターネットに接続して、遠隔にある端末との情報共有、事前に提携した周辺の施設から提供される販売情報・在庫情報・優待情報サービス等情報、駐車場や道路の混雑状況や事故の情報、通行止めの情報、その他交通規制情報などの情報をサービス情報管理部600に管理してもよい。管理される情報は制御部5で提供する情報のソースとして利用される。サービス情報管理部600に記憶される情報はセンサなどを設置して自動更新するようにすることも可能であるし、施設側の管理者が入力して更新するようにしてもよい。 In addition, you can connect to the Internet to share information with remote terminals, information on sales information, inventory information, preferential information services, etc. provided by facilities in the vicinity that have been affiliated in advance, congestion of parking lots and roads, and accidents. Information such as information, traffic closure information, and other traffic regulation information may be managed by the service information management unit 600. The managed information is used as a source of information provided by the control unit 5. The information stored in the service information management unit 600 can be automatically updated by installing a sensor or the like, or may be input and updated by the manager on the facility side.

以上により、利用者に提供する情報や認識部3で識別した対象に関連する情報を記録しておくとともに、利用者に提供するサービス情報を収集して提供できるように管理しておくことが可能となる。 As a result, it is possible to record the information provided to the user and the information related to the target identified by the recognition unit 3, and manage the service information provided to the user so that it can be collected and provided. It becomes.

制御部5は、対面装置200を利用中の人物の情報、その人物の所有物、あるいは車両の情報などの情報、および、操作部4手段で入力された情報に基づいて、利用者へのサービス提供方法や情報提供内容を決定する。決定された情報に基づいてサービス情報管理部600の情報が読み出され、利用者に提供される。 The control unit 5 provides a service to the user based on the information of the person who is using the face-to-face device 200, the information of the person's property, the vehicle information, and the information input by the operation unit 4 means. Determine the method of provision and the content of information provision. The information of the service information management unit 600 is read out based on the determined information and provided to the user.

制御部5は、提供すべきサービス情報を判断するために、例えば以下の情報を参照することが可能である。 The control unit 5 can refer to, for example, the following information in order to determine the service information to be provided.

・認識部3で得られた認識結果(人物の属性、個人の特定、同伴者、所有物、着用物、車両情報など)。
・認識部3で判別された、個人に対応付けされて特徴情報管理部500で管理される情報(購買履歴など)。
・サービスの利用内容および利用時間。
・出力部6により出力されている情報の内容。
・操作部4で操作した情報。
なおサービス情報管理部600は、利用者と無関係に提供されるコンテンツ情報を記憶することも可能である。この種の情報としては、優待情報、周辺施設の優待情報、周辺施設の商品販売情報(タイムセールス、在庫、価格)、周辺の道路の混雑状況などがある。このほか、利用者が特定された場合には、利用者本人の過去の購買情報や、よく利用しているサービスの履歴などもサービス情報管理部600に記憶される。
-The recognition result obtained by the recognition unit 3 (personal attribute, individual identification, companion, possession, wear, vehicle information, etc.).
-Information (purchase history, etc.) determined by the recognition unit 3 that is associated with an individual and managed by the feature information management unit 500.
・ Service usage details and usage time.
-The content of the information output by the output unit 6.
-Information operated by the operation unit 4.
The service information management unit 600 can also store content information provided regardless of the user. This kind of information includes preferential information, preferential information on surrounding facilities, product sales information (time sales, inventory, price) of peripheral facilities, and congestion status of surrounding roads. In addition, when the user is specified, the past purchase information of the user himself / herself, the history of frequently used services, and the like are also stored in the service information management unit 600.

出力部6は、利用者に情報を伝達するためのユーザインタフェースであり、液晶画面などの表示デバイス(ディスプレイ400)に画像を表示したり、スピーカからの音声出力により人物900に情報を伝達する。また、対面装置200の提供するサービスの内容に応じて必要な機器を組み込むようにしてもよい。例えば、車両に給油や充電を行う装置であれば、給油装置や充電装置とディスプレイ400およびスピーカを同じ筐体に組み込むことで、利用者はサービスを利用しながら情報提供内容を確認し、併せて操作部4によるオペレーションを実行することも可能となる。 The output unit 6 is a user interface for transmitting information to the user, and displays an image on a display device (display 400) such as a liquid crystal screen, or transmits information to a person 900 by audio output from a speaker. Further, necessary equipment may be incorporated according to the content of the service provided by the face-to-face device 200. For example, in the case of a device that refuels or charges a vehicle, by incorporating the refueling device or charging device and the display 400 and the speaker into the same housing, the user confirms the information provision content while using the service, and also. It is also possible to execute an operation by the operation unit 4.

ディスプレイ400には、対面装置200の設置場所に応じて、周辺の商業施設の販売状況を表示する画面、役所などの手続きが可能なメニュー画面、病院の検査や診察の手続きに使用可能な画面を表示しても良い。また、対面装置200に、現金の入出金等が行えるような装置を少なくとも一つ組合せ、複数組み合わせて内蔵するようにしてもよい。サービスに応じた複数の機器を対面装置200に組み込むことで、利用者は複数のサービスを同時に利用することが可能となる。 The display 400 has a screen that displays the sales status of surrounding commercial facilities, a menu screen that allows procedures such as government offices, and a screen that can be used for hospital examinations and medical examinations, depending on the installation location of the face-to-face device 200. It may be displayed. Further, the face-to-face device 200 may be equipped with at least one device capable of depositing and withdrawing cash, and a plurality of combinations. By incorporating a plurality of devices corresponding to the services into the face-to-face device 200, the user can use the plurality of services at the same time.

さらに、外部の端末や外部の施設との連携のため、インターネットに接続するための機能を出力部6に備えるようにしてもよい。例えば携帯電話回線や無線LANなどの通信手段を利用すれば、可動式の端末で構成される場合でも同様のサービスを提供することが可能となる。さらに、利用者が対面装置200から離れる場合に連絡する手段として、電子メール通信やソケット通信を実行する通信プログラムを内蔵するようにしてもよい。これにより対面装置200から離れた場所にいる利用者への連絡手段を確保することができる。 Further, the output unit 6 may be provided with a function for connecting to the Internet in order to cooperate with an external terminal or an external facility. For example, by using a communication means such as a mobile phone line or a wireless LAN, it is possible to provide the same service even when the terminal is composed of a movable terminal. Further, as a means for contacting the user when he / she leaves the face-to-face device 200, a communication program for executing e-mail communication or socket communication may be built in. As a result, it is possible to secure a means of contacting a user who is away from the face-to-face device 200.

図4は、上記構成におけるサービスの情報の流れの一例を示す図である。画像データから抽出された人物A、人物B、車Cについて、年齢、性別、人物AとBとの組み合わせ、車Cの車種情報、車Cの色などの情報が得られる。これらの情報は統計的に処理され、統計情報が算出される。そして、これらの対象物に関する情報に対し、統計的に最適と判断される情報が、推奨情報として優先的に出力される。 FIG. 4 is a diagram showing an example of the information flow of the service in the above configuration. For the person A, person B, and car C extracted from the image data, information such as age, gender, combination of people A and B, vehicle type information of car C, and color of car C can be obtained. This information is processed statistically and the statistical information is calculated. Then, with respect to the information related to these objects, the information judged to be statistically optimal is preferentially output as recommended information.

例えば、認識部3で認識された車両の車種が分かれば車両価格の推定値が分かるので、高額な買い物をする人物であるかどうかの情報が分かる。また、車種にあわせた推奨商品やその商品の優待情報を提供することができるようになる。 For example, if the vehicle type of the vehicle recognized by the recognition unit 3 is known, the estimated value of the vehicle price can be known, so that information on whether or not the person is a person who makes a high-priced purchase can be known. In addition, it will be possible to provide recommended products according to the vehicle type and preferential information on those products.

また、乗車人数が一人であれば例えば給油や充電といった、目的とするサービスを利用するだけで現れた可能性が高いと判断できる。乗車人数が二人以上であれば、充電中などのサービス利用中に他の乗車メンバーが周辺施設に行ってしまう可能性がある。そこで、周辺施設での優待情報や在庫状況、イベント情報などを出力部6により通知することに意義が生まれる。このほか、車両Cから走行履歴情報を得られれば、この後走行する周辺道路の混雑情報などを提供することや、走行経路周辺にある店舗の情報などを提供することも可能である。 In addition, if the number of passengers is one, it can be judged that there is a high possibility that the appearance will occur only by using the target service such as refueling or charging. If the number of passengers is two or more, other passenger members may go to the surrounding facilities while using the service such as charging. Therefore, it is meaningful for the output unit 6 to notify the preferential treatment information, inventory status, event information, etc. at the surrounding facilities. In addition, if the travel history information can be obtained from the vehicle C, it is possible to provide information such as congestion on the surrounding roads to be traveled after that, and information on stores around the travel route.

車両への給油や充電のサービスなどのほか、現金自動支払機やカード決済端末、役所の手続き等などにおいても、利用者に関する情報や、同伴者や、所持品に基づく判断により同様の判断材料を得ることが可能である。例えば、高級品を持っている大人と子供が検出された場合には、買い物をする可能性が高いとして子供向けの玩具の情報を紹介するなど、人の組合せや所持品を考慮して提供する情報を選択できるようにしてもよい。 In addition to services such as refueling and charging of vehicles, cash automatic teller machines, card payment terminals, procedures at government offices, etc. can be used for similar judgments based on information about users, companions, and personal belongings. It is possible to get. For example, if an adult and a child who have luxury goods are detected, we will introduce information on toys for children as it is highly likely to shop, and provide it in consideration of the combination of people and belongings. Information may be selectable.

例えば、図7に示されるように、検出された人物の年齢や性別の組合せ、所持品、車の情報などの組合せに応じて提供すべきサービスを対応付けたテーブルを準備しておくことで、組合せの判定結果に応じてサービス提供メニューを変更することができる。また、図7のテーブルにおける○×の記入される欄を人数でさらに細分化できるようにすれば、同じ「成人の女性」が一人か、あるいは複数人であるかによってメニューを変えることにも対応できる。この組み合わせは、既に述べた処理により取得可能な情報であればどのような組み合わせでもよいのは明らかである。また、テーブルを用いる手法のほか、検知された対象の組み合せに対する出力を一意に管理可能な手法を用いれば、どのような方法を使ってもよい。 For example, as shown in FIG. 7, by preparing a table associating services to be provided according to the combination of the detected person's age and gender, personal belongings, car information, and the like. The service provision menu can be changed according to the determination result of the combination. In addition, if the fields marked with ○ × in the table in Fig. 7 can be further subdivided by the number of people, it is possible to change the menu depending on whether the same "adult woman" is one or more. can. It is clear that this combination may be any combination as long as the information can be obtained by the processing already described. Further, in addition to the method using a table, any method may be used as long as a method capable of uniquely managing the output for the combination of detected targets is used.

また、人の個人特定や車両のナンバープレート情報による個体識別が成功した場合には、過去のサービスの利用状況を確認することが可能となる。それにより、利用者がサービスを利用しようとしたときに一般的なメニューからよく使うメニューを探す必要がなく、過去の履歴でよく使うメニューを優先的に表示させてあげることが可能となるのは明らかである。このように実施形態によれば、利用者の人物・所有物・車両の組合せに応じた適切なサービス提供が可能になる。 In addition, if the individual identification of a person or the individual identification by the license plate information of the vehicle is successful, it becomes possible to confirm the past usage status of the service. By doing so, it is not necessary to search for frequently used menus from general menus when users try to use the service, and it is possible to preferentially display frequently used menus in the past history. it is obvious. As described above, according to the embodiment, it is possible to provide an appropriate service according to the combination of the user's person, property, and vehicle.

また、予め誕生日などの記念日が登録されている場合には祝福のメッセージを出すとともに、記念日で購入しそうな商品の購買情報を提供することや割引情報や優待情報を表示するようにしてもよい。 In addition, if an anniversary such as a birthday is registered in advance, a congratulatory message will be sent, purchase information for products that are likely to be purchased on the anniversary will be provided, and discount information and special treatment information will be displayed. May be good.

このほか、サービス利用中の時間によって表示内容を変える方法がある。 In addition, there is a method of changing the displayed contents depending on the time during which the service is being used.

例えばサービスの利用開始時点であれば、当該サービス利用に関する優待情報を表示したり、過去の購買履歴情報に基づいて、よく利用するサービスメニューを優先的に表示したり、所持品や該当車両に関するニュースなどを表示するようにすれば良い。これにより、これからサービスを利用しようとしている人物に有益な情報を提供することが可能である。前述の誕生日のメッセージなどはサービス利用開始時に出力するのが望ましい。 For example, at the start of using a service, preferential information regarding the use of the service is displayed, frequently used service menus are displayed preferentially based on past purchase history information, and news about belongings and applicable vehicles. Etc. should be displayed. This makes it possible to provide useful information to a person who is about to use the service. It is desirable to output the above-mentioned birthday message etc. at the start of using the service.

サービス利用中であれば、サービスの残り時間に応じて利用者ができる内容が変わってくるので、内容を切り替えて表示する。例えば残り時間が長ければ、その場を離れて利用可能なサービスに関する情報を提供し、サービスの残り時間が短くなってきたら決済情報に関する情報を表示する。また利用者がその場を離れている場合には、残り時間が少なくなってきた時点で電子メール等を使ってもうすぐサービスが終了する旨を伝えるようにもできる。 If the service is in use, the content that the user can do will change depending on the remaining time of the service, so the content will be switched and displayed. For example, if the remaining time is long, the information about the service that can be used away from the place is provided, and if the remaining time of the service is short, the information about the payment information is displayed. In addition, when the user is away from the place, it is possible to notify that the service will be terminated soon by using e-mail or the like when the remaining time is running low.

またサービス終了後の表示については、車のサイズや購買情報にあわせて、荷物の郵送サービスに連絡する情報を提供してもよい。また次回以降使える優待情報やクーポンの発行といったこともこのタイミングでするようにできる。以上のように、利用者のサービス利用時間の残り時間に合わせて、提供されるサービスの内容を変更することが可能である。 As for the display after the service ends, information for contacting the parcel mailing service may be provided according to the size of the car and the purchase information. In addition, it is possible to issue special treatment information and coupons that can be used from the next time onward at this timing. As described above, it is possible to change the content of the provided service according to the remaining time of the user's service usage time.

また利用者は、サービス利用中に自ら周辺施設に足を運んで別のサービスを受けることも可能である。さらに、対面装置200のディスプレイ400に表示されるメニューからサービスの代行を依頼することが可能である。 It is also possible for the user to visit the surrounding facilities and receive another service while using the service. Further, it is possible to request a service agency from the menu displayed on the display 400 of the face-to-face device 200.

例えばガスステーションの周辺の店舗の在庫状況や販売情報(価格情報)をディスプレイ400に表示し、利用者にメニューを提示して購買リストを選択させることができる。その際、認識された利用者のプロフィールをメニューに反映させることもできる。利用者は対面装置200に備え付けの支払い機能により、現金やカードで決済することで買い物を確定する。購入された物品は店舗側から対面装置200の場所まで届けたり、配送サービスで利用者の自宅まで送るようにしても良い。 For example, the inventory status and sales information (price information) of stores around the gas station can be displayed on the display 400, and the user can be presented with a menu to select a purchase list. At that time, the recognized user profile can be reflected in the menu. The user confirms the shopping by paying with cash or a card by the payment function provided in the face-to-face device 200. The purchased goods may be delivered from the store side to the location of the face-to-face device 200, or may be sent to the user's home by a delivery service.

特に、実施形態によれば、車の走行履歴情報や、対面装置200の利用場所の履歴から利用者ごとの生活圏を推定することができる。推定された生活圏に基づいて、近隣施設以外の施設の情報からショッピング情報を提供することも可能である。例えば在庫がないなど近隣施設で希望するサービスが受けられないような場合には、利用者の行動範囲の中の別の施設でサービスを受けられることを利用者に知らせれば良い。以上のように実施形態によれば、利用者から周辺施設にサービスの提供を依頼することが可能となる。このほか、公共機関や役所において実施する手続きの代行を、対面装置200から依頼できるようにしても良い。 In particular, according to the embodiment, it is possible to estimate the living area for each user from the travel history information of the vehicle and the history of the place where the face-to-face device 200 is used. It is also possible to provide shopping information from information on facilities other than neighboring facilities based on the estimated living area. For example, if the desired service cannot be received at a nearby facility such as when the product is out of stock, the user may be informed that the service can be received at another facility within the user's range of activity. As described above, according to the embodiment, it is possible for the user to request the peripheral facilities to provide the service. In addition, the face-to-face device 200 may be able to request a proxy for procedures to be carried out at a public institution or a government office.

また、利用者が希望すれば、サービスの利用中に所有物または車両を預け、サービス終了までその場を離れることを可能にしてもよい。その場合、預かった所有物は金庫に入れるなどして管理すればよいが、車両については移動式駐車場で管理するか、入力部1からの画像データを用いて不審者や持ち去りの監視をするようにしてもよい。持ち去りが発生したことは既に述べたように、認識部3の処理により認識することが可能である。認識の結果に基づいて、預けられている所有物または車両に、予め登録されている人物でない人物が接近してきたことや、預けている所有物または車両が持ち去られることを、その場を離れている利用者に通知することが可能である。以上のように実施形態によれば、利用者の所有物や車両の監視・保管サービスを実現することができる。 In addition, if the user so desires, it may be possible to leave the property or vehicle while using the service and leave the place until the end of the service. In that case, you can manage your belongings by putting them in a safe, but you can manage your vehicles in a mobile parking lot or monitor suspicious persons and their removal using image data from the input unit 1. You may try to do it. As already described, it is possible to recognize that the removal has occurred by the processing of the recognition unit 3. Based on the result of recognition, leaving the place that a person who is not a pre-registered person has approached the deposited property or vehicle, or that the deposited property or vehicle has been taken away. It is possible to notify existing users. As described above, according to the embodiment, it is possible to realize a monitoring / storage service for the user's property or vehicle.

以上述べたように実施形態によれば、カメラ300により撮影された映像に映っている人物、または人物の所有物、または人物が乗車している車両情報の少なくとも一つの対象を認識できるようになる。従って、サービスを利用する対象の組合せに応じて適切な情報を提供することが可能となる。 As described above, according to the embodiment, it becomes possible to recognize at least one object of the person, the property of the person, or the vehicle information on which the person is riding in the image taken by the camera 300. .. Therefore, it is possible to provide appropriate information according to the combination of targets for which the service is used.

すなわち、カメラ300で取得された画像データから、コンピュータ100により、画像データに含まれる対象の人物属性、同伴する人物と人物の組合せ、人物と所有物、人物と搭乗車両の組合せの少なくとも一つを認識する。また、認識した情報から個人を特定し、周辺の情報と組み合わせることで認識精度を高める。また、通信手段で情報を得る機能を備え、人物の所有する携帯電話や車両の走行履歴等を取得する。 That is, from the image data acquired by the camera 300, at least one of the target person attribute included in the image data, the accompanying person and person combination, the person and possession, and the person and boarding vehicle combination is selected by the computer 100. recognize. In addition, the recognition accuracy is improved by identifying an individual from the recognized information and combining it with surrounding information. In addition, it has a function to obtain information by communication means, and obtains the running history of a mobile phone or a vehicle owned by a person.

対面装置200は、映像を出力するディスプレイ400、音声を出力するスピーカ、および操作部4を備える。操作部4は利用者が所有する端末装置と情報通信可能であり、利用者の端末装置(携帯電話機など)での表示や入力が可能である。また対面装置200に、さらに給油機能、充電機能、現金自動支払い、クレジットカード等の決済機能の少なくとも一つを備えるようにしても良い。 The face-to-face device 200 includes a display 400 that outputs video, a speaker that outputs audio, and an operation unit 4. The operation unit 4 can perform information communication with a terminal device owned by the user, and can display and input on the user's terminal device (mobile phone or the like). Further, the face-to-face device 200 may be further provided with at least one of a refueling function, a charging function, an automatic cash payment, a payment function such as a credit card, and the like.

またコンピュータ100は、特定した人物ごとの属性情報に基づいて、同一人物には共通の情報をディスプレイ400に表示する。ディスプレイ400は、お勧め情報を表示するリコメンド画面と、利用者側で任意のメニューを選択して表示する画面とを切り替えることが可能である。 Further, the computer 100 displays information common to the same person on the display 400 based on the attribute information for each specified person. The display 400 can switch between a recommendation screen for displaying recommended information and a screen for selecting and displaying an arbitrary menu on the user side.

コンピュータ100は、対象を認証した結果に応じてリコメンド情報(優待情報(クーポン券など))を提供する。また利用者がリピーターであれば過去の履歴を参考にする。またコンピュータ100は、所有物、あるいは利用する車の情報から所得情報を推定し、リコメンドする商品を変更する。さらにコンピュータ100は、車の走行履歴を取得し、その内容に基づいて周辺道路の混雑情報や帰り道のお得情報などの情報を提供する。 The computer 100 provides recommendation information (special treatment information (coupon ticket, etc.)) according to the result of authenticating the target. If the user is a repeater, the past history will be referred to. Further, the computer 100 estimates income information from the information of the possession or the car to be used, and changes the recommended product. Further, the computer 100 acquires the traveling history of the vehicle and provides information such as congestion information of surrounding roads and profitable information on the way back based on the contents.

またコンピュータ100は、操作端末200のサービス利用時間に応じて出力部6から出力される内容を切り替える。すなわちコンピュータ100は、サービス(充電・給油)を利用中に周囲の必要な情報を提供したり、別のサービスの利用を代行すべく周辺施設・店舗700にメッセージ情報を通知する。これにより利用者は、待ち時間に周辺施設から所望の商品やサービスを選択することが可能になる。つまり利用者は、サービス利用をシステムに代行させ、その間に別のサービスを受けることが可能になる。さらに利用者は、サービス利用時に所有物や車をシステムに預けて管理させ、不審者監視が可能、不審者検知やサービス終了時間指定時間になれば呼び出すサービスを受けることもできる。 Further, the computer 100 switches the content output from the output unit 6 according to the service usage time of the operation terminal 200. That is, the computer 100 provides necessary information around the user while using the service (charging / refueling), or notifies the peripheral facility / store 700 of the message information in order to act for the use of another service. This enables the user to select a desired product or service from the surrounding facilities during the waiting time. In other words, the user can have the system use the service on behalf of the user and receive another service in the meantime. Furthermore, when the service is used, the user can entrust the property and the vehicle to the system and manage them, monitor the suspicious person, detect the suspicious person, and receive the service to call when the service end time is specified.

既存の技術では、利用者はサービスを利用している間はそのサービスが完了するまで待っている必要があった。これに対し実施形態によれば、所定のサービスを利用する人物、その所有物、同伴者、利用車両などの情報を統合して適切な情報やサービスを提供することが可能になる。また実施形態によれば、利用者はサービスを利用している間に周囲の必要な情報の提供を受けたり、別のサービスの利用をシステムに代行させたり、またはサービス利用時間の管理を代行させて利用者本人が別のサービスを受けることが可能となる。 With existing technology, users have to wait for a service to complete while they are using it. On the other hand, according to the embodiment, it is possible to integrate information such as a person who uses a predetermined service, its property, a companion, and a vehicle to be used, and provide appropriate information and services. Further, according to the embodiment, the user receives necessary information from the surroundings while using the service, causes the system to use another service on behalf of the system, or causes the user to manage the service usage time on behalf of the user. Therefore, the user himself / herself can receive another service.

これらのことから、対面装置200の利用者、接近した人物、物や周囲の状況に応じて情報の出力形態、情報の提供方法、サービスの提供の形態を切り替えることができるようになり、従って、利用者に応じて適切なサービスを提供することの可能な対象検出方法を提供することが可能になる。 From these things, it becomes possible to switch the information output form, the information provision method, and the service provision form according to the user of the face-to-face device 200, the approaching person, the object and the surrounding situation, and therefore, It becomes possible to provide a target detection method that can provide an appropriate service according to the user.

[第2の実施形態]
図5は、第2の実施形態に係るサービス提供システムの一例を示す図である。図5において図1と共通する部分には同じ符号を付して示し、ここでは異なる部分についてのみ説明する。第2の実施形態では対面装置200およびコンピュータ100が広域にわたって複数設置される形態を想定する。コンピュータ100は広域の通信網(インターネットあるいはIP-VPNなど)で接続され、管理する情報を相互に授受して利用することが可能である。
[Second Embodiment]
FIG. 5 is a diagram showing an example of a service providing system according to the second embodiment. In FIG. 5, the same parts as those in FIG. 1 are designated by the same reference numerals, and only different parts will be described here. In the second embodiment, it is assumed that a plurality of face-to-face devices 200 and computers 100 are installed over a wide area. The computer 100 is connected by a wide area communication network (Internet, IP-VPN, etc.), and can exchange and use managed information with each other.

図5において、特徴情報管理部500およびサービス情報管理部600は、データセンタ1000において集約して管理される。それぞれカメラ300および対面装置200に接続される複数のコンピュータ100は、広域に敷設される通信回線1100を介してデータセンタ1000に接続され、特徴情報管理部500およびサービス情報管理部600と各種データを授受することができる。 In FIG. 5, the feature information management unit 500 and the service information management unit 600 are centrally managed in the data center 1000. A plurality of computers 100 connected to the camera 300 and the face-to-face device 200, respectively, are connected to the data center 1000 via a communication line 1100 laid over a wide area, and perform various data with the feature information management unit 500 and the service information management unit 600. Can be exchanged.

上記構成によれば、人物やその同伴者、付帯物および車両を検出し、認識するための情報がデータセンタ1000において一元管理される。これにより端末側のコンピュータ100において管理すべきデータ量を減らせるのに加え、例えば市、県あるいは国といったレベルで情報を一元管理することが可能になり、サービスの統一性の向上を図れるなどのメリットを得ることができる。 According to the above configuration, information for detecting and recognizing a person, his / her companion, an accessory, and a vehicle is centrally managed in the data center 1000. As a result, in addition to reducing the amount of data to be managed by the computer 100 on the terminal side, it becomes possible to centrally manage information at the level of, for example, a city, prefecture, or country, and it is possible to improve the uniformity of services. You can get the benefits.

また、データセンタ1000を、いわゆるクラウドコンピューティングシステムとして理解することも可能である。この形態では、特徴情報管理部500およびサービス情報管理部600は、広域ネットワーク上の分散型データベースに形成される。 It is also possible to understand the data center 1000 as a so-called cloud computing system. In this form, the feature information management unit 500 and the service information management unit 600 are formed in a distributed database on a wide area network.

[第3の実施形態]
図6は、第3の実施形態に係るサービス提供システムの一例を示す図である。図6において図1および図5と共通する部分には同じ符号を付して示し、ここでは異なる部分についてのみ説明する。
[Third Embodiment]
FIG. 6 is a diagram showing an example of the service providing system according to the third embodiment. In FIG. 6, the parts common to FIGS. 1 and 5 are designated by the same reference numerals, and only different parts will be described here.

図6に示されるシステムは図5の構成をさらに集約化したものに相当する。すなわち、複数のコンピュータ(101,102,103)のそれぞれに、カメラ300からの画像データを取得する入力部1、操作部4、および出力部6を持たせ、データセンタ1000に特徴情報管理部500、サービス情報管理部600に加えて検出部2、認識部3および制御部5を持たせる。そして、コンピュータ101,102,103に通信部7を備え、データセンタ1000に通信部70を備え、TCP/IPなどの通信回線1100を介して相互に通信可能としたものである。 The system shown in FIG. 6 corresponds to a further integrated configuration of FIG. That is, each of the plurality of computers (101, 102, 103) has an input unit 1, an operation unit 4, and an output unit 6 for acquiring image data from the camera 300, and the data center 1000 has a feature information management unit 500. In addition to the service information management unit 600, a detection unit 2, a recognition unit 3, and a control unit 5 are provided. The computers 101, 102, and 103 are provided with a communication unit 7, and the data center 1000 is provided with a communication unit 70 so that they can communicate with each other via a communication line 1100 such as TCP / IP.

上記構成により、コンピュータ101,102,103にはサービスを提供する現場に必要な最小限の機能を持たせ、対象の検出や認識に係わる処理をデータセンタ1000に委託することができる。これによりコンピュータ101,102,103および対面装置200を省サイズ化できるようになり、省コスト化などのメリットを得ることが可能になる。 With the above configuration, the computers 101, 102, and 103 can be provided with the minimum functions necessary for the site where the service is provided, and the processing related to the detection and recognition of the target can be outsourced to the data center 1000. As a result, the computers 101, 102, 103 and the face-to-face device 200 can be reduced in size, and merits such as cost saving can be obtained.

また、検出部2をコンピュータ101,102,103に持たせ、対象の検出以降の処理をデータセンタ1000に委託するようにしても良い。このように、どの程度までの処理をデータセンタ1000に委託するかは、システム要請や通信すべきデータ量、あるいは機器のハードウェアスペックに応じて決めることができる。 Further, the detection unit 2 may be provided in the computers 101, 102, 103, and the processing after the detection of the target may be outsourced to the data center 1000. In this way, the extent to which the processing is outsourced to the data center 1000 can be determined according to the system request, the amount of data to be communicated, or the hardware specifications of the device.

さらに、データセンタ1000をクラウドコンピューティングシステムとして理解することももちろん可能である。このケースでは、検出部2、認識部3および制御部5は複数のコンピュータに分散配置される機能オブジェクトとして理解することが可能である。 Furthermore, it is of course possible to understand the data center 1000 as a cloud computing system. In this case, the detection unit 2, the recognition unit 3, and the control unit 5 can be understood as functional objects distributed and arranged on a plurality of computers.

なお本発明は上記実施形態に限定されるものではない。例えば上記実施形態ではガスステーションへの応用について説明したが、本発明は駐車場、商業施設、公共施設(役所)、病院や美容院などに適用することも可能である。 The present invention is not limited to the above embodiment. For example, in the above embodiment, the application to a gas station has been described, but the present invention can also be applied to parking lots, commercial facilities, public facilities (government offices), hospitals, beauty salons, and the like.

本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

100,101,102…コンピュータ、200…対面装置、300…カメラ、400…ディスプレイ、500…特徴情報管理部、600…サービス情報管理部、700…周辺施設・周辺店舗、800…通信回線、900…人物、1…入力部、2…検出部、3…認識部、4…操作部、5…制御部、6…出力部、1000…データセンタ、通信回線1100、7…通信部、70…通信部。 100, 101, 102 ... Computer, 200 ... Face-to-face device, 300 ... Camera, 400 ... Display, 500 ... Feature information management department, 600 ... Service information management department, 700 ... Peripheral facilities / stores, 800 ... Communication line, 900 ... Person, 1 ... Input unit, 2 ... Detection unit, 3 ... Recognition unit, 4 ... Operation unit, 5 ... Control unit, 6 ... Output unit, 1000 ... Data center, Communication line 1100, 7 ... Communication unit, 70 ... Communication unit ..

実施形態によれば、対象検出方法は、撮像装置と情報処理装置から構成されるシステムから画像データを取得する、対象検出方法である。対象検出方法は、取得された画像データから人物に係る所有物、着衣物、着用物および車両の少なくとも一つを対象として検出する過程と、システムが、検出された対象の特徴情報に基づいて当該対象の形状もしくは色を認識する過程と、システムが、人物を画像データから認識する過程と、システムが、認識された対象と、認識された人物とを対応付ける過程と、システムが、認識された対象に対応付けられる人物を個人特定する過程と、システムが、個人特定された人物の過去のサービスの利用状況を確認する過程とを具備する。 According to the embodiment, the target detection method is a target detection method that acquires image data from a system including an image pickup device and an information processing device. The target detection method is based on the process of detecting at least one of the possessions, clothes, wears, and vehicles related to a person from the acquired image data, and the system based on the characteristic information of the detected target. The process of recognizing the shape or color of an object, the process of the system recognizing a person from image data, the process of associating the recognized object with the recognized person, and the process of the system recognizing the object. The system includes a process of personally identifying the person associated with the personal identification person and a process of confirming the past service usage status of the personally identified person .

Claims (5)

撮像装置と情報処理装置から構成されるシステムから画像データを取得する対象検出方法であって、
取得された画像データから人物に係る所有物、着衣物、着用物および車両の少なくとも一つを対象として検出する過程と、
前記システムが、前記検出された対象の特徴情報に基づいて当該対象の形状もしくは色を認識する過程と、
前記システムが、前記人物を画像データから認識する過程と、
前記システムが、前記認識された対象と、前記認識された人物とを対応付ける過程と、 前記システムが、前記認識された対象に対応付けられる人物を個人特定する過程とを具備する、対象検出方法。
It is a target detection method that acquires image data from a system consisting of an image pickup device and an information processing device.
The process of detecting at least one of a person's property, clothing, wear, and vehicle from the acquired image data, and
The process by which the system recognizes the shape or color of the object based on the detected feature information of the object.
The process by which the system recognizes the person from the image data,
A target detection method comprising a process in which the system associates the recognized object with the recognized person, and a process in which the system personally identifies a person associated with the recognized object.
前記システムが前記人物を画像データから認識する過程は、前記システムが前記人物の性別を判別することを含む、請求項1に記載の対象検出方法。 The target detection method according to claim 1, wherein the process of the system recognizing the person from the image data includes the system determining the gender of the person. 前記人物にかかる所有物は、杖であることを特徴とする、請求項1に記載の対象検出方法。 The target detection method according to claim 1, wherein the property of the person is a cane. 前記人物にかかる所有物は、鞄であることを特徴とする、請求項1に記載の対象検出方法。 The target detection method according to claim 1, wherein the property of the person is a bag. 前記車両には、ETCカードが搭載され、前記人物と前記ETCカードの履歴の相関が記録されることを特徴とする、請求項1記載の対象検出方法。 The target detection method according to claim 1, wherein an ETC card is mounted on the vehicle, and a correlation between the person and the history of the ETC card is recorded.
JP2022046706A 2020-02-12 2022-03-23 Target detection method Active JP7375079B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022046706A JP7375079B2 (en) 2020-02-12 2022-03-23 Target detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020021664A JP7237871B2 (en) 2020-02-12 2020-02-12 Target detection method
JP2022046706A JP7375079B2 (en) 2020-02-12 2022-03-23 Target detection method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020021664A Division JP7237871B2 (en) 2020-02-12 2020-02-12 Target detection method

Publications (2)

Publication Number Publication Date
JP2022075904A true JP2022075904A (en) 2022-05-18
JP7375079B2 JP7375079B2 (en) 2023-11-07

Family

ID=71106565

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020021664A Active JP7237871B2 (en) 2020-02-12 2020-02-12 Target detection method
JP2022046706A Active JP7375079B2 (en) 2020-02-12 2022-03-23 Target detection method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020021664A Active JP7237871B2 (en) 2020-02-12 2020-02-12 Target detection method

Country Status (1)

Country Link
JP (2) JP7237871B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111976593A (en) * 2020-08-21 2020-11-24 大众问问(北京)信息科技有限公司 Voice prompt method, device, equipment and storage medium for vehicle external object

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173514A (en) * 1997-08-29 1999-03-16 Nissan Motor Co Ltd Recognition device for vehicle
JP2000090264A (en) * 1998-09-11 2000-03-31 Omron Corp Method and device for collating living body
JP2004155427A (en) * 2002-11-01 2004-06-03 Kygnus Sekiyu Kk Self-service fueling apparatus
JP2006003993A (en) * 2004-06-15 2006-01-05 Calsonic Kansei Corp License plate recognition device
JP2006134072A (en) * 2004-11-05 2006-05-25 Toshiba Corp Entry/exit management system and biological characteristic information verification device
JP2007264943A (en) * 2006-03-28 2007-10-11 Denso Corp Vehicular communication device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173514A (en) * 1997-08-29 1999-03-16 Nissan Motor Co Ltd Recognition device for vehicle
JP2000090264A (en) * 1998-09-11 2000-03-31 Omron Corp Method and device for collating living body
JP2004155427A (en) * 2002-11-01 2004-06-03 Kygnus Sekiyu Kk Self-service fueling apparatus
JP2006003993A (en) * 2004-06-15 2006-01-05 Calsonic Kansei Corp License plate recognition device
JP2006134072A (en) * 2004-11-05 2006-05-25 Toshiba Corp Entry/exit management system and biological characteristic information verification device
JP2007264943A (en) * 2006-03-28 2007-10-11 Denso Corp Vehicular communication device

Also Published As

Publication number Publication date
JP7237871B2 (en) 2023-03-13
JP2020098629A (en) 2020-06-25
JP7375079B2 (en) 2023-11-07

Similar Documents

Publication Publication Date Title
JP7371614B2 (en) Store management device and store management method
JP2014160394A (en) Service provision system
JP4086787B2 (en) Service support system, service support server, and service support method
JP2018093283A (en) Monitoring information gathering system
JP5704279B1 (en) Associated program and information processing apparatus
KR101779096B1 (en) The object pursuit way in the integration store management system of the intelligent type image analysis technology-based
WO2008005834A2 (en) Biometric aid for customer relations
KR20190104844A (en) Customer recognition system for providing personalized service
JP5140027B2 (en) Information providing apparatus, information providing method, and program
WO2019181364A1 (en) Store management device and store management method
JP2005267430A (en) Information providing system
JP2018005691A (en) Information processing system, information processing device and information processing method
JP7490988B2 (en) Coupon issuing device, method, and program
JP2006235311A (en) System, device, method, and program for outputting information, and recording medium
JP2018110023A (en) Target detection method
US20240161133A1 (en) System for and method of determining user interactions with smart items
JP7375079B2 (en) Target detection method
JP6305483B2 (en) Computer apparatus, service providing system, service providing method, and program
JP2021105945A (en) Processor, processing method, and program
JP2016218894A (en) Potential customer location information notification system, method and program
US10972457B2 (en) Linking a physical item to a virtual item
JP6953756B2 (en) Payment processing equipment, methods and programs
JP2016081498A (en) Association program and information processing apparatus
KR20180121094A (en) Vehicle database management system for manless parking lot and method thereof
JP2021039784A (en) Purchase product estimation device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220422

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231025

R150 Certificate of patent or registration of utility model

Ref document number: 7375079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150