JP7237871B2 - Target detection method - Google Patents

Target detection method Download PDF

Info

Publication number
JP7237871B2
JP7237871B2 JP2020021664A JP2020021664A JP7237871B2 JP 7237871 B2 JP7237871 B2 JP 7237871B2 JP 2020021664 A JP2020021664 A JP 2020021664A JP 2020021664 A JP2020021664 A JP 2020021664A JP 7237871 B2 JP7237871 B2 JP 7237871B2
Authority
JP
Japan
Prior art keywords
information
person
service
user
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020021664A
Other languages
Japanese (ja)
Other versions
JP2020098629A (en
Inventor
寛 助川
賢二 馬場
信 落合
洋一 島田
達夫 小坂谷
隆三 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2020021664A priority Critical patent/JP7237871B2/en
Publication of JP2020098629A publication Critical patent/JP2020098629A/en
Priority to JP2022046706A priority patent/JP7375079B2/en
Application granted granted Critical
Publication of JP7237871B2 publication Critical patent/JP7237871B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、画像処理技術に関する。 Embodiments of the present invention relate to image processing techniques.

商業施設や公共施設(役所)、あるいは病院などの施設に足を運ぶ人々(利用者あるいはユーザ)はサービスを受けることを目的としている。しかし求めるサービスの内容はそれぞれ異なるので、サービスを受けるための確認作業や情報を得るための操作を、個人が自発的に実施する必要があった。このため利用者にとっては有益な情報を得る機会を逃したり、サービス提供者にとっては販売機会の喪失につながるといった不便があった。 People (users or users) who visit facilities such as commercial facilities, public facilities (government offices), and hospitals aim to receive services. However, since the content of the service requested differs from person to person, it has been necessary for the individual to voluntarily carry out the confirmation work for receiving the service and the operation for obtaining the information. As a result, the user misses an opportunity to obtain useful information, and the service provider loses a sales opportunity.

このような事情に対し、画像処理技術を応用したソリューションが幾つか提案されている。例えば画像に含まれる複数の人物をグループ化し、グループ属性を推定する技術がある。しかし、推定した属性をサービスの提供に活かすことはできない。また、画像に車や所有物などの物体が含まれていても、人物とそれらとの関連は考慮されない。 In response to such circumstances, several solutions applying image processing technology have been proposed. For example, there is a technique of grouping a plurality of persons included in an image and estimating group attributes. However, the estimated attributes cannot be used to provide services. Also, even if the image contains objects such as cars and possessions, the relationship between people and them is not considered.

また、性別や身長に基づく属性判別により、顧客グループの構成に応じた選定メニューを提供する方法も提案されている。しかしこの技術によっても、メニューを選ぶために利用される情報は依然として限定的であり、総合的な観点からのサービスを提供することはできない。 Also proposed is a method of providing a selection menu according to the composition of a customer group by discriminating attributes based on gender and height. However, even with this technology, the information used to select a menu is still limited, and services from a comprehensive point of view cannot be provided.

特許第4198951号公報Japanese Patent No. 4198951 特開2008-262435号公報JP 2008-262435 A 特開2011-141610号公報JP 2011-141610 A

以上述べたように、利用者ごとに適切なサービスを提供するということについては多分に改善の余地がある。人物だけでなく、付随する物体なども考慮して、より適切なサービスを提供できるようにする技術が要望されている。
目的は、利用者に応じて適切なサービスを提供することの可能な対象検出方法を提供することにある。
As described above, there is much room for improvement in providing appropriate services for each user. There is a demand for a technology capable of providing more appropriate services by considering not only people but also accompanying objects.
An object of the present invention is to provide an object detection method capable of providing appropriate services according to users.

実施形態によれば、対象検出方法は、撮像装置と情報処理装置から構成されるシステムから画像データを取得する、対象検出方法である。対象検出方法は、取得された画像データから人物に係る所有物、着衣物、着用物および車両の少なくとも一つを対象として検出する過程と、システムが、検出された対象の特徴情報に基づいて当該対象の形状もしくは色を認識する過程と、システムが、人物を画像データから認識する過程と、システムが、認識された対象と、認識された人物との対応付けを認識し、対応付けを認識された人物を参考情報として強調して表示するための情報を提供する過程と、システムが、提供された参考情報を強調してこのシステムのユーザへ提供する過程とを具備する。 According to the embodiment, the object detection method is an object detection method that acquires image data from a system that includes an imaging device and an information processing device. The object detection method includes a process of detecting at least one of personal belongings, clothes, clothing, and a vehicle related to a person from acquired image data; a process of recognizing the shape or color of an object; a process of recognizing a person from image data; a process of recognizing a correspondence between the recognized object and the person; a process of providing information for emphasizing and displaying the person as reference information; and a process of emphasizing the provided reference information and providing it to the user of the system.

図1は、第1の実施形態に係るサービス提供システムの一例を示す図である。FIG. 1 is a diagram showing an example of a service providing system according to the first embodiment. 図2は、画像データに含まれる対象の一例を示す図である。FIG. 2 is a diagram showing an example of an object included in image data. 図3は、特徴情報管理部500により管理される情報の構造の一例を示す図である。FIG. 3 is a diagram showing an example of the structure of information managed by the feature information management unit 500. As shown in FIG. 図4は、上記構成におけるサービスの情報の流れの一例を示す図である。FIG. 4 is a diagram showing an example of the flow of service information in the above configuration. 図5は、第2の実施形態に係るサービス提供システムの一例を示す図である。FIG. 5 is a diagram showing an example of a service providing system according to the second embodiment. 図6は、第3の実施形態に係るサービス提供システムの一例を示す図である。FIG. 6 is a diagram showing an example of a service providing system according to the third embodiment. 図7は、判定結果に応じてサービス提供メニューを変更するためのテーブルの一例を示す図である。FIG. 7 is a diagram showing an example of a table for changing service provision menus according to determination results.

[第1の実施形態]
図1は、第1の実施形態に係るサービス提供システムの一例を示す図である。図1に示されるサービス提供システムは、コンピュータ100と、コンピュータ100にLAN(Local Area Network)などの通信回線800を介して接続される対面装置200とを備える。
対面装置200は例えば現金自動支払機、カード決済端末、病院の会計端末、あるいは役所の手続き用の端末など、利用者と対面する装置である。この実施形態ではガスステーションまたは充電スタンドに設置される装置を考える。この種の設備の周辺には他の施設や店舗が形成されることが多い。コンピュータ100は通信回線800を介して、周辺施設・店舗700と通信することが可能である。
[First Embodiment]
FIG. 1 is a diagram showing an example of a service providing system according to the first embodiment. The service providing system shown in FIG. 1 includes a computer 100 and a facing device 200 connected to the computer 100 via a communication line 800 such as a LAN (Local Area Network).
The face-to-face device 200 is a face-to-face device, such as an automatic teller machine, a card settlement terminal, a hospital accounting terminal, or a government office procedure terminal. This embodiment considers a device installed at a gas station or charging station. Other facilities and stores are often formed around this type of facility. Computer 100 can communicate with peripheral facility/store 700 via communication line 800 .

対面装置200はカメラ300と、ディスプレイ400とを備える。カメラ300は、例えばディスプレイ400に正対する対象を視野に捉えるように設置され、視野を撮影して得た画像データを出力する。カメラ300は対面装置200の周囲に少なくとも1つ、あるいは複数の地点に設置される。画像データには、対面装置200の前に立つ人物900、人物900と一緒にいる他の人物、人物900の所有する所有物、車両、車両の運転席に乗っている人物、助手席に乗っている人物などを含めることができる。 Face-to-face device 200 includes camera 300 and display 400 . The camera 300 is installed, for example, so as to capture an object facing the display 400 in its field of view, and outputs image data obtained by photographing the field of view. The cameras 300 are installed at at least one or a plurality of points around the facing device 200 . The image data includes a person 900 standing in front of the facing apparatus 200, another person with the person 900, property owned by the person 900, a vehicle, a person sitting in the driver's seat of the vehicle, and a person sitting in the passenger's seat. can include people who are

カメラ300は例えばITVカメラやIPカメラであり、レンズをとおして得られた光学的な情報をアナログ/ディジタル変換して画像データを得る。カメラ300は時間的に連続する画像を取り込むことも可能である。図2は、画像データに含まれる対象の一例を示す図である。 The camera 300 is, for example, an ITV camera or an IP camera, and obtains image data by analog/digital conversion of optical information obtained through a lens. The camera 300 can also capture images that are continuous in time. FIG. 2 is a diagram showing an example of an object included in image data.

ディスプレイ400はデジタルサイネージ(digital signage)技術を応用した表示メディアであり、操作情報や広告情報などを表示する。
コンピュータ100は、実施形態に係る処理機能として入力部1、検出部2、認識部3、操作部4、制御部5および出力部6を備える。
入力部1は、カメラ300から出力される画像データを取得する。検出部2は、取得された画像データを画像処理し、カメラ300の視野内の対象を個別に検出し、特定する。例えば人物900、車両、あるいは人物900の所有物などが検出される。このほか、検出された人物900の年齢、性別、身長、人種、着用物、視線、顔の向き、乗車する車両のナンバープレート、車種、および車の色の組合せの少なくともいずれか1つが対象として検出される。
A display 400 is a display medium to which digital signage technology is applied, and displays operation information, advertisement information, and the like.
The computer 100 includes an input unit 1, a detection unit 2, a recognition unit 3, an operation unit 4, a control unit 5, and an output unit 6 as processing functions according to the embodiment.
The input unit 1 acquires image data output from the camera 300 . The detection unit 2 performs image processing on the acquired image data, and individually detects and identifies objects within the field of view of the camera 300 . For example, a person 900, a vehicle, or a property owned by the person 900 is detected. In addition, at least one of the detected person 900's age, sex, height, race, clothing, line of sight, direction of face, license plate of the vehicle in which he/she rides, vehicle type, and color combination of the vehicle is targeted. detected.

認識部3は、検出された対象を、特徴情報管理部500に記憶される特徴情報との比較により個別に認識する。認識の結果、対象の属性、種別、個体の識別情報(ID)などの特徴情報が得られる。特徴情報管理部500は、撮影され得る対象に係わる特徴情報を記憶するデータベースである。 The recognition unit 3 individually recognizes the detected target by comparing it with the feature information stored in the feature information management unit 500 . As a result of recognition, feature information such as target attributes, species, and individual identification information (ID) is obtained. The feature information management unit 500 is a database that stores feature information related to subjects that can be photographed.

操作部4は、対面装置200の例えば利用者の手の届くところに配置される、タッチパネルやテンキーなどのユーザインタフェースである。操作部4を介して利用者は、システムに操作情報を入力することができる。 The operation unit 4 is a user interface such as a touch panel and a numeric keypad, which is arranged within reach of the user of the facing device 200, for example. A user can input operation information to the system via the operation unit 4 .

サービス情報管理部600は、利用者に提供するためのサービス情報や、認識部3で識別された対象に関連する情報などを記憶するデータベースである。制御部5は、サービス情報管理部600に記憶される複数のサービス情報から、認識部3で得られた認識結果に応じたサービス情報を読み出し、出力部6に渡す。操作部4から入力された操作情報に基づいてサービス情報を選択することも可能である。 The service information management unit 600 is a database that stores service information to be provided to users, information related to objects identified by the recognition unit 3, and the like. The control unit 5 reads service information corresponding to the recognition result obtained by the recognition unit 3 from a plurality of pieces of service information stored in the service information management unit 600 and transfers the service information to the output unit 6 . It is also possible to select service information based on operation information input from the operation unit 4 .

出力部6は、読み出されたサービス情報をディスプレイ400に表示したり、音声情報としてスピーカ(図示せず)から出力する。また出力部6は、周辺施設・店舗700にサービス情報を通知したり、サービスの提供を依頼するためのメッセージ信号を出力する機能も備える。さらに出力部6は、予め登録された人物の携帯端末にサービス情報を通知する機能も備える。次に、上記構成についてさらに詳しく説明する。 The output unit 6 displays the read service information on the display 400 or outputs it as audio information from a speaker (not shown). The output unit 6 also has a function of notifying the peripheral facilities/stores 700 of service information and outputting a message signal for requesting the provision of services. Furthermore, the output unit 6 also has a function of notifying the mobile terminal of a pre-registered person of the service information. Next, the above configuration will be described in more detail.

入力部1は、対面装置200を利用しようとしている、あるいは付近に接近した、人物、物または車両などの画像データを取得する。画像データはカメラ300から直接取得するほか、デジタルスチルカメラで撮影された画像ファイル、あるいは動画ファイルを媒体経由で取り込むこともできる。 The input unit 1 acquires image data of a person, an object, a vehicle, or the like, which is about to use the facing device 200 or approaches nearby. Image data can be acquired directly from the camera 300, or image files shot with a digital still camera or moving image files can be acquired via a medium.

この種のデータはカメラ300からのほか、人物が所有する携帯機器から取得されることもできる。例えば携帯電話機に備わる無線LAN、赤外線通信やBluetooth(登録商標)、RFID(無線ID)などの通信手段により、入力部1は画像データを取得することができる。また、接触式の情報交換手段、フラッシュメモリカードなどの記録媒体を抜き差しして画像データを授受することももちろん可能である。 This type of data can be obtained from the camera 300 as well as from a portable device owned by the person. For example, the input unit 1 can acquire image data by communication means such as wireless LAN, infrared communication, Bluetooth (registered trademark), and RFID (wireless ID) provided in the mobile phone. Further, it is of course possible to send and receive image data by inserting and removing recording media such as contact information exchange means and flash memory cards.

さらに、その他の所有物や、車両に搭載される機器との情報交換により画像データを授受することもできる。例えば車両からはETCカードの情報を用いることで車両識別のための情報を取得可能であるし、燃料やバッテリーの残容量情報、ナビゲーションシステムにより管理される走行履歴情報などを無線通信で伝送することも実現可能である。これらも同様に、無線式の情報手段、専用メディア、あるいは接触式の情報交換手段などにより実現可能である。要するに入力部1は、処理対象とするデジタルの画像データを、何らかの手法で取得できれば良い。 Furthermore, image data can be sent and received by exchanging information with other belongings and equipment mounted on the vehicle. For example, information for vehicle identification can be obtained from the vehicle by using the information on the ETC card, and information such as fuel and battery remaining capacity information, driving history information managed by the navigation system, etc. can be transmitted by wireless communication. is also feasible. These can also be realized by wireless information means, dedicated media, contact information exchange means, or the like. In short, the input unit 1 only needs to acquire digital image data to be processed by some method.

検出部2は、画像データに含まれる人物、物、車両などを検出する。例えば人物を検出するには、人物の顔領域を検出することが好ましい。顔領域を検出するために、検出部2は画像上の輝度情報を利用して顔の領域を示す座標を求める。例えば参考文献1(三田雄志ほか:「顔検出に適した共起に基づくJoint Haar-like特徴」電子情報通信学会論文誌(D),vol.J89-D, 8,pp1791-1801(2006))に記載される方法を利用することが可能である。 The detection unit 2 detects persons, objects, vehicles, and the like included in image data. For example, to detect a person, it is preferable to detect the person's face area. In order to detect the face area, the detector 2 obtains the coordinates indicating the face area using luminance information on the image. For example, reference 1 (Yuji Mita et al.: "Joint Haar-like features based on co-occurrence suitable for face detection", IEICE Transactions on Information and Systems (D), vol.J89-D, 8, pp1791-1801 (2006)) It is possible to use the method described in

検出された結果を示す情報は、顔の向きや大きさにより任意の形状で構わない。この実施形態では簡単のために顔領域を矩形情報で示し、矩形の角の座標を検出結果として利用することとする。このほか、予め用意されたテンプレートを画像内で移動させながら相関値を求めることにより、最も高い相関値を与える位置を顔領域とする方法、固有空間法や部分空間法を利用した顔抽出法なども利用可能である。 The information indicating the detection result may be of any shape depending on the orientation and size of the face. In this embodiment, for the sake of simplicity, the face area is represented by rectangular information, and the coordinates of the corners of the rectangle are used as the detection result. In addition, there are methods such as moving a prepared template in the image to determine the correlation value, and determining the position that gives the highest correlation value as the face region, face extraction methods using the eigenspace method and the subspace method, etc. is also available.

さらに、顔だけでなく人物領域全体を検出する技術を利用してもよい。この種の技術としては参考文献2(Watanabeら,”Co-occurrence Histograms of Oriented Gradients for Pedestrian Detection, In Proceedings of the 3rd Pacific-Rim Symposium on Image and Video Technology” (PSIVT2009), pp. 37-47. 、以降”Co-HOG特徴”と表記する)に記載の技術が挙げられる。 Furthermore, a technique for detecting not only the face but also the entire person area may be used. Reference 2 (Watanabe et al., ``Co-occurrence Histograms of Oriented Gradients for Pedestrian Detection, In Proceedings of the 3rd Pacific-Rim Symposium on Image and Video Technology'' (PSIVT2009), pp. 37-47. , hereinafter referred to as “Co-HOG features”).

顔や人物の領域が検出されれば、頭部や顔からの相対的な位置関係に基づき、人物の着用している着衣の種類や所有物を検出することが可能である。前述のJoint Haar-like特徴や、Co-HOG特徴を利用し、事前に検出対象物の画像を多数集めて統計的な学習をすることによりこれらのアイテムを検出することが可能となる。同様にして画像内の車両の全体、または一部を検出することも可能である。 Once the area of the face or person is detected, it is possible to detect the type of clothing worn by the person and the belongings of the person based on the relative positional relationship from the head and face. These items can be detected by using the aforementioned Joint Haar-like features and Co-HOG features, collecting a large number of images of detection targets in advance and performing statistical learning. It is also possible to detect all or part of the vehicle in the image in the same manner.

なお、同じ対象が時間的に複数フレームにわたり連続して映っていることが想定される。そこで、所定の時間が経過して存在している対象物体の種類や数が同じであることを対応付けて管理すべく、追跡処理を行うことが望ましい。これは、例えばオプティカルフローを使って検出した顔が次のフレームでどの位置にいるか対応付けする手法や、既知の技術(例えば特開2011-170711号公報に記載)により実現可能である。 In addition, it is assumed that the same object is displayed continuously over a plurality of frames temporally. Therefore, it is desirable to perform tracking processing in order to associate and manage the same type and number of target objects that have been present after a predetermined time has passed. This can be realized, for example, by a method of associating the position of a face detected using optical flow in the next frame, or by a known technique (eg, disclosed in Japanese Patent Application Laid-Open No. 2011-170711).

また、画像データ以外の情報が入力部1に入力された場合には、事前に策定したプロトコルにより通信対象の存在を取得することが可能である。これにより画像データを用いるのと同等に、対象を検出することが可能である。 Also, when information other than image data is input to the input unit 1, it is possible to acquire the existence of the communication target by a protocol established in advance. This makes it possible to detect the object in the same way as using image data.

特徴情報管理部500は、入力部1から得られる人物、物、車両の情報を対応付けて管理するためのデータベースである。つまり特徴情報管理部500は、認識部3が対象物体の人物の個人を識別したり、車両の種類を判別する際に必要となる特徴情報を管理するデータベースである。 The feature information management unit 500 is a database for managing information on persons, objects, and vehicles obtained from the input unit 1 in association with each other. In other words, the feature information management unit 500 is a database that manages feature information required when the recognition unit 3 identifies the person of the target object or discriminates the type of vehicle.

図3は、特徴情報管理部500により管理される情報の構造の一例を示す図である。図3に示されるように特徴情報管理部500には、検出部2から出力された顔特徴情報が個人ごとに対応付けて管理される。それぞれの顔特徴情報に対応付けて、顔画像や名前、性別や年齢、身長など該当する人物に関する情報、および人物の所有物、着用する着衣、搭乗する車両情報などの関連情報を対応付けて管理することも可能である。 FIG. 3 is a diagram showing an example of the structure of information managed by the feature information management unit 500. As shown in FIG. As shown in FIG. 3, the feature information management unit 500 manages the facial feature information output from the detection unit 2 in association with each individual. Information related to the person, such as face image, name, gender, age, and height, as well as related information such as the person's belongings, clothes worn, and vehicle information are associated with each facial feature information and managed. It is also possible to

顔特徴情報として実際に管理する内容は顔特徴抽出手段で出力されたデータそのものでよく、m×nの特徴ベクトルや、部分空間やKL展開を行う直前の相関行列でも構わない。
上記特徴情報以外に、性別や年齢などの属性情報などの統計情報も、特徴情報管理部500で管理することが可能である。性別判別については男性用の特徴情報と女性用の特徴情報とを記憶し、属性判別処理の識別に利用する。他の属性についてもカテゴリを分類するために利用する特徴情報を管理する。
The content actually managed as facial feature information may be the data itself output by the facial feature extraction means, or may be an m×n feature vector, a partial space, or a correlation matrix immediately before performing KL expansion.
In addition to the characteristic information described above, statistical information such as attribute information such as gender and age can also be managed by the characteristic information management unit 500 . For gender discrimination, feature information for men and feature information for women are stored and used for identification in attribute discrimination processing. It also manages feature information used to classify categories for other attributes.

特徴情報管理部500に、顔や関連する情報を新規に登録するには、システム管理者が利用者の同意を得たうえで登録する方法をとっても良い。あるいは、認識部3による認識の結果、いずれの人物の特徴情報の類似度も所定のしきい値を越えない場合、つまり該当する人物が存在しない場合に、新たな人物として追加登録するようにしてもよい。 In order to newly register a face and related information in the feature information management unit 500, a method may be adopted in which the system administrator obtains the consent of the user before registering. Alternatively, as a result of recognition by the recognition unit 3, when the degree of similarity of the characteristic information of any person does not exceed a predetermined threshold, that is, when the corresponding person does not exist, the person is additionally registered as a new person. good too.

認識部3は、検出部2により検出された人、物、車両などの情報から、詳細な種別や個体の識別、状態を含む情報を生成する。
人物を認識する方法として、顔を利用した人物の認識方法を以下に説明する。検出した顔の領域をもとに個人の特徴を示す顔特徴情報を抽出する方法としては、例えば(特開2007-4767号公報)に示されるように、1枚の人物画像情報に対してモデルを利用して顔の向きや状態を意図的に変動させた画像を作成することで顔特徴情報を取得することが可能である。同じ人物に対しては連続する複数の画像を利用し、動画像による計算を実行することでより精度の高い認識処理が行うこともできる。
The recognizing unit 3 generates information including detailed types, individual identifications, and states from the information on people, objects, vehicles, etc. detected by the detecting unit 2 .
As a method of recognizing a person, a method of recognizing a person using a face will be described below. As a method for extracting facial feature information indicating individual features based on the detected face area, for example, as shown in Japanese Patent Application Laid-Open No. 2007-4767, a model is obtained for one piece of person image information. It is possible to obtain facial feature information by creating an image in which the orientation and state of the face are intentionally changed using the . By using a plurality of continuous images for the same person and performing calculation using moving images, it is possible to perform recognition processing with higher accuracy.

例えば、参考文献3(福井和広、山口修、前田賢一:「動画像を用いた顔認識システム」電子情報通信学会研究報告PRMU,vol97,No.113,pp17-24(1997))に開示される、相互部分空間法を用いる方法が知られている。この方法では、連続して得られる画像データからm×nピクセルの画像を切り出す。そして、これらのデータから特徴ベクトルの相関行列を求め、K-L展開による正規直交ベクトルを求めることにより、連続した画像から得られる顔の特徴を示す部分空間を計算する。このほか、参考文献4(福井和広、山口修:「形状抽出とパタン照合の組合せによる顔特徴点抽出」電子情報通信学会論文誌(D),vol.J80-D-II,No.8,pp2170-2177(1997))に記載される技術も知られている。 For example, it is disclosed in Reference 3 (Kazuhiro Fukui, Osamu Yamaguchi, Kenichi Maeda: "Face Recognition System Using Moving Images" Institute of Electronics, Information and Communication Engineers Research Report PRMU, vol97, No.113, pp17-24 (1997)). , the mutual subspace method is known. In this method, an image of m×n pixels is cut out from continuously obtained image data. Then, a correlation matrix of feature vectors is obtained from these data, and orthonormal vectors are obtained by KL expansion, thereby calculating a partial space representing facial features obtained from consecutive images. In addition, reference 4 (Kazuhiro Fukui, Osamu Yamaguchi: ``Extraction of facial feature points by combination of shape extraction and pattern matching'', Transactions of the Institute of Electronics, Information and Communication Engineers (D), vol.J80-D-II, No.8, pp2170 -2177 (1997)) is also known.

部分空間は、特徴ベクトルの相関行列(または共分散行列)を求め、そのK-L展開による正規直交ベクトル(固有ベクトル)を求めることで計算することができる。部分空間は、固有値に対応する固有ベクトルを、固有値の大きい順にk個選び、その固有ベクトル集合を用いて表現する。 A subspace can be calculated by obtaining a correlation matrix (or covariance matrix) of feature vectors and obtaining orthonormal vectors (eigenvectors) by KL expansion thereof. A subspace is represented by selecting k eigenvectors corresponding to eigenvalues in descending order of eigenvalues and using the set of eigenvectors.

この実施形態では、相関行列Cdを特徴ベクトルから求め、相関行列Cd=ΦdΛdΦdTと対角化して、固有ベクトルの行列Φを求める。この情報が、認識の対象とする人物の顔の特徴を示す部分空間となる。上記手法で出力された部分空間のような特徴情報を、入力された画像データから検出された顔に対する個人の顔特徴情報とする。 In this embodiment, the correlation matrix Cd is obtained from the feature vector, and the correlation matrix Cd=ΦdΛdΦdT is diagonalized to obtain the eigenvector matrix Φ. This information becomes a subspace indicating the features of the face of the person to be recognized. The feature information such as the partial space output by the above method is used as personal face feature information for the face detected from the input image data.

このようにして計算された顔特徴情報と、特徴情報管理部500に管理される顔特徴情報とを比較することで、人物を特定することができる。この検索処理の結果として、特徴情報管理部500で個人を識別するために管理されている人物IDや、計算結果である類似性を示す指標を、類似性の高いものから順番に返す。また、特徴情報管理部500で個人ごとに管理される情報を併せて返すようにしても構わない。なお、基本的に識別IDにより対応付けが可能であるので、検索処理自体では付属情報を授受する必要は必ずしも無い。 By comparing the facial feature information calculated in this manner with the facial feature information managed by the feature information management unit 500, a person can be specified. As a result of this search processing, the person ID managed by the feature information management unit 500 for identifying an individual and the index indicating the similarity which is the calculation result are returned in descending order of similarity. In addition, information managed for each individual by the characteristic information management unit 500 may be returned together. It should be noted that it is not always necessary to send and receive attached information in the search process itself, since correspondence can basically be made by means of the identification ID.

類似性指標としては、顔特徴情報として管理されている部分空間同士の類似度とする。類似度を求めるには部分空間法や複合類似度法などの計算方法を用いることができる。これらの方法では、予め蓄えられた登録情報の中の認識データも、入力されるデータも、複数の画像から計算される部分空間として表現される。そして、2つの部分空間のなす「角度」が類似度として定義される。 The similarity index is the degree of similarity between subspaces managed as facial feature information. Calculation methods such as the subspace method and the composite similarity method can be used to obtain the degree of similarity. In these methods, both recognition data in prestored registration information and input data are represented as subspaces calculated from a plurality of images. The "angle" formed by the two subspaces is defined as the degree of similarity.

入力データ列に対して同様に相関行列Cinを求め、Cin=ΦinΛinΦinTと対角化し、固有ベクトルΦinを求める。二つのΦin,Φdで表される部分空間の部分空間間類似度(0.0~1.0)を求め、これを認識するための類似度とする。ここでも、参考文献3に開示される手法を用いることが可能である。 Correlation matrix Cin is similarly obtained for the input data string, diagonalized as Cin=ΦinΛinΦinT, and eigenvector Φin is determined. The inter-subspace similarity (0.0 to 1.0) of the two subspaces represented by Φin and Φd is obtained and used as the similarity for recognition. Again, the technique disclosed in reference 3 can be used.

予め同一人物と分かる複数の人物画像をまとめて部分空間に射影し、本人であるか否かを識別することで精度を向上させることも可能である。類似度以外の類似性指標としては、特徴空間上での距離やマハラノビス距離といったものも利用可能であることは明らかである。距離を利用した場合には数値が大きいほど類似性が低くなるので、既定の閾値より小さければ小さいほど、登録された人物との類似性が高いことを示す。つまり認識部3は、検出部2で検出された人物の個人を特定し、当該特定された個人に基づいて特徴情報管理部500に記憶される特徴情報を参照することで、認識の精度を向上させる。 It is also possible to improve the accuracy by collectively projecting a plurality of person images that are known to be the same person in advance into a partial space, and identifying whether the person is the person or not. As a similarity index other than the degree of similarity, it is clear that a distance on the feature space and the Mahalanobis distance can also be used. When the distance is used, the larger the numerical value, the lower the similarity. Therefore, the smaller the value than the predetermined threshold value, the higher the similarity with the registered person. That is, the recognition unit 3 identifies the individual of the person detected by the detection unit 2, and refers to the characteristic information stored in the characteristic information management unit 500 based on the identified individual, thereby improving recognition accuracy. Let

人物の個人を特定するには事前に特定対象の顔の情報を登録しておく必要がある。しかし、年齢や性別などの属性情報を判別するだけであれば、事前の登録をすることなく人物の情報を得ることが可能となる。例えば、(特開2012-3623号公報)に開示される技術を利用することで人物の年齢、性別を推定することが可能となる。この技術を活用し、事前の判別するカテゴリにあわせて画像を準備することで、人種、帽子や眼鏡やマスクのような顔の着用物の判別をすることが可能となる。 In order to identify an individual person, it is necessary to register the face information of the specific target in advance. However, if only attribute information such as age and sex is determined, it is possible to obtain information on a person without prior registration. For example, it is possible to estimate the age and gender of a person by using the technology disclosed in (Japanese Patent Application Laid-Open No. 2012-3623). By using this technology and preparing images according to categories to be identified in advance, it is possible to identify races, and items worn on the face such as hats, glasses, and masks.

上記した、人物検出と、顔の検出結果と、カメラ300の画角情報を利用することで画像全体に対する相対比率から身長を求めることも可能である。このほか、(特開2003-141551)に記載の技術を用いることで視線、顔の向きのような顔の動き情報を得ることも可能となる。 By using the above-described person detection, face detection results, and angle-of-view information of the camera 300, it is possible to obtain the height from the relative ratio to the entire image. In addition, by using the technique described in (Japanese Patent Application Laid-Open No. 2003-141551), it is also possible to obtain facial movement information such as line of sight and face direction.

また、人物検出座標の頭頂位置からの相対位置、顔検出位置からの相対位置から着衣や帽子などの着用物、手に持っている所有物、鞄や腕時計といった身につけている所有物を、事前に学習した辞書との判別により特定することも可能である。 In addition, from the relative position from the top of the head position of the person detection coordinate and the relative position from the face detection position, the wearable items such as clothes and hats, the possessions held in the hand, and the belongings worn such as bags and wristwatches are calculated in advance. It is also possible to specify by discriminating from the previously learned dictionary.

さらに、認識部3は、人物の乗車していた車両のナンバープレート、車種、車の色の組合せの少なくとも一つを判別する。また、所有物や車種についてはメーカーやブランドごとに画像を集めて判別用の辞書を作成することで、メーカーやブランドの判別を行うことも可能である。 Furthermore, the recognition unit 3 discriminates at least one combination of the number plate of the vehicle in which the person was riding, the type of vehicle, and the color of the vehicle. In addition, it is also possible to discriminate the manufacturer and the brand by collecting images for each manufacturer and brand and creating a dictionary for discrimination with respect to belongings and vehicle models.

また、車両についても、検出対象となる車種の画像を想定される向きのバリエーションに対応して画像を集めて学習することにより、CoHOG特徴を使った手法で車種の判別も可能である。カラー情報を利用することで車の色情報を判別することも可能であるほか、特許第4901676号公報に記載の技術を用いることで、車両の個体識別をすることも可能である。 For vehicles, it is also possible to discriminate vehicle types using a method using CoHOG features by collecting and learning images of vehicle types to be detected corresponding to variations in the assumed orientation. It is also possible to determine the color information of the vehicle by using the color information, and it is also possible to identify the individual vehicle by using the technology described in Japanese Patent No. 4901676.

さらに、判別された情報を複数組み合わせることで、判別精度を高めることも可能である。例えば、車両を検出した場合には車両のナンバープレート情報により車両を個体識別し、その車両に対応付けられる人物に限定して乗車している人物の個人特定が可能である。組合せを使わなければ、特徴情報管理部500に登録されている人物の顔すべてとのマッチングを行って候補者を特定する必要があるが、特徴情報管理部500に個人の顔の特徴に対応付けして所有する車の車種やナンバープレートを対応付けて管理しておくことで、検出されたナンバープレートの車に対応付けされた人物に絞って人物の照合処理を行うため、個人を誤って特定してしまうことを防ぐことができる。 Furthermore, it is possible to improve the discrimination accuracy by combining a plurality of pieces of discriminated information. For example, when a vehicle is detected, it is possible to individually identify the vehicle based on the license plate information of the vehicle, and to identify the person riding in the vehicle by limiting the person associated with the vehicle. If the combination is not used, it is necessary to match all the faces of persons registered in the feature information management unit 500 to identify candidates. By correlating and managing the model and license plate of the car owned by the system, the matching process of the person is narrowed down to the person associated with the car with the detected license plate. You can prevent it from happening.

車のナンバープレートが分からない場合でも、車の色や車種の情報、または着衣の種類や所持品と来場した人物と対応付けて履歴情報に管理しておき、それらの組合せを統計的に管理することが好ましい。このようにすれば、顔の特徴だけでは複数人の候補者が類似する指標を示した場合にも、顔以外の所有物や着衣や車両による情報を加味することで人物の特定精度を上げることが可能である。この場合、人物の顔の特徴による類似度に加え、その他の所有物や車両情報が存在した場合に所定の係数をかけて類似度に加算をするという方法によって実現が可能である。 Even if the license plate of the car is not known, information on the color and model of the car, or the type of clothes and personal belongings of the car are associated with the visitor and managed as history information, and the combinations of these are managed statistically. is preferred. In this way, even when a plurality of candidates show similar indices based only on facial features, it is possible to increase the accuracy of identifying a person by taking into account information other than the face, such as belongings, clothes, and vehicles. is possible. In this case, in addition to the degree of similarity based on the facial features of the person, it can be realized by a method of adding a predetermined coefficient to the degree of similarity when there is other property or vehicle information.

また、所有物については人物が着用、所持していることから、人物との対応付けは容易である。これに対し、人物と人物とがグループであることを判断したり、所有者と車両とを対応付けるには、例えば同じ画面内に所定時間以上同時に検出されたものを対応付けする方法がある。または、過去の履歴において同時に検出された回数が所定回数以上あるか否かを判別したり、人物と人物、または人物と車両の距離が所定以内となる時間が所定時間以上であるか否かで判別するようにしても良い。このほか、特開2007-249953号公報に開示されるように複数地点で通過した位置関係や時刻をつかってグル―ピングする方法でも実現可能である。 Moreover, since a person wears and possesses a property, it is easy to associate the property with the person. On the other hand, in order to determine whether a person is a group or to associate an owner with a vehicle, for example, there is a method of associating objects detected simultaneously within the same screen for a predetermined time or longer. Alternatively, it is determined whether or not the number of simultaneous detections in the past history is a predetermined number or more, or whether or not the distance between a person and a person or between a person and a vehicle is within a predetermined time period or longer. You may make it discriminate|determine. In addition, as disclosed in Japanese Patent Application Laid-Open No. 2007-249953, it is also possible to implement a grouping method using the positional relationships and times passed at a plurality of points.

同様に、利用者が対面装置200から離れている間に、利用者の所有物や、利用者と別の人物が車両に接近してきたことや、所有物や車両を持ち去られたことを検知することが可能である。例えば所有物や車両が画面内に存在している状態で人物を検出した場合、その人物が対象となる物体の所有者であるかどうか否かを、顔照合により判別することができる。この処理を、制御部5で対象物体の監視が必要であると判断された場合に実施するようにしても良い。 Similarly, while the user is away from the facing device 200, the user's belongings, the approach of a person other than the user to the vehicle, and the removal of the belongings or the vehicle are detected. Is possible. For example, when a person is detected while a property or a vehicle exists in the screen, it can be determined by face matching whether or not the person is the owner of the target object. This process may be performed when the control unit 5 determines that the target object needs to be monitored.

検知された人物が車両の所有者であるか否かは、特徴情報管理部500に管理される情報を利用してもよいし、制御部5が監視を開始する直前に一緒に存在している人物を、所有者として登録するようにしてもよい。所有者ではないと判断された場合には、不審者が接近してきている可能性があると判断できる。また、対象物体が画面の外に移動したことを検知すると、対象物の持ち去りであると判断することが可能となる。 Whether or not the detected person is the owner of the vehicle may be determined using information managed by the characteristic information management unit 500, or the information exists together with the control unit 5 immediately before the start of monitoring. A person may be registered as an owner. If it is determined that the person is not the owner, it can be determined that there is a possibility that a suspicious person is approaching. Also, when it is detected that the target object has moved out of the screen, it is possible to determine that the target object has been taken away.

以上の処理により、入力部1から得られる画像データから、対面装置200の利用者、付帯物、付近の物体、あるいは車両に関する組合せを判定する方法、およびそれぞれに関する詳細情報を得ることが可能となる。 Through the above processing, it is possible to obtain, from the image data obtained from the input unit 1, a method for determining a combination of the user of the facing device 200, an accessory, a nearby object, or a vehicle, and detailed information about each. .

操作部4は、利用者の操作(オペレーション)を行った結果をシステムに入力するための手段である。例えばディスプレイ600にタッチパネルのセンサを付けることにより、画面にあわせた操作情報の入力が可能である。このほか、キーボードやマウスを設置したり、ディスプレイ600の近くに専用のボタンを設置してもよい。操作部4は、メニューを選択したり、情報検索のための文字を入力したり、場所を示すためのポインタ操作などに利用することができる。 The operation unit 4 is means for inputting the results of user's operations to the system. For example, by attaching a touch panel sensor to the display 600, it is possible to input operation information in accordance with the screen. In addition, a keyboard and mouse may be installed, or dedicated buttons may be installed near the display 600 . The operation unit 4 can be used for menu selection, character input for information retrieval, pointer operation for indicating a location, and the like.

なお、利用者の所有する携帯電話やスマートフォンといった携帯端末と操作部4とを無線接続し、携帯端末を使った情報入力ができるようにしてもよい。Bluetooth(登録商標)や無線LAN等の非接触式通信を使って入力させてもよいし、ケーブル接続を使って操作情報を伝送するようにしてもよい。以上のようにして、操作部4から利用者の意図を示す情報を入力することが可能である。 A mobile terminal such as a mobile phone or a smart phone owned by the user may be wirelessly connected to the operation unit 4 so that information can be input using the mobile terminal. The input may be made using non-contact communication such as Bluetooth (registered trademark) or wireless LAN, or the operation information may be transmitted using a cable connection. As described above, it is possible to input information indicating the user's intention from the operation unit 4 .

サービス情報管理部600は、利用者に提供するための情報や、認識部3で識別された対象に関連する情報などを記憶するデータベースである。つまりサービス情報管理部600は、利用者に提供するためのサービス情報を収集し、提供可能とするためのデータベースである。さらに、利用者がサービスを利用している途中に得られた情報を履歴情報として記録し管理することも可能である。 The service information management unit 600 is a database that stores information to be provided to users, information related to objects identified by the recognition unit 3, and the like. That is, the service information management unit 600 is a database for collecting and providing service information to be provided to users. Furthermore, it is also possible to record and manage information obtained while the user is using the service as history information.

例えばサービス情報管理部600は、サービスに関する購買履歴情報、利用日時や利用場所、利用時間などを記憶する。これらの情報は、出力部6で参考情報として表示することも可能である。これらはディスプレイ400から利用者に表示される情報、および操作部4から入力された情報を組み合わせて記録しておくことで実現可能である。 For example, the service information management unit 600 stores purchase history information, date and time of use, place of use, time of use, and the like regarding services. These pieces of information can also be displayed as reference information on the output unit 6 . These can be realized by combining and recording information displayed to the user from the display 400 and information input from the operation unit 4 .

また、対面装置200以外に、各地に設置される端末のどの端末を利用しているかを確認すれば、利用者の生活圏を認識できる。そこで、近隣施設でサービスが受けられない(在庫がないなど)といった場合に、利用者の生活圏の範囲で優先して別店舗の情報を提供することができる。 In addition, by confirming which terminal other than the facing device 200 is using among terminals installed in various places, the living area of the user can be recognized. Therefore, when the service cannot be received at a nearby facility (out of stock, etc.), it is possible to provide information on another store preferentially within the range of the user's living area.

また、利用時に、所有物である携帯電話の情報を操作部4から入力すれば、利用者のメールアドレス、名前あるいは生年月日などのプロフィールを取得して記録することや、車両から得られた情報として日頃の走行履歴等を記録しておき、サービス情報提供に利用することも可能である。 Also, when using the mobile phone, which is owned by the user, by inputting information from the operation unit 4, profiles such as the user's e-mail address, name, date of birth, etc. can be obtained and recorded, or obtained from the vehicle. It is also possible to record daily driving history etc. as information and use it for providing service information.

その他、インターネットに接続して、遠隔にある端末との情報共有、事前に提携した周辺の施設から提供される販売情報・在庫情報・優待情報サービス等情報、駐車場や道路の混雑状況や事故の情報、通行止めの情報、その他交通規制情報などの情報をサービス情報管理部600に管理してもよい。管理される情報は制御部5で提供する情報のソースとして利用される。サービス情報管理部600に記憶される情報はセンサなどを設置して自動更新するようにすることも可能であるし、施設側の管理者が入力して更新するようにしてもよい。 In addition, information sharing with remote terminals by connecting to the Internet, information such as sales information, inventory information, special treatment information service information provided by pre-affiliated facilities, traffic conditions of parking lots and roads, and information on accidents The service information management unit 600 may manage information such as information, road closure information, and other traffic control information. The managed information is used as a source of information provided by the control unit 5 . The information stored in the service information management unit 600 can be automatically updated by installing a sensor or the like, or can be updated by being input by the manager of the facility.

以上により、利用者に提供する情報や認識部3で識別した対象に関連する情報を記録しておくとともに、利用者に提供するサービス情報を収集して提供できるように管理しておくことが可能となる。 As described above, information to be provided to the user and information related to the object identified by the recognition unit 3 are recorded, and service information to be provided to the user can be collected and managed so as to be provided. becomes.

制御部5は、対面装置200を利用中の人物の情報、その人物の所有物、あるいは車両の情報などの情報、および、操作部4手段で入力された情報に基づいて、利用者へのサービス提供方法や情報提供内容を決定する。決定された情報に基づいてサービス情報管理部600の情報が読み出され、利用者に提供される。 The control unit 5 provides services to the user based on the information of the person who is using the facing device 200, the information of the person's belongings, the information of the vehicle, etc., and the information input by means of the operation unit 4. Decide how to provide information and what information to provide. Information in the service information management unit 600 is read based on the determined information and provided to the user.

制御部5は、提供すべきサービス情報を判断するために、例えば以下の情報を参照することが可能である。 The control unit 5 can refer to, for example, the following information in order to determine service information to be provided.

・認識部3で得られた認識結果(人物の属性、個人の特定、同伴者、所有物、着用物、車両情報など)。
・認識部3で判別された、個人に対応付けされて特徴情報管理部500で管理される情報(購買履歴など)。
・サービスの利用内容および利用時間。
・出力部6により出力されている情報の内容。
・操作部4で操作した情報。
なおサービス情報管理部600は、利用者と無関係に提供されるコンテンツ情報を記憶することも可能である。この種の情報としては、優待情報、周辺施設の優待情報、周辺施設の商品販売情報(タイムセールス、在庫、価格)、周辺の道路の混雑状況などがある。このほか、利用者が特定された場合には、利用者本人の過去の購買情報や、よく利用しているサービスの履歴などもサービス情報管理部600に記憶される。
- Recognition results obtained by the recognition unit 3 (character attributes, individual identification, companions, belongings, worn items, vehicle information, etc.).
Information (purchase history, etc.) managed by the characteristic information management unit 500 in association with the individual determined by the recognition unit 3;
・Contents and hours of use of services.
• Contents of information output by the output unit 6 .
- Information operated by the operation unit 4 .
The service information management unit 600 can also store content information provided independently of the user. This type of information includes preferential treatment information, preferential treatment information of surrounding facilities, merchandise sales information of surrounding facilities (time sales, inventory, price), congestion status of surrounding roads, and the like. In addition, when the user is specified, the service information management unit 600 also stores the user's past purchase information and the history of frequently used services.

出力部6は、利用者に情報を伝達するためのユーザインタフェースであり、液晶画面などの表示デバイス(ディスプレイ400)に画像を表示したり、スピーカからの音声出力により人物900に情報を伝達する。また、対面装置200の提供するサービスの内容に応じて必要な機器を組み込むようにしてもよい。例えば、車両に給油や充電を行う装置であれば、給油装置や充電装置とディスプレイ400およびスピーカを同じ筐体に組み込むことで、利用者はサービスを利用しながら情報提供内容を確認し、併せて操作部4によるオペレーションを実行することも可能となる。 The output unit 6 is a user interface for transmitting information to the user, and displays an image on a display device (display 400) such as a liquid crystal screen or transmits information to the person 900 by outputting sound from a speaker. Moreover, necessary devices may be incorporated according to the content of the service provided by the facing device 200 . For example, in the case of a device for refueling or charging a vehicle, by incorporating a refueling device, a charging device, a display 400, and a speaker into the same housing, the user can check the content of information provided while using the service, and also It is also possible to execute operations by the operation unit 4 .

ディスプレイ400には、対面装置200の設置場所に応じて、周辺の商業施設の販売状況を表示する画面、役所などの手続きが可能なメニュー画面、病院の検査や診察の手続きに使用可能な画面を表示しても良い。また、対面装置200に、現金の入出金等が行えるような装置を少なくとも一つ組合せ、複数組み合わせて内蔵するようにしてもよい。サービスに応じた複数の機器を対面装置200に組み込むことで、利用者は複数のサービスを同時に利用することが可能となる。 On the display 400, depending on the installation location of the facing apparatus 200, a screen displaying the sales status of commercial facilities in the surrounding area, a menu screen enabling procedures such as government offices, and a screen usable for examination and examination procedures at a hospital are displayed. may be displayed. Further, at least one or a plurality of devices capable of depositing and withdrawing cash may be incorporated in the facing device 200 in combination. By incorporating a plurality of devices corresponding to services into the facing device 200, the user can use a plurality of services at the same time.

さらに、外部の端末や外部の施設との連携のため、インターネットに接続するための機能を出力部6に備えるようにしてもよい。例えば携帯電話回線や無線LANなどの通信手段を利用すれば、可動式の端末で構成される場合でも同様のサービスを提供することが可能となる。さらに、利用者が対面装置200から離れる場合に連絡する手段として、電子メール通信やソケット通信を実行する通信プログラムを内蔵するようにしてもよい。これにより対面装置200から離れた場所にいる利用者への連絡手段を確保することができる。 Furthermore, the output unit 6 may be provided with a function for connecting to the Internet for cooperation with external terminals and external facilities. For example, if a communication means such as a mobile phone line or a wireless LAN is used, it is possible to provide the same service even if the mobile terminals are used. Furthermore, as means for contacting when the user leaves the facing apparatus 200, a communication program for executing e-mail communication or socket communication may be incorporated. This makes it possible to secure means of communication with the user who is away from the facing device 200 .

図4は、上記構成におけるサービスの情報の流れの一例を示す図である。画像データから抽出された人物A、人物B、車Cについて、年齢、性別、人物AとBとの組み合わせ、車Cの車種情報、車Cの色などの情報が得られる。これらの情報は統計的に処理され、統計情報が算出される。そして、これらの対象物に関する情報に対し、統計的に最適と判断される情報が、推奨情報として優先的に出力される。 FIG. 4 is a diagram showing an example of the flow of service information in the above configuration. For person A, person B, and car C extracted from the image data, information such as age, sex, combination of persons A and B, vehicle type information of car C, and color of car C is obtained. These pieces of information are statistically processed to calculate statistical information. Information that is statistically determined to be optimal for the information on these objects is preferentially output as recommended information.

例えば、認識部3で認識された車両の車種が分かれば車両価格の推定値が分かるので、高額な買い物をする人物であるかどうかの情報が分かる。また、車種にあわせた推奨商品やその商品の優待情報を提供することができるようになる。 For example, if the model of the vehicle recognized by the recognizing unit 3 is known, the estimated value of the vehicle price can be known, so information as to whether or not the person makes expensive purchases can be known. In addition, it becomes possible to provide recommended products suitable for the vehicle type and information on preferential treatment of the products.

また、乗車人数が一人であれば例えば給油や充電といった、目的とするサービスを利用するだけで現れた可能性が高いと判断できる。乗車人数が二人以上であれば、充電中などのサービス利用中に他の乗車メンバーが周辺施設に行ってしまう可能性がある。そこで、周辺施設での優待情報や在庫状況、イベント情報などを出力部6により通知することに意義が生まれる。このほか、車両Cから走行履歴情報を得られれば、この後走行する周辺道路の混雑情報などを提供することや、走行経路周辺にある店舗の情報などを提供することも可能である。 Also, if the number of passengers is one, it can be determined that there is a high possibility that the vehicle appeared just by using the intended service, such as refueling or charging. If the number of passengers is two or more, there is a possibility that other boarding members may go to nearby facilities while using services such as charging. Therefore, it is meaningful to use the output unit 6 to notify the preferential treatment information, inventory status, event information, and the like in the surrounding facilities. In addition, if the travel history information can be obtained from the vehicle C, it is also possible to provide congestion information on surrounding roads to be traveled later, information on shops located around the travel route, and the like.

車両への給油や充電のサービスなどのほか、現金自動支払機やカード決済端末、役所の手続き等などにおいても、利用者に関する情報や、同伴者や、所持品に基づく判断により同様の判断材料を得ることが可能である。例えば、高級品を持っている大人と子供が検出された場合には、買い物をする可能性が高いとして子供向けの玩具の情報を紹介するなど、人の組合せや所持品を考慮して提供する情報を選択できるようにしてもよい。 In addition to services such as refueling and charging services for vehicles, automatic teller machines, card payment terminals, government office procedures, etc., similar judgment materials are used based on information on users, companions, and belongings. It is possible to obtain For example, if an adult and a child carrying luxury goods are detected, information on toys for children will be introduced based on the high probability that they will be shopping. Information may be selectable.

例えば、図7に示されるように、検出された人物の年齢や性別の組合せ、所持品、車の情報などの組合せに応じて提供すべきサービスを対応付けたテーブルを準備しておくことで、組合せの判定結果に応じてサービス提供メニューを変更することができる。また、図7のテーブルにおける○×の記入される欄を人数でさらに細分化できるようにすれば、同じ「成人の女性」が一人か、あるいは複数人であるかによってメニューを変えることにも対応できる。この組み合わせは、既に述べた処理により取得可能な情報であればどのような組み合わせでもよいのは明らかである。また、テーブルを用いる手法のほか、検知された対象の組み合せに対する出力を一意に管理可能な手法を用いれば、どのような方法を使ってもよい。 For example, as shown in FIG. 7, by preparing a table in which the service to be provided is associated with the combination of detected person's age, gender, belongings, vehicle information, etc., The service provision menu can be changed according to the determination result of the combination. In addition, if the columns filled with ◯ and × in the table of FIG. 7 can be further subdivided by the number of people, it is possible to change the menu depending on whether the same "adult female" is one person or multiple people. can. It is clear that this combination may be any combination of information that can be obtained by the processing already described. In addition to the method using a table, any method may be used as long as the method is capable of uniquely managing outputs for combinations of detected targets.

また、人の個人特定や車両のナンバープレート情報による個体識別が成功した場合には、過去のサービスの利用状況を確認することが可能となる。それにより、利用者がサービスを利用しようとしたときに一般的なメニューからよく使うメニューを探す必要がなく、過去の履歴でよく使うメニューを優先的に表示させてあげることが可能となるのは明らかである。このように実施形態によれば、利用者の人物・所有物・車両の組合せに応じた適切なサービス提供が可能になる。 In addition, if individual identification of a person or vehicle license plate information is successful, it is possible to check the past service usage status. As a result, when the user tries to use the service, it is not necessary to search for the frequently used menu from the general menu, and it is possible to preferentially display the frequently used menu in the past history. it is obvious. As described above, according to the embodiment, it is possible to provide an appropriate service according to the combination of the user's person, property, and vehicle.

また、予め誕生日などの記念日が登録されている場合には祝福のメッセージを出すとともに、記念日で購入しそうな商品の購買情報を提供することや割引情報や優待情報を表示するようにしてもよい。 In addition, when an anniversary such as a birthday is registered in advance, a congratulatory message is sent, along with providing purchase information on products likely to be purchased on the anniversary, and displaying discount information and preferential treatment information. good too.

このほか、サービス利用中の時間によって表示内容を変える方法がある。 In addition, there is a method of changing the display contents depending on the time during service use.

例えばサービスの利用開始時点であれば、当該サービス利用に関する優待情報を表示したり、過去の購買履歴情報に基づいて、よく利用するサービスメニューを優先的に表示したり、所持品や該当車両に関するニュースなどを表示するようにすれば良い。これにより、これからサービスを利用しようとしている人物に有益な情報を提供することが可能である。前述の誕生日のメッセージなどはサービス利用開始時に出力するのが望ましい。 For example, when you start using the service, you can display preferential information related to the use of the service, preferentially display frequently used service menus based on past purchase history information, and receive news about your belongings and the vehicle in question. etc. should be displayed. This makes it possible to provide useful information to a person who is about to use the service. It is desirable to output the above-mentioned birthday message and the like at the start of service use.

サービス利用中であれば、サービスの残り時間に応じて利用者ができる内容が変わってくるので、内容を切り替えて表示する。例えば残り時間が長ければ、その場を離れて利用可能なサービスに関する情報を提供し、サービスの残り時間が短くなってきたら決済情報に関する情報を表示する。また利用者がその場を離れている場合には、残り時間が少なくなってきた時点で電子メール等を使ってもうすぐサービスが終了する旨を伝えるようにもできる。 If the service is being used, the content that the user can do will change according to the remaining time of the service, so the content is switched and displayed. For example, if the remaining time is long, the user leaves and provides information about available services, and when the remaining time of the service becomes short, information about payment information is displayed. In addition, when the user is away from the site, it is possible to send an e-mail or the like to inform the user that the service will be terminated soon when the remaining time becomes short.

またサービス終了後の表示については、車のサイズや購買情報にあわせて、荷物の郵送サービスに連絡する情報を提供してもよい。また次回以降使える優待情報やクーポンの発行といったこともこのタイミングでするようにできる。以上のように、利用者のサービス利用時間の残り時間に合わせて、提供されるサービスの内容を変更することが可能である。 As for the display after the end of the service, information for contacting the parcel mailing service may be provided according to the size of the car and purchase information. Also, at this timing, it is possible to issue preferential treatment information and coupons that can be used from the next time onwards. As described above, it is possible to change the content of the service to be provided according to the remaining time of the user's use of the service.

また利用者は、サービス利用中に自ら周辺施設に足を運んで別のサービスを受けることも可能である。さらに、対面装置200のディスプレイ400に表示されるメニューからサービスの代行を依頼することが可能である。 In addition, the user can visit the surrounding facilities by himself/herself and receive another service while using the service. Furthermore, it is possible to request a proxy service from the menu displayed on the display 400 of the facing device 200 .

例えばガスステーションの周辺の店舗の在庫状況や販売情報(価格情報)をディスプレイ400に表示し、利用者にメニューを提示して購買リストを選択させることができる。その際、認識された利用者のプロフィールをメニューに反映させることもできる。利用者は対面装置200に備え付けの支払い機能により、現金やカードで決済することで買い物を確定する。購入された物品は店舗側から対面装置200の場所まで届けたり、配送サービスで利用者の自宅まで送るようにしても良い。 For example, the inventory status and sales information (price information) of stores around the gas station can be displayed on the display 400, and a menu can be presented to the user to select a purchase list. At that time, the profile of the recognized user can be reflected in the menu. The user settles the purchase by paying with cash or a card using the payment function provided in the facing device 200.例文帳に追加The purchased item may be delivered from the store to the location of the facing apparatus 200, or sent to the user's home by a delivery service.

特に、実施形態によれば、車の走行履歴情報や、対面装置200の利用場所の履歴から利用者ごとの生活圏を推定することができる。推定された生活圏に基づいて、近隣施設以外の施設の情報からショッピング情報を提供することも可能である。例えば在庫がないなど近隣施設で希望するサービスが受けられないような場合には、利用者の行動範囲の中の別の施設でサービスを受けられることを利用者に知らせれば良い。以上のように実施形態によれば、利用者から周辺施設にサービスの提供を依頼することが可能となる。このほか、公共機関や役所において実施する手続きの代行を、対面装置200から依頼できるようにしても良い。 In particular, according to the embodiment, it is possible to estimate the living area of each user from the driving history information of the car and the history of the place of use of the facing device 200 . It is also possible to provide shopping information from information on facilities other than nearby facilities based on the estimated living area. For example, if the desired service cannot be received at a nearby facility due to lack of inventory, the user should be notified that the service can be received at another facility within the user's range of activity. As described above, according to the embodiment, it is possible for the user to request the peripheral facilities to provide services. In addition, it is also possible to make a request from the facing device 200 to act as a proxy for procedures to be carried out at a public institution or a government office.

また、利用者が希望すれば、サービスの利用中に所有物または車両を預け、サービス終了までその場を離れることを可能にしてもよい。その場合、預かった所有物は金庫に入れるなどして管理すればよいが、車両については移動式駐車場で管理するか、入力部1からの画像データを用いて不審者や持ち去りの監視をするようにしてもよい。持ち去りが発生したことは既に述べたように、認識部3の処理により認識することが可能である。認識の結果に基づいて、預けられている所有物または車両に、予め登録されている人物でない人物が接近してきたことや、預けている所有物または車両が持ち去られることを、その場を離れている利用者に通知することが可能である。以上のように実施形態によれば、利用者の所有物や車両の監視・保管サービスを実現することができる。 Also, if the user desires, it may be possible to leave the property or vehicle while using the service and leave the place until the end of the service. In that case, it is possible to manage the belongings entrusted to the custody by placing them in a safe, etc., but the vehicle may be managed in a mobile parking lot, or the image data from the input unit 1 may be used to monitor suspicious persons or takeaways. You may make it As already described, it is possible to recognize the fact that the object has been taken away by the processing of the recognition unit 3 . Based on the recognition results, it can be determined that a person other than a pre-registered person has approached the deposited property or vehicle, or that the deposited property or vehicle has been taken away. It is possible to notify existing users. As described above, according to the embodiment, it is possible to realize a monitoring/storage service for user's belongings and vehicles.

以上述べたように実施形態によれば、カメラ300により撮影された映像に映っている人物、または人物の所有物、または人物が乗車している車両情報の少なくとも一つの対象を認識できるようになる。従って、サービスを利用する対象の組合せに応じて適切な情報を提供することが可能となる。 As described above, according to the embodiment, it is possible to recognize at least one object of the information of the person appearing in the image captured by the camera 300, the property of the person, or the vehicle in which the person is riding. . Therefore, it is possible to provide appropriate information according to the combination of targets using the service.

すなわち、カメラ300で取得された画像データから、コンピュータ100により、画像データに含まれる対象の人物属性、同伴する人物と人物の組合せ、人物と所有物、人物と搭乗車両の組合せの少なくとも一つを認識する。また、認識した情報から個人を特定し、周辺の情報と組み合わせることで認識精度を高める。また、通信手段で情報を得る機能を備え、人物の所有する携帯電話や車両の走行履歴等を取得する。 That is, from the image data acquired by the camera 300, the computer 100 extracts at least one of the attributes of the target person included in the image data, the combination of the accompanying person and the person, the person and the property, and the combination of the person and the boarding vehicle. recognize. In addition, the recognition accuracy is improved by identifying the individual from the recognized information and combining it with the surrounding information. It also has a function of obtaining information by means of communication, and obtains the mobile phone owned by the person, the travel history of the vehicle, and the like.

対面装置200は、映像を出力するディスプレイ400、音声を出力するスピーカ、および操作部4を備える。操作部4は利用者が所有する端末装置と情報通信可能であり、利用者の端末装置(携帯電話機など)での表示や入力が可能である。また対面装置200に、さらに給油機能、充電機能、現金自動支払い、クレジットカード等の決済機能の少なくとも一つを備えるようにしても良い。 The facing device 200 includes a display 400 that outputs video, a speaker that outputs audio, and an operation unit 4 . The operation unit 4 is capable of information communication with a terminal device owned by the user, and is capable of display and input on the user's terminal device (mobile phone, etc.). Further, the face-to-face device 200 may further include at least one of a refueling function, a charging function, an automatic cash payment function, and a credit card settlement function.

またコンピュータ100は、特定した人物ごとの属性情報に基づいて、同一人物には共通の情報をディスプレイ400に表示する。ディスプレイ400は、お勧め情報を表示するリコメンド画面と、利用者側で任意のメニューを選択して表示する画面とを切り替えることが可能である。 Further, the computer 100 displays common information for the same person on the display 400 based on the identified attribute information for each person. The display 400 can switch between a recommendation screen displaying recommended information and a screen displaying an arbitrary menu selected by the user.

コンピュータ100は、対象を認証した結果に応じてリコメンド情報(優待情報(クーポン券など))を提供する。また利用者がリピーターであれば過去の履歴を参考にする。またコンピュータ100は、所有物、あるいは利用する車の情報から所得情報を推定し、リコメンドする商品を変更する。さらにコンピュータ100は、車の走行履歴を取得し、その内容に基づいて周辺道路の混雑情報や帰り道のお得情報などの情報を提供する。 The computer 100 provides recommendation information (preferential treatment information (coupon ticket, etc.)) according to the result of authenticating the object. Also, if the user is a repeater, the past history is referred to. Also, the computer 100 estimates income information from the information of the owned property or the car to be used, and changes the recommended products. Furthermore, the computer 100 acquires the travel history of the vehicle, and provides information such as congestion information on surrounding roads and profit information on the return trip based on the content of the travel history.

またコンピュータ100は、操作端末200のサービス利用時間に応じて出力部6から出力される内容を切り替える。すなわちコンピュータ100は、サービス(充電・給油)を利用中に周囲の必要な情報を提供したり、別のサービスの利用を代行すべく周辺施設・店舗700にメッセージ情報を通知する。これにより利用者は、待ち時間に周辺施設から所望の商品やサービスを選択することが可能になる。つまり利用者は、サービス利用をシステムに代行させ、その間に別のサービスを受けることが可能になる。さらに利用者は、サービス利用時に所有物や車をシステムに預けて管理させ、不審者監視が可能、不審者検知やサービス終了時間指定時間になれば呼び出すサービスを受けることもできる。 Further, the computer 100 switches the content output from the output unit 6 according to the service usage time of the operation terminal 200 . That is, the computer 100 provides necessary information about the surroundings while using the service (charging/refueling), and notifies the peripheral facility/store 700 of message information so as to use another service on behalf of the user. This allows the user to select desired products and services from surrounding facilities while waiting. In other words, the user can use the service on behalf of the system and receive another service during that time. In addition, when using the service, users can leave their belongings and cars in the system for management, can monitor suspicious people, and can receive services to detect suspicious people and call when the service ends at a specified time.

既存の技術では、利用者はサービスを利用している間はそのサービスが完了するまで待っている必要があった。これに対し実施形態によれば、所定のサービスを利用する人物、その所有物、同伴者、利用車両などの情報を統合して適切な情報やサービスを提供することが可能になる。また実施形態によれば、利用者はサービスを利用している間に周囲の必要な情報の提供を受けたり、別のサービスの利用をシステムに代行させたり、またはサービス利用時間の管理を代行させて利用者本人が別のサービスを受けることが可能となる。 With the existing technology, the user had to wait until the service was completed while using the service. On the other hand, according to the embodiment, it is possible to provide appropriate information and services by integrating information on a person who uses a predetermined service, his/her belongings, companions, vehicles used, and the like. Further, according to the embodiment, the user receives necessary information about the surroundings while using the service, uses another service on behalf of the system, or manages service usage time on behalf of the user. It becomes possible for the user himself/herself to receive another service.

これらのことから、対面装置200の利用者、接近した人物、物や周囲の状況に応じて情報の出力形態、情報の提供方法、サービスの提供の形態を切り替えることができるようになり、従って、利用者に応じて適切なサービスを提供することの可能な対象検出方法を提供することが可能になる。 From these, it becomes possible to switch the information output form, the information providing method, and the service providing form according to the user of the facing apparatus 200, the person who approaches, the object, and the surrounding situation. It is possible to provide an object detection method capable of providing an appropriate service according to the user.

[第2の実施形態]
図5は、第2の実施形態に係るサービス提供システムの一例を示す図である。図5において図1と共通する部分には同じ符号を付して示し、ここでは異なる部分についてのみ説明する。第2の実施形態では対面装置200およびコンピュータ100が広域にわたって複数設置される形態を想定する。コンピュータ100は広域の通信網(インターネットあるいはIP-VPNなど)で接続され、管理する情報を相互に授受して利用することが可能である。
[Second embodiment]
FIG. 5 is a diagram showing an example of a service providing system according to the second embodiment. In FIG. 5, parts common to those in FIG. 1 are denoted by the same reference numerals, and only different parts will be described here. In the second embodiment, a configuration is assumed in which a plurality of facing devices 200 and computers 100 are installed over a wide area. Computers 100 are connected by a wide area communication network (the Internet, IP-VPN, etc.), and can mutually exchange and use information to be managed.

図5において、特徴情報管理部500およびサービス情報管理部600は、データセンタ1000において集約して管理される。それぞれカメラ300および対面装置200に接続される複数のコンピュータ100は、広域に敷設される通信回線1100を介してデータセンタ1000に接続され、特徴情報管理部500およびサービス情報管理部600と各種データを授受することができる。 In FIG. 5, the feature information management unit 500 and the service information management unit 600 are collectively managed in the data center 1000 . A plurality of computers 100 connected to cameras 300 and facing apparatuses 200 are connected to a data center 1000 via a communication line 1100 laid over a wide area, and exchange various data with a feature information management unit 500 and a service information management unit 600. can give and receive.

上記構成によれば、人物やその同伴者、付帯物および車両を検出し、認識するための情報がデータセンタ1000において一元管理される。これにより端末側のコンピュータ100において管理すべきデータ量を減らせるのに加え、例えば市、県あるいは国といったレベルで情報を一元管理することが可能になり、サービスの統一性の向上を図れるなどのメリットを得ることができる。 According to the above configuration, the data center 1000 centrally manages information for detecting and recognizing a person, his/her accompanying person, accessory, and vehicle. As a result, in addition to reducing the amount of data to be managed by the computer 100 on the terminal side, information can be centrally managed at the level of city, prefecture, or country, for example, and service uniformity can be improved. you can get the benefits.

また、データセンタ1000を、いわゆるクラウドコンピューティングシステムとして理解することも可能である。この形態では、特徴情報管理部500およびサービス情報管理部600は、広域ネットワーク上の分散型データベースに形成される。 It is also possible to understand the data center 1000 as a so-called cloud computing system. In this form, the feature information management unit 500 and the service information management unit 600 are formed in a distributed database on a wide area network.

[第3の実施形態]
図6は、第3の実施形態に係るサービス提供システムの一例を示す図である。図6において図1および図5と共通する部分には同じ符号を付して示し、ここでは異なる部分についてのみ説明する。
[Third embodiment]
FIG. 6 is a diagram showing an example of a service providing system according to the third embodiment. In FIG. 6, parts common to those in FIGS. 1 and 5 are denoted by the same reference numerals, and only different parts will be described here.

図6に示されるシステムは図5の構成をさらに集約化したものに相当する。すなわち、複数のコンピュータ(101,102,103)のそれぞれに、カメラ300からの画像データを取得する入力部1、操作部4、および出力部6を持たせ、データセンタ1000に特徴情報管理部500、サービス情報管理部600に加えて検出部2、認識部3および制御部5を持たせる。そして、コンピュータ101,102,103に通信部7を備え、データセンタ1000に通信部70を備え、TCP/IPなどの通信回線1100を介して相互に通信可能としたものである。 The system shown in FIG. 6 corresponds to a more integrated configuration of FIG. That is, each of the plurality of computers (101, 102, 103) is provided with an input unit 1, an operation unit 4, and an output unit 6 for acquiring image data from the camera 300, and the data center 1000 has a feature information management unit 500. , a detection unit 2, a recognition unit 3 and a control unit 5 in addition to the service information management unit 600. FIG. Computers 101, 102, and 103 are provided with communication units 7, and data center 1000 is provided with communication units 70, which can communicate with each other via communication line 1100 such as TCP/IP.

上記構成により、コンピュータ101,102,103にはサービスを提供する現場に必要な最小限の機能を持たせ、対象の検出や認識に係わる処理をデータセンタ1000に委託することができる。これによりコンピュータ101,102,103および対面装置200を省サイズ化できるようになり、省コスト化などのメリットを得ることが可能になる。 With the above configuration, the computers 101 , 102 , 103 are provided with the minimum functions necessary for service provision sites, and the data center 1000 can be entrusted with processing related to target detection and recognition. As a result, the size of the computers 101, 102, 103 and the facing apparatus 200 can be reduced, and merits such as cost reduction can be obtained.

また、検出部2をコンピュータ101,102,103に持たせ、対象の検出以降の処理をデータセンタ1000に委託するようにしても良い。このように、どの程度までの処理をデータセンタ1000に委託するかは、システム要請や通信すべきデータ量、あるいは機器のハードウェアスペックに応じて決めることができる。 Alternatively, the computers 101, 102, and 103 may have the detection unit 2, and the data center 1000 may be entrusted with the processing after detection of the target. In this way, the extent of processing to be entrusted to the data center 1000 can be determined according to the system request, the amount of data to be communicated, or the hardware specifications of the device.

さらに、データセンタ1000をクラウドコンピューティングシステムとして理解することももちろん可能である。このケースでは、検出部2、認識部3および制御部5は複数のコンピュータに分散配置される機能オブジェクトとして理解することが可能である。 Furthermore, it is of course possible to understand the data center 1000 as a cloud computing system. In this case, the detection unit 2, the recognition unit 3 and the control unit 5 can be understood as functional objects distributed over a plurality of computers.

なお本発明は上記実施形態に限定されるものではない。例えば上記実施形態ではガスステーションへの応用について説明したが、本発明は駐車場、商業施設、公共施設(役所)、病院や美容院などに適用することも可能である。 The present invention is not limited to the above embodiments. For example, in the above embodiments, application to a gas station has been described, but the present invention can also be applied to parking lots, commercial facilities, public facilities (government offices), hospitals, beauty salons, and the like.

本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While several embodiments of the invention have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

100,101,102…コンピュータ、200…対面装置、300…カメラ、400…ディスプレイ、500…特徴情報管理部、600…サービス情報管理部、700…周辺施設・周辺店舗、800…通信回線、900…人物、1…入力部、2…検出部、3…認識部、4…操作部、5…制御部、6…出力部、1000…データセンタ、通信回線1100、7…通信部、70…通信部。 DESCRIPTION OF SYMBOLS 100, 101, 102... Computer, 200... Meeting apparatus, 300... Camera, 400... Display, 500... Characteristic information management part, 600... Service information management part, 700... Peripheral facility/peripheral store, 800... Communication line, 900... DESCRIPTION OF SYMBOLS 1... Input part 2... Detection part 3... Recognition part 4... Operation part 5... Control part 6... Output part 1000... Data center Communication line 1100 7... Communication part 70... Communication part .

Claims (4)

撮像装置と情報処理装置から構成されるシステムから画像データを取得する対象検出方法であって、
取得された画像データから人物に係る所有物と、着衣物と、着用物とを対象として検出する過程と、
前記システムが、前記検出された対象の特徴情報に基づいて当該対象の形状もしくは色を認識する過程と、
前記システムが、前記人物を画像データから認識する過程と、
前記システムが、前記認識された対象と、前記認識された人物とを対応付ける過程と、 前記システムが、前記認識された対象に対応付けられる人物を個人特定する過程とを具備する、対象検出方法。
An object detection method for acquiring image data from a system composed of an imaging device and an information processing device,
a process of detecting belongings, clothing, and clothing pertaining to a person from the acquired image data;
a process in which the system recognizes the shape or color of the object based on the detected characteristic information of the object;
a process in which the system recognizes the person from image data;
A method of object detection comprising: the system associating the recognized object with the recognized person; and the system identifying the person associated with the recognized object.
前記システムが前記人物を画像データから認識する過程は、前記システムが前記人物の性別を判別することを含む、請求項1に記載の対象検出方法。 2. The object detection method of claim 1, wherein the process of recognizing the person from image data by the system includes determining the gender of the person by the system. 前記人物にかかる所有物は、杖であることを特徴とする、請求項1に記載の対象検出方法。 2. The object detection method according to claim 1, wherein said person's property is a cane. 前記人物にかかる所有物は、鞄であることを特徴とする、請求項1に記載の対象検出方法。 2. The object detection method according to claim 1, wherein the person's property is a bag.
JP2020021664A 2020-02-12 2020-02-12 Target detection method Active JP7237871B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020021664A JP7237871B2 (en) 2020-02-12 2020-02-12 Target detection method
JP2022046706A JP7375079B2 (en) 2020-02-12 2022-03-23 Target detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020021664A JP7237871B2 (en) 2020-02-12 2020-02-12 Target detection method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018037741A Division JP2018110023A (en) 2018-03-02 2018-03-02 Target detection method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022046706A Division JP7375079B2 (en) 2020-02-12 2022-03-23 Target detection method

Publications (2)

Publication Number Publication Date
JP2020098629A JP2020098629A (en) 2020-06-25
JP7237871B2 true JP7237871B2 (en) 2023-03-13

Family

ID=71106565

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020021664A Active JP7237871B2 (en) 2020-02-12 2020-02-12 Target detection method
JP2022046706A Active JP7375079B2 (en) 2020-02-12 2022-03-23 Target detection method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022046706A Active JP7375079B2 (en) 2020-02-12 2022-03-23 Target detection method

Country Status (1)

Country Link
JP (2) JP7237871B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111976593A (en) * 2020-08-21 2020-11-24 大众问问(北京)信息科技有限公司 Voice prompt method, device, equipment and storage medium for vehicle external object

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090264A (en) 1998-09-11 2000-03-31 Omron Corp Method and device for collating living body
JP2004155427A (en) 2002-11-01 2004-06-03 Kygnus Sekiyu Kk Self-service fueling apparatus
JP2006003993A (en) 2004-06-15 2006-01-05 Calsonic Kansei Corp License plate recognition device
JP2006134072A (en) 2004-11-05 2006-05-25 Toshiba Corp Entry/exit management system and biological characteristic information verification device
JP2007264943A (en) 2006-03-28 2007-10-11 Denso Corp Vehicular communication device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173514A (en) * 1997-08-29 1999-03-16 Nissan Motor Co Ltd Recognition device for vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090264A (en) 1998-09-11 2000-03-31 Omron Corp Method and device for collating living body
JP2004155427A (en) 2002-11-01 2004-06-03 Kygnus Sekiyu Kk Self-service fueling apparatus
JP2006003993A (en) 2004-06-15 2006-01-05 Calsonic Kansei Corp License plate recognition device
JP2006134072A (en) 2004-11-05 2006-05-25 Toshiba Corp Entry/exit management system and biological characteristic information verification device
JP2007264943A (en) 2006-03-28 2007-10-11 Denso Corp Vehicular communication device

Also Published As

Publication number Publication date
JP2022075904A (en) 2022-05-18
JP2020098629A (en) 2020-06-25
JP7375079B2 (en) 2023-11-07

Similar Documents

Publication Publication Date Title
US10395262B2 (en) Systems and methods for sensor data analysis through machine learning
JP7371614B2 (en) Store management device and store management method
JP2014160394A (en) Service provision system
JP2018093283A (en) Monitoring information gathering system
CN108242007B (en) Service providing method and device
JP4086787B2 (en) Service support system, service support server, and service support method
KR102060694B1 (en) Customer recognition system for providing personalized service
JP5704279B1 (en) Associated program and information processing apparatus
JP2005267430A (en) Information providing system
US20220351219A1 (en) Store use information distribution device, store use information distribution system equipped with same, and store use information distribution method
WO2019038968A1 (en) Storefront device, storefront system, storefront management method, and program
KR20170082299A (en) The object recognition and attention pursuit way in the integration store management system of the intelligent type image analysis technology-based
JP2018005691A (en) Information processing system, information processing device and information processing method
EP3780537B1 (en) Store system, and method and apparatus for processing information of clothes to be tried on
WO2019181364A1 (en) Store management device and store management method
JP2018110023A (en) Target detection method
JP7375079B2 (en) Target detection method
JP6305483B2 (en) Computer apparatus, service providing system, service providing method, and program
TWM570489U (en) Smart store shopping system
WO2021230123A1 (en) Store system, information processing device, information processing method, and program
GB2607171A (en) System for and method of determining user interactions with smart items
JP5962747B2 (en) Associated program and information processing apparatus
KR20180121094A (en) Vehicle database management system for manless parking lot and method thereof
JP2020135898A (en) Information processing system, method for controlling information processing system, program, and recording medium
WO2022195752A1 (en) Information processing device, information processing method, and recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221014

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230301

R150 Certificate of patent or registration of utility model

Ref document number: 7237871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150