JP7185537B2 - Imaging system - Google Patents
Imaging system Download PDFInfo
- Publication number
- JP7185537B2 JP7185537B2 JP2019004370A JP2019004370A JP7185537B2 JP 7185537 B2 JP7185537 B2 JP 7185537B2 JP 2019004370 A JP2019004370 A JP 2019004370A JP 2019004370 A JP2019004370 A JP 2019004370A JP 7185537 B2 JP7185537 B2 JP 7185537B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- target person
- person
- camera
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
本発明は、撮像システムに関する。 The present invention relates to imaging systems.
例えばテーマパーク等において敷地内に定点カメラを複数設置し、各定点カメラにおいて撮像されたシーンをつなぎ合わせて、動画を生成するサービスが知られている。このようなサービスにおいては、例えば入場者毎にその人物が写っているシーンをつなぎ合わせた動画を生成することが考えられる。入場者毎の動画を生成する場合には、例えば特許文献1に記載されたような顔認証技術によって人物の識別が行われる。 For example, a service is known in which a plurality of fixed-point cameras are installed in a theme park or the like, and scenes captured by the fixed-point cameras are connected to generate a moving image. In such a service, for example, it is conceivable to generate a moving image by connecting scenes in which the person is shown for each visitor. When generating a moving image for each visitor, identification of a person is performed by face recognition technology as described in Patent Literature 1, for example.
ここで、例えば顔写真のみを人物特定のための情報として用いる場合等においては、人物を特定するための事前情報が少なく、人物抽出を高精度に行うことができない。すなわち、例えば、顔写真のみを用いて人物抽出を行おうとした場合には、人物の後姿のみを撮像した定点カメラの画像からは人物抽出を行うことができず、人物抽出を高精度に行うことができない。 Here, for example, when only a photograph of a person's face is used as information for identifying a person, there is little prior information for identifying the person, and the person cannot be extracted with high accuracy. That is, for example, when trying to extract a person using only a face photograph, it is impossible to extract a person from an image of a fixed-point camera that captures only the back of the person. can't
本発明は上記実情に鑑みてなされたものであり、複数の撮像装置を含んで構成される撮像システムにおいて、撮像画像から対象人物の抽出を高精度に行うことを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and it is an object of the present invention to extract a target person from a captured image with high precision in an imaging system including a plurality of imaging devices.
本発明の一態様に係る撮像システムは、複数の撮像装置を含んで構成される撮像システムであって、撮像画像を取得する撮像画像取得部と、撮像画像から、対象人物の顔情報、及び、該対象人物の顔以外の情報であって該対象人物に関連する関連情報の少なくともいずれか一方を検出し、検出結果に基づき対象人物が写っているシーンを抽出する検出部と、検出部による検出結果について、複数の撮像装置間で共有されるように出力する出力部と、複数の撮像装置間で共有される、対象人物の顔情報及び関連情報を対応付けて記憶する記憶部と、を備え、検出部は、記憶部において対応付けて記憶された情報に基づき、撮像画像から対象人物に関連する関連情報を検出し、該関連情報が写っているシーンを、該関連情報に係る前記対象人物が写っているシーンとして抽出する。 An imaging system according to an aspect of the present invention is an imaging system including a plurality of imaging devices, and includes a captured image acquisition unit that acquires a captured image, face information of a target person from the captured image, and a detection unit for detecting at least one of information other than the face of the target person and related to the target person, and extracting a scene in which the target person is shown based on the detection result; and detection by the detection unit. An output unit that outputs results so as to be shared among a plurality of imaging devices, and a storage unit that associates and stores face information of a target person and related information shared among the plurality of imaging devices. , the detection unit detects relevant information related to the target person from the captured image based on the information stored in correspondence in the storage unit, and detects the scene in which the relevant information is captured as the target person related to the relevant information. is extracted as a scene in which is shown.
本発明の一態様に係る撮像システムでは、対象人物の顔情報及び関連情報の検出結果が各撮像装置間で共有され、記憶部において、対象人物の顔情報及び関連情報が対応付けて記憶されている。このため、撮像システムにおいては、撮像画像から関連情報を検出することができれば、該関連情報に係る対象人物が写っているシーンを適切に抽出することができる。すなわち、対象人物の顔情報及び関連情報が対応付けられていることによって、例えば対象人物の顔情報を検出することができない場合であっても、関連情報さえ検出できれば、該関連情報が写っているシーンを対象人物が写っているシーンとして適切に抽出することができる。このように、顔情報を検出することができない撮像画像からも対象人物のシーンを抽出することによって、対象人物の抽出をより高精度に行うことができる。 In the imaging system according to one aspect of the present invention, detection results of the target person's face information and related information are shared among the imaging devices, and the storage unit stores the target person's face information and related information in association with each other. there is Therefore, in the imaging system, if the related information can be detected from the captured image, the scene in which the target person related to the related information is shown can be appropriately extracted. That is, since the face information of the target person and the related information are associated with each other, even if the face information of the target person cannot be detected, if the related information can be detected, the related information is captured. A scene can be appropriately extracted as a scene in which a target person is shown. In this way, by extracting the scene of the target person even from the captured image in which the face information cannot be detected, the extraction of the target person can be performed with higher accuracy.
上述した撮像システムでは、検出部は、対象人物の顔情報の検出に成功した場合において、対象人物が携行している情報を関連情報として検出してもよい。対象人物が携行している情報は、対象人物との関連度が高く、対象人物と共に撮像される可能性が高いと考えられる。このような情報が、対象人物の顔情報の検出に成功した撮像装置によって関連情報として検出されることにより、該関連情報に基づいてより高精度に対象人物の抽出を行うことができる。 In the imaging system described above, the detection unit may detect information carried by the target person as related information when the target person's face information is successfully detected. The information carried by the target person has a high degree of relevance to the target person, and is likely to be imaged together with the target person. Such information is detected as related information by an imaging device that has successfully detected the face information of the target person, so that the target person can be extracted with higher accuracy based on the related information.
上述した撮像システムでは、検出部は、対象人物の顔情報の検出に成功した場合において、対象人物の周囲にいる周囲人物を関連情報として検出してもよい。対象人物の周囲人物は、対象人物との関連度が高く、対象人物と共に撮像される可能性が高いと考えられる。このような情報が、対象人物の顔情報の検出に成功した撮像装置によって関連情報として検出されることにより、該関連情報に基づいてより高精度に対象人物の抽出を行うことができる。 In the imaging system described above, when the detection of the target person's face information is successful, the detection unit may detect surrounding persons around the target person as related information. People around the target person have a high degree of association with the target person, and are likely to be imaged together with the target person. Such information is detected as related information by an imaging device that has successfully detected the face information of the target person, so that the target person can be extracted with higher accuracy based on the related information.
上述した撮像システムでは、周囲人物は、他の撮像装置においても対象人物の周囲人物として検出されていた場合に、関連情報とされてもよい。これにより、互い異なるロケーションの撮像装置のいずれにおいても周囲人物として検出されていた場合にのみ、該周囲人物が関連情報とされるため、例えば偶然(一時的に)、対象人物の周囲にいたような人物が関連人物(関連情報)とされることを抑制し、より高精度に対象人物の抽出を行うことができる。 In the imaging system described above, surrounding persons may be regarded as related information when they are detected as surrounding persons of the target person also in other imaging devices. As a result, only when a surrounding person is detected as a surrounding person by any of the imaging devices at different locations, the surrounding person is treated as relevant information. Therefore, it is possible to suppress a person who is not a relevant person from being regarded as a related person (related information), and extract a target person with higher accuracy.
上述した撮像システムでは、記憶部は、複数の撮像装置それぞれの位置情報と、対象人物の顔情報及び関連情報の少なくともいずれか一方を検出した撮像装置を示す情報と、該撮像装置が検出した時刻とを更に記憶しており、検出部は、記憶部に記憶されている、複数の撮像装置それぞれの位置情報、検出した撮像装置を示す情報、及び、該撮像装置が検出した時刻を考慮して、撮像画像から対象人物の顔情報及び関連情報の少なくともいずれか一方を検出してもよい。対象人物を検出するに際し、上記の内容が考慮されることにより、対象人物が撮像範囲に入りうるフレームや、対象人物が撮像範囲に流入してくる方向が推定できる(すなわち、検出範囲の絞り込みができる)ため、対象人物の検出精度及び検出速度を向上させることができる。 In the imaging system described above, the storage unit stores position information of each of the plurality of imaging devices, information indicating the imaging device that detected at least one of the face information and related information of the target person, and the time at which the imaging device detected it. is further stored, and the detection unit considers the position information of each of the plurality of imaging devices, the information indicating the detected imaging device, and the time when the imaging device detected it, which are stored in the storage unit. , at least one of face information and related information of the target person may be detected from the captured image. By considering the above contents when detecting a target person, it is possible to estimate the frame in which the target person can enter the imaging range and the direction in which the target person flows into the imaging range (that is, the detection range can be narrowed down). Therefore, it is possible to improve the detection accuracy and detection speed of the target person.
上述した撮像システムでは、検出部は、検出した関連情報について、種別に応じた変化のしやすさを特定し、該変化のしやすさを考慮して、該関連情報が写っているシーンを抽出するか否かを決定してもよい。関連情報については、比較的短期間で情報が変化しやすいもの(例えば服装や持ち運んでいる食べ物等)と、変化しにくいもの(例えば指輪等)とがある。このような変化のしやすさを考慮して、例えば変化しやすい関連情報についてはその情報だけでは関連情報が写っているシーンを抽出せず他の関連情報を検出した場合にのみ関連情報が写っているシーンを抽出する等を行うことによって、より高精度に対象人物の抽出を行うことができる。 In the imaging system described above, the detection unit specifies the easiness of change according to the type of detected related information, and extracts a scene in which the related information is captured, taking into consideration the easiness of change. You may decide whether to Related information includes information that is likely to change in a relatively short period of time (for example, clothes, food that you are carrying, etc.) and information that is difficult to change (for example, rings). In consideration of such easiness of change, for example, for related information that is easily changed, the scene in which the related information is captured is not extracted using only that information, and the related information is captured only when other related information is detected. The target person can be extracted with higher accuracy by extracting the scene in which the target person appears.
記憶部は、初期状態において対象人物の顔情報を記憶しており、撮像画像から対象人物の顔情報及び関連情報の双方の検出に成功した撮像装置からの情報に基づき、対象人物の顔情報に関連情報を対応付けて記憶してもよい。このように、実際に検出された情報に基づき関連情報を対象人物に対応付けることにより、関連情報を用いた対象人物の抽出をより高精度に行うことができる。 The storage unit stores the face information of the target person in an initial state, and stores the face information of the target person based on the information from the imaging device that has successfully detected both the face information of the target person and related information from the captured image. Related information may be associated and stored. In this way, by associating the relevant information with the target person based on the actually detected information, it is possible to extract the target person using the relevant information with higher accuracy.
本発明によれば、複数の撮像装置を含んで構成される撮像システムにおいて、撮像画像から対象人物の抽出を高精度に行うことができる。 Advantageous Effects of Invention According to the present invention, it is possible to extract a target person from a captured image with high accuracy in an imaging system including a plurality of imaging devices.
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。図面の説明において、同一又は同等の要素には同一符号を用い、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same reference numerals are used for the same or equivalent elements, and overlapping descriptions are omitted.
図1は、本実施形態に係る撮像システム1の基本動作を説明する図である。図1に示される撮像システム1は、複数のカメラ10(撮像装置)と、サーバ50とを含んで構成されている。複数のカメラ10は、特定の敷地内において、互いに異なる地点に固定的に設置された定点カメラである。カメラ10は、撮影した動画について、ネットワーク(インターネット)を介してサーバ50にアップロード可能に構成されている。撮像システム1は、複数のカメラ10の入力を用いて、予め指定されている対象人物が写っているシーンを抽出するシステムである。例えば、図1に示されるように、人物Aが対象人物である場合においては、撮像システム1の複数のカメラ10は、撮像した動画において人物Aを検出(識別)することができた場合には動画をサーバ50にアップロードし、撮像した動画において人物Aを検出することができなかった場合には動画をサーバ50にアップロードしない。そして、サーバ50は、各カメラ10から取得した動画(人物Aが写ったシーンからなる動画)をつなぎ合わせることにより、複数のカメラ10が設置された敷地内における人物Aの動画を生成する。撮像システム1は、例えば、テーマパーク、スキー場等の敷地内における入園者毎の動画を自動生成し提供するサービスに利用される。
FIG. 1 is a diagram for explaining the basic operation of an imaging system 1 according to this embodiment. The imaging system 1 shown in FIG. 1 includes a plurality of cameras 10 (imaging devices) and a
撮像システム1においては、複数のカメラ10間において、対象人物の検出結果が共有される。対象人物の検出結果とは、対象人物の顔情報だけでなく、対象人物に関連する関連情報(詳細は後述)を含むものである。このような検出結果が各カメラ10間で共有されることにより、例えば、対象人物を正面から撮像することができず対象人物の顔情報を検出できないカメラ10においても、対象人物の顔情報及び関連情報が予め共有されていることによって、関連情報を検出し、該関連情報に係る対象人物のシーンを抽出することが可能になる。このように、撮像システム1は、複数のカメラ10間で対象人物の検出結果を共有することによって、対象人物が写ったシーンをより高精度且つ漏れなく抽出するものである。
In the imaging system 1 , detection results of the target person are shared among the plurality of
なお、敷地内に複数設置されたカメラ10について、その設置角度は特に限定されないが、例えば、オープンスペースにおける曲がり角において角の2等分線上に設置されていてもよい。この場合には、人物が角を曲がる前後の映像から、人物の表側(腹側45度)及び裏側(背側45度)の映像を取得することができるため、例えば人物の顔、服装の表側(関連情報の一例)、及び服装の裏側(関連情報の一例)のデータを適切に紐づけることができる。
In addition, the installation angle of the
図2は、本実施形態に係る撮像システム1に含まれるカメラ10の機能構成を示すブロック図である。図2に示されるように、複数のカメラ10のそれぞれは、記憶部11と、取得部12(撮像画像取得部)と、検出部13と、データ生成部14と、出力部15と、を備えている。
FIG. 2 is a block diagram showing the functional configuration of the
記憶部11は、複数のカメラ10間で共有される、対象人物の顔情報及び関連情報を対応付けて記憶している。関連情報とは、対象人物の顔以外の情報であって該対象人物に関連する情報である(詳細は後述)。具体的には、記憶部11は、人物レコードと、カメラレコードと、カメラ関係レコードとを記憶するデータベースである。なお、記憶部11において記憶されている各情報(少なくとも人物レコード、カメラレコード、及びカメラ関係レコードを含む情報)については、サーバ50においても記憶されている。すなわち、複数のカメラ10及びサーバ50間において、共通の情報が記憶されている。
The
人物レコードは、撮像対象である対象人物毎に設定される情報であり、人物IDと、顔画像(顔情報)と、服装画像のリスト(関連情報)と、周辺人物IDのリストと、関連人物IDのリスト(関連情報)と、最終検出カメラIDと、最終検出時刻と、最終検出移動方向とが対応付けられた情報である。人物IDとは人物を一意に特定する識別情報である。顔画像とは、当該人物の顔画像(詳細には、顔画像に係る特徴データ)である。服装画像のリストとは、当該人物の服装(例えば上着)について腹側及び背側等の複数のアングルから取得された画像のリストである。周辺人物IDのリストとは、当該人物の周囲にいる人物を一意に特定する識別情報のリストである。関連人物IDのリストとは、周辺人物IDで示される人物のうち対象人物に関連する人物であると推定される人物(詳細は後述)を一意に特定する識別情報のリストである。なお、周辺人物IDのリスト及び関連人物IDのリストに含まれる各人物の識別情報は、対応する各人物の顔画像に係る特徴データと対応付けられている。最終検出カメラIDとは、対象人物の顔情報及び関連情報の少なくともいずれか一方を直近で検出したカメラ10を一意に特定する識別情報である。最終検出時刻とは、最終検出カメラIDで示されるカメラ10が対象人物の顔情報等を検出した時刻である。最終検出移動方向とは、最終検出カメラIDで示されるカメラ10が対象人物の顔情報等を検出した際における該対象人物の移動方向である。人物レコードの各情報のうち、顔画像は「対象人物の顔情報」であり、服装画像のリスト及び関連人物IDのリストは「対象人物に関連する関連情報」である。詳細には、服装画像のリストは、対象人物が携行している情報の一例であり、関連人物IDのリストは対象人物の周囲にいる周囲人物の一例である。なお、人物レコードにおいて、対象人物に関連する関連情報(詳細には対象人物が携行している情報)として、バッグ、食べ物、サングラス、マスク、帽子、指輪、及び髪型等の画像が記憶されていてもよい。
A person record is information set for each target person who is an imaging target, and includes a person ID, a face image (face information), a list of clothes images (related information), a list of peripheral person IDs, and related persons. It is information in which a list of IDs (related information), the last detected camera ID, the last detected time, and the last detected movement direction are associated with each other. A person ID is identification information that uniquely identifies a person. A face image is a face image of the person (specifically, feature data relating to the face image). The clothing image list is a list of images of the person's clothing (for example, a jacket) obtained from a plurality of angles such as the ventral side and the back side. A peripheral person ID list is a list of identification information that uniquely identifies persons around the person. The list of related person IDs is a list of identification information that uniquely identifies a person (details will be described later) who is presumed to be related to the target person among the persons indicated by the surrounding person IDs. The identification information of each person included in the peripheral person ID list and the related person ID list is associated with the feature data related to the corresponding face image of each person. The last detected camera ID is identification information that uniquely identifies the
人物レコードは、時系列の進行に伴って情報が書き換わっていく(情報が増減する)。人物レコードの各情報のうち、人物ID及び顔画像については、例えばサーバ50において予め設定(記憶)されて各カメラ10に共有されるものであり、カメラ10による対象人物の検出を待たずに初期状態から記憶されている情報である。人物レコードの各情報のうち、服装画像のリスト、周辺人物IDのリスト、及び関連人物IDのリストについては、対象人物の顔情報及び関連情報の双方の検出に成功した少なくとも1つ以上のカメラ10からの情報に基づき、人物ID及び顔画像に対応付けて記憶される情報である。ただし、服装画像のリストのうち背側のアングルから取得される画像については、対象人物の関連情報(服装)のみの検出に成功したカメラ10からの情報に基づき記憶されるものであってもよい。最終検出カメラID、最終検出時刻、及び最終検出移動方向については、対象人物の顔情報及び関連情報の少なくともいずれか一方の検出に成功したカメラ10からの情報に基づき、人物ID及び顔画像に対応付けて記憶される情報である。
In the person record, information is rewritten (information increases or decreases) as time series progresses. Of the information in the person record, the person ID and the face image are set (stored) in advance in the
カメラレコードは、複数のカメラ10毎に設定される情報であり、カメラIDと、カメラ設置位置と、カメラ設置方向とが対応付けられた情報である。カメラIDとはカメラ10を一意に特定する識別情報である。カメラ設置位置とはカメラ10が設置された位置(場所)を示す情報である。カメラ設置方向とはカメラ10の撮像方向を示す情報である。カメラ関係レコードは、各カメラ10について、他の1つのカメラ10との関係を示す情報である。カメラ関係レコードでは、2つのカメラ(例えば第1カメラ及び第2カメラ)について、第1カメラ及び第2カメラの撮像エリア間の距離と、第1カメラから第2カメラへ移動する場合の移動方向と、第2カメラから第1カメラへ移動する場合の移動方向とが対応付けられている。カメラレコード及びカメラ関係レコードは、カメラ10の設置場所等を変更しない限りは不変の情報である。
A camera record is information set for each of a plurality of
取得部12は、撮像素子において撮像された撮像画像を取得する。取得部12は、撮像素子から、フレーム毎に撮像画像を読み込む。取得部12は、読み込んだフレーム毎の撮像画像を検出部13に出力する。
The
検出部13は、撮像画像から、対象人物の顔情報、及び、対象人物の顔以外の情報であって対象人物に関連する関連情報の少なくともいずれか一方を検出し、検出結果に基づき対象人物が写っているシーンを抽出する。検出部13は、記憶部11の人物レコードを参照し、各人物IDに対応付けられた顔画像(対象人物の顔情報)を撮像画像から検出可能か否かを判定する。顔画像の検出は、例えば従来から周知の顔認証技術を用いることにより行われる。検出部13は、対象人物の顔画像(顔情報)の検出に成功した場合、該対象人物が写っているシーンを抽出する。
The
検出部13は、対象人物の顔画像(顔情報)の検出に成功した場合において、関連情報の検出を行う。具体的には、検出部13は、検出した対象人物が携行している情報を関連情報として検出する。本実施形態では、携行している情報として服装(上着)の画像を検出する例を説明するが、検出部13は、携行している情報として、バッグ、食べ物、サングラス、マスク、帽子、及び指輪等の画像を検出してもよい。
The
また、検出部13は、検出した対象人物の周囲にいる周囲人物を関連人物(関連情報)として検出してもよい。検出部13は、例えば、対象人物との離間距離が、団体(2人以上)で行動する際に想定され得る範囲内である人物を周囲人物として検出する。なお、周囲人物は、他のカメラ10においても対象人物の周囲人物として検出されていた場合に、関連人物(関連情報)とされてもよい。また、検出部13は、周囲人物と対象人物が一定の距離を保って横に並んで同じ速度で歩いていることを検出した場合に周囲人物を関連人物としてもよいし、周囲人物と対象人物が向き合って会話をしている(口の動きで会話をしていると判断できる)場合に周囲人物を関連人物としてもよいし、周囲人物と対象人物が手をつないでいる場合に周囲人物を関連人物としてもよい。このような方法によれば、単一のカメラ10の情報から物体検出AI等を用いて関連人物を検出できるため、複数のカメラ10の情報を用いずに関連人物を検出することができる。周囲人物が関連人物であるか否かの判定は、例えば、検出部13が記憶部11の人物レコードを参照することにより行われる。この場合、検出部13は、人物レコードの周辺人物IDのリストに対応付けられた顔画像(他のカメラ10において検出された周囲人物の顔画像)が、検出した周囲人物の顔画像と同様である場合に、該周囲人物が関連人物(関連情報)であると判定する。また、周囲人物が関連人物であるか否かの判定は、カメラ10と同様の情報を記憶するサーバ50において行われてもよい。
Further, the
また、検出部13は、上述した情報以外の様々な情報を関連情報として検出してもよい。例えば検出部13は、人物を正面以外から撮像した画像(横からの姿、後姿)を関連情報としてもよいし、髪型、髪色、耳の形など携行物ではない人物自身の情報を関連情報としてもよい。例えばカメラ10を曲がり角に設置することによって、角を曲がる前後で人物の撮像角度を異ならし、上述した正面以外から撮像した画像を取得することができる。また、例えばカメラ10をチケット券売機を撮像できる位置に設置することによって、購入前(券売機を向いた人物の後姿)、購入後(券売機に背を向けた人物の正面の姿)の画像を取得することができる。すなわち、購入後のフレームにおいて顔写真から人物の検出に成功した場合において、さかのぼって、購入前のフレームから後姿の関連情報を取得することができる。
Further, the
検出部13は、例えば対象人物の顔画像(顔情報)を検出できなかった場合においても、記憶部11において対応付けて記憶された情報に基づき、撮像画像から対象人物に関連する関連情報を検出し、関連情報が写っているシーンを、該関連情報に係る対象人物が写っているシーンとして抽出する。例えば、検出部13は、記憶部11の人物レコードを参照し、服装画像のリストに示された服装画像を撮像画像から検出可能か否かを判定する。検出部13は、服装画像のリストに示された服装画像が写っているシーンを、対象人物が写っているシーンとして抽出する。或いは、検出部13は、記憶部11の人物レコードを参照し、関連人物IDのリストに対応付けられた顔画像(関連人物の顔画像)を撮像画像から検出可能か否かを判定する。検出部13は、関連人物IDのリストに対応付けられた顔画像が写っているシーンを、対象人物が写っているシーンとして抽出する。
For example, even when the face image (face information) of the target person cannot be detected, the
検出部13は、検出した関連情報について、種別に応じた変化のしやすさを特定し、該変化のしやすさを考慮して、該関連情報が写っているシーンを対象人物が写っているシーンとして抽出するか否かを決定してもよい。変化のしやすさとは、例えば変化にかかる推定時間である。関連情報のうち、例えば服装(上着)や持ち運んでいる食べ物等については、比較的変化しやすい(短期間で変化する)と考えられる。一方で、関連情報のうち、例えば関連人物や指輪等については、比較的変化しにくい(短期間で変化しない)と考えられる。このような関連情報の変化のしやすさを考慮することにより、例えば変化しやすい関連情報については、その情報だけでは該関連情報が写っているシーンを対象人物が写っているシーンとして抽出せずに、他の関連情報についても写っていることを条件として対象人物が写っているシーンとする等の判断が可能となる。
The detecting
検出部13は、記憶部11に記憶されている情報を更に利用して、撮像画像から対象人物の顔情報及び関連情報の少なくともいずれか一方を検出してもよい。例えば、検出部13は、記憶部11のカメラレコードを参照して得られる複数のカメラ10の位置情報、人物レコードを参照して得られる最終検出カメラID(検出したカメラ10を示す情報)、及び、人物レコードを参照して得られる最終検出時刻(カメラ10が検出した時刻)を考慮して、対象人物の顔情報及び関連情報の少なくともいずれか一方を検出してもよい。上記の情報を考慮することによって、検出部13は、対象人物が撮像範囲に入りうるフレームや、対象人物が撮像範囲に流入してくる方向が推定できる(すなわち、検出範囲の絞り込みができる)ため、対象人物の検出精度及び検出速度を向上させることができる。また、検出部13は、例えば、遠く(例えば数百m等)離れたカメラ10において所定時間内(例えば数分等)に顔情報又は関連情報が検出された対象人物については、検出され得ない対象人物として検出対象から除外し、その他の対象人物の検出のみを試みる等の処理が可能になる。また、検出部13は、例えば記憶部11のカメラ関係レコードを更に参照して、対象人物を検出したカメラ10の撮像対象エリアから自らのカメラ10の撮像対象エリアまでの距離(例えば50m)を特定すると共に、対象人物を検出したカメラ10の撮像エリアから自らのカメラ10の撮像エリアに向かって人物が歩いてくる場合の移動方向を特定し、これらの特定した情報と、人物の通常想定され得る移動速度とを考慮して、自らのカメラ10において対象人物が撮像され得る撮像フレームを絞り込んで、対象人物の検出を行ってもよい。
The
検出部13は、抽出したシーンをデータ生成部14に出力する。データ生成部14は、検出部13によって抽出された各フレームのシーンについてエンコード処理を行って動画データを生成し、抽出されたシーンに係る動画データをサーバ50に送信する。サーバ50は、動画データを受信してデコード処理を行う。更に、サーバ50は、例えば動画の時間幅を所定長以下に収めるための動画ハイライトシーン抽出をフレーム毎に繰り返し行い、対象人物を含むハイライト動画を生成する。
The
また、検出部13は、検出結果に基づき、検出した対象人物の顔画像の特徴データ、関連情報(服装画像、関連人物の顔画像の特徴データ等)、及び周囲人物の顔画像の特徴データを生成し、出力部15に出力する。出力部15は、検出部13による検出結果について、複数のカメラ10間で共有されるように出力する。出力部15は、例えば、検出部13による検出結果をサーバ50に送信する。サーバ50は、カメラ10における検出結果を記憶すると共に、各カメラ10に検出結果を送信する。これにより、複数のカメラ10及びサーバ50間で、各カメラ10における検出結果が共有される。なお、上述したように、サーバ50において、周囲人物が関連人物であるか否かの判定が行われてもよい。
Further, based on the detection result, the
次に、図3を参照して、撮像システム1に含まれるカメラ10が行う処理を説明する。図3は、本実施形態に係る撮像システム1に含まれるカメラ10が行う処理を示すフローチャートである。なお、ステップS4及びS5の処理は、ステップS6及びステップS7の処理と同時に行われてもよいし、ステップS6及びステップS7の処理よりも後に行われてもよい。
Next, processing performed by the
図3に示されるように、カメラ10は、まず、撮像素子からフレーム毎に撮像画像を読み込む(ステップS1)。つづいて、カメラ10は、撮像画像から、人物検出を行う(ステップS2)。具体的には、カメラ10は、人物レコードを参照し、各人物IDに対応付けられた顔画像(対象人物の顔情報)を撮像画像から検出可能か否かを判定する。また、カメラ10は、対象人物の関連情報の検出を行う。具体的には、カメラ10は、人物レコードを参照し、服装画像のリストに示された服装画像を撮像画像から検出可能か否かを判定する。或いは、カメラ10は、人物レコードを参照し、関連人物IDのリストに対応付けられた顔画像を撮像画像から検出可能か否かを判定する。
As shown in FIG. 3, the
カメラ10は、撮像画像から、対象人物の顔情報、及び、対象人物に関連する関連情報の少なくともいずれか一方を検出すると、検出結果に基づき対象人物が写っているシーンを抽出する(ステップS3)。そして、カメラ10は、抽出された各フレームのシーンについてエンコード処理を行い動画データを生成し(ステップS4)、該動画データをサーバ50に送信する(ステップS5)。また、カメラ10は、検出結果に基づき、検出した対象人物の顔画像の特徴データ、関連人物の顔画像の特徴データ等を生成し(ステップS6)、該特徴データをサーバ50に送信する(ステップS7)。なお、サーバ50に送信された特徴データは、各カメラ10に共有される。
When the
次に、本実施形態に係る撮像システム1の作用効果について説明する。 Next, the effects of the imaging system 1 according to this embodiment will be described.
例えばテーマパーク等において敷地内に定点カメラを複数設置し、各定点カメラにおいて撮像されたシーンをつなぎ合わせて、動画を生成するサービスが知られている。このようなサービスにおいては、例えば入場者毎にその人物が写っているシーンのみをつなぎ合わせた動画を生成することが考えられる。このようなサービスを実現する撮像システムについて、例えば図4に示されるような動作イメージが考えられる。図4に示される比較例に係る撮像システムでは、各カメラにおいて、撮像素子からフレーム毎の撮像画像が読み込まれ、動画データが生成されて、全ての動画データ(全シーン)がネットワークを介してサーバに送信されている。そして、サーバにおいて、動画データ(全シーン)が受信され、動画データがデコードされて、フレーム毎に対象人物の人物検出が行われて、対象人物を含むハイライト動画が生成されている。このような撮像システムでは、カメラからサーバに対して撮像した全ての動画データが送信されているため、データ量が大きくなりコストが高くなることが問題となる。 For example, a service is known in which a plurality of fixed-point cameras are installed in a theme park or the like, and scenes captured by the fixed-point cameras are connected to generate a moving image. In such a service, for example, it is conceivable to generate, for each visitor, a moving image in which only scenes in which the visitor is shown are combined. For an imaging system that realizes such a service, an operation image as shown in FIG. 4, for example, is conceivable. In the imaging system according to the comparative example shown in FIG. 4, in each camera, captured images for each frame are read from the imaging element, moving image data is generated, and all moving image data (all scenes) are sent to the server via the network. has been sent to Then, the server receives the video data (all scenes), decodes the video data, detects the target person for each frame, and generates a highlight video including the target person. In such an imaging system, since all captured moving image data is transmitted from the camera to the server, there is a problem that the amount of data increases and the cost increases.
この点、本実施形態に係る撮像システム1では、カメラ10において対象人物が写っているシーンが抽出されるため、カメラ10からサーバ50に送信するデータ量を必要最小限に抑えることができ、上述した比較例に係る撮像システムの課題(データ量が大きくなりコストが高くなる)を解決することができる。なお、例えば図4に示される構成以外の比較例として、カメラで人物検出を行うものの、人物検出をバッチ処理(例えば過去1時間分の映像を全部集めてきて処理する等)で行う構成が考えられる。このような構成の場合、一定時間分の映像を一時的に保存するための記憶装置が各カメラに必要になるか、或いは、別の装置で記憶する場合にはカメラ及び装置間で膨大な通信が生じるため、コスト及びスケーラビリティの点が問題となる。この点、本実施形態に係る撮像システム1では、バッチ処理ではなく同時処理(カメラ10が撮像すると同時に検出処理及び情報共有処理)を行うため、不要なデータについてはその都度削除することとなり、各カメラ10に上述したような記憶装置が不要になる。また、同時処理であることによって、例えば施設内の迷子を捜したい場合等、即時に人物抽出結果を得たい場合に、タイムラグなく、人物検出を行うことができる。
In this regard, in the imaging system 1 according to the present embodiment, since the scene in which the target person is captured by the
より詳細には、本実施形態に係る撮像システム1は、複数のカメラ10を含んで構成される撮像システムであって、複数のカメラ10それぞれは、撮像画像を取得する取得部12と、撮像画像から、対象人物の顔情報、及び、該対象人物の顔以外の情報であって該対象人物に関連する関連情報の少なくともいずれか一方を検出し、検出結果に基づき対象人物が写っているシーンを抽出する検出部13と、検出部13による検出結果について、複数のカメラ10間で共有されるように出力する出力部15と、複数のカメラ10間で共有される、対象人物の顔情報及び関連情報を対応付けて記憶する記憶部11と、を備え、検出部13は、記憶部11において対応付けて記憶された情報に基づき、撮像画像から対象人物に関連する関連情報を検出し、該関連情報が写っているシーンを、該関連情報に係る対象人物が写っているシーンとして抽出する。
More specifically, the imaging system 1 according to the present embodiment is an imaging system including a plurality of
このような撮像システム1では、対象人物の顔情報及び関連情報の検出結果が各カメラ10間で共有され、記憶部11において、対象人物の顔情報及び関連情報が対応付けて記憶されている。このため、撮像システム1においては、撮像画像から関連情報を検出することができれば、該関連情報に係る対象人物が写っているシーンを適切に抽出することができる。すなわち、対象人物の顔情報及び関連情報が対応付けられていることによって、例えば対象人物の顔情報を検出することができない場合であっても、関連情報さえ検出できれば、該関連情報が写っているシーンを対象人物が写っているシーンとして適切に抽出することができる。このように、顔情報を検出することができない撮像画像からも対象人物のシーンを抽出することによって、対象人物の抽出をより高精度に行うことができる。なお、関連情報は、顔情報と比べて形状やパターンが変化しにくい場合が多く、認識しやすいというメリットもある。これにより、対象人物の抽出をより高精度に行うことができる。
In such an imaging system 1, detection results of the target person's face information and related information are shared among the
撮像システム1では、検出部13は、対象人物の顔情報の検出に成功した場合において、対象人物が携行している情報を関連情報として検出する。対象人物が携行している情報は、対象人物との関連度が高く、対象人物と共に撮像される可能性が高いと考えられる。このような情報が、対象人物の顔情報の検出に成功したカメラ10によって関連情報として検出されることにより、該関連情報に基づいてより高精度に対象人物の抽出を行うことができる。
In the imaging system 1, the
撮像システム1では、検出部13は、対象人物の顔情報の検出に成功した場合において、対象人物の周囲にいる周囲人物を関連人物(関連情報)として検出する。対象人物の周囲人物は、対象人物との関連度が高く、対象人物と共に撮像される可能性が高いと考えられる。このような情報が、対象人物の顔情報の検出に成功したカメラ10によって関連情報として検出されることにより、該関連情報に基づいてより高精度に対象人物の抽出を行うことができる。すなわち、対象人物が例えば関連人物等により遮蔽されており検出が困難な状況でも、対象人物が存在すると想定されるシーンの抽出を適切に行うことができる。なお、関連人物を含めた複数の人物からなるグループを考えた場合には、例えばグループに含まれる各人物に正解情報を用意することなく、代表者1人の正解情報のみがあればグループ全体のシーンを抽出することができる。
In the imaging system 1, the
撮像システム1において、周囲人物は、他のカメラ10においても対象人物の周囲人物として検出されていた場合に、関連情報とされる。これにより、互い異なるロケーションのカメラ10のいずれにおいても周囲人物として検出されていた場合にのみ、該周囲人物が関連情報とされるため、例えば偶然、対象人物の周囲にいたような人物が関連人物(関連情報)とされることを抑制し、より高精度に対象人物の抽出を行うことができる。
In the imaging system 1 , surrounding persons are regarded as related information when they are detected as surrounding persons of the target person also in
撮像システム1において、記憶部11は、複数のカメラ10それぞれの位置情報と、対象人物の顔情報及び関連情報の少なくともいずれか一方を検出したカメラ10を示す情報と、該カメラ10が検出した時刻とを更に記憶しており、検出部13は、記憶部11に記憶されている、複数のカメラ10それぞれの位置情報、検出したカメラ10を示す情報、及び、該カメラ10が検出した時刻を考慮して、撮像画像から対象人物の顔情報及び関連情報の少なくともいずれか一方を検出する。対象人物を検出するに際し、上記の内容が考慮されることにより、対象人物が撮像範囲に入りうるフレームや、対象人物が撮像範囲に流入してくる方向が推定できる(検出範囲の絞り込みができる)ため、対象人物の検出精度及び検出速度を向上させることができる。
In the imaging system 1, the
撮像システム1において、検出部13は、検出した関連情報について、種別に応じた変化のしやすさを特定し、該変化のしやすさを考慮して、該関連情報が写っているシーンを抽出するか否かを決定する。関連情報については、比較的短期間で情報が変化しやすいもの(例えば服装や持ち運んでいる食べ物等)と、変化しにくいもの(例えば指輪等)とがある。このような変化のしやすさを考慮して、例えば変化しやすい関連情報についてはその情報だけでは関連情報が写っているシーンを抽出せず他の関連情報を検出した場合にのみ関連情報が写っているシーンを抽出する等を行うことによって、より高精度に対象人物の抽出を行うことができる。
In the imaging system 1, the
撮像システム1において、記憶部11は、初期状態において対象人物の顔情報を記憶しており、撮像画像から対象人物の顔情報及び関連情報の双方の検出に成功したカメラ10からの情報に基づき、対象人物の顔情報に関連情報を対応付けて記憶する。このように、実際に検出された情報に基づき関連情報を対象人物に対応付けることにより、関連情報を用いた対象人物の抽出をより高精度に行うことができる。
In the imaging system 1, the
最後に、撮像システム1に含まれたカメラ10のハードウェア構成について、図5を参照して説明する。上述のカメラ10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
Finally, the hardware configuration of the
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。カメラ10のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
Note that in the following description, the term "apparatus" can be read as a circuit, device, unit, or the like. The hardware configuration of the
カメラ10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。
Each function of the
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、カメラ10の取得部12等の制御機能はプロセッサ1001で実現されてもよい。
The
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、カメラ10の取得部12等の制御機能は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
The
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
The
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。
The
通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
The
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
The
また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。
Devices such as the
また、カメラ10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。
In addition, the
以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。例えば、撮像システム1にはサーバ50が含まれているとして説明したがこれに限定されず、撮像システムはサーバを有さずに複数のカメラ(撮像装置)で構成されていてもよい。この場合においても、複数のカメラ(撮像装置)が互いに通信を行い、検出結果を共有することによって、上述した撮像システム1と同様の効果を奏することができる。また、上述した実施形態では、撮像システム1に含まれる複数のカメラ10それぞれが、取得部12、検出部13、出力部15、及び記憶部11を備えているとして説明したがこれに限定されず、例えば、記憶部等の一部の構成はカメラ以外の撮像システムに含まれる構成(サーバ等)が備えていてもよいし、一部のカメラは上記の各構成を備えると共に他の一部のカメラは上記の各構成の一部のみを備えていてもよい。
Although the present embodiments have been described in detail above, it will be apparent to those skilled in the art that the present embodiments are not limited to the embodiments described herein. This embodiment can be implemented as modifications and changes without departing from the spirit and scope of the present invention defined by the description of the claims. Therefore, the description in this specification is for the purpose of illustration and explanation, and does not have any restrictive meaning with respect to the present embodiment. For example, although it has been described that the imaging system 1 includes the
本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broad-band)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-Wide Band)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。 Aspects/embodiments described herein support Long Term Evolution (LTE), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, Future Radio Access (FRA), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broad-band), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-Wide Band), Bluetooth®, other suitable systems and/or extended next generation systems based on these.
本明細書で説明した各態様/実施形態の処理手順、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The processing procedures, flow charts, etc. of each aspect/embodiment described herein may be interchanged as long as there is no inconsistency. For example, the methods described herein present elements of the various steps in a sample order, and are not limited to the specific order presented.
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 Input/output information and the like may be stored in a specific location (for example, memory), or may be managed in a management table. Input/output information and the like may be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by one bit (0 or 1), by a true/false value (Boolean: true or false), or by numerical comparison (for example, a predetermined value).
本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect/embodiment described herein may be used alone, in combination, or switched between implementations. In addition, the notification of predetermined information (for example, notification of “being X”) is not limited to being performed explicitly, but may be performed implicitly (for example, not notifying the predetermined information). good too.
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language or otherwise, includes instructions, instruction sets, code, code segments, program code, programs, subprograms, and software modules. , applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Software, instructions, etc. may also be sent and received over a transmission medium. For example, the software can be used to access websites, servers, or other When transmitted from a remote source, these wired and/or wireless technologies are included within the definition of transmission media.
本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 Information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of
なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 The terms explained in this specification and/or terms necessary for understanding this specification may be replaced with terms having the same or similar meanings.
また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。 In addition, the information, parameters, etc. described in this specification may be represented by absolute values, may be represented by relative values from a predetermined value, or may be represented by corresponding other information. .
ユーザ端末は、当業者によって、移動通信端末、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、またはいくつかの他の適切な用語で呼ばれる場合もある。 User terminals are defined by those skilled in the art as mobile communication terminals, subscriber stations, mobile units, subscriber units, wireless units, remote units, mobile devices, wireless devices, wireless communication devices, remote devices, mobile subscriber stations, access terminals, It may also be called a mobile terminal, wireless terminal, remote terminal, handset, user agent, mobile client, client or some other suitable term.
本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。 As used herein, the terms "determining" and "determining" may encompass a wide variety of actions. "Determining", "determining" means, for example, calculating, computing, processing, deriving, investigating, looking up (e.g., in a table, database or other search in data structures), ascertaining as "judgement" or "decision". Also, "judgment" and "determination" are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (accessing) (for example, accessing data in memory) may include deeming that a "judgment" or "decision" has been made. In addition, "judgment" and "decision" are considered to be "judgment" and "decision" by resolving, selecting, choosing, establishing, comparing, etc. can contain. In other words, "judgment" and "decision" may include considering that some action is "judgment" and "decision".
本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used herein, the phrase "based on" does not mean "based only on," unless expressly specified otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."
本明細書で「第1の」、「第2の」などの呼称を使用した場合においては、その要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Where "first," "second," etc. designations are used herein, any reference to such elements does not generally limit the quantity or order of those elements. These designations may be used herein as a convenient method of distinguishing between two or more elements. Thus, references to first and second elements do not imply that only two elements may be employed therein or that the first element must precede the second element in any way.
「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 Wherever "include," "including," and variations thereof are used in the specification or claims, these terms are synonymous with the term "comprising." are intended to be inclusive. Furthermore, the term "or" as used in this specification or the claims is not intended to be an exclusive OR.
本明細書において、文脈または技術的に明らかに1つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。 In this specification, plural devices are also included unless the context or technicality clearly dictates that there is only one.
本開示の全体において、文脈から明らかに単数を示したものではなければ、複数のものを含むものとする。 Throughout this disclosure, the plural shall be included unless the context clearly indicates the singular.
1…撮像システム、10…カメラ、11…記憶部、12…取得部(撮像画像取得部)、13…検出部、15…出力部。 DESCRIPTION OF SYMBOLS 1... Imaging system, 10... Camera, 11... Storage part, 12... Acquisition part (captured image acquisition part), 13... Detection part, 15... Output part.
Claims (1)
撮像画像を取得する撮像画像取得部と、
前記撮像画像から、対象人物の顔情報、及び、該対象人物の顔以外の情報であって該対象人物に関連する関連情報の少なくともいずれか一方を検出し、検出結果に基づき前記対象人物が写っているシーンを抽出する検出部と、
前記検出部による前記検出結果について、前記複数の撮像装置間で共有されるように出力する出力部と、
前記複数の撮像装置間で共有される、前記対象人物の顔情報及び関連情報を対応付けて記憶する記憶部と、を備え、
前記検出部は、
前記記憶部において対応付けて記憶された情報に基づき、前記撮像画像から前記対象人物に関連する関連情報を検出し、該関連情報が写っているシーンを、該関連情報に係る前記対象人物が写っているシーンとして抽出し、
検出した関連情報について、種別に応じた変化のしやすさを特定し、該変化のしやすさを考慮して、該関連情報が写っているシーンを抽出するか否かを決定する、撮像システム。 An imaging system including a plurality of imaging devices,
a captured image acquisition unit that acquires a captured image;
At least one of face information of a target person and related information other than the face of the target person and related to the target person is detected from the captured image, and the target person is captured based on the detection result. a detection unit for extracting a scene in which
an output unit for outputting the detection result by the detection unit so as to be shared among the plurality of imaging devices;
a storage unit that associates and stores the face information of the target person and related information shared among the plurality of imaging devices;
The detection unit is
Related information related to the target person is detected from the captured image based on the information stored in correspondence in the storage unit, and a scene in which the related information is captured is displayed in which the target person related to the related information is captured. extracted as a scene with
An imaging system that identifies the easiness of change according to the type of detected related information, and determines whether or not to extract a scene in which the related information is captured, in consideration of the easiness of change. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019004370A JP7185537B2 (en) | 2019-01-15 | 2019-01-15 | Imaging system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019004370A JP7185537B2 (en) | 2019-01-15 | 2019-01-15 | Imaging system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020113109A JP2020113109A (en) | 2020-07-27 |
JP7185537B2 true JP7185537B2 (en) | 2022-12-07 |
Family
ID=71667090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019004370A Active JP7185537B2 (en) | 2019-01-15 | 2019-01-15 | Imaging system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7185537B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013222216A (en) | 2012-04-12 | 2013-10-28 | Denso Corp | Monitoring device, user terminal, and monitoring center |
WO2016031720A1 (en) | 2014-08-25 | 2016-03-03 | 株式会社日立国際電気 | Monitoring camera system |
JP2017063266A (en) | 2015-09-24 | 2017-03-30 | 富士通株式会社 | Information processing method, information processing apparatus, and program |
-
2019
- 2019-01-15 JP JP2019004370A patent/JP7185537B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013222216A (en) | 2012-04-12 | 2013-10-28 | Denso Corp | Monitoring device, user terminal, and monitoring center |
WO2016031720A1 (en) | 2014-08-25 | 2016-03-03 | 株式会社日立国際電気 | Monitoring camera system |
JP2017063266A (en) | 2015-09-24 | 2017-03-30 | 富士通株式会社 | Information processing method, information processing apparatus, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2020113109A (en) | 2020-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11875622B2 (en) | Authentication method and user equipment | |
JP5450089B2 (en) | Object detection apparatus and object detection method | |
JP7540430B2 (en) | Information processing device, information processing method, and program | |
JP7097721B2 (en) | Information processing equipment, methods and programs | |
US20170339287A1 (en) | Image transmission method and apparatus | |
JP2022168070A (en) | person detection system | |
JP6645655B2 (en) | Image processing apparatus, image processing method, and program | |
EP2905953A1 (en) | Content acquisition device, portable device, server, information processing device and storage medium | |
CN105659279B (en) | Information processing apparatus, information processing method, and computer program | |
JP2015111836A (en) | Image processing apparatus, camera, image processing method and program | |
US20190147251A1 (en) | Information processing apparatus, monitoring system, method, and non-transitory computer-readable storage medium | |
JP7185537B2 (en) | Imaging system | |
US12046075B2 (en) | Information processing apparatus, information processing method, and program | |
JP2018092599A (en) | Information processing device, control method and program | |
JP6350024B2 (en) | Information processing apparatus, control method therefor, and program | |
JP7298729B2 (en) | Information processing system, information processing device, information processing method, and program | |
CN114882576B (en) | Face recognition method, electronic device, computer-readable medium, and program product | |
US20240104987A1 (en) | Information processing apparatus, information processing system, information processing method, and non-transitory computer-readable medium | |
JP6476148B2 (en) | Image processing apparatus and image processing method | |
JP7129920B2 (en) | Imaging device | |
JP7480841B2 (en) | Event management method, event management device, system and program | |
EP4254260A1 (en) | Artificial intelligence assistant device and system based on door image analysis | |
JP2017175453A (en) | Image processing apparatus and image processing method | |
JP2023115087A (en) | Information processing apparatus, information processing method, and program | |
JP2016213689A (en) | Imaging apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210827 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7185537 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |