JP7098365B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP7098365B2 JP7098365B2 JP2018047731A JP2018047731A JP7098365B2 JP 7098365 B2 JP7098365 B2 JP 7098365B2 JP 2018047731 A JP2018047731 A JP 2018047731A JP 2018047731 A JP2018047731 A JP 2018047731A JP 7098365 B2 JP7098365 B2 JP 7098365B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- similarity
- image pickup
- person
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 59
- 238000003672 processing method Methods 0.000 title claims description 10
- 238000000034 method Methods 0.000 claims description 83
- 238000003384 imaging method Methods 0.000 claims description 43
- 238000012544 monitoring process Methods 0.000 claims description 10
- 238000010191 image analysis Methods 0.000 description 49
- 238000001514 detection method Methods 0.000 description 42
- 238000004891 communication Methods 0.000 description 27
- 238000000605 extraction Methods 0.000 description 26
- 230000006870 function Effects 0.000 description 23
- 101150058073 Calm3 gene Proteins 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 9
- 239000000284 extract Substances 0.000 description 6
- 238000009434 installation Methods 0.000 description 6
- 238000003825 pressing Methods 0.000 description 5
- 210000000746 body region Anatomy 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 210000003128 head Anatomy 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/188—Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
この種の人物検索システムにおいては、複数のカメラそれぞれの撮像画像を解析して自体を検出し、検出された人体の顔や人体画像から被写体の特徴を表す特徴量を抽出する。抽出された特徴量は、撮像時刻や撮像したカメラ、人物として認識された人体の画像などの情報と関連付けられ、当該人物の登録情報として、人物検索システムに登録される。
特定人物等を検索する際には、検索対象画像から特徴量を抽出し、抽出された検索対象画像の特徴量と、人物検索システムに登録された複数の人物の登録情報の特徴量とを照合する。この特徴量の照合において、登録された人物が検索対象の特定人物と同一であるかの尤度を表す類似度が算出され、所定の閾値以上の類似度が算出された人物の登録情報を検索する。このように検索された複数の人物の登録情報は、類似度順や検出時刻順などで整列され、検索結果として表示装置等に一覧表示される。
具体的には、特許文献1の映像検索システムは、入力画像から人物特徴、時間、カメラを指定する条件指定部と、保持した入力画像群から条件指定部で指定した条件に合致する画像を検索する画像検索部と、画像検索の結果を表示する結果表示部とを有する。ユーザは、対話型で、結果表示部に表示された人物画像が条件指定部で指定した人物と同一であるか否かの正否を選択入力する。ユーザが正解と判断した画像の人物特徴は、保持された人物特徴に追加または統合されることにより更新される。
特許文献1記載の技術によれば、結果表示部に表示される類似度の高い画像が検索対象人物であるか否かの正否をユーザに選択させ、正解と選択された人物特徴を拡充するので、同一人物でありながら見掛けの違う画像についても人物検索の精度が向上する。
特に、照度が足りない環境下である、解像度等のカメラ性能が低い、カメラの設置角度が悪い等の種々の撮像条件の相違により、検索対象と登録画像とを照合する際に、類似度が低く出やすいカメラが存在する。このため、複数のカメラ間で、人物検索結果の出力に偏り(個体差)が生じていた。
される画像検索結果に含まれるよう調整することができる。また、類似度が低く算出されると識別された撮像装置や当該撮像装置により撮像された画像の検索結果を、他の撮像装置やその画像検索結果から識別可能に通知することができる。
これにより、複数の撮像装置間で、撮像条件等の相違に起因する、出力されるべき画像検索結果の偏りが調整されるため、検索対象と同一人物の検索結果の出力漏れが低減され、画像検索の精度向上が実現される。
また、撮像装置の「撮像条件」とは、撮像装置の撮像における画角等の設置条件、照明条件、解像度やフレームレート等の撮像装置の性能を含むがこれらに限定されず、撮像画像の解析および検索に影響し得る、複数の撮像装置間で相違し得るあらゆる条件を含む。
なお、以下、本実施形態では、撮像装置であるネットワークカメラを監視に応用する場合を例として説明するが、本実施形態はこの場合に限定されず、他の画像検索用途にも適用可能である。また、以下、本実施形態では、撮像画像を解析して人体を検出し、検出された人体の特徴量を含む人物の登録情報から、検索対象の人物と同一人物を検索する場合を例として説明するが本実施形態が適用可能な検索対象はこれに限定されない。本実施形態は、撮像画像内の動体および静止体を含む、あらゆるオブジェクトの画像検索用途に適用可能である。
図1は、本実施形態に係る人物検索システムをネットワークカメラシステムに適用する場合のネットワーク構成の一例を示す図である。
図1のネットワークカメラシステム10は、少なくとも2つのネットワークカメラ20a、20b、画像解析サーバ30、人物検索サーバ40、ネットワークストレージ50、および検索端末装置60を備える。ネットワークカメラ20a、20b、画像解析サーバ30、人物検索サーバ40、ネットワークストレージ50、検索端末装置60は、それぞれネットワーク70を介して接続され、相互に情報の授受を行う。
ネットワーク70は、例えば、Ethernet(登録商標)等の通信規格に準拠する有線LAN(Local Area Network)であってよい。あるいは、ネットワーク70は、無線ネットワークで構成されてもよい。この無線ネットワークは、Bluetooth(登録商標)、ZigBee(登録商標)、UWB(Ultra Wide
Band)等の無線PAN(Personal Area Network)を含む。また、Wi-Fi(Wireless Fidelity)(登録商標)等の無線LAN(Local Area Network)や、WiMAX(登録商標)等の無線MAN(Metropolitan Area Network)を含む。さらに、LTE/3G等の無線WAN(Wide Area Network)を含む。なお、ネットワーク70は、各機器を相互に通信可能に接続できればよく、通信の規格、規模、構成は上記に限定されない。
をネットワーク70経由で読み込んで画像解析処理を実行する。具体的には、画像解析サーバ30は、ネットワークストレージ50から取得した画像から、人体を検出し、検出された人体の特徴量を抽出し、抽出された人体の特徴量を含む人物情報を生成して、ネットワークストレージ装置50に登録する。「人物情報」とは、画像の撮像時刻、被写体ID、カメラID、画像から検出された人体の特徴量、人物として認識された人体の画像(人物画像)、人物の属性等を含む、画像から認識された人物の情報(オブジェクト情報)である。この人物情報の詳細は、図4を参照して後述する。なお、画像解析サーバ30が実行する画像解析処理の全部または一部は、カメラ20a、20bに実装されてもよい。
人物検索サーバ40は、ユーザから人物検索が指示されると、人物検索処理を実行する。具体的には、人物検索サーバ40は、入力された検索対象の特徴量を抽出し、抽出された検索対象の特徴量と、人物情報として登録された複数人物の特徴量とを照合して類似度を算出し、所定の閾値以上の類似度が算出された人物を検索結果として出力する。
検索端末装置60は、表示装置(ディスプレイ)を備え、カメラ20a、20bから配信される画像、ネットワークストレージ50に記録された画像の再生および表示、後述する人物検索処理結果等を、表示装置に表示させるための表示制御機能を有する。検索端末装置60はまた、人物検索サーバ40が実行する人物検索のためのユーザインタフェースおよび入力手段を備え、ユーザが人物検索を指示した際に、人物検索サーバ40ヘ人物検索処理要求を送信する。
さらに、検索端末装置60は、画像解析サーバ30が実行する画像解析処理や人物検索サーバ40が実行する人物検索処理に関する閾値設定等のパラメータ設定操作を行う機能を有する。
図2は、カメラ20a、20bのハードウェア構成の一例を示す図である。
図2のカメラ20a、20bは、それぞれ、CPU21、ROM22、RAM23、外部メモリ24、撮像部25、入力部26、通信I/F27、およびシステムバス28を備える。
CPU21は、カメラ20a、20bにおける動作を統括的に制御するものであり、システムバス28を介して、各構成部(22~27)を制御する。
ROM22は、CPU21が各種処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、これら制御プログラム等は、外部メモリ24や着脱可能な記憶媒体(不図示)に記憶されていてもよい。
RAM23は、CPU21の主メモリ、ワークエリア等として機能する。すなわち、CPU21は、各種処理の実行に際してROM22から必要なプログラム等をRAM23にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
外部メモリ24は、例えば、CPU21がプログラムを用いた処理を行う際に必要な各種データや各種情報等を記憶している。また、外部メモリ24には、例えば、CPU21がプログラム等を用いた処理を行うことにより得られた各種データや各種情報等が記憶される。
に集光させる。撮像素子は、光を画像信号に変換する素子であり、例えば、CMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge Coupled Device)等で構成することができる。
入力部26は、電源ボタンなどから構成され、カメラ20a、20bのユーザは、入力部26を介して当該カメラ20a、20bに指示を与えることができる。
通信I/F27は、ネットワーク70に接続される外部装置(例えば画像解析サーバ30)と通信するためのインターフェースであり、例えばLANインターフェースである。
システムバス28は、CPU21、ROM22、RAM23、外部メモリ24、撮像部25、入力部26および通信I/F27を通信可能に接続する。
なお、画像解析サーバ30、人物検索サーバ40および検索端末装置60は、図2を参照して、撮像部25に代えて、表示装置等のハードウエアを備えればよい。表示装置は、液晶ディスプレイ(LCD)等のモニタで構成されてよい。また、画像解析サーバ30、人物検索サーバ40および検索端末装置60は、入力部26として、キーボードやマウス等のポインティングデバイスを備え、ユーザが各装置30、40および60に対してそれぞれ指示を与えることができる。
図3は、本実施形態に係る人物検索システムを構成する各装置の機能構成の一例を示すブロック図である。
図3に示す各装置の各機能モジュールのうち、ソフトウエアにより実現される機能については、各機能モジュールの機能を提供するためのプログラムがROM等のメモリに記憶され、RAMに読み出してCPUが実行することにより実現される。ハードウエアにより実現される機能については、例えば、所定のコンパイラを用いることで、各機能モジュールの機能を実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。FPGAとは、Field Programmable Gate Arrayの略である。また、FPGAと同様にしてGate Array回路を形成し、ハードウエアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。なお、図3に示した機能ブロックの構成は一例であり、複数の機能ブロックが1つの機能ブロックを構成するようにしてもよいし、いずれかの機能ブロックが複数の機能を行うブロックに分かれてもよい。
ネットワークストレージ50は、記録部501、および通信部502を備える。ネットワークストレージ50において、記録部501は、通信部501により受信された画像を記憶装置へ記録する。通信部502は、カメラ20a、20bからネットワーク70を介して画像を受信し、記録部501へ供給する。
特徴量抽出部302は、人体検出部301により検出された人体の特徴量を抽出する。
人物情報送信部303は、通信部304を介して、特徴量抽出部302により抽出された人体の特徴量を、画像の撮像時刻、被写体ID、カメラID、人物として認識された人体の画像(人物画像)、人物の属性等に対応付けて、人物情報を生成する。生成された人物情報は、人物情報送信部303により人物検索サーバ40へ送信される。
通信部304は、人物情報送信部303から供給される人物情報を、ネットワーク70を介して人物検索サーバ40へ送信する。なお、人物情報送信部303は、生成された人体情報を、ネットワークストレージ50へ送信し、記録部501に記録させてもよい。
検索対象特徴量抽出部402は、検索端末装置60から送信される検索対象の人物検索要求を通信部406を介して受信し、受信された人物検索要求で指定された画像から人体を検出して、検出された人体の特徴量を検索対象の人物の特徴量として抽出する。
検索部403は、人物情報管理部401が管理する登録された人物情報を検索する。具体的には、検索部403は、検索対象特徴量抽出部402により抽出された検索対象の人物の特徴量と、人物情報管理部401が管理する登録された人物情報の特徴量とを照合して、両者の特徴量の間の類似度を検索結果として算出する。
調整部405は、カメラ識別部404により識別されたカメラ20a、20bの類似度の閾値を調整するための調整値を算出して、カメラ間での検索結果出力における調整処理を実行する。この調整部405が実行するカメラ間調整処理の詳細は、図7を参照して後述する。
通信部406は、画像解析サーバ30の人物情報送信部303からネットワーク70を介して送信される人物情報を受信し、受信された人物情報を人物情報管理部401へ供給する。通信部406はまた、検索端末装置60から送信される検索対象の人物検索要求を受信して、検索対象特徴量抽出部402へ供給する。
検索端末装置60はまた、人物検索サーバ40へ検索指示を送る際に必要とされる検索対象の人物を指定するためのユーザインタフェースを備える。
検索端末装置60へは、検索対象となる人物の画像が入力される。具体的には、検索対象となる人物画像は、ネットワークストレージ50に記録されている人物画像を表示部601により表示し、表示された人物画像からユーザにより選択された画像を用いることで指定することができる。あるいは、ユーザが予め保持する画像を用いてもよい。検索端末装置60は、ユーザによりユーザインタフェースを介して選択された画像を、通信部603を介して画像検索サーバ30へ送信して、予め保持する画像を画像検索サーバ30に画像解析させればよい。
属性情報46は、人物画像から認識され得る人物の年齢(年齢帯)、性別、外見特徴等を含む。
図5は、画像解析サーバ30が実行する、図4に示す人物情報の登録処理手順を示すフローチャートである。
図5に示す処理は、例えば、画像解析サーバ30の通信機能が起動され、画像解析サーバ30がネットワークを介して他の通信装置と通信状態となったことを契機に開始されてよい。ただし、図5に示す処理の開始タイミングは上記に限定されない。
画像解析サーバ30はCPU21が必要なプログラムをROM22または外部メモリ24から読み出して実行することにより、図5に示す処理を実行することができる。ただし、図5に示す各要素のうち少なくとも一部が専用のハードウエアとして動作することで図5の処理が実現されるようにしてもよい。この場合、専用のハードウエアは、CPUの制御に基づいて動作する。
S51で、画像解析サーバ30の通信部304は、カメラ20a、20bまたはネットワークストレージ50から送信される画像データを受信する。受信された画像データは、画像解析サーバ30において伸長、復号化されて、人体を検出すべき画像(動画像もしくは静止画像)として取得される。S51で取得された画像は、順次、人体検出部301へ送出される。
他の人体検出の手法としては、例えば米国特許出願公開公報US2007/0237387に記載の手法を適用することができる。具体的には、この手法によれば、所定の大きさの検出ウィンドウを入力画像上で走査させ、検出ウィンドウ内の画像を切り出したパターン画像に対して、人体であるか否かの2クラス判別を行う。この判別では、アダブースト(Adaptive Boosting)を使って多数の弱判別器を有効に組み合わせて判別器を構成して、判別精度を向上させている。また、この判別器を直列に繋ぐことで、カスケード型の検出器を構成している。
弱判別器は、HOG(Histograms of Oriented Gradients)特徴量で構成されている。一方、カスケード型の検出器は、まず前段の単純な判別器を使って明らかに被写体でないパターンの候補をその場で除去した上で、それ以外の候補に対してのみ、より高い識別性能を持つ後段の複雑な判別器を使って人体か否かの判別を行う。
また、人体検出部301が人体検出処理を実行する対象となる画像中の領域は、必ずしもカメラ20a、20bまたはネットワークストレージ50から送信される画像全体でなくてもよい。例えば、人体検出処理を、予め所定の値のパラメータにより設定された人体検出処理領域に対してのみ実行してもよい。あるいは、パラメータ設定により、検出対象とする人体の最大サイズと最小サイズとを指定し、この範囲から外れた領域に対しては人体検出処理を実行しないようにしてもよい。このように、人体検出処理や領域の一部を省略することで人体検出処理を高速化することができる。
上記のパラメータ設定は、人体検出部301に対して処理パラメータの設定を行うことにより実現でき、この処理パラメータは、例えば、画像処理サーバ30または検索端末装置60のユーザインタフェースを介して設定することができる。
例えば、顔検出処理では、画像から目、口等のエッジを検出することで、人体の顔の特徴部分を検出する。すなわち、顔検出処理では、顔位置や顔の大きさ、顔の確からしさ等から顔領域を検出する。
例えば、上半身検出で検出した上半身領域の縦方向の長さを単純に所定倍画面下方に延長することで、全身領域を推定し取得するようにしてもよい。この所定倍は固定値であってもよいし、カメラの設置条件等によって可変に設定してもよい。
なお、撮像画像内に人体が多数存在するような混雑画像では、人体同士の重なりがあることが多い。この場合、混雑状況下であっても隠れの起きにくく検出漏れの発生しにくい頭部検出や上半身検出等が好適である。
取得された画像から人体が検出できた場合、S54で、画像解析サーバ30の特徴量抽出部302は、S52で検出された人体画像から、人体の特徴量を抽出する。ここで抽出されるべき特徴量は、例えば、顔を構成する目・鼻・頬・口・眉の器官特徴点の位置、器官特徴点近傍の輝度、器官特徴点の位置関係、服の平均色・平均輝度・最頻輝度・テクスチャ、体形、歩容などから構成されてよい。
、人体の特徴量、人物画像(サムネイル)、人物の属性情報等の人物に関する情報と、当該画像を撮像したカメラID等の付属情報とを含む。人物検索サーバ40は、画像解析サーバ30から送信される人物情報を受信し、受信された人物情報は、人物検索サーバ40の人物情報管理部401により登録、管理される。
図6は、人物検索サーバ40が実行する人物検索処理の処理手順を示すフローチャートである。図6に示す処理は、例えば、人物検索サーバ40の通信機能が起動され、検索端末装置60から人物検索要求を受信したことを契機に開始されてよい。ただし、図6に示す処理の開始タイミングは上記に限定されない。
S61で、検索対象となる人物画像を選択する。具体的には、ネットワークストレージ50に記録されている人物画像を検索端末装置60の表示装置に表示し、検索対象選択部602のユーザインタフェース上で表示された人物画像から、ユーザが、検索対象の人物画像を選択する。人物検索サーバ40は、検索端末装置60から選択された画像を受信してS62に進む。
S63で画像から人体が検出された場合(S63:Y)、検索対象特徴量抽出部402は、S64に進んで、S62で検出された検索対象の人体の特徴量を抽出する。一方、S63で画像から人体が検出されない場合(S63:N)、S67に進む。
あるいは、S61で検索端末装置60で選択された画像が、既に画像解析サーバ30により人体が検出され特徴量が抽出された画像であれば、人物情報管理部401が、検索対象の人物の特徴量を登録された当該人物の人物情報から取得すればよい。この場合、S62からS64は不要であるため省略することが可能である。
S65で、検索部403は、S64で抽出ないし取得された検索対象の人物の特徴量を用いて、人物検索処理を実行する。
S66で、調整部405は、S65で得られた人物検索の結果の出力(表示)の閾値を調整する。
監視エリアに設置された複数のカメラ20a、20bは、画角等の設置条件、照明条件やカメラの性能等の撮像条件がカメラ間で相違するため、他のカメラより類似度が低く出やすいカメラが存在する。
このため、S65で人物検索の結果を得た段階で、複数のカメラ20a、20bで撮像された画像からの人物検索結果をそのまま一覧表示しようとすると、類似度が相対的に低く出やすいカメラ20a、20bの結果は一覧表示から抜け落ちてしまう。すなわち、類似度が相対的に低いカメラ20a、20bの撮像した画像が検索対象の人物と同一の人物を含んでいたとしても、一覧表示から漏れているため見逃しが発生してしまう。これに対して、本実施形態では、S66で、人物検索の結果を出力する前に、カメラ間で算出される類似度の差を調整することで、検索対象の人物の検索結果の表示における偏りを低減する。この検出結果の調整処理の詳細は、図7を参照して後述する。
また、類似度の閾値は、後述する調整処理の実行後、カメラごとに設定された閾値を基準に表示するようにしてもよく、表示画面上でカメラごとに変更可能としてもよい。
以上により図7のフローチャートの各処理が終了する。
図7は、人物検索サーバ40が実行するカメラ間での検索結果の調整処理手順を示すフローチャートである。
S661で、人物検索サーバ40の調整部405は、人物情報管理部401が管理する図4に示す人物情報から、類似度の調整に用いる特定対象の人物情報をカメラ20a、20bごとに抽出する。この特定対象として、例えばS61で選択された検索対象の人物の特徴量と類似度の相対的に高い人物情報を、人物情報管理部401が管理する人物情報から抽出することができる。
図8は、S661で実行される人物情報の抽出の結果得られるテーブルの一例を示す。図8のテーブルは、被写体ID81、カメラID82、および当該カメラについて算出された、S661で設定された特定対象と当該被写体との間の類似度の組を含む。図8に示される類似度は、0から1000までを取り得る値であり、数字が大きいほど類似していることを示す。複数のカメラ20a、20bのそれぞれについて、S661の処理を実行する。
ラの類似度の平均値と、他のすべてのカメラの類似度の平均値とが比較されてもよい。
あるいは、本実施形態では、S67で人物検索の結果を表示すべきか否かを決定する閾値である類似度の閾値を、カメラ20a、20bごと個別に設定することができる。検索部403は、このようにカメラごとに個別に設定された類似度の閾値を、人物検索の結果得られる類似度と比較し、類似度の閾値を超えた人物検索の結果のみを表示装置に表示するよう表示制御してよい。この場合、類似度が低く出力されるカメラ20a、20bについて、表示の際に類似度の閾値を下げることにより、当該カメラの検索結果が全く表示されなくなることを低減することができる。この場合の類似度の閾値の下げ幅は、例えば、S663で識別されたカメラの類似度の出力値の平均値と、全カメラの類似度平均値との差が所定範囲内に収まる程度に設定すればよい。
このように複数人物を特定対象とした場合は、S662で、調整部405は、特定対象として指定された人物ごとに類似度の平均値を算出し、さらに複数人の類似度の平均値から当該カメラの類似度の平均値を算出すればよい。またS663で、全カメラと各カメラとの間で類似度の平均値を比較して、カメラ識別部404は、単一人物の場合と同様に処理を実行すればよい。
このように属性が相違する複数の人物を特定対象として指定すれば、人物を検索しにくいカメラでの検索結果が、複数カメラについての検索結果の一覧表示に全く表示されなくなることを低減することが可能となる。
以上により図7のフローチャートの各処理が終了する。
また、上記では、S663で識別されたカメラに対してS664で調整値を類似度に上乗せし、調整値が上乗せされた類似度を表示する例を説明したが、本実施形態はこれに限定されない。例えば、調整値を自動的に付加せずに、S663で識別されたカメラを検索結果の出にくいカメラとして、検索端末装置60上の表示装置に表示することで、ユーザに通知してもよい。
さらに、どの程度検索結果が出にくいカメラかも表示装置に表示するとともに、ユーザ
に、その程度に応じて、検索結果の調整済みのデータの表示非表示を選択させてもよい。あるいは、S663で識別されたカメラの検出結果は、ユーザへの注意喚起のため、その類似度が低くても表示時に優先的に、他の検出結果と区別可能に、例えば別枠で、検索結果として表示するようにしてもよい。
この場合、ユーザが人物検索要求を発行する前にある程度人物情報が蓄積された状態で、人物情報管理部401が管理する人物情報から任意に選択される被写体の画像をS661の特定対象として設定して、調整処理を複数回実行すればよい。このように、人物検索処理に先立って、事前に類似度が低く出やすいカメラを識別することができる。
上記のように、人物情報管理部401の管理する人物情報から、同一人物であることが保証された特定の人物の人物情報のみを取得するためには、例えば、検索端末装置60において、複数の同一人物と思われる候補画像を表示装置の画面上に提示すればよい。このように、ユーザが、提示された候補画像から同一人物を選択できるユーザインタフェースを備えることにより、特定対象に設定される人物が同一人物であることが保証される。
図9から図13を参照して、本実施形態において検索端末装置60が提供するGUI(Graphical User Interface)の一例を詳細に説明する。
図9は、本実施形態における検索結果のカメラ間調整処理(図7)を実行する前の、人物検索の検索結果表示例を示す。
図9において、検索対象の画像を設定する検索画像設定領域91は、検索対象として現在設定されている検索対象の人物画像を確認させる検索画像確認領域911、画像選択ボタン912、および検索開始ボタン913を含む。
検索結果表示領域92には、信頼度閾値調整スライダ93、カメラ間調整スイッチ94、表示順指定欄95、およびスクロールバー96が設けられている。信頼度閾値調整スライダ93は、人物検索の検索結果から検索結果表示領域92に表示すべき人物をフィルタするための信頼度を可変に調整するスライダである。図9において、信頼度は、検索結果表示領域92に表示される人物が、検索対象として設定された人物と同一人物であることの確からしさを示す指標である。検索結果表示領域92の人物の詳細情報922に表示すべき信頼度の値は、人物検索サーバ40により算出される類似度の値に連動し、またはこれを用いることができる。
カメラ間調整スイッチ94は、人物検索サーバ40の調整部405に、カメラ間調整処理の起動を手動で指示するスイッチである。
ユーザはさらに、検索条件として、検索画像設定領域内で検索時刻の範囲等を入力することも可能である。必要な検索条件が入力された後、ユーザは、検索実行ボタン913を押下して人物検索の開始を人物検索サーバ40に指示する。
図9は、信頼度の閾値を500と設定した例を示し、検索結果表示領域92には、検索結果から信頼度(類似度)500以上と算出された検索結果の人物のみが表示されているものとする。
カメラ間調整スイッチ94をオンすることにより、カメラ間調整済みの検索結果を表示するか、調整しない検索結果を表示するかの切り替えを人物検索サーバ40へ指示することができる。
図9と比較して、図10には、カメラ間調整スイッチをオンにしたことにより、検索結果表示領域92に新たな人物画像923および対応する詳細情報924が表示されている。詳細情報924の領域には、信頼度が「400+」と表示されている。
本来であれば、人物画像923につき得られる信頼度(類似度)400は、信頼度の閾値500を下回るため、カメラ「Cam3」で撮像された人物画像923および対応する詳細情報924は表示されないはずである。しかしながら、カメラ間調整スイッチ94を操作することにより、設定された信頼度の閾値500を下回るにもかかわらず、カメラ「Cam3」で撮像された人物画像923および対応する詳細情報924が新たに候補の人物画像として表示されるようになる。詳細情報924において、信頼度に例えば「+」を付加することにより、表示されている人物画像923がカメラ間調整処理を実行した結果新たに表示されていることをユーザに視認させることができる。
同様に、信頼度閾値調整スライダ93を操作することにより、手動で信頼度(類似度)閾値が変更された結果、連動して新たに表示される人物画像や人物情報も、他の検索結果と区別して視認可能に表示されてよい。例えば、当初表示された検索結果の人物画像数が少ない等の場合、より多くの人物検索の検索結果を表示させるため、信頼度閾値調整スライダ93を移動させて信頼度閾値を下方に修正することができる。
表示順指定欄95では、検索結果の表示順を、例えば信頼度順、カメラ順、時刻順のいずれかから選択できる。図11の検索結果表示領域92には、カメラごとに、検索結果の人物画像923、925、および927と、当該人物の信頼度を含む詳細情報924、926、および928とがソートされて表示されている。図11では、検索結果表示領域92中、カメラ「Cam3」の検索結果の表示領域に「カメラ間調整済」と注記することで、カメラ「Cam3」の検索結果は、カメラ間調整処理が実行された結果表示されたことが視認可能に示されている。
図12および図13は、このようなカメラごとに類似度(信頼度)閾値を設定させるユーザインタフェースの一例を示す。図12および図13に示すユーザインタフェースを介して、図7のS611で指定される特定対象1211と、各カメラの撮像画像から候補として選択される選択画像1221とが、予め同一人物であることをユーザに確認させることにより保証することができる。また、カメラごとに個別に類似度の閾値を調整することができる。
この調整用人物画像指定領域121で選択される人物は、調整対象となる複数のカメラ20a、20bの全てにより撮像されていることが望ましい。このためには上記したように、カメラ間調整モードを設け、同一人物であることを保証するために複数のカメラに亘り同一人物のみが順次移動し撮像されるようにすればよい。カメラ間調整モード中に記録された人物情報を、特定対象の画像に自動的に設定するようにしてもよい。
このようにカメラ「Cam3」で撮像された人物画像もより多く検索結果として表示させるため、ユーザは、例えば、カメラ「Cam3」に対する類似度閾値1225をデフォルトの「500」から「300」へ変更することができる。あるいは、自動設定ボタン123を押下することで、図7に示すカメラ間調整処理を実行させ、各カメラについて決定された調整値を適用して、自動的に各カメラに設定すべき類似度の閾値を調整してもよい。
これにより、カメラ間の人物検索結果の偏りを調整することができる。
図13では、カメラ名「Cam6」の選択画像1226は、該当する検索結果が得られなかったため画像が表示されていないことを示している。この場合、ユーザは、変更ボタン1222を押下することにより、図12の選択画像変更操作と同様に、調整用の特定対象の人物と同一人物を選択することができる。
あるいは、カメラ「Cam6」では特定対象の人物がそもそも撮像されてなかった場合や、特定対象の人物画像が検索できなかった場合にも、図13の選択画像1226の状態となる。ただしこの場合は、選択画像1226の画像選択や類似度の閾値の変更操作は実行しなくてもよい。
これにより、複数の撮像装置間で、撮像条件等に起因する、出力されるべき画像検索結果の偏りが調整されるため、検索対象と同一人物の検索結果の出力漏れが低減され、画像検索の精度向上が実現される。
なお、上述した各実施形態は、その複数を組み合わせて実現することが可能である。
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムによっても実現可能である。すなわち、そのプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)における1つ以上のプロセッサーがプログラムを読出し実行する処理により実現可能である。また、そのプログラムをコンピュータ可読な記録媒体に記録して提供してもよい。
また、上述した各実施形態を、複数の機器、例えば、ホストコンピュータ、インタフェース機器、撮像装置、ウェブアプリケーション等から構成されるシステムに適用してもよく、1つの機器からなる装置に適用してもよい。
また、コンピュータが読みだしたプログラムを実行することにより、実施形態の機能が実現されるものに限定されない。例えば、プログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって上記した実施形態の機能が実現されてもよい。
Claims (9)
- 複数の撮像手段により撮像された画像から検索対象のオブジェクトに類似する画像を検索結果として出力する監視システムにおける検索結果の処理装置であって、
前記複数の撮像手段によって撮像された画像から検索されるオブジェクトの類似度の履歴に基づいて、前記複数の撮像手段のうち、調整すべき撮像手段を特定する特定手段と、
検索対象のオブジェクトに対する、前記複数の撮像手段によって撮像された画像の類似度を算出する算出手段によって算出された類似度のうち、前記特定された撮像手段によって撮像された画像の類似度に対して調整値を加算する加算手段と、
前記加算手段において調整値が加算された類似度を有する画像、および、前記特定手段において特定された撮像手段とは異なる撮像手段によって撮像された画像のうち、類似度が高い順に画像を出力する処理を行う処理手段と、を備え,
前記特定手段は、前記複数の撮像手段によって撮像された画像の類似度の平均値に対して所定値以上低い撮像手段を調整すべき撮像手段として特定する
ことを特徴とする処理装置。 - 複数の撮像手段により撮像された画像から検索対象のオブジェクトに類似する画像を検索結果として出力する監視システムにおける検索結果の処理装置であって、
前記複数の撮像手段によって撮像された画像から検索されるオブジェクトの類似度の履歴に基づいて、前記複数の撮像手段のうち、調整すべき撮像手段を特定する特定手段と、
検索対象のオブジェクトに対する、前記複数の撮像手段によって撮像された画像の類似度を算出する算出手段によって算出された類似度のうち、前記特定された撮像手段によって撮像された画像の類似度に対して調整値を加算する加算手段と、
前記加算手段において調整値が加算された類似度を有する画像、および、前記特定手段において特定された撮像手段とは異なる撮像手段によって撮像された画像のうち、類似度が高い順に画像を出力する処理を行う処理手段と、を備え,
前記特定手段は、前記複数の撮像手段によって撮像された画像の類似度の最大値に対して所定値以上低い撮像手段を調整すべき撮像手段として特定する
ことを特徴とする処理装置。 - 前記所定値はユーザの操作に従って設定される
ことを特徴とする請求項1または2に記載の処理装置。 - 複数の撮像手段により撮像された画像から検索対象のオブジェクトに類似する画像を検索結果として出力する監視システムにおける検索結果の処理装置であって、
前記複数の撮像手段によって撮像された画像から検索されるオブジェクトの類似度の履歴に基づいて、前記複数の撮像手段のうち、調整すべき撮像手段を特定する特定手段と、
検索対象のオブジェクトに対する、前記複数の撮像手段によって撮像された画像の類似度を算出する算出手段によって算出された類似度のうち、前記特定された撮像手段によって撮像された画像の類似度に対して調整値を加算する加算手段と、
前記加算手段において調整値が加算された類似度を有する画像、および、前記特定手段において特定された撮像手段とは異なる撮像手段によって撮像された画像のうち、類似度が高い順に画像を出力する処理を行う処理手段と、を備え,
前記処理手段は、前記調整すべき撮像手段として特定された撮像手段からの画像が他の撮像手段の画像と識別可能に表示されるよう画像を出力する
ことを特徴とする処理装置。 - 複数の撮像手段により撮像された画像から検索対象のオブジェクトに類似する画像を検索結果として表示する監視システムにおける検索結果の表示処理方法であって、
複数の撮像手段によって撮像された画像から検索されるオブジェクトの類似度の履歴に基づいて、前記複数の撮像手段のうち、調整すべき撮像手段を特定する特定ステップと、
検索対象のオブジェクトに対する、複数の撮像手段によって撮像された画像の類似度を算出する算出ステップにおいて算出された類似度のうち、前記特定された撮像手段によって撮像された画像の類似度に対して調整値を加算する加算ステップと、
前記加算ステップにおいて調整値が加算された類似度を有する画像、および、前記特定ステップにおいて特定された撮像手段とは異なる撮像手段によって撮像された画像のうち、類似度が高い順に画像を表示する処理を行う表示処理ステップと、を含み、
前記特定ステップにおいて、前記複数の撮像手段によって撮像された画像の類似度の平均値に対して所定値以上低い撮像手段が調整すべき撮像手段として特定されること
を特徴とする表示処理方法。 - 複数の撮像手段により撮像された画像から検索対象のオブジェクトに類似する画像を検索結果として表示する監視システムにおける検索結果の表示処理方法であって、
複数の撮像手段によって撮像された画像から検索されるオブジェクトの類似度の履歴に基づいて、前記複数の撮像手段のうち、調整すべき撮像手段を特定する特定ステップと、
検索対象のオブジェクトに対する、複数の撮像手段によって撮像された画像の類似度を算出する算出ステップにおいて算出された類似度のうち、前記特定された撮像手段によって撮像された画像の類似度に対して調整値を加算する加算ステップと、
前記加算ステップにおいて調整値が加算された類似度を有する画像、および、前記特定ステップにおいて特定された撮像手段とは異なる撮像手段によって撮像された画像のうち、類似度が高い順に画像を表示する処理を行う表示処理ステップと、を含み、
前記特定ステップにおいて、前記複数の撮像手段によって撮像された画像の類似度の最大値に対して所定値以上低い撮像手段を調整すべき撮像手段として特定すること
を特徴とする表示処理方法。 - 前記所定値はユーザの操作に従って設定されることを特徴とする請求項5または6に記載の表示処理方法。
- 複数の撮像手段により撮像された画像から検索対象のオブジェクトに類似する画像を検索結果として表示する監視システムにおける検索結果の表示処理方法であって、
複数の撮像手段によって撮像された画像から検索されるオブジェクトの類似度の履歴に基づいて、前記複数の撮像手段のうち、調整すべき撮像手段を特定する特定ステップと、
検索対象のオブジェクトに対する、複数の撮像手段によって撮像された画像の類似度を算出する算出ステップにおいて算出された類似度のうち、前記特定された撮像手段によって撮像された画像の類似度に対して調整値を加算する加算ステップと、
前記加算ステップにおいて調整値が加算された類似度を有する画像、および、前記特定ステップにおいて特定された撮像手段とは異なる撮像手段によって撮像された画像のうち、類似度が高い順に画像を表示する処理を行う表示処理ステップと、を含み、
前記表示処理ステップにおいて、前記調整すべき撮像手段として特定された撮像手段からの画像が他の撮像手段の画像と識別可能に表示されること
を特徴とする表示処理方法。 - コンピュータを、請求項1から4のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018047731A JP7098365B2 (ja) | 2018-03-15 | 2018-03-15 | 画像処理装置、画像処理方法およびプログラム |
US16/297,365 US11068706B2 (en) | 2018-03-15 | 2019-03-08 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018047731A JP7098365B2 (ja) | 2018-03-15 | 2018-03-15 | 画像処理装置、画像処理方法およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019160001A JP2019160001A (ja) | 2019-09-19 |
JP2019160001A5 JP2019160001A5 (ja) | 2021-04-30 |
JP7098365B2 true JP7098365B2 (ja) | 2022-07-11 |
Family
ID=67905750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018047731A Active JP7098365B2 (ja) | 2018-03-15 | 2018-03-15 | 画像処理装置、画像処理方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11068706B2 (ja) |
JP (1) | JP7098365B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11514703B2 (en) * | 2018-08-07 | 2022-11-29 | Canon Kabushiki Kaisha | Detection device and control method of the same |
JP7497853B2 (ja) | 2020-02-28 | 2024-06-11 | i-PRO株式会社 | 顔検知システム |
CN111382364B (zh) * | 2020-03-19 | 2023-08-18 | 北京字节跳动网络技术有限公司 | 处理信息的方法及装置 |
JP7029486B2 (ja) * | 2020-04-10 | 2022-03-03 | 株式会社エクサウィザーズ | 情報処理装置、情報処理方法、及びプログラム |
JP7424939B2 (ja) | 2020-08-07 | 2024-01-30 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 人物検出装置、人物追跡装置、人物追跡システム、人物検出方法、人物追跡方法、人物検出プログラム及び人物追跡プログラム |
JP7316981B2 (ja) * | 2020-08-12 | 2023-07-28 | ソフトバンク株式会社 | 顔認証サーバ、情報処理方法及び情報処理システム |
JP7200279B2 (ja) * | 2021-03-03 | 2023-01-06 | 三菱電機インフォメーションシステムズ株式会社 | 検知装置、検知方法、検知プログラム及び検知システム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016119626A (ja) | 2014-12-22 | 2016-06-30 | セコム株式会社 | 監視システム |
JP2017122991A (ja) | 2016-01-05 | 2017-07-13 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017163510A (ja) | 2016-03-11 | 2017-09-14 | 富士通株式会社 | 撮影制御プログラム、撮影制御方法および撮影制御装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5553304A (en) * | 1978-10-16 | 1980-04-18 | Olympus Optical Co Ltd | Focus detector |
ATE528724T1 (de) * | 2002-08-30 | 2011-10-15 | Mvtec Software Gmbh | Auf hierarchischen gliedern basierte erkennung von gegenständen |
US20070237387A1 (en) | 2006-04-11 | 2007-10-11 | Shmuel Avidan | Method for detecting humans in images |
JP2009027393A (ja) | 2007-07-19 | 2009-02-05 | Hitachi Ltd | 映像検索システムおよび人物検索方法 |
ES2482997T3 (es) * | 2008-11-10 | 2014-08-05 | Metaio Gmbh | Método y sistema para analizar una imagen generada mediante al menos una cámara |
WO2014128748A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法 |
EP3153814B1 (en) * | 2014-06-06 | 2021-05-26 | FUJI Corporation | Lead image recognition method, lead image recognition device, method for creating component data for image processing, and device for creating component data for image processing |
JP6548518B2 (ja) * | 2015-08-26 | 2019-07-24 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および情報処理方法 |
-
2018
- 2018-03-15 JP JP2018047731A patent/JP7098365B2/ja active Active
-
2019
- 2019-03-08 US US16/297,365 patent/US11068706B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016119626A (ja) | 2014-12-22 | 2016-06-30 | セコム株式会社 | 監視システム |
JP2017122991A (ja) | 2016-01-05 | 2017-07-13 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017163510A (ja) | 2016-03-11 | 2017-09-14 | 富士通株式会社 | 撮影制御プログラム、撮影制御方法および撮影制御装置 |
Also Published As
Publication number | Publication date |
---|---|
US11068706B2 (en) | 2021-07-20 |
JP2019160001A (ja) | 2019-09-19 |
US20190286893A1 (en) | 2019-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7098365B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP5174045B2 (ja) | 分類器チェーンを用いた照明検出 | |
US9681040B2 (en) | Face tracking for controlling imaging parameters | |
JP4472781B2 (ja) | デジタル画像取得装置におけるリアルタイムの顔探知 | |
US8861806B2 (en) | Real-time face tracking with reference images | |
US8819015B2 (en) | Object identification apparatus and method for identifying object | |
US8314854B2 (en) | Apparatus and method for image recognition of facial areas in photographic images from a digital camera | |
KR20140016401A (ko) | 이미지 촬상 방법 및 장치 | |
KR20080104034A (ko) | 얼굴화상 등록 장치, 얼굴화상 등록 방법, 얼굴화상 등록 프로그램, 및 기록 매체 | |
US11710347B2 (en) | Information processing apparatus, information processing method, and program | |
JP2024045460A (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
JP2004128715A (ja) | ビデオデータの記憶制御方法およびシステム、プログラム、記録媒体、ビデオカメラ | |
JP6658402B2 (ja) | フレームレート判定装置、フレームレート判定方法及びフレームレート判定用コンピュータプログラム | |
JP2014044525A (ja) | 被写体認識装置及びその制御方法、撮像装置、表示装置、並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210310 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220629 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7098365 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |