JP6991045B2 - 画像処理装置、画像処理装置の制御方法 - Google Patents

画像処理装置、画像処理装置の制御方法 Download PDF

Info

Publication number
JP6991045B2
JP6991045B2 JP2017230869A JP2017230869A JP6991045B2 JP 6991045 B2 JP6991045 B2 JP 6991045B2 JP 2017230869 A JP2017230869 A JP 2017230869A JP 2017230869 A JP2017230869 A JP 2017230869A JP 6991045 B2 JP6991045 B2 JP 6991045B2
Authority
JP
Japan
Prior art keywords
image
detection process
human body
image pickup
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017230869A
Other languages
English (en)
Other versions
JP2019102941A (ja
JP2019102941A5 (ja
Inventor
英一郎 北川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017230869A priority Critical patent/JP6991045B2/ja
Priority to CN201811374440.8A priority patent/CN109858319A/zh
Priority to US16/202,569 priority patent/US10965858B2/en
Publication of JP2019102941A publication Critical patent/JP2019102941A/ja
Publication of JP2019102941A5 publication Critical patent/JP2019102941A5/ja
Application granted granted Critical
Publication of JP6991045B2 publication Critical patent/JP6991045B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Description

本発明は、撮像画像における動体の通過を検知するための技術に関するものである。
監視カメラの撮影映像から物体や人体を検出して追尾する技術がある。監視カメラの撮影映像では、被写体の顔や人体の特徴が検出しやすい方向に映るとは限らないため、顔や人体を検出し続けることは難しい。そこで、顔や人体のように特定の物体に限定した追尾を行うために、顔や人体に関連付けられた動体の通過を判定する方法が考案されている。
また、魚眼レンズを使用した監視カメラにおいては、通常の広角レンズに比べてはるかに広い画角で撮影が行える。しかし、魚眼レンズを使用した監視カメラによる撮影映像の形状は円形であるため、周囲の部分が黒枠表示になって無駄が生じたり、撮影画角によってはレンズの歪みにより大きく歪んだ撮影映像が取得されたりしてしまう。
そこで、ビューワにおいて、受信した撮影映像の歪みを補正した後に該撮影映像から矩形形状の映像を作成したり、監視カメラが、該監視カメラ内部で画像処理した歪み補正後の映像を送信したりする、ことが行われている。
特許文献1には、動体の検出結果と人体の検出結果とを対応付け、人体に対応付けられた動体の位置情報を過去に遡って通過を判定する方法が開示されている。また、特許文献2には、カメラの設置方向を自動的に推定し、該推定の結果に応じた方法で、撮像された画像の歪みを補正する方法が開示されている。
特許文献3に記載の発明では、魚眼レンズにより撮影される映像において人体の検出処理を開始する領域を、カメラの設置方向に応じて決定する。そして、カメラの設置方向に応じた歪み補正処理を行った後、決定された優先領域に対応する部分から人体の検出処理を実行する。
特許文献4には、複数カメラを用いて特定物体を検出する方法が開示されている。特許文献4に記載の発明では、天井に設置したカメラで人物の移動方向と顔の向きを推定し、カメラに対して人物が正面を向いていると推定されたカメラでは顔検出処理を行い、カメラに対して人物が背中を向けていると推定されたカメラでは人体検出処理を行う。
特開2012-103752号公報 特開2016-25516号公報 特開2016-39539号公報 特開2014-204375号公報
しかしながら、特許文献1に記載の発明では、蓄積された軌跡データに対する検出処理を行うため、軌跡を記録するための記憶領域を多く必要としてしまう。また特許文献1では、カメラの設置方向による映像の見え方の違いについては言及されておらず、特に魚眼レンズで撮影した場合の特定物体の検出精度については考慮されていない。そのため、魚眼レンズで撮影した映像に対しては、カメラの設置方向や物体の検出位置によっては通過の判定精度が低下してしまう場合があるという課題がある。
特許文献2や特許文献3に記載の発明では、天井付け設置のときに、カメラ内でダブルパノラマ方式による歪み補正処理を行っている。ダブルパノラマ方式は魚眼レンズの歪み補正に良く用いられるが、カメラの真下が死角になり、検知ができないという課題がある。特許文献4に記載の発明は、精度良く人物を検出するために2台以上のカメラを必要とし、単独のカメラで対応することは出来ない。
本発明はこのような問題に鑑みてなされたものであり、撮像画像における動体の検知をより簡便に行うための技術を提供する。
本発明の一様態は、撮像装置によって撮像される撮像画像における動体に関する検知処理のうち、前記撮像装置の設置に関する設定に応じて実行する検知処理を決定する決定手段と、
前記決定手段によって決定された検知処理の結果を出力する出力手段と
を備え
前記決定手段は、前記動体が規定のオブジェクトであるかの識別の結果を用いずに所定の位置を通過した前記動体を検知する第1の検知処理、該識別の結果を用いて所定の位置を通過した前記動体を検知する第2の検知処理、のうちいずれか一方を、前記撮像装置の設置に関する設定に応じて実行する検知処理として決定することを特徴とする。
本発明の構成によれば、撮像画像における動体の検知をより簡便に行うことができる。
システムの構成例を示すブロック図。 動体の通過の検知処理のフローチャート。 ステップS212における処理の詳細を示すフローチャート。 ステップS202,S203の処理を説明する図。 システムの構成例を示すブロック図。 人体検出処理を説明する図。 第2の実施形態に係る処理のフローチャート。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
先ず、本実施形態に係るシステムの構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係るシステムは、実空間中に配置される監視カメラなどのカメラ装置1000と、該カメラ装置1000と無線若しくは有線のネットワークを介して接続されている端末装置2000と、を有する。
先ず、端末装置2000について説明する。端末装置2000は、スマートフォン、タブレット端末装置、PC(パーソナルコンピュータ)、等のコンピュータ装置であり、カメラ装置1000の設定及び制御を行うと共に、カメラ装置1000により撮像された映像を表示する。
CPU201は、RAM202やROM203に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU201は、端末装置2000全体の動作制御を行うと共に、端末装置2000が行うものとして後述する各処理を実行若しくは制御する。
RAM202は、ROM203や外部記憶装置206からロードされたコンピュータプログラムやデータ、I/F(インターフェース)207を介してカメラ装置1000から受信した映像、等を格納するためのエリアを有する。更にRAM202は、CPU201が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM202は、各種のエリアを適宜提供することができる。ROM203には、端末装置2000の設定データや基本プログラムなど、書換不要のコンピュータプログラムやデータなどが格納されている。
操作部204は、キーボードやマウスなどのユーザインターフェースにより構成されており、ユーザが操作することで各種の指示をCPU201に対して入力することができる。
表示部205は、CRTや液晶画面などにより構成されており、CPU201による処理結果を画像や文字などでもって表示することができる。例えば表示部205には、カメラ装置1000の各種の設定を行うためのGUI(グラフィカルユーザインターフェース)や、カメラ装置1000から受信した映像が表示される。なお、操作部204と表示部205とを一体化させてタッチパネル画面を構成しても良い。
外部記憶装置206は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置206には、OS(オペレーティングシステム)や、端末装置2000が行うものとして後述する各処理をCPU201に実行若しくは制御させるためのコンピュータプログラムやデータなどが保存されている。外部記憶装置206に保存されているコンピュータプログラムには、上記のGUIのコンピュータプログラムや、カメラ装置1000から受信した映像等を表示するためのビューワのコンピュータプログラム、が含まれている。外部記憶装置206に保存されているデータには、以下の説明において既知の情報として端末装置2000が取り扱うものや、上記のGUIやビューワのデータが含まれている。外部記憶装置206に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜RAM202にロードされ、CPU201による処理対象となる。
I/F207はカメラ装置1000との間のデータ通信を行うための通信インターフェースとして機能するものであり、端末装置2000はこのI/F207を介してカメラ装置1000との間のデータの送受信を行う。
CPU201、RAM202、ROM203、操作部204、表示部205、外部記憶装置206、I/F207は何れもバス208に接続されている。なお、図1に示した端末装置2000の構成は一例であり、端末装置2000が行うものとして後述する各処理を実行可能な構成であれば、如何なる構成を採用しても良い。
次に、カメラ装置1000について説明する。カメラ装置1000は、壁や天井などに取り付けて撮像範囲内の映像を撮像する監視カメラとして利用可能な撮像装置であり、撮像範囲内で動体が通過したか否かを検知する通過検知処理を行い、該通過検知処理の結果を端末装置2000に対して送信する。カメラ装置1000は単体の装置であっても良いし、スマートフォンやタブレット端末装置などの機器に組み込まれる装置であっても良い。
撮像部101は、外界の映像を撮像し、該映像の各フレームの画像(撮像画像)を出力する。判定部102は、カメラ装置1000の設置方向を判定する。画像変換部103は、判定部102が判定したカメラ装置1000の設置方向に応じて、撮像部101からの撮像画像、該撮像画像に対して歪み補正を行うことで得られる撮像画像、の何れかを出力する。
画像符号化部104は、画像変換部103から出力された撮像画像を符号化する。制御部105は、CPUやMPU等の1つ以上のプロセッサと、該プロセッサが実行するコンピュータプログラムやデータを保持するメモリと、を有する。そして該1つ以上のプロセッサが該メモリに格納されているコンピュータプログラムやデータを用いて処理を実行することで、図1に示したカメラ装置1000の各機能部を含むカメラ装置1000全体の動作制御を行う。I/F(インターフェース)部106は、ネットワークを介して端末装置2000との間のデータ通信を行うための通信インターフェースとして機能する。
動体検出部107は、画像変換部103から出力された撮像画像から動体を検出する。動体追尾部108は、フレーム間で同じ動体を対応付けることで該動体を追跡する。人体検出部109は、画像変換部103から出力された撮像画像から人(人体)を検出する。
対応付け部110は、撮像画像から検出した動体と、該撮像画像から検出した人体と、を対応付ける。保持部111は、画像変換部103から出力される撮像画像における動体の通過の検知を行うためのパラメータを保持する。通過判定部112は、保持部111に保持されているパラメータに基づき、画像変換部103から出力される撮像画像における動体の通過の検知処理を行う。管理部113は、人体と対応付けられなかった動体を管理する。
次に、カメラ装置1000による動体の通過の検知処理について、図2のフローチャートに従って説明する。なお、図2のフローチャートでは、撮像部101は魚眼レンズを有し、各フレームの撮像画像として魚眼画像を出力するものとしている。
ステップS201では、判定部102は、カメラ装置1000の設置方向を判定する。カメラ装置1000の設置方向を判定するための構成には様々な構成が考えられ、本実施形態では、如何なる構成を採用しても良い。
例えば、カメラ装置1000に方向センサが備わっている場合、判定部102は該方向センサが測定した「カメラ装置1000の現在の方向(撮像方向)」をカメラ装置1000の設置方向として判定する。
また、カメラ装置1000の設置方向は、端末装置2000から取得するようにしても良い。例えばオペレータは、端末装置2000の操作部204を操作して「カメラ装置1000の設置方向」を設定し、該設定の後、操作部204を操作して送信指示を入力する。端末装置2000のCPU201は該送信指示を検知すると、該設定した「カメラ装置1000の設置方向」をI/F207を介してカメラ装置1000に対して送信する。これにより判定部102は、「カメラ装置1000の設置方向」を端末装置2000から取得することができる。
また、オペレータは操作部204を操作して、カメラ装置1000の設置位置を設定するようにしても良い。この場合、端末装置2000は、カメラ装置1000の設置位置をカメラ装置1000に対して送信することになる。
例えばカメラ装置1000の設置位置が「壁面」の場合、判定部102は、カメラ装置1000の設置方向を「水平方向」と判定し、設置位置が「天井」の場合、判定部102は、カメラ装置1000の設置方向を「鉛直下向き」と判定する。この場合、カメラ装置1000には、設置位置と設置方法とを対応付けたテーブルが予め登録されている必要があり、判定部102はこのテーブルを参照して、カメラ装置1000の設置位置に対応する設置方向を取得する。カメラ装置1000の設置位置が「壁面」であり、設置方向が「水平方向」と判定される場合は撮像される領域の中心の方向が水平方向となっている。また、カメラ装置1000の設置位置が「天井」であり、カメラ装置1000の設置方向が「鉛直下向き」と判定される場合は、撮像される領域の中心の方向が鉛直下向きとなっている。
なお、「水平方向」は、床面と平行な方向(壁面と垂直な方向)と完全に一致することを意図したものではなく、床面と平行な方向(壁面と垂直な方向)に対して規定角度範囲内の角度を有する方向を許容する。同様に、「鉛直下向き」は、床面に対して垂直な方向(下向き)と完全に一致することを意図したものではなく、床面に対して垂直な方向(下向き)に対して規定角度範囲内の角度を有する方向を許容する。
図2のフローチャートでは一例として、カメラ装置1000の設置方向は「水平方向」、「鉛直下向き」の何れかであるとする。判定部102が、カメラ装置1000の設置方向が「水平方向」であると判定した場合、処理はステップS202に進み、判定部102が、カメラ装置1000の設置方向が「鉛直下向き」であると判定した場合、処理はステップS203に進む。
ステップS202では、画像変換部103は、撮像部101から出力された魚眼画像からシングルパノラマ画像を生成し、該生成したシングルパノラマ画像を処理対象画像として出力する。一方、ステップS203では、画像変換部103は、撮像部101から出力された魚眼画像を処理対象画像として出力する。
ステップS202では画像変換部103は、例えば図4(a)に示す如く、撮像部101から出力された魚眼画像401の中央付近の画像領域402に対して歪み補正を行って切り出した画像をシングルパノラマ画像403として生成する。そして画像変換部103は、該生成したシングルパノラマ画像403を処理対象画像として出力する。シングルパノラマ画像403の生成において魚眼画像401の上下部はカットされるが、上部はほぼ天井が映っており、下部は撮像部101の真下付近が映るため、どちらも人体の検出には不要な領域である。
またステップS203では画像変換部103は、図4(b)に示す如く、撮像部101から出力された魚眼画像404に対して歪み補正を行うことなく、該魚眼画像404を処理対象画像として出力する。魚眼画像404では、場所によって人が横向きや逆さ向きに映るが、画像内に全ての画角が含まれている。周辺部になるほど撮像部101から遠くの被写体が映り、中央付近になるほど撮像部101に近くの被写体が映っている。そのため、検知線を引く場所によっては中央付近も重要な検知領域となる。
なお、ステップS202,S203では、画像に対して色補正などの画像処理を適宜行うようにしても良い。
図2に戻って、次にステップS205では、動体検出部107は、画像変換部103から出力された処理対象画像から動体(動体領域)を検出する。画像から動体を検出するための方法には様々な方法があり、特定の方法に限らない。例えば、予め撮像部101によって撮像された背景画像(人体を含まない撮像画像)を保持しておき、動体検出部107は、画像変換部103から処理対象画像を取得すると、該処理対象画像と背景画像との差分画像を生成する。そして動体検出部107は、該差分画像において規定値以上の差分値を画素値として有する画素で構成される領域を動体領域として検出する。
次にステップS206では、制御部105は、動体検出部107が処理対象画像から1つ以上の動体を検出したのか否かを判断する。この判断の結果、処理対象画像から1つ以上の動体を検出したのであれば、処理はステップS207に進み、処理対象画像から1つも動体を検出しなかった場合には、処理はステップS201に戻る。
ステップS207では、動体追尾部108は、ステップS205において検出した動体と、直前のフレームの処理対象画像から検出した動体と、で同じ動体を対応付けることで、フレーム間で動体を追跡する。この追跡処理については周知の技術であるため、これに係る詳細な説明は省略する。
そして次に、上記のステップS201において判定部102が、カメラ装置1000の設置方向が「水平方向」であると判定した場合には、処理はステップS208を介してステップS212に進む。一方、上記のステップS201において判定部102が、カメラ装置1000の設置方向が「鉛直下向き」であると判定した場合には、処理はステップS208を介してステップS210に進む。
ステップS210では、通過判定部112は、保持部111が保持する「処理対象画像上の検知線を規定するパラメータ」を読み出す。保持部111に保持されているパラメータは、例えば、該検知線の両端の画像座標位置を示すパラメータである。なお、保持部111には、検知領域を規定するパラメータが格納されていても良い。検知領域が矩形の場合、このパラメータは、矩形の4隅の画像座標を示すパラメータである(他にも例えば、矩形の対向する2隅の画像座標を示すパラメータであっても良いし、1隅の画像座標と矩形の縦横サイズを示すパラメータであっても良い)。また検知領域が円形の場合は、このパラメータは、円の中心の画像座標位置と半径とを示すパラメータである。また、保持部111が保持するパラメータには、通過検知の対象となる動体を規定するパラメータが含まれていても良い。
保持部111が保持するパラメータは、カメラ装置1000が有する不図示の操作部をオペレータが操作することで設定しても良いし、端末装置2000のオペレータが操作部204を操作することで設定してカメラ装置1000に送信しても良い。何れの設定方法であっても、設定されたパラメータは制御部105によって取得され、該取得したパラメータは保持部111に格納される。このパラメータは適宜編集しても良い。
そして通過判定部112は、動体追尾部108が追跡した動体の移動軌跡が、保持部111が保持するパラメータによって規定される検知線(及び/又は検知領域)を通過したか否かを判断する(通過検知処理)。なお、保持部111に、通過検知の対象となる動体を規定するパラメータが含まれている場合には、通過判定部112は、上記のステップS205において検出した動体のうち、該パラメータに対応する動体について通過検知処理を行う。例えば保持部111に、通過検知処理の対象となる動体のサイズ「縦H画素×横W画素」を示すパラメータが格納されているとする。このとき通過判定部112は、上記のステップS205において検出した動体のうち「縦H画素×横W画素」以上のサイズを有する動体について通過検知処理を行う。また、保持部111に動体の属性(性別、服の色、移動速度など)を規定するパラメータが格納されている場合、通過判定部112は、上記のステップS205において検出した動体のうち、該属性に該当する動体について通過検知処理を行う。
そしてステップS211では、制御部105は、通過判定部112による判断の結果を、I/F部106を介して端末装置2000に対して送信する。例えば、1つ以上の動体が検知線や検知領域を通過したことを通過判定部112が検知した場合には、制御部105は、その旨を端末装置2000のオペレータに通知するための通知情報を端末装置2000に対して送信する。通知情報は、例えば、1つ以上の動体が検知線や検知領域を通過したことを示すメッセージ(テキストであっても良いし画像であっても良い)であっても良いし、検知線や検知領域を通過した動体の領域を囲む枠の情報(枠情報)であっても良い。また、1つ以上の動体が検知線や検知領域を通過したことを音声出力にて端末装置2000のオペレータに通知する場合には、通知情報は、その通知内容に対応する音声データであっても良い。
このような通知情報を受信した端末装置2000のCPU201は、該通知情報に応じた情報通知処理を行う。例えば、通知情報が上記のメッセージである場合には、CPU201は、このメッセージを表示部205に表示する。また、通知情報が枠情報である場合には、CPU201は、表示部205の表示画面において、該枠情報が示す位置(検知線や検知領域を通過した動体の領域の位置)に該枠情報が示す枠の画像を表示する。また、端末装置2000にスピーカなどの音声出力機器が接続されている場合には、CPU201は、通知情報に含まれている音声データに基づく音声を、該音声出力機器から出力させる。そして処理はステップS201に戻る。
一方、ステップS212では、図3のフローチャートに従って、処理対象画像に対する通過検知処理を行う。ステップS212における処理の詳細について、図3のフローチャートに従って説明する。
ステップS301では、人体検出部109は、処理対象画像におけるそれぞれの動体領域(画像領域)が人体の領域(人体領域)であるのか否かを判断する。処理対象画像におけるそれぞれの動体領域が人体領域であるのか否かを判断するための処理には様々な処理があり、特定の処理に限らない。
例えば人体検出部109は、動体領域の画像特徴量と予め収集した人体領域の画像特徴量との類似度が閾値以上であれば、該動体領域は人体領域であると判断し、該類似度が閾値未満であれば、該動体領域は人体領域ではないと判断する。
また例えば人体検出部109は、予め収集した人体領域の画像特徴量を学習した学習器に動体領域の画像特徴量を入力することで得られる該学習器の出力に基づいて、該動体領域が人体領域であるのか否かを判断するようにしても良い。
このように、ステップS301における処理により、処理対象画像におけるそれぞれの動体領域が人体領域であるのか否かを特定することができる。然るにステップS302では、対応付け部110は、処理対象画像におけるそれぞれの動体領域のうち人体領域であると判断された動体領域に対して「人体領域であることを示す情報」(人体属性)を対応付ける。また対応付け部110は、処理対象画像におけるそれぞれの動体領域のうち人体属性が対応付けられていない動体領域に対して非人体属性を対応付ける。このような対応付け部110による対応付け処理が、動体領域と人体領域との対応付け処理に対応する。
なお、ステップS301で人体検出部109は、処理対象画像全体に対して人体領域を検出する処理を行い、ステップS302で対応付け部110は、処理対象画像において人体領域との距離が閾値未満となる動体領域に人体属性を対応付けるようにしても良い。また、対応付け部110は、動体領域の全体面積に対する「人体領域と重なる面積」の割合が規定値以上であれば、該動体領域に人体属性を対応付けるようにしても良い。
なお、互いに重なり合っている複数の人体を含む処理対象画像の場合、該複数の人体が1つの動体領域として該処理対象画像から検出される可能性がある。このように、1つの動体領域に複数の人体領域が含まれているような場合、対応付け部110は、該1つの動体領域を人体領域ごとに分割し、それぞれの人体領域に人体属性を対応付けるようにしても良い。このように、画像において人体領域とおぼしき動体領域には人体属性を対応付けることで、以降の処理において、通過検知処理の対象を人体に絞って行うことが可能となる。
このように、処理対象画像において人体領域とおぼしき動体領域には人体属性を対応付け、処理対象画像において人体領域とおぼしき動体領域ではない動体領域には非人体属性を対応付けるのであればステップS301、S302の処理は特定の処理に限らない。
ステップS303では、通過判定部112は、処理対象画像における動体領域のうち通過検知処理の対象として未選択の動体領域が残っているのか否かを判断する。この判断の結果、未選択の動体領域が残っている場合には、処理はステップS304に進み、残っていない場合には、処理はステップS308に進む。
ステップS304では、通過判定部112は、処理対象画像において人体属性が対応付けられている動体領域のうち通過検知処理の対象として未選択の動体領域が残っているか否かを判断する。この判断の結果、未選択の動体領域が残っている場合には、処理はステップS305に進み、残っていない場合には、処理はステップS306に進む。
ステップS305で通過判定部112は、処理対象画像において人体属性が対応付けられている動体領域のうち通過検知処理の対象として未選択の動体領域を1つ選択動体領域として選択し、該選択動体領域について通過検知処理を行う。なお、上記の通り、保持部111に、通過検知の対象となる動体を規定するパラメータが保持されている場合には、人体属性が対応付けられている動体領域のうち該パラメータに対応する動体領域が選択対象となる。
ステップS305における通過検知処理では、人体と判定された動体について通過検知処理を行うことになるので、例えば、検知線や検知領域を通過した人体の数をカウントするなど、監視対象を人体に限って処理を行うことができる。
通過判定部112による通過検知処理の結果(判定結果)は、制御部105によってI/F部106を介して端末装置2000に対して送信される。そして処理はステップS303に戻る。
一方、ステップS306では、通過判定部112は、処理対象画像において非人体属性が対応付けられている動体領域のうち通過検知処理の対象として未選択の動体領域が残っているか否かを判断する。この判断の結果、未選択の動体領域が残っている場合には、処理はステップS307に進み、残っていない場合には、処理はステップS303に戻る。
ステップS307で通過判定部112は、処理対象画像において非人体属性が対応付けられている動体領域のうち通過検知処理の対象として未選択の動体領域を1つ選択動体領域として選択し、該選択動体領域について上記の通過検知処理を行う。なお、上記の通り、保持部111に、通過検知の対象となる動体を規定するパラメータが保持されている場合には、非人体属性が対応付けられている動体領域のうち該パラメータに対応する動体領域が選択対象となる。管理部113は、「処理対象画像において非人体属性が対応付けられている動体領域」と「該動体領域に対する通過検知処理の結果(仮判定結果)」と、のセットを保持する。そして処理はステップS303に戻る。
ステップS308では、管理部113は、1つ以上のセットを管理しているか否かを判断する。この判断の結果、管理部113が、1つ以上のセットを管理している場合には、処理はステップS309に進む。一方、管理部113が1つも上記のセットを管理していない場合には、処理はステップS201に進む。
ステップS309では、管理部113は、管理部113が管理しているセットのうち、現フレームの処理対象画像から検出されなかった動体領域のセットが存在するか否かを判断する。この判断の結果、管理部113が管理しているセットのうち、現フレームの処理対象画像から検出されなかった動体領域のセットが存在する場合には、処理はステップS310に進む。一方、管理部113が管理しているセットのうち、現フレームの処理対象画像から検出されなかった動体領域のセットが存在しなかった場合には、処理はステップS311に進む。
ステップS310では、管理部113は、自身が管理しているセットのうち、現フレームの処理対象画像から検出されなかった動体領域のセットを削除する。そして処理はステップS308に戻る。
一方、ステップS311では、管理部113は、自身が管理するセットのうち、現フレームの処理対象画像から検出された動体領域(人体属性が対応付けられた動体領域)と同じ動体領域のセットが存在するか否かを判断する。この判断の結果、存在する場合には、処理はステップS312に進み、存在しない場合には、処理はステップS314に進む。
ステップS312では、制御部105は、管理部113が管理するセットのうち、現フレームの処理対象画像から検出された動体領域(人体属性が対応付けられた動体領域)と同じ動体領域のセットに含まれている通過検知処理の結果を、I/F部106を介して端末装置2000に対して送信する。なおステップS312では制御部105は更に若しくは代えて、通過判定部112が現フレームの処理対象画像から検出した動体領域(人体属性が対応付けられた動体領域)の通過検知処理の結果のうち、管理部113が管理するセットに対応する通過検知処理の結果を、I/F部106を介して端末装置2000に送信しても良い。
ステップS313では、管理部113は、自身が管理するセットのうち、現フレームの処理対象画像から検出された動体領域(人体属性が対応付けられた動体領域)と同じ動体領域のセットを削除する。
ステップS314では、制御部105は、管理部113が管理するセットのうち期限切れのセットがあるか否かを判断する。例えば制御部105は、管理部113が管理するセットのうち、管理を開始してから規定時間以上が経過したセットについては期限切れのセットと判定する。この判断の結果、管理部113が管理するセットのうち期限切れのセットがある場合には、処理はステップS315に進み、管理部113が管理するセットのうち期限切れのセットがない場合には、処理はステップS308に進む。ステップS315では、管理部113は、期限切れのセットを削除する。そして処理はステップS308に戻る。
このように、本実施形態によれば、同一の判定パラメータに対してカメラの設置方向に適した通過判定処理を行うことが可能となり、設定が容易でありがなら精度良く人の通過を判定することが可能となる
[第2の実施形態]
第1の実施形態では、カメラ装置1000の設置方向が鉛直下向きの場合には、画像における人体領域の識別は行わなかったので、人体領域を鑑みた通過検知処理を行うことはなかった。本実施形態では、カメラ装置1000に人体領域識別用の辞書が登録されている場合には、カメラ装置1000の設置方向が鉛直下向きであっても、画像における人体領域の識別は可能であるから、人体領域を鑑みた通過検知処理を行う。以下では第1の実施形態との差分について説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。
本実施形態に係るシステムの構成例について、図5のブロック図を用いて説明する。図5に示す如く、図5に示した構成は、図1に示した構成において、カメラ装置1000に判定部115及び追加部114を加えた構成である。
第1の実施形態でも本実施形態でもカメラ装置1000には、処理対象画像内で直立した人体(画像の上部から下部に向けて頭部から足先まで写っている人体(以下、直立人体と称する))を識別するための辞書である正面辞書が予め登録されている。然るに第1の実施形態でも本実施形態でも、人体検出部109は、このような正面辞書を用いて処理対象画像から直立人体の領域を識別することができる。
本実施形態ではこれに加え、画像内で回転している人体の領域をも識別可能にするために、追加の辞書をカメラ装置1000に登録するための構成を有する。追加部114は、このような追加の辞書をカメラ装置1000に追加登録するためのものである。カメラ装置1000への追加の辞書の登録方法には様々な方法が考えられ、本実施形態では如何なる方法を採用しても良い。例えばカメラ装置1000にSDカードやUSBメモリなどのメモリ装置を装着した場合には、追加部114は該メモリ装置から追加の辞書を読み出してカメラ装置1000に登録する。また、端末装置2000から追加の辞書が送信された場合には、追加部114は、この送信された辞書を受信してカメラ装置1000に登録する。
例えば、図6に示す魚眼画像601中のドーナッツ型の領域の部分領域602には人体h1,h2が写っており、部分領域603には人体h3が写っており、部分領域605には人体h4が写っており、部分領域604には人体は写っていない。また、魚眼画像601における中央の部分領域には人体h5が写っている。
部分領域602に写っている人体h1,h2は何れも直立人体である。然るに、人体検出部109は、正面辞書を用いて人体識別処理を行い、その結果、部分領域602から人体h1,h2を識別することができる。
部分領域603に写っている人体h3は、魚眼画像601における左端から右端に向けて頭部から足先までが写っている人体(以下、真横人体と称する)である。然るに追加部114は追加辞書としてこのような真横人体を識別するための辞書(真横辞書)をカメラ装置1000に登録することで、人体検出部109は、真横辞書を用いて人体識別処理を行い、その結果、部分領域603から人体h3を識別することができる。
部分領域605に写っている人体h4は、魚眼画像601における下部から上部に向けて頭部から足先までが写っている人体(以下、逆さ人体と称する)である。然るに追加部114は追加辞書としてこのような逆さ人体を識別するための辞書(逆さ辞書)をカメラ装置1000に登録することで、人体検出部109は、逆さ辞書を用いて人体識別処理を行い、その結果、部分領域605から人体h4を識別することができる。
本実施形態では、追加部114は、正面辞書が予め登録されているカメラ装置1000に対して新たに追加辞書として、真横辞書及び逆さ辞書を追加登録するものとする。然るに、動体が部分領域602,603,604,605の何れかに位置する限りは、該動体が人体であるか否かの識別処理は可能である。
ここで上記の通り、魚眼画像601における中央領域には人体h5が写っているが、この人体は正面人体でも、真横人体でも、逆さ人体でもないので、正面辞書、真横辞書、逆さ辞書の何れを用いても人体として識別されない。しかし、この人体h5は動体としては検出されるため、非人体属性が対応付けられることになる。
本実施形態では、図2のフローチャートに従った処理の開始前に、図7のフローチャートに従った処理が行われる。ステップS701では、判定部102は上記のステップS201と同様の処理により、カメラ装置1000の設置方向を判定する。この判定の結果、カメラ装置1000の設置方向が水平方向の場合には、処理はステップS702に進み、カメラ装置1000の設置方向が鉛直下向きの場合には、処理はステップS704に進む。
ステップS702では、判定部115は、処理対象画像に対する人体の識別処理は可能と判断する。一方、ステップS704では、判定部115は、追加部114により真横辞書及び逆さ辞書がカメラ装置1000に追加登録済みであるか否かを判断する。この判断の結果、追加部114により真横辞書及び逆さ辞書が追加登録済みである場合には、処理はステップS705に進み、追加部114により真横辞書及び逆さ辞書が追加登録済みではない場合には、処理はステップS706に進む。
ステップS705では、判定部115は、処理対象画像に対する人体の識別処理は可能と判断する。一方、ステップS706では、判定部115は、処理対象画像に対する人体の識別処理は不可能と判断する。
上記のように、カメラ装置1000の設置方向が水平方向であれば、判定部115により「処理対象画像に対する人体の識別処理は可能」と判断されるので、図2のステップS212では、第1の実施形態と同様に、図3のフローチャートに従った処理を行う。なお、このときに人体検出部109において使用される辞書は正面辞書である。
一方、上記のように、カメラ装置1000の設置方向が鉛直下向きであっても、真横辞書及び逆さ辞書が追加登録されている場合には、判定部115により「処理対象画像に対する人体の識別処理は可能」と判断される。然るに、この場合、ステップS210では、人体検出部109は、図3のフローチャートに従った処理を行う。その際、ステップS301では、正面辞書に加えて真横辞書及び逆さ辞書を用いて、各動体が人体であるのか否かの識別処理を行う。また、その場合、ステップS211は省略可能である。
また、カメラ装置1000の設置方向が鉛直下向きであり、真横辞書及び逆さ辞書が追加登録されていない場合には、判定部115により「処理対象画像に対する人体の識別処理は不可能」と判断される。然るに、この場合、ステップS210では、人体検出部109は、第1の実施形態と同様と同様の処理行う。
このように、本実施形態によれば、追加の人体辞書の有無で人体検出可否を判定するので、カメラ装置1000の設置方向が水平方向であっても鉛直下向きであっても、人体辞書を追加したときに人体属性の付いた動体の通過を判定することが可能になる。
[第3の実施形態]
図1,5のカメラ装置1000の各機能部はハードウェアで実装しても良いし、一部をソフトウェアで実装しても良い。例えば、撮像部101、制御部105、I/F部106、保持部111以外の機能部のうち1つ以上の機能部の機能を制御部105に実行させるためのコンピュータプログラムを、制御部105が有するメモリに格納しておいても良い。この場合、このコンピュータプログラムは制御部105が有するプロセッサによって実行され、これにより制御部105は、対応する機能部の機能を実現することができる。
また、図1,5のカメラ装置1000を2つ以上の機器で構成しても良い。例えば図1,5に示したカメラ装置1000を、撮像部101として機能する撮像装置と、撮像部101以外の機能部群を有するコンピュータ装置と、で構成しても良い。この場合、該コンピュータ装置には該撮像装置と、上記の端末装置2000とが接続されることになる。そして、該撮像装置と該コンピュータ装置とで協調動作を行うことで、上記のカメラ装置1000として機能する。
また、図1,5のカメラ装置1000の構成は適宜変更しても良い。例えば、図1,5の構成では、画像変換部103から出力された画像を画像符号化部104によって圧縮符号化したが、画像符号化部104を省略し、画像変換部103から出力された画像を圧縮符号化することなく端末装置2000に対して送信しても良い。また、ユーザからの指示などに応じて、画像符号化部104による圧縮符号化を行う/行わないを切り替えるようにしても良い。また、圧縮符号化する場合であっても、その圧縮符号化形式は特定の圧縮符号化形式に限らない。
また、図1,5ではカメラ装置1000及び端末装置2000のそれぞれの数を1としたが、カメラ装置1000及び端末装置2000のそれぞれの数は1に限るものではなく、2以上であっても良い。また、端末装置2000以外の機器をカメラ装置1000に接続しても良い。
また、第1,2の実施形態では、「人体領域」の代わりに若しくは加えて「動物」、「乗り物」、「建物」等の他の種類のオブジェクトの領域を対象としても良い。また、第1,2の実施形態では、映像は動画像であっても良いし、定期的若しくは不定期的に撮像される静止画像の集合であっても良い。
また、図3のフローチャートに従った処理では、非人物属性が対応付けられた動体領域についての通過検知処理の結果を得ることもできるので、これを通知するようにしても良い。つまり、通過検知処理における人体領域の検出結果の使用方法については特定の使用方法に限らない。
また、第1,2の実施形態では、カメラ装置1000の設置方向が鉛直下向きであったり、人体識別用の辞書がない場合には、動体が人体であるのかの識別処理は行わないものとした。これは、画像中の動体が人体として識別し難い若しくは識別できないことに起因する。然るに、カメラ装置1000の設置方向や人体識別用の辞書の有無以外にも、カメラ装置1000の撮像状態が人体として識別し難い状況にあるのかに応じて、人体の識別を行うのか否かを切り替えても良い。「カメラ装置1000の撮像状態が人体として識別し難い状況」には、例えば、撮像部101の撮像環境における明るさが暗い若しくは明るすぎる、霧が濃い等がある。そして例えば、ステップS208において、人体として識別し難い状況であれば、処理はステップS210に進み、人体として識別し難い状況ではない場合には、処理はステップS212に進むようにしても良い。
なお、「人体として識別し難い状況」であるか否かの判断は、例えば、カメラ装置1000が有するセンサが、規定レベル以下の明るさ若しくは規定レベル以上の明るさを検知した場合には、「人体として識別し難い状況」と判断するようにしてもよい。また、撮像画像のボケ量が大きい場合には、「人体として識別し難い状況」と判断するようにしてもよい。なお、以上説明した各実施形態の一部若しくは全部を適宜組み合わせても構わない。また、以上説明した各実施形態の一部若しくは全部を選択的に使用しても構わない。
また、本発明は、通過検知以外にも撮像画像に含まれる物体の数をカウントする(数える)カウント処理にも応用することができる。つまり、撮像画像に含まれる物体の数を該物体が特定のオブジェクト(例えば人体)であるかの識別の結果を用いずにカウントする第1のカウント処理と、撮像画像に含まれる物体の数を該物体が特定のオブジェクト(例えば人体)であるかの識別の結果を用いてカウントする第2のカウント処理、のうち撮像装置の撮像状態に応じた一方を実行するようにしてもよい。つまり、撮像装置の設置方向が鉛直下向きである場合には、第1のカウント処理を実行し、撮像装置の設置方向が水平方向である場合には、第2のカウント処理を実行する。
第1のカウント処理では、人体であるか否かにかかわらず動体(又は前景物体)をカウントし、第2のカウント処理では、人体と判定された動体のみをカウントすることとなる。例えば、第1のカウント処理は、ステップS210において実行され、第2のカウント処理はステップS212において実行される。上記のカウント処理は、例えば、動体検出部107、動体追尾部108、人体検出部109、及び対応付け部110の出力に基づいて、制御部105によって、実行される。
また、上記の説明において画像処理装置としてのカメラ装置1000が行うものとして説明した処理(例えば、図2,3,7のフローチャートに従った処理)の一部若しくは全部は画像処理装置としての端末装置2000において実行しても良い。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101:撮像部 102:判定部 103:画像変換部 104:画像符号化部 105:制御部 106:I/F部 107:動体検出部 108:動体追尾部 109:人体検出部 110:対応付け部 111:保持部 112:通過判定部 113:管理部

Claims (13)

  1. 撮像装置によって撮像される撮像画像における動体に関する検知処理のうち、前記撮像装置の設置に関する設定に応じて実行する検知処理を決定する決定手段と、
    前記決定手段によって決定された検知処理の結果を出力する出力手段と
    を備え
    前記決定手段は、前記動体が規定のオブジェクトであるかの識別の結果を用いずに所定の位置を通過した前記動体を検知する第1の検知処理、該識別の結果を用いて所定の位置を通過した前記動体を検知する第2の検知処理、のうちいずれか一方を、前記撮像装置の設置に関する設定に応じて実行する検知処理として決定することを特徴とする画像処理装置。
  2. 前記決定手段は、前記撮像装置の設置方向が鉛直下向きである場合には、前記第1の検知処理を前記撮像装置の設置に関する設定に応じて実行する検知処理として決定し、前記撮像装置の設置方向が水平方向である場合には、前記第2の検知処理を前記撮像装置の設置に関する設定に応じて実行する検知処理として決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記決定手段は、前記撮像装置の設置方向が鉛直下向きであっても、前記識別のための辞書が前記画像処理装置に登録されている場合には、前記第2の検知処理を前記撮像装置の設置に関する設定に応じて実行する検知処理として決定することを特徴とする請求項に記載の画像処理装置。
  4. 前記辞書は、前記撮像画像における動体の向きに対応する辞書であることを特徴とする請求項3に記載の画像処理装置。
  5. 更に、
    前記辞書を登録する手段を備えることを特徴とする請求項3又は4に記載の画像処理装置。
  6. 前記決定手段は、前記撮像装置の撮像環境が規定の明るさよりも暗い場合には、前記第1の検知処理を前記撮像装置の設置に関する設定に応じて実行する検知処理として決定し、前記撮像装置の撮像環境が規定の明るさよりも明るい場合には、前記第2の検知処理を前記撮像装置の設置に関する設定に応じて実行する検知処理として決定することを特徴とする請求項1に記載の画像処理装置。
  7. 前記第2の検知処理は、前記撮像画像における動体のうち規定のオブジェクトであると識別した動体が所定の位置を通過したことを検知する検知処理であることを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
  8. 前記規定のオブジェクトは人物であることを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
  9. 前記第1の検知処理は、前記撮像画像における前記動体の動き情報に基づいて、前記動体が所定の位置を通過したことを検知する検知処理であることを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
  10. 前記出力手段は、前記決定手段によって決定された検知処理の結果を示す情報を外部の装置に対して送信することを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  11. 前記出力手段は、前記決定手段によって決定された検知処理の結果に基づいて、所定の位置を通過した動体の数を出力することを特徴とする請求項1乃至10の何れか1項に記載の画像処理装置。
  12. コンピュータを、請求項1乃至11のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
  13. 画像処理装置の制御方法であって、
    撮像装置によって撮像される撮像画像における動体に関する検知処理のうち、前記撮像装置の設置に関する設定に応じて実行する検知処理を決定する決定工程と、
    前記決定工程によって決定された検知処理の結果を出力する出力工程と
    を備え
    前記決定工程では、前記動体が規定のオブジェクトであるかの識別の結果を用いずに所定の位置を通過した前記動体を検知する第1の検知処理、該識別の結果を用いて所定の位置を通過した前記動体を検知する第2の検知処理、のうちいずれか一方を、前記撮像装置の設置に関する設定に応じて実行する検知処理として決定することを特徴とする画像処理装置の制御方法。
JP2017230869A 2017-11-30 2017-11-30 画像処理装置、画像処理装置の制御方法 Active JP6991045B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017230869A JP6991045B2 (ja) 2017-11-30 2017-11-30 画像処理装置、画像処理装置の制御方法
CN201811374440.8A CN109858319A (zh) 2017-11-30 2018-11-19 图像处理设备及控制方法和非暂时性计算机可读存储介质
US16/202,569 US10965858B2 (en) 2017-11-30 2018-11-28 Image processing apparatus, control method thereof, and non-transitory computer-readable storage medium for detecting moving object in captured image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017230869A JP6991045B2 (ja) 2017-11-30 2017-11-30 画像処理装置、画像処理装置の制御方法

Publications (3)

Publication Number Publication Date
JP2019102941A JP2019102941A (ja) 2019-06-24
JP2019102941A5 JP2019102941A5 (ja) 2021-01-14
JP6991045B2 true JP6991045B2 (ja) 2022-01-12

Family

ID=66632890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017230869A Active JP6991045B2 (ja) 2017-11-30 2017-11-30 画像処理装置、画像処理装置の制御方法

Country Status (3)

Country Link
US (1) US10965858B2 (ja)
JP (1) JP6991045B2 (ja)
CN (1) CN109858319A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7192582B2 (ja) * 2019-03-11 2022-12-20 オムロン株式会社 物体追跡装置および物体追跡方法
CN111178300B (zh) * 2019-12-31 2021-01-29 北京城市网邻信息技术有限公司 目标检测方法、装置、设备、介质
EP4113988A4 (en) * 2020-02-28 2023-06-21 Sony Group Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, PROGRAM AND IMAGE PROCESSING SYSTEM

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005312018A (ja) 2004-03-23 2005-11-04 Canon Inc 監視システム、撮像制御装置、撮像設定装置、制御方法、及びプログラム
JP2009239871A (ja) 2008-03-28 2009-10-15 Canon Inc 物体検知方法及びその装置
JP2014204375A (ja) 2013-04-08 2014-10-27 キヤノン株式会社 画像処理システム、画像処理装置、それらの制御方法、及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5656567B2 (ja) 2010-11-05 2015-01-21 キヤノン株式会社 映像処理装置および方法
JP5942270B2 (ja) * 2011-01-11 2016-06-29 パナソニックIpマネジメント株式会社 撮影システム及びそれに用いるカメラ制御装置、撮影方法及びカメラ制御方法、並びにコンピュータプログラム
US9417689B1 (en) * 2013-05-17 2016-08-16 Amazon Technologies, Inc. Robust device motion detection
US9147689B1 (en) * 2014-04-16 2015-09-29 Micron Technology, Inc. Methods of forming ferroelectric capacitors
JP6381353B2 (ja) 2014-08-08 2018-08-29 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP6335701B2 (ja) 2014-07-22 2018-05-30 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP6840492B2 (ja) * 2016-08-30 2021-03-10 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005312018A (ja) 2004-03-23 2005-11-04 Canon Inc 監視システム、撮像制御装置、撮像設定装置、制御方法、及びプログラム
JP2009239871A (ja) 2008-03-28 2009-10-15 Canon Inc 物体検知方法及びその装置
JP2014204375A (ja) 2013-04-08 2014-10-27 キヤノン株式会社 画像処理システム、画像処理装置、それらの制御方法、及びプログラム

Also Published As

Publication number Publication date
JP2019102941A (ja) 2019-06-24
US10965858B2 (en) 2021-03-30
US20190166299A1 (en) 2019-05-30
CN109858319A (zh) 2019-06-07

Similar Documents

Publication Publication Date Title
US11756305B2 (en) Control apparatus, control method, and storage medium
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP6624629B2 (ja) 魚計数装置、魚計数方法、魚数の予測装置、魚数の予測方法、魚計数システムおよび魚数予測システム
JP6991045B2 (ja) 画像処理装置、画像処理装置の制御方法
JP2019186955A (ja) 情報処理システム、情報処理方法及びプログラム
US10574904B2 (en) Imaging method and electronic device thereof
US8896692B2 (en) Apparatus, system, and method of image processing, and recording medium storing image processing control program
JP2009117956A (ja) 映像処理装置
KR20180086048A (ko) 카메라 및 카메라의 영상 처리 방법
KR101308184B1 (ko) 윈도우 형태의 증강현실을 제공하는 장치 및 방법
JP2022070648A (ja) 情報処理装置および情報処理方法
CN111753587B (zh) 一种倒地检测方法及装置
JPWO2018179119A1 (ja) 映像解析装置、映像解析方法およびプログラム
CN108737733B (zh) 信息提示方法和装置、电子设备、计算机可读存储介质
US11205064B1 (en) Measuring quality of depth images in real time
JP2021056899A (ja) 画像処理装置、画像処理方法およびプログラム
JP6780639B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
CN112749600A (zh) 人眼位置确定方法及相关产品
JP6501945B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2018117191A (ja) 携帯端末、プログラム、および携帯端末の制御方法
JP2017146704A (ja) 情報処理装置、情報処理方法およびプログラム
CN117768734A (zh) 图像控制方法、装置以及图像交互系统
JP2024035625A (ja) 画像処理装置、画像処理方法
CN114677347A (zh) 一种人形识别方法、装置、设备及介质
KR20120083064A (ko) 실제 얼굴 판별 장치 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201126

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211207

R151 Written notification of patent or utility model registration

Ref document number: 6991045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151