JP7034690B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7034690B2 JP7034690B2 JP2017233227A JP2017233227A JP7034690B2 JP 7034690 B2 JP7034690 B2 JP 7034690B2 JP 2017233227 A JP2017233227 A JP 2017233227A JP 2017233227 A JP2017233227 A JP 2017233227A JP 7034690 B2 JP7034690 B2 JP 7034690B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- region
- detection
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Description
ところで、一般に画像特徴に基づく被写体の検出技術では、被写体となる物体の撮像角度が小さい程、検出精度が向上する傾向にある。これは、撮像角度が小さな撮像画像に映る被写体を、学習データとして画像特徴を生成しているからである。仮に、撮像角度が大きな撮像画像に映る被写体を学習データとして用いることにより、撮像角度が大きな場合でも、検出精度の低下なく被写体の検出が可能になる。しかしながら、撮像角度が大きな撮像画像に映る被写体の画像は数が少なく、収集が困難である。そのため、多くの画像特徴に基づく被写体の検出技術において、撮像角度が大きな撮像画像に映る被写体の検出は不得手である。
このように、画像特徴に基づく被写体の検出技術には、撮像画像中の領域において、被写体の検出の得手不得手が存在する。特許文献1には、被写体の検出が得意な領域を画像上に重畳表示する方法が開示されている。
本実施形態では、被写体検出システム(以下、システムという)は、撮像画像を画像特徴に基づく被写体検出を行う領域と画像特徴以外に基づく被写体検出を行う領域とに分割する。その後、システムは、分割した領域それぞれに対応する被写体検出を行い、検出結果を出力する。以下、本実施形態における情報処理の流れを説明する。
図1は、システムのシステム構成の一例を示す図である。
本実施形態のシステムは、撮像装置110、クライアント装置120を含む。撮像装置110、クライアント装置120は、ネットワーク150を介して、相互に通信可能に接続されている。クライアント装置120は、入力装置130と表示装置140とに接続されている。クライアント装置120は、情報処理装置の一例である。
撮像装置110は、撮像を行うネットワークカメラ等の撮像装置である。クライアント装置120は、撮像装置110の駆動、撮像画像の取得、取得した画像に対しての動体の検出、マスクの重畳等を行うパーソナルコンピュータ、サーバ装置、タブレット装置等の情報処理装置である。入力装置130は、マウスやキーボード等から構成される入力装置である。表示装置140は、クライアント装置120が出力した画像を表示するモニタ等の表示装置である。本実施形態では、クライアント装置120と入力装置130と表示装置140とは、各々独立した装置とする。しかし、例えば、クライアント装置120と表示装置140とが、一体化されていてもよいし、入力装置130と表示装置140とが一体化されていてもよい。また、クライアント装置120と入力装置130と表示装置140とが、一体化されていてもよい。
ネットワーク150は、撮像装置110とクライアント装置120とを接続するネットワークである。ネットワーク150は、例えばEthernet(登録商標)等の通信規格を満足する複数のルータ、スイッチ、ケーブル等から構成される。本実施形態では、ネットワーク150は、撮像装置110とクライアント装置120との間の通信を行うことができるものであればよく、その通信規格、規模、構成を問わない。例えば、ネットワーク150は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されてもよい。
撮像装置110は、ハードウェア構成として、CPU211、主記憶装置212、補助記憶装置213、駆動部214、撮像部215、ネットワークI/F216を含む。各要素は、システムバス217を介して、相互に通信可能に接続されている。
CPU211は、撮像装置110の動作を制御する中央演算装置である。主記憶装置212は、CPU211のワークエリア、データの一時的な記憶場所として機能するRAM(Random Access Memory)等の記憶装置である。補助記憶装置213は、各種プログラム、各種設定データ等を記憶するHDD(ハードディスクドライブ)、ROM(Read Only Memory)、SSD(ソリッドステートドライブ)等の記憶装置である。
駆動部214は、撮像装置110を駆動し、撮像装置110の姿勢等を変更させ、撮像部215の撮影方向及び画角を変更する駆動部である。撮像部215は、撮像素子と光学系とを有し、光学系の光軸と撮像素子との交点を撮像中心として被写体の像を撮像素子上に結像する撮像部である。撮像素子には、CMOS(ComplementaryMetal-Oxide Semiconductor)、CCD(Charged Coupled Device)等がある。ネットワークI/F216は、クライアント装置120等の外部の装置とのネットワーク150を介した通信に利用されるインターフェースである。
CPU211が、補助記憶装置213に記憶されたプログラムに基づき処理を実行することによって、図3(a)で後述する撮像装置110の機能及び撮像装置110の処理が実現される。
クライアント装置120は、ハードウェア構成として、CPU221、主記憶装置222、補助記憶装置223、入力I/F224、出力I/F225、ネットワークI/F226を含む。各要素は、システムバス227を介して、相互に通信可能に接続されている。
CPU221は、クライアント装置120の動作を制御する中央演算装置である。主記憶装置222は、CPU221のワークエリア、データの一時的な記憶場所として機能するRAM等の記憶装置である。補助記憶装置223は、各種プログラム、各種設定データ等を記憶するHDD、ROM、SSD等の記憶装置である。
入力I/F224は、入力装置130等からの入力を受付ける際に利用されるインターフェースである。出力I/F225は、表示装置140等への情報の出力に利用されるインターフェースである。ネットワークI/F216は、撮像装置110等の外部の装置とのネットワーク150を介した通信に利用されるインターフェースである。
CPU221が、補助記憶装置223に記憶されたプログラムに基づき処理を実行することによって、図3(b)で後述するクライアント装置120の機能及び図4、図7で後述するフローチャートの処理等のクライアント装置120の処理が実現される。
撮像装置110は、機能構成として、撮像制御部311、信号処理部312、駆動制御部313、通信制御部314を含む。
撮像制御部311は、撮像部215を介して、周囲の環境を撮影する。信号処理部312は、撮像制御部311によって撮影された画像の処理を行う。例えば、信号処理部312は、撮像制御部311によって撮影された画像の符号化を行う。静止画の場合、信号処理部312は、例えば、JPEG(Joint Photographic Experts Group)等の符号化方式を用いて、画像の符号化を行う。また、動画の場合、信号処理部312は、H.264/MPEG-4 AVC、HEVC(High Efficiency Video Coding符号化方式)等の符号化方式を用いて、画像の符号化を行う。また、例えば信号処理部312は、予め設定された複数の符号化方式の中から、撮像装置110の操作部を介してユーザーにより選択された符号化方式を用いて、画像の符号化を行うようにしてもよい。
駆動制御部313は、駆動部214を介して、撮像制御部311の撮影方向及び画角を変更させる制御を行う。しかし、駆動制御部313は、撮像制御部311による撮影方向と画角とのうちの何れか1つを変更することとしてもよい。また、撮像制御部311の撮影方向及び画角は、固定であってもよい。通信制御部314は、信号処理部312により処理された撮像制御部311により撮影された画像を、ネットワークI/F216を介して、クライアント装置120に送信する。また、通信制御部314は、ネットワークI/F216を介して、クライアント装置120から撮像装置110に対する制御命令を受信する。
クライアント装置120は、機能構成として、入力情報取得部321、通信制御部322、画像取得部323、検出部324、評価部325、描画部326、表示制御部327を含む。
入力情報取得部321は、入力装置130を介したユーザーによる入力を受け付ける。通信制御部322は、撮像装置110から送信された画像を、ネットワーク150を介して受信する。また、通信制御部322は、撮像装置110への制御命令を、ネットワーク150を介して送信する。画像取得部323は、通信制御部322を介して、撮像装置110から、撮像装置110により撮影された画像を、被写体の検出処理の対象である画像として取得する。また、画像取得部323は、補助記憶装置223に記憶されている画像を、被写体の検出処理の対象である画像として取得してもよい。
評価部325は、画像取得部323により取得された画像の領域に対して、画像特徴に基づく被写体検出を行う領域か、画像特徴以外に基づいて被写体検出を行う領域かを判定する。検出部324は、画像取得部323により取得された画像に対して、画像特徴に基づく被写体の検出処理、及び画像特徴以外に基づく被写体検出を行う。描画部326は、検出部324で検出された被写体を撮像画像上に重畳する。表示制御部327は、被写体の検出結果が重畳された撮像画像を表示装置140へ出力する。
S400において、画像取得部323は、通信制御部322を介して、撮像装置110から、撮像装置110により撮影された画像を取得する。以下では、S400で取得された撮像装置110により撮影された画像を、撮像画像とする。
図5は、撮像装置110により撮影された撮像画像の一例を示す図である。撮像画像500は、撮像装置110により撮影された、撮像画像を示す。被写体501~503は、撮像画像500中の環境において、検出対象である被写体を表す。また、境界504は後述する、画像特徴に基づく被写体検出が可能な領域とそれ以外の領域との境界を表す。本実施形態では、撮像画像500は可視角が180度の撮像装置を用いて撮像された画像とするが、この限りではない。撮像画像500は可視角が180度以外の撮像装置を用いて撮像された画像であってもよい。
本実施形態では、クライアント装置120は、撮像装置110からリアルタイムで撮影されたライブ映像を受信して、受信したライブ映像(動画)の各フレームに対し図4の処理を行う。しかしながら、例えば、クライアント装置120は、撮像装置110内の補助記憶装置213に記憶されている静止画、又は動画の各フレームに対して図4の処理を行ってもよい。また、クライアント装置120は、クライアント装置120内の補助記憶装置223に記憶されている静止画、又は動画の各フレームに対して図4の処理を行ってもよい。また、クライアント装置120は、外部の録画サーバにアクセスし、録画サーバ内に記憶されている静止画、又は動画の各フレームに対して図4に示す処理を行ってもよい。
しかしながらこの限りではない。検出部324は、表示装置140に表示された撮像画像に対して入力装置130等を介して入力されたユーザーの操作に基づき撮像画像の境界を設定し、撮像画像を画像特徴に基づく被写体検出が可能な領域とそれ以外の領域とに分割してもよい。また、画像取得部323は、検出したい被写体を並べた撮像画像を取得する。そして、検出部324は、取得された撮像画像に対して画像特徴に基づく被写体検出を実施し、被写体を検出できた領域と被写体を検出できなかった領域とで分割を行ってもよい。
S402において、検出部324は、被写体検出処理を開始する。検出部324は、撮像画像をラスタースキャンしながら注目する領域を切り替えていき、注目する領域に対して被写体の検出を行う。
S404において、検出部324は、注目する領域に対して画像特徴に基づく被写体検出を実行する。検出部324は、画像特徴に基づく被写体検出を行うため、注目している領域に対し、様々なサイズでスケーリングを行う。スケーリングを行うことで、様々なサイズの被写体を検出することができる。次に、検出部324は、各スケールの注目領域に対し、特定のサイズの検出窓をラスタースキャンさせる。このとき、検出部324は、予め学習データを用いて被写体の特徴量を求めておき、スキャン時に検出窓内で取得した特徴量と前述の学習データに基づく特徴量との誤差が閾値よりも小さい場合に被写体であると判定する。また、検出部324は、注目する領域毎にスケーリングを行うがこの限りではない。検出部324は、被写体検出処理実施前に撮像画像500に対してスケーリング処理を実施し、予め各領域のスケーリング画像を用意しておいてもよい。
S405において、検出部324は、注目する領域に対して画像特徴以外に基づく被写体検出を行う。検出部324は、動体検出を用いて被写体検出を行う。例えば、検出部324は、動体の検出に背景差分を用いる。つまり、検出部324は、予め取得しておいた背景画像とS400において取得された撮像画像との輝度値の差分を求め、差分が閾値を超えた領域を動体と判定する。しかしながら被写体の検出方法この限りではない。検出部324は、RGB値を三次元の座標として扱い、差分として背景画像のRGB値と撮像画像のRGB値との距離を測ってもよい。また、検出部324は、背景差分に限らず、オプティカルフローのように画像内の各座標の移動方向を求め、動体を検出してもよい。また、検出部324は、画像特徴以外に基づく被写体検出は動体検出でなくてもよい。例えば、検出部324は、距離センサーを用いて生成された距離画像に基づき、極値となる部分を被写体であると判定してもよい。即ち、被写体を検出する対象の画像に含まれる画素の画素値以外の情報に基づいて被写体検出を行うことを、画像特徴以外に基づく被写体検出としている。
S404、405において、被写体であると判定した場合、検出部324は、注目している領域と検出した被写体の大きさとを主記憶装置222に記憶する。しかしながらこの限りではなく、検出部324は、注目している領域と検出した被写体の大きさとを補助記憶装置223に記憶してもよいし、ネットワークI/Fを介し、他のデバイスに記憶してもよい。検出部324は、被写体の大きさに関しては、S404においては注目領域のスケーリングの結果から判定し、S405においては動体の大きさからそれぞれ判定する。
S407において、検出部324は、次のスキャン領域に注目し、S403へ進む。
S408において、検出部324は、被写体の検出結果を保存する。検出部324は、ネットワークI/Fを介し、他のデバイスにファイル出力を行うがこの限りではない。検出部324は、被写体の検出結果を主記憶装置222に記憶してもよいし、補助記憶装置223に記憶してもよい。
実施形態1では、システムは、撮像画像を画像特徴に基づく被写体検出を行う領域と画像特徴以外に基づく被写体検出を行う領域とに分割し、その後、分割した領域それぞれに対応する被写体検出を行っていた。しかしながら、実施形態1にて分割した各領域内においても、画像特徴に基づく被写体検出、及び画像特徴以外に基づく被写体検出には、それぞれ検出精度が下がる状況が存在する。実施形態2では、検出精度が低下する状況について説明すると共に、前のフレームの被写体検出結果に基づき、検出精度の低下を補正する方法について説明する。
実施形態2のシステムのシステム構成は、実施形態1と同様であるため、説明を省略する。また、撮像装置110、及びクライアント装置120のハードウェア構成及び機能構成は、実施形態1と同様であるため、説明を省略する。
S700において、画像取得部323は、被写体検出処理を行いたい映像の、最初のフレームに注目する。実施形態2の例では、S700の映像は撮像装置110で撮像されたライブ映像とする。しかしながらこの限りではない。例えば、S700の映像は撮像装置110、又はクライアント装置120内に保存されている録画映像でもよい。
S701において、画像取得部323は、通信制御部322を介して、撮像装置110から、注目しているフレームを取得する。そして、検出部324は、取得したフレームに対して被写体検出処理を実施する。実施形態2では、検出部324は、実施形態1に記載の被写体検出処理(S401~S408)を実施する。
S702において、検出部324は、以前のフレームの被写体検出結果と現在注目しているフレームの被写体検出結果とを比較し、同一の被写体同士を結び付けるマッチング処理を行う。検出部324は、一つ前のフレームで検出した被写体の座標と注目フレームで検出した被写体の座標との距離を計算し、閾値以下、かつ、最も距離が近い物を同一被写体と判定する。しかしながらこの限りではない。例えば、検出部324は、スケール、回転、照明変化を考慮し、SIFT特徴量に基づいて異なるフレーム間における同一被写体のマッチングを行ってもよい。また、検出部324は、撮像状況に応じて、異なる特徴量を用いてもよい。
境界504付近に存在した被写体検出結果が消失する例について、図8、図9を用いて説明する。
図8は、二つの被写体が画像上部から画像下部に向かって歩いている状況を撮像した際の撮像画像の一例を示す図である。図8(a)、図8(b)はあるフレームにおける撮像画像を表し、図8(a)の方が図8(b)よりも前のフレームである。被写体801及び被写体811、被写体802及び被写体812はそれぞれ同一の被写体を表す。このとき、図8(a)では画像特徴量を用いた被写体検出により、二つの被写体が検出される。しかしながら、図8(b)では、被写体811と被写体812との距離が近いため、動体検出に基づく被写体検出を行うと、被写体811と被写体812とが一つに動体になる。そのため、被写体の検出個数は一つになる。図8(a)の撮像画像は、第1のタイミングにおいて撮像された第1の撮像画像の一例である。また、図8(b)の撮像画像は、第1のタイミングと異なる第2のタイミングにおいて撮像された第2の撮像画像の一例である。
図9は、二つの被写体が画像中央から画像上部に向かって歩いている状況を撮像した際の撮像画像の一例を示す図である。図9(a)、図9(b)はあるフレームにおける撮像画像を表し、図9(a)の方が図9(b)よりも前のフレームである。被写体901及び被写体911、被写体902及び被写体912はそれぞれ同一の被写体を表す。このとき、図9(a)では動体検出に基づく被写体検出により、二つの被写体が検出される。しかしながら、図9(b)では、被写体911が被写体912に隠れているため、図9(b)に対して画像特徴に基づく被写体検出を行うと、被写体911は検出されない。図9(a)の撮像画像は、第1のタイミングにおいて撮像された第1の撮像画像の一例である。図9(b)の撮像画像は、第2のタイミングにおいて撮像された第2の撮像画像の一例である。
S704において、検出部324は、注目フレームにおける検出結果を補正する。図8、図9に示す通り、S704に処理が移動した際、二つ以上の検出結果が一つの検出結果にまとまってしまっている。そのため、S704では、検出部324は、被写体消失前のフレームにおける被写体の検出個数を注目しているフレームの検出個数に補正する。
図8(c)は、図8(a)に対応する表示結果の一例を示す図である。また、図8(d)は、図8(b)に対応する表示結果の一例を示す図である。
また、図9(c)は、図9(a)に対応する表示結果の一例を示す図である。また、図9(d)は、図9(b)に対応する表示結果の一例を示す図である。
境界504付近に新しく被写体検出結果が出現する例について、図10を用いて説明する。
図10は、被写体以外の動体が画像上部から画像下部に向かって歩いている状況を撮像した際の撮像画像の一例を示す図である。図10(a)、図10(b)はあるフレームにおける撮像画像を表し、図10(a)の方が図10(b)よりも前のフレームである。動体1001及び動体1011は同一の動体を表す。このとき、図10(a)では画像特徴量を用いた被写体検出を行っても、被写体は検出されない。しかしながら、図10(b)では、動体検出に基づく被写体検出を行うため、動体1011は被写体であると判定される。そのため、図10(b)において本来被写体は存在しないはずが、一つの被写体が検出される。
図10(c)は、図8(a)に対応する表示結果の一例を示す図である。また、図10(d)は、図8(b)に対応する表示結果の一例を示す図である。
S707において、検出部324は、注目フレームが最終フレームか判定する。検出部324は、最終フレームであった場合、処理を終了し、最終フレームでなかった場合、S708へ進む。
S708において、検出部324は、次のフレームへ注目し、S701へ戻る。
実施形態1では、検出部324が、撮像角度に基づいて、撮像画像を画像特徴に基づく被写体検出を行う領域と画像特徴以外に基づく被写体検出を行う領域とに分割する処理を主に説明した。しかしながら、検出部324は、入力装置130等を介して入力されたユーザーの操作に基づき領域の分割を行ってもよい。実施形態3では、検出部324が、表示装置140に表示された画面に対して、入力装置130等を介して入力されたユーザーの操作に基づき領域の分割を行う処理について説明する。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、撮像装置110、クライアント装置120のハードウェア構成として、CPUは複数存在してもよく、複数のCPUが補助記憶装置等に記憶されているプログラムに基づき処理を実行するようにしてもよい。また、撮像装置110のハードウェア構成として、CPUの替わりに、GPU(Graphics Processing Unit)を用いてもよい。また、撮像装置110に入力部及び表示部等が設けられている場合、上述したクライアント装置120の機能を撮像装置110に実装するようにしてもよい。クライアント装置120の機能を実装された撮像装置110は、情報処理装置の一例である。
また、上述した実施形態を任意に組み合わせて実施してもよい。
120 クライアント装置
221 CPU
Claims (17)
- 撮像画像を取得する取得手段と、
前記撮像画像の画像特徴に基づく被写体検出を行う第1の領域に対する画像特徴に基づく第1の被写体検出処理の検出結果と、前記第1の領域以外の第2の領域に対する画像特徴以外に基づく第2の被写体検出処理の検出結果と、を出力する出力手段と、を有し、
前記第1の領域は、環状であり、円形である前記第2の領域を囲むことを特徴とする情報処理装置。 - 前記第2の被写体検出処理は、動体検出を用いた被写体検出処理である請求項1記載の情報処理装置。
- 前記撮像画像を、前記第1の領域と前記第2の領域とに分割する分割手段を更に有する請求項1又は2記載の情報処理装置。
- 前記分割手段は、前記撮像画像の各領域の撮像角度に基づいて前記第1の領域と前記第2の領域とに分割する請求項3記載の情報処理装置。
- 前記分割手段は、画面を介したユーザーの操作に基づいて前記第1の領域と前記第2の領域とに分割する請求項3記載の情報処理装置。
- 前記画面を表示する表示手段を更に有する請求項5記載の情報処理装置。
- 前記画面には、前記第1の領域と前記第2の領域との境界を示すと共に境界の位置を操作するための操作子が表示され、
前記分割手段は、前記操作子を介したユーザーの操作に基づいて前記第1の領域と前記第2の領域とに分割する請求項5又は6記載の情報処理装置。 - 前記画面には前記第1の領域と前記第2の領域との境界の位置を操作するためのスライダーが表示され、
前記分割手段は、前記スライダーを介したユーザーの操作に基づいて前記第1の領域と前記第2の領域とに分割する請求項5又は6記載の情報処理装置。 - 前記第1の領域に対して前記画像特徴に基づく前記第1の被写体検出処理を実行する第1の検出手段と、
前記第2の領域に対して前記画像特徴以外に基づく前記第2の被写体検出処理を実行する第2の検出手段と、
を更に有し、
前記出力手段は、前記第1の検出手段による検出結果と前記第2の検出手段による検出結果とを出力する請求項1乃至8何れか1項記載の情報処理装置。 - 前記出力手段は、前記第1の被写体検出処理の検出結果と前記第2の被写体検出処理の検出結果とを前記撮像画像に重畳して表示する請求項1乃至9何れか1項記載の情報処理装置。
- 前記出力手段は、前記第1の領域と前記第2の領域との境界を前記撮像画像に重畳して表示する請求項1乃至10何れか1項記載の情報処理装置。
- 第1のタイミングにおいて撮像された第1の撮像画像に対する前記第1の被写体検出処理の検出結果である被写体の検出個数に基づいて、前記第1のタイミングと異なる第2のタイミングにおいて撮像された第2の撮像画像に対する前記第2の被写体検出処理の検出結果である被写体の検出を補正する補正手段を更に有する請求項1乃至11何れか1項記載の情報処理装置。
- 前記補正手段は、前記第1の被写体検出処理によって検出された被写体と前記第2の被写体検出処理によって検出された被写体との間の距離に基づいて、前記第2の被写体検出処理の検出結果である被写体の検出を補正する請求項12記載の情報処理装置。
- 第1のタイミングにおいて撮像された第1の撮像画像に対する前記第2の被写体検出処理の検出結果である被写体の検出個数に基づいて、前記第1のタイミングと異なる第2のタイミングにおいて撮像された第2の撮像画像に対する前記第1の被写体検出処理の検出結果である被写体の検出個数を補正する補正手段を更に有する請求項1乃至11何れか1項記載の情報処理装置。
- 前記補正手段は、前記第1の被写体検出処理によって検出された被写体と前記第2の被写体検出処理によって検出された被写体との間の距離に基づいて、前記画像特徴に基づく被写体検出処理の検出結果である被写体の検出個数を補正する請求項14記載の情報処理装置。
- 撮像画像を取得する取得工程と、
前記撮像画像の画像特徴に基づく被写体検出を行う第1の領域に対する画像特徴に基づく第1の被写体検出処理の検出結果と、前記第1の領域以外の第2の領域に対する画像特徴以外に基づく第2の被写体検出処理の検出結果と、を出力する出力工程と、を有し、
前記第1の領域は、環状であり、円形である前記第2の領域を囲むことを特徴とする情報処理方法。 - コンピュータを、請求項1乃至15何れか1項記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017233227A JP7034690B2 (ja) | 2017-12-05 | 2017-12-05 | 情報処理装置、情報処理方法及びプログラム |
US16/203,396 US10885348B2 (en) | 2017-12-05 | 2018-11-28 | Information processing device, information processing method, and storage medium |
KR1020180154066A KR102497593B1 (ko) | 2017-12-05 | 2018-12-04 | 정보 처리장치, 정보 처리방법 및 기억매체 |
EP18209992.9A EP3496390B1 (en) | 2017-12-05 | 2018-12-04 | Information processing device, information processing method, and storage medium |
CN201811478291.XA CN110059681B (zh) | 2017-12-05 | 2018-12-05 | 信息处理装置、信息处理方法和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017233227A JP7034690B2 (ja) | 2017-12-05 | 2017-12-05 | 情報処理装置、情報処理方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019101845A JP2019101845A (ja) | 2019-06-24 |
JP2019101845A5 JP2019101845A5 (ja) | 2021-01-07 |
JP7034690B2 true JP7034690B2 (ja) | 2022-03-14 |
Family
ID=64604495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017233227A Active JP7034690B2 (ja) | 2017-12-05 | 2017-12-05 | 情報処理装置、情報処理方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10885348B2 (ja) |
EP (1) | EP3496390B1 (ja) |
JP (1) | JP7034690B2 (ja) |
KR (1) | KR102497593B1 (ja) |
CN (1) | CN110059681B (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016111561A (ja) | 2014-12-08 | 2016-06-20 | キヤノン株式会社 | 情報処理装置、システム、情報処理方法及びプログラム |
JP2017073670A (ja) | 2015-10-07 | 2017-04-13 | キヤノン株式会社 | 画像処理装置、画像処理方法および画像処理システム |
JP2017076288A (ja) | 2015-10-15 | 2017-04-20 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008035411A1 (fr) * | 2006-09-20 | 2008-03-27 | Fujitsu Limited | Dispositif de détection d'informations de corps mobile, procédé de détection d'informations de corps mobile et programme de détection d'informations de corps mobile |
BRPI0915889B1 (pt) * | 2008-07-08 | 2023-10-31 | Nortech International (Proprietary) Limited | Aparelho e método para monitorar o movimento de objetos através de uma região de monitoramento |
JP6335701B2 (ja) * | 2014-07-22 | 2018-05-30 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP6512787B2 (ja) * | 2014-10-07 | 2019-05-15 | キヤノン株式会社 | 画像処理装置、画像処理方法、撮像装置 |
JP6497987B2 (ja) * | 2015-03-12 | 2019-04-10 | キヤノン株式会社 | 画像処理装置及び画像処理方法、プログラム、記憶媒体 |
-
2017
- 2017-12-05 JP JP2017233227A patent/JP7034690B2/ja active Active
-
2018
- 2018-11-28 US US16/203,396 patent/US10885348B2/en active Active
- 2018-12-04 KR KR1020180154066A patent/KR102497593B1/ko active IP Right Grant
- 2018-12-04 EP EP18209992.9A patent/EP3496390B1/en active Active
- 2018-12-05 CN CN201811478291.XA patent/CN110059681B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016111561A (ja) | 2014-12-08 | 2016-06-20 | キヤノン株式会社 | 情報処理装置、システム、情報処理方法及びプログラム |
JP2017073670A (ja) | 2015-10-07 | 2017-04-13 | キヤノン株式会社 | 画像処理装置、画像処理方法および画像処理システム |
JP2017076288A (ja) | 2015-10-15 | 2017-04-20 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR102497593B1 (ko) | 2023-02-08 |
US10885348B2 (en) | 2021-01-05 |
KR20190066586A (ko) | 2019-06-13 |
EP3496390B1 (en) | 2023-04-26 |
JP2019101845A (ja) | 2019-06-24 |
US20190171887A1 (en) | 2019-06-06 |
CN110059681A (zh) | 2019-07-26 |
CN110059681B (zh) | 2023-09-15 |
EP3496390A1 (en) | 2019-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10701332B2 (en) | Image processing apparatus, image processing method, image processing system, and storage medium | |
KR102492670B1 (ko) | 화상 처리 장치, 화상 처리 방법 및 기억 매체 | |
JP7023696B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US10713797B2 (en) | Image processing including superimposed first and second mask images | |
EP3605468A1 (en) | Image processing apparatus, image processing apparatus control method, and non-transitory computer-readable storage medium | |
US11019251B2 (en) | Information processing apparatus, image capturing apparatus, information processing method, and recording medium storing program | |
WO2021168804A1 (zh) | 图像处理方法、图像处理装置和图像处理系统 | |
JP7371076B2 (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
JP7163049B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7034690B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2018063675A (ja) | 画像処理装置および制御方法 | |
JP6452738B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7195782B2 (ja) | 情報処理装置、制御方法及びプログラム | |
JP2018092507A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7407963B2 (ja) | 距離情報生成装置および距離情報生成方法 | |
JP2023133962A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2023133967A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2022069197A (ja) | 画像処理装置及びその制御方法及びプログラム | |
JP2020181399A (ja) | 画像処理装置及びその制御方法及びプログラム | |
JP2019125058A (ja) | 画像処理装置、撮影装置、画像処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201119 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220302 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7034690 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |