JP2019159739A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2019159739A
JP2019159739A JP2018044916A JP2018044916A JP2019159739A JP 2019159739 A JP2019159739 A JP 2019159739A JP 2018044916 A JP2018044916 A JP 2018044916A JP 2018044916 A JP2018044916 A JP 2018044916A JP 2019159739 A JP2019159739 A JP 2019159739A
Authority
JP
Japan
Prior art keywords
image
detected
size
human body
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018044916A
Other languages
English (en)
Other versions
JP7059054B2 (ja
JP2019159739A5 (ja
Inventor
孝文 柳澤
Takafumi Yanagisawa
孝文 柳澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018044916A priority Critical patent/JP7059054B2/ja
Priority to EP19161876.8A priority patent/EP3540639A1/en
Priority to US16/298,939 priority patent/US10949946B2/en
Priority to CN201910189240.3A priority patent/CN110278408B/zh
Publication of JP2019159739A publication Critical patent/JP2019159739A/ja
Publication of JP2019159739A5 publication Critical patent/JP2019159739A5/ja
Application granted granted Critical
Publication of JP7059054B2 publication Critical patent/JP7059054B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T3/047
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/19626Surveillance camera constructional details optical details, e.g. lenses, mirrors or multiple lenses
    • G08B13/19628Surveillance camera constructional details optical details, e.g. lenses, mirrors or multiple lenses of wide angled cameras and camera groups, e.g. omni-directional cameras, fish eye, single units having multiple cameras achieving a wide angle view
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/20Calibration, including self-calibrating arrangements
    • G08B29/24Self-calibration, e.g. compensating for environmental drift or ageing of components
    • G08B29/26Self-calibration, e.g. compensating for environmental drift or ageing of components by updating and storing reference thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Abstract

【課題】魚眼画像から検出対象の物体を検出する際の検出精度を向上させる。【解決手段】画像処理装置(クライアント装置200)は、魚眼レンズを有する撮像手段により撮像された魚眼画像を取得する取得手段と、取得手段により取得された魚眼画像から、特定のサイズの物体を検出対象の物体として検出する検出手段と、検出手段において検出する検出対象の物体のサイズを、魚眼画像における基準位置からの距離に応じて変化させて設定する設定手段と、を備える。【選択図】 図7

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。
近年、ネットワークカメラの種類が多様化する中で、周囲360度を死角なく見渡せる全方位ネットワークカメラ(以下、「全方位カメラ」という。)が普及し始めている。また、ネットワークカメラ市場が拡大する中で、撮像された画像から人物や物体等を検出する技術が多く利用されている。このような技術は、混雑具合の検知等に用いられる。
画像から人体を検出する場合、カメラの設置条件等によっては、映り得ないサイズを人体として検出してしまうことがある。このような誤検出が多発すると、適切な画像解析を行うことができない。
特許文献1には、画像中の近い位置に複数人の検出結果が存在する場合、これらの検出サイズを比較して検出対象とするかどうかを判定する点が開示されている。
特開2013−11950号公報
ところで、全方位カメラにより撮像された撮像画像は、魚眼レンズを用いて撮像された魚眼画像であるため、撮像画像上の距離が近い場合でも、実空間上では同じ大きさの人体が異なる大きさとなるといった特徴がある。そのため、全方位カメラを用いた人体検出の場合、上記特許文献1に記載の技術を適用しても、誤検出を低減することができない場合がある。
そこで、本発明は、魚眼画像から検出対象の物体を検出する際の検出精度を向上させることを課題としている。
上記課題を解決するために、本発明に係る画像処理装置の一態様は、魚眼レンズを有する撮像手段により撮像された魚眼画像を取得する取得手段と、前記取得手段により取得された前記魚眼画像から、特定のサイズの物体を検出対象の物体として検出する検出手段と、前記検出手段において検出する前記検出対象の物体のサイズを、前記魚眼画像における基準位置からの距離に応じて変化させて設定する設定手段と、を備える。
本発明によれば、魚眼画像から検出対象の物体を検出する際の検出精度を向上させることができる。
ネットワークカメラシステムの構成例を示す図である。 クライアント装置のハードウェア構成例である。 1次記憶装置および2次記憶装置に記憶される情報の一例である。 環境情報データの一例である。 撮像環境の一例である。 閾値データの一例である。 撮像画像の一例である。 人体検出結果データの一例である。 画像解析処理を示すフローチャートの一例である。 閾値計算処理を示すフローチャートの一例である。 閾値の変化を示す図である。 閾値の設定例である。 人体判定処理を示すフローチャートの一例である。 ネットワークカメラが傾いている場合の閾値の設定例である。
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
図1は、本実施形態におけるネットワークカメラシステム1000の構成例を示すブロック図である。
本実施形態におけるネットワークカメラシステム1000は、監視領域を監視するユーザに、当該監視領域を撮像した画像を提供するシステムである。また、このネットワークカメラシステム1000は、監視領域を撮像した画像に対して画像解析処理を行って、特定のサイズの物体を検出対象の物体として検出し、検出結果をユーザに提示することができる。ここで、検出対象の物体は、人体または人体の一部とすることができる。
ネットワークカメラシステム1000は、撮像装置100と、クライアント装置200と、を備える。撮像装置100とクライアント装置200とは、ネットワーク300によって相互に通信可能に接続されている。
ネットワーク300は、例えば、Ethernet(登録商標)の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から構成される。なお、ネットワーク300は、カメラ100とクライアント装置200との間で通信可能な構成であれば、その通信規格、規模および構成は問わない。ネットワーク300は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)、若しくはこれらの複合により実現してもよい。
撮像装置100は、所定の撮像範囲を撮像するネットワークカメラ(以下、単に「カメラ」という。)であり、撮像画像を、ネットワーク300を介してクライアント装置200に配信することができる。カメラ100は、魚眼レンズを有し、撮像画像として魚眼画像(全方位画像)を取得することができる。カメラ100は、例えば施設の天井に設置され、カメラ100の下を通る人物や背景等の被写体を撮像する。
なお、本実施形態では、カメラ100の撮像範囲が全方位(360°)である場合について説明するが、撮像範囲は全方位に限定されるものではなく、これより少ない所定角度範囲であってもよい。また、カメラ100は、1枚の画像(静止画)を撮像するカメラであってもよいし、1枚以上の画像を含む映像を撮像するカメラであってもよい。
クライアント装置200は、パーソナルコンピュータ(PC)やスマートフォン、タブレット型PCといった端末装置により構成することができる。クライアント装置200は、カメラ100の制御や、カメラ100から配信される魚眼画像に対する画像解析処理、当該画像解析処理の処理結果をユーザに提示する表示制御等を行うことができる。
図2は、クライアント装置200のハードウェア構成例である。
クライアント装置200は、内部バス201を備える。また、クライアント装置200は、CPU202、1次記憶装置203、2次記憶装置204、入力I/F205、入力部206、表示I/F207、表示部208および通信I/F209を備える。CPU202、1次記憶装置203、2次記憶装置204、入力I/F205、表示I/F207および通信I/F209は、内部バス201に接続されている。
CPU202は、クライアント装置200における動作を統括的に制御する。1次記憶装置203は、例えば、RAMに代表される書き込み可能な高速の記憶装置である。この1次記憶装置203は、例えば、OS(オペレーティングシステム)や各種のプログラムおよび各種のデータ等がロードされ、また、CPU202がOSや各種のプログラム等を実行する際の作業領域としても使用される。
なお、後述するクライアント装置200の機能や処理は、CPU202が1次記憶装置203に格納されているプログラムを読み出し、そのプログラムを実行することにより実現されるものである。
2次記憶装置204は、例えば、HDD、フラッシュメモリ、SDカード等に代表される不揮発性の記憶装置であり、着脱可能な構成であってもよい。この2次記憶装置204は、OSや各種のプログラムおよび各種のデータ等の永続的な記憶領域として使用される他に、短期的な各種のデータ等の記憶領域としても使用される。
入力I/F205は、入力部206をクライアント装置200に接続するためのインタフェースであり、入力部206による操作指示は、この入力I/F205を介してクライアント装置200に入力される。入力部206は、例えば、キーボードやマウス等のポインティングデバイスを含む、ユーザが操作可能なI/O機器である。
表示I/F207は、表示部208をクライアント装置200に接続するためのインタフェースであり、表示部208に表示する画像等は、この表示I/F207を介して表示部208に送出する。表示部208は、液晶ディスプレイ(LCD)等のモニタを備える。通信I/F209は、ネットワーク300を介してカメラ100との間でデータの送受信を行う。通信I/F209は、1次記憶装置203や2次記憶装置204に記憶されているデータを、所定のフォーマットに変換してカメラ100に送信することができる。
なお、カメラ100の場合、図2の入力I/F205、入力部206、表示I/F207および表示部208に代えて、撮像部を具備する。撮像部は、撮像光学系を構成するレンズ部や撮像素子を備える。レンズ部は、魚眼レンズを備える。撮像素子は、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどを備え、その受光面上に形成された像を電気信号に変換する。そして、カメラ100の機能や処理は、CPU202に対応するカメラ100のCPUがプログラムを実行することで実現することができる。
なお、本実施形態では、クライアント装置200が、カメラ100により撮像された画像に対して画像解析処理を行い、その処理結果を表示部208に表示させる表示制御を行う画像処理装置として動作する場合について説明する。ただし、撮像装置であるカメラ100が上記の画像処理装置として動作してもよいし、一般のPCや他の機器等が上記の画像処理装置として動作してもよい。
図3は、クライアント装置200の1次記憶装置203および2次記憶装置204に記憶される各種のプログラムや各種のデータ等の一例である。
この図3に示すように、1次記憶装置203は、OS211、魚眼画像データ212、環境設定プログラム213、閾値計算プログラム214、人体検出プログラム215、人体判定プログラム216および判定結果表示プログラム217を記憶する。また、2次記憶装置204は、環境情報データ221、閾値データ222、人体検出結果データ223、人体判定結果データ224および結果画像データ225を記憶する。
OS211は、クライアント装置200の全体を制御するための基本プログラムである。1次記憶装置203における各種のプログラム(213〜217)の位置(番地)や大きさは、OS211が管理する。
魚眼画像データ212は、画像解析処理の対象となる魚眼画像である。本実施形態においては、魚眼画像は、縦1000px(ピクセル)、横1000pxの画像とする。なお、画像データとしての形式(JPEG、Bitmap、PNG等)は問わない。また、画像データは、H.264やH.265をはじめとする動画データでもよい。
環境設定プログラム213は、ユーザが入力部206を介して入力した、魚眼画像の撮像環境を示す環境情報等を設定するプログラムである。ユーザが入力部206を使用して環境情報を入力すると、入力I/F205および内部バス201を通して1次記憶装置203にロードされている環境設定プログラム213が環境情報を受け取る。そして、環境設定プログラム213は、内部バス201を通して2次記憶装置204に環境情報データ221を記憶する。なお、2次記憶装置204にすでに環境情報データ221が記憶されている場合は、当該環境情報データ221を更新する。
図4は、環境情報データ221の一例である。
環境情報データ221は、中心からの距離221aと実空間上の距離221bとの対応関係と、設置高さ221cと、検出対象高さ221dと、を含む。
ここで、中心からの距離221aは、魚眼画像の中心座標からの距離[px]であり、実空間上の距離221bは、中心からの距離211aに対応する実空間上における位置のカメラ100からの水平距離[m]である。なお、本実施形態では、カメラ100の設置姿勢は水平であり、魚眼画像の中心位置は、カメラ100の設置位置に対応している。
また、設置高さ221cは、実空間上におけるカメラ100の地上もしくは床面からの高さ[m]である。さらに、検出対象高さ221dは、実空間上における検出対象の物体の地上もしくは床面から高さ[m]である。本実施形態では、検出対象は人体の頭部であり、検出対象高さ221dは、検出したい人体のサイズ(身長)の下限値を示すものとする。なお、本実施形態においては、検出対象高さ211dを1つのみ設定しているが、検出対象高さ211dとして、例えば検出したい人体のサイズ(身長)の下限値と上限値との2つを設定してもよい。
図5は、撮像環境の一例を示す図である。
この図5に示すように、本実施形態では、カメラ100は、地上または床面から高さHの位置に水平に設置されており、カメラ100の下を通る被写体400を撮像する。図5において、被写体400は、カメラ100から地上または床面まで伸ばした垂線Pから、水平方向に距離Dの位置に存在する。ここで、上記の高さHは、図4の設置高さ221cに対応し、距離Dは、図4の実空間までの距離221bに対応する。
また、図5において、符号hは被写体400の地上または床面からの高さを示す。この被写体400の高さhは、図4の検出対象高さ221dに対応する。符号fは、後述する人体検出プログラム215により実行される人体検出処理において検出される検出対象の大きさを示す。本実施形態では、検出対象は人体の頭部であるため、大きさfは、実空間上における人体の頭部の大きさを示す。
なお、本実施形態では、検出対象が頭部である場合について説明するが、検出対象は頭部に限定されるものではなく、例えば、人体全体であってもよいし、人体の他の一部(例えば、上半身のみ)などであってもよい。つまり、上記の大きさfは、検出対象に応じて変化する。
図5に示す角度θ1は、垂線Pと、カメラ100と被写体400の検出対象領域(本実施形態では、頭部領域)の下端とを結ぶ直線とのなす角である。また、角度θ2は、垂線Pと、カメラ100と被写体400の検出対象領域の上端とを結ぶ直線とのなす角である。角度θ1およびθ2は、それぞれ次式により表すことができる。
Figure 2019159739
図3に戻って、閾値計算プログラム214は、図4に示す環境情報データ221を用いて、後述する人体判定プログラム216により実行される人体判定処理において使用する閾値を計算し、2次記憶装置204に閾値データ222として保存する。この閾値計算処理の詳細については後述する。
図6に閾値データ222の一例を示す。
閾値データ222は、中心からの距離222aと閾値222bとの対応関係を示す。ここで、中心からの距離222aは、魚眼画像の中心座標からの距離[px]であり、図4に示す中心からの距離221aに対応する。また、閾値222bは、人体検出処理によって中心からの距離222aの位置において検出された物体が、間違いなく検出対象の物体であるかどうかを判定するための閾値である。本実施形態では、人体判定処理において、上記の閾値以上のサイズを有する物体が検出対象の物体であると判定する。つまり、閾値222bは、魚眼画像上における検出対象領域の最小サイズ[px]を示す。
図7に、カメラ100により撮像された魚眼画像データ212の例を示す。
この図7において、Xは、カメラ100のx座標方向の最大値を表しており、本実施形態ではX=1000pxである。同様に、Yは、カメラ100のy座標方向の最大値を表しており、本実施形態ではY=1000pxである。
また、y1は、被写体400の検出対象領域の下端のy座標であり、y2は、被写体400の検出対象領域の上端のy座標である。ここで、y1=(Y/2)×(1−θ1/90)であり、y2=(Y/2)×(1−θ2/90)である。つまり、魚眼画像上における検出対象領域の大きさy1−y2は、次式により表される。
Figure 2019159739
魚眼画像においては、画像の中心付近と円周付近とでは、同じ大きさの被写体であっても極端に大きさが異なる。つまり、画像の中心付近と円周付近とで検出対象領域の大きさは異なり、画像の中心に近いほど、検出対象領域は大きくなる。
そこで、本実施形態では、魚眼画像における基準位置からの距離に応じて、検出対象領域の最小サイズとなる閾値222bを変化させて設定する。具体的には、図6に示すように、カメラ100の設置位置に対応する魚眼画像の中心位置を上記基準位置とし、魚眼画像の中心位置からの距離222aが長いほど、閾値222bを小さく変化させて設定する。これにより、例えば魚眼画像の中心付近において、映り得ないほど小さいサイズの物体を検出対象の物体として検出してしまうことを防止することができる。
図3に戻って、人体検出プログラム215は、1次記憶装置203にロードされた魚眼画像データ212をもとに、魚眼画像から人体を検出する人体検出処理を行う。ここで、人体検出処理は、予め人体の形状を学習させておくようなパターンマッチングをはじめとする検出技術を使用することができる。ただし、人体検出処理は、上記に限定されるものではなく、任意の検出技術を使用することができる。
本実施形態では、人体検出処理では、魚眼画像から人体の形状を有する人体領域を検出し、当該人体領域から、検出対象領域となる頭部領域を検出する。そして、検出対象領域の画像上の位置(座標)および大きさを検出し、2次記憶装置204に人体検出結果データ223として保存する。ここで、人体検出プログラム215は、検出可能な人体の最小サイズを有し、人体検出処理では、その最小サイズ以上の人体領域を検出するものとする。
なお、魚眼画像データ212が画像データではなく動画データである場合には、人体検出プログラム215は、動画データから1枚のフレームを取得するデコード処理と、取得したフレームから人体を検出する人体検出処理とを行う。この際、複数フレームに対して人体検出処理を実施した場合は、検出結果をフレームごとに保存する。
図8に、人体検出プログラム215が出力する人体検出結果データ223の一例を示す。
人体検出結果データ223は、検出座標(x)223aと、検出座標(y)223bと、検出サイズ223cと、を含む。検出座標(x)223aは、人体検出処理により検出された検出対象領域のx座標[px]であり、検出座標(y)223bは、人体検出処理により検出された検出対象領域のy座標[px]である。検出座標(x)223aおよび検出座標(y)223bは、例えば、検出対象領域の中心座標とすることができる。また、検出サイズ223cは、人体検出処理により検出された、検出座標(x)223aおよび検出座標(y)223bに対応する検出対象領域のサイズであり、図5におけるfと、図7におけるy1−y2とに相当する。
図3に戻って、人体判定プログラム216は、閾値データ222と人体検出結果データ223とを比較し、人体検出処理により検出された物体が検出対象の物体であるか否かを判定する人体判定処理を実行する。人体判定処理の詳細については後述する。そして、人体判定プログラム216は、人体判定処理の判定結果を2次記憶装置204に人体判定結果データ224として保存する。
判定結果表示プログラム217は、2次記憶装置204に記憶されている人体判定結果データ224を、1次記憶装置203にロードされている魚眼画像データ212に重畳する。そして、判定結果表示プログラム217は、重畳した結果を結果画像データ225として2次記憶装置204へ保存する。また、判定結果表示プログラム217は、結果画像データ225を内部バス201および表示I/F207を介して表示部208へ送出する。
次に、本実施形態におけるクライアント装置200の動作について説明する。
図9は、クライアント装置200が実行する画像解析処理手順を示すフローチャートである。この図9の処理は、ユーザが入力部206を操作して環境情報を入力したタイミングで開始される。ただし、図9の処理の開始タイミングは、上記のタイミングに限らない。クライアント装置200は、CPU202が必要なプログラムを読み出して実行することにより、図9に示す各処理を実現することができる。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
まずS1において、クライアント装置200は、閾値計算プログラム214により閾値計算処理を実行する。クライアント装置200は、環境情報データ221をもとに、人物判定処理において使用する閾値222bを、魚間画像の中心からの距離222aに応じて複数計算し、閾値データ222として保存する。閾値計算処理の詳細については後述する。
次にS2において、クライアント装置200は、カメラ100により撮像された魚眼画像を取得する。取得された魚眼画像は、1次記憶装置203に魚眼画像データ212として保存される。
S3では、クライアント装置200は、人体検出プログラム215により人体検出処理を実行する。クライアント装置200は、S2において取得された魚眼画像に対して人体検出処理を行い、検出対象(人体の頭部)の検出結果を人体検出結果データ223として保存する。
S4では、クライアント装置200は、人体判定プログラム216により人体判定処理を実行する。クライアント装置200は、S3において検出された物体に対して、S1において設定された閾値データ222を使用して人体判定処理を行い、判定結果を人体判定結果データ224として保存する。
S5では、クライアント装置200は、判定結果表示プログラム217により、画像解析処理結果を表示させる表示制御を行う。クライアント装置200は、S4において判定された判定結果をS2において取得された魚眼画像に重畳した画像を生成し、生成した画像を結果画像データ225として保存する。また、クライアント装置200は、結果画像データ225を表示部208に表示させる表示制御を行う。
S6では、クライアント装置200は、画像解析処理を終了するか否かを判定し、画像解析処理を継続させる場合にはS2に戻り、画像解析処理を終了する場合には図9に示す処理を終了する。
図10は、図9のS1において実行される閾値計算処理を示すフローチャートである。
まずS11において、クライアント装置200は、2次記憶装置204に保存されている環境情報データ221を読み込み、S12に移行する。
S12以降の処理では、クライアント装置200は、S1において読み込んだ環境情報データ221のうち中心からの距離221aが短い順に、対応する閾値222bを計算していき、閾値データ222を保存する。例えば、図4に示す環境情報データ211が保存されている場合、はじめに中心からの距離221aが100pxである場合の閾値222bを計算し、200px、300px、…の順に閾値222bを計算していく。
S12では、クライアント装置200は、S11において読み込んだ環境情報データ221に基づいて、上記(1)〜(3)式を用いて、中心からの距離221aに対応する閾値(y1−y2)を計算する。
具体的には、クライアント装置200は、上記(1)式および(2)式をもとに、図5に示す角度θ1およびθ2を算出する。角度θ1およびθ2の算出に用いるHは、環境情報データ221に含まれる設置高さ221cであり、hは、環境情報データ221に含まれる検出対象高さ221dである。また、fは、検出対象である人体の頭部の大きさであり、予め設定された値、もしくは検出対象高さ221dをもとに算出した値を用いることができる。さらに、Dは、環境情報データ221に含まれる、中心からの距離221aに対応した実空間上の距離221bである。そして、クライアント装置200は、算出された角度θ1およびθ2を用いて、上記(3)式をもとにy1−y2を算出し、これを閾値222bの計算結果とする。
次にS13では、クライアント装置200は、S12において計算された閾値222bが予め設定された下限値以上であるか否かを判定する。ここで、当該下限値は、検出対象の物体(頭部)を検出可能な最小サイズ(検出可能最小サイズ)である。そして、閾値222bが検出可能最小サイズ以上である場合はS14に移行し、閾値222bが検出可能最小サイズよりも小さい場合はS16に移行する。
S14では、クライアント装置200は、S12において計算された閾値222bを、2次記憶装置204へ閾値データ222として保存する。このとき、クライアント装置200は、図6に示すように、中心からの距離222aと対応付けて閾値222bを保存する。
S15では、クライアント装置200は、閾値算出の際に使用した各座標y1、y2が、ともに魚眼画像の撮像範囲である円の内側の座標であるか否かを判定する。そして、各座標y1、y2が円の内側の座標である場合にはS12に戻り、環境情報データ221のうち、中心からの距離221aを増やして再度閾値222bを計算する。一方、各座標y1、y2の少なくとも一方が円の外側の座標である場合には、S16に移行する。
S16では、クライアント装置200は、環境情報データ221のうち、閾値222bの計算を行っていない残りの中心からの距離221aについて、対応する閾値222bを検出可能最小サイズに固定して閾値データ222として保存する。
図11は、魚眼画像の中心からの距離と閾値との関係を示す図である。この図11に示すように、閾値は、魚眼画像の中心からの距離が長いほど小さく設定され、中心から所定距離以上離れた領域は、閾値が検出可能最小サイズに固定された最小サイズ固定領域となる。このように、閾値は、魚眼画像の中心位置を中心として同心円状に変化して設定され、所定の半径以上の円周領域において検出可能最小サイズに固定される。
つまり、図12に示すように、魚眼画像データ212の撮像範囲である円の内側において、魚眼画像の中心位置(図中のバツ印)からの距離が等しい円212a上では、同じ大きさの閾値222aが設定される。そして、円212aよりも外側の領域では、閾値222aよりも小さい閾値222bが設定される。
なお、魚眼画像に映る被写体は正立しないため、人体判定処理に使用する閾値は、図12に示すように、魚眼画像の中心を通る直線に対して垂直となるように考慮して設定するようにしてもよい。
図13は、図9のS4において実行される人体判定処理を示すフローチャートである。
まずS41において、クライアント装置200は、2次記憶装置204に保存されている人体検出結果データ223を読み込み、判定対象とする検出結果を選択してS42に移行する。
次にS42において、クライアント装置200は、人体検出結果データ223に含まれる検出座標(x)223a、検出座標(y)223bと、魚眼画像データ212の画像サイズX、Yとに基づいて、検出座標と魚眼画像の中心座標との距離を算出する。
S43では、クライアント装置200は、2次記憶装置204に保存されている閾値データ222を読み込む。そして、クライアント装置200は、閾値データ222に含まれる中心からの距離222aのうち、S42において算出された距離と最も近い値に対応する閾値222bを取得する。
S44では、クライアント装置200は、人体検出結果データ223に含まれる検出サイズ223cと、S43において取得された閾値222bとを比較する。そして、検出サイズ223cが閾値222b以上である場合には、S45に移行し、検出サイズ223cが閾値222bよりも小さい場合には、S46に移行する。
S45では、クライアント装置200は、判定対象の検出結果を人体判定結果データ224として2次記憶装置204へ保存し、S46に移行する。
S46では、クライアント装置200は、人体検出結果データ223のうち、すべての検出結果について判定処理を実行したか否かを判定する。そして、未判定の検出結果が存在する場合にはS41に移行し、未判定の検出結果を判定対象として選択してS42以降の処理を繰り返す。一方、すべての検出結果について判定処理が終了している場合は、図13の処理を終了する。
以上説明したように、本実施形態における画像処理装置(クライアント装置200)は、カメラ100により撮像された魚眼画像を取得し、取得された魚眼画像から、特定のサイズの物体を検出対象の物体として検出する画像解析処理を実行する。ここで、画像解析処理は、魚眼画像から検出対象の物体として人体の頭部を検出する人体検出処理と、人体検出手段により検出された物体が間違いなく検出対象の物体であるかどうかを判定する人体判定処理と、を含む。そして、画像処理装置は、画像解析処理において検出する検出対象の物体のサイズ、つまり、人体判定処理において使用する閾値を、魚眼画像における基準位置からの距離に応じて変化させて設定する。
これにより、魚眼画像から人体を検出する際、映り得ないサイズの物体を検出対象の物体として検出してしまうことを防止し、検出精度を向上させることができる。
本実施形態では、画像処理装置は、人体判定処理において使用する閾値として、検出対象の物体の最小サイズを設定し、人体判定処理では、設定された閾値以上のサイズを有する物体を検出対象の物体として検出する。したがって、魚眼画像から検出対象の物体を検出する際、映り得ないほど小さいサイズの物体を検出対象の物体として検出してしまうことを防止し、検出精度を向上させることができる。
上記閾値の設定に際し、画像処理装置は、魚眼画像におけるカメラ100の設置位置の真下に対応する位置を上記基準位置とし、当該基準位置からの距離が長いほど閾値を小さく変化させて設定することができる。具体的には、画像処理装置は、上記基準位置である魚眼画像の中心座標を中心として同心円状に閾値を変化させて設定する。
図5に示すように、天井に水平配置されたカメラ100により撮像された魚眼画像において、中心からの距離が等しい位置に存在する物体は、実空間上において、カメラ100の設置位置から水平方向に等しい距離に位置する。そのため、上述したように閾値を同心円状に変化させて設定することで、実空間上、カメラ100から等距離に位置する物体に対して、人体判定処理で使用する閾値を等しく設定することができる。したがって、検出対象の物体を適切に検出することができる。
また、画像処理装置は、人体検出処理において検出可能な物体の最小サイズ(検出可能最小サイズ)を閾値の下限値として設定し、魚眼画像の中心から所定距離以上離れた領域については、閾値を検出可能最小サイズで固定する。したがって、魚眼画像の円周付近において、人体判定処理に使用する閾値を、人体検出処理における検出可能最小サイズよりも小さいサイズに設定してしまうことを防止することができる。
画像処理装置は、魚眼画像の撮像環境を示す環境情報として、カメラ100の設置高さ、カメラ100の設置姿勢(設置角度)、検出対象の物体の実空間上における高さ、および検出対象の物体の実空間上における大きさを取得する。そして、画像処理装置は、取得した環境情報に基づいて、人体判定処理に使用する閾値を設定する。したがって、検出対象の物体が魚眼画像上においてどの程度の大きさとなるかを考慮して、適切に上記閾値を設定することができる。また、画像処理装置は、ユーザが入力した環境情報を取得可能であるため、ユーザが検出したい人体のサイズ(身長)に応じて、適切に上記閾値を設定することが可能である。
以上のように、本実施形態では、魚眼画像に対して人体判定処理に使用する閾値を、カメラ100の設置条件や検出対象の物体の実空間上の大きさに基づいて、人体検出処理における検出可能最小サイズを考慮しつつ適切に設定することができる。したがって、全方位カメラを用いた人体検出の精度を向上させることができる。
(変形例)
上記実施形態においては、カメラ100の設置姿勢が水平である場合について説明したが、カメラ100の設置姿勢は水平方向に対して傾斜していてもよい。カメラ100が傾いている場合、魚眼画像上では同じ距離でも、実空間上では距離が異なる。そのため、この場合には、カメラ100の設置姿勢に基づいて、魚眼画像におけるカメラ100の設置位置から実空間上等距離となる位置について、人体判定処理に使用する閾値を等しく設定する。つまり、図14に示すように、魚眼画像212の中心位置(図中のバツ印)を中心とした円を歪ませた円212b上において、同じ大きさの閾値を設定する。
この場合、図4に示す環境情報データ221としては、魚眼画像の中心から引いた垂線を0度の基準として、角度ごとに中心からの距離221aと実空間上の距離221bとの対応関係を示すテーブルを持つようにしてもよい。同様に、図6に示す閾値データ222としては、角度ごとに中心からの距離222aと閾値222bとの対応関係を示すテーブルを持つようにしてもよい。
また、上記実施形態においては、人体判定処理に使用する閾値が、検出対象領域の最小サイズである場合について説明したが、当該閾値は、検出対象領域の最大サイズであってもよい。この場合、人体判定処理では、上記の閾値以下のサイズを有する物体を検出対象の物体として判定する。これにより、魚眼画像から検出対象の物体を検出する際、映り得ないほど大きいサイズの物体を検出対象の物体として検出してしまうことを防止し、検出精度を向上させることができる。なお、人体判定処理に使用する閾値は、検出対象領域の最小サイズを示す第一の閾値と、検出対象領域の最大サイズを示す第二の閾値との両方が設定されていてもよい。
さらに、上記実施形態においては、人体判定処理に使用する閾値を、魚眼画像において同心円状に変化させて設定する場合について説明したが、同心多角形状や同心矩形状に変化させて設定してもよい。
また、上記実施形態においては、図6に示すように、中心からの距離222aと閾値222bとを対応させて閾値データ222を設定する場合について説明したが、魚眼画像を中心からの距離に応じて分割した領域ごとに閾値を設定してもよい。その際の領域の分割数は問わない。例えば、魚眼画像を中心側領域と円周側領域とに2分割し、各領域について閾値を設定するようにしてもよい。
また、上記実施形態においては、人体検出プログラム215と人体判定プログラム216とを別々に設け、人体検出処理により検出された物体から、閾値を用いて検出対象の物体を判定する場合について説明した。しかしながら、1つのプログラムにより、特定のサイズの物体、例えば、閾値以上のサイズを有する物体を検出対象の物体として検出する処理を行うようにしてもよい。つまり、人体検出処理と人体判定処理とは、1つのプログラムにより実行されてもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100…ネットワークカメラ、200…クライアント装置、300…ネットワーク、1000…ネットワークカメラシステム

Claims (11)

  1. 魚眼レンズを有する撮像手段により撮像された魚眼画像を取得する取得手段と、
    前記取得手段により取得された前記魚眼画像から、特定のサイズの物体を検出対象の物体として検出する検出手段と、
    前記検出手段において検出する前記検出対象の物体のサイズを、前記魚眼画像における基準位置からの距離に応じて変化させて設定する設定手段と、を備えることを特徴とする画像処理装置。
  2. 前記基準位置は、前記魚眼画像における前記撮像手段の設置位置に対応する位置であり、
    前記設定手段は、前記検出対象の物体のサイズを、前記基準位置からの距離が長いほど小さく変化させて設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記設定手段は、前記検出対象の物体のサイズを、前記基準位置を中心として同心円状に変化させて設定することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記設定手段は、前記撮像手段の設置姿勢に基づいて、前記魚眼画像における前記撮像手段の設置位置から実空間上等距離となる位置について、前記検出対象の物体のサイズを等しく設定することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記検出手段は、第一の閾値以上のサイズを有する物体を前記検出対象の物体として検出し、
    前記設定手段は、前記第一の閾値を設定することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記設定手段は、前記検出手段により検出可能な物体の最小サイズを前記第一の閾値の下限値として設定することを特徴とする請求項5に記載の画像処理装置。
  7. 前記検出手段は、第二の閾値以下のサイズを有する物体を前記検出対象の物体として検出し、
    前記設定手段は、前記第二の閾値を設定することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記設定手段は、前記撮像手段の設置高さ、前記撮像手段の設置姿勢、前記検出対象の物体の実空間上における高さ、および前記検出対象の物体の実空間上における大きさの少なくとも1つに基づいて、前記検出対象の物体のサイズを設定することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 前記検出手段は、前記検出対象の物体として、人体または人体の一部を検出することを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
  10. 魚眼レンズを有する撮像手段により撮像された魚眼画像を取得するステップと、
    取得された前記魚眼画像から、特定のサイズの物体を検出対象の物体として検出するステップと、
    前記検出対象の物体のサイズを、前記魚眼画像における基準位置からの距離に応じて変化させて設定するステップと、を含むことを特徴とする画像処理方法。
  11. コンピュータを、請求項1から9のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018044916A 2018-03-13 2018-03-13 画像処理装置、画像処理方法およびプログラム Active JP7059054B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018044916A JP7059054B2 (ja) 2018-03-13 2018-03-13 画像処理装置、画像処理方法およびプログラム
EP19161876.8A EP3540639A1 (en) 2018-03-13 2019-03-11 Image processing apparatus, network camera system, image processing method, computer-readable medium, and program
US16/298,939 US10949946B2 (en) 2018-03-13 2019-03-11 Image processing apparatus, image processing method, and storage medium
CN201910189240.3A CN110278408B (zh) 2018-03-13 2019-03-13 图像处理装置、图像处理方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018044916A JP7059054B2 (ja) 2018-03-13 2018-03-13 画像処理装置、画像処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2019159739A true JP2019159739A (ja) 2019-09-19
JP2019159739A5 JP2019159739A5 (ja) 2021-04-22
JP7059054B2 JP7059054B2 (ja) 2022-04-25

Family

ID=65763345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018044916A Active JP7059054B2 (ja) 2018-03-13 2018-03-13 画像処理装置、画像処理方法およびプログラム

Country Status (4)

Country Link
US (1) US10949946B2 (ja)
EP (1) EP3540639A1 (ja)
JP (1) JP7059054B2 (ja)
CN (1) CN110278408B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014252A1 (ja) * 2020-07-15 2022-01-20 オムロン株式会社 情報処理装置および情報処理方法
WO2022244424A1 (ja) * 2021-05-18 2022-11-24 オムロン株式会社 画像認識装置、画像認識装置の方法、および画像認識装置プログラム
WO2023053229A1 (ja) * 2021-09-28 2023-04-06 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7192582B2 (ja) * 2019-03-11 2022-12-20 オムロン株式会社 物体追跡装置および物体追跡方法
JP7188240B2 (ja) * 2019-04-01 2022-12-13 オムロン株式会社 人検出装置および人検出方法
CN111738045B (zh) * 2020-01-19 2024-04-19 中国科学院上海微系统与信息技术研究所 一种图像检测方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226645A (ja) * 2011-04-21 2012-11-15 Sony Corp 画像処理装置および方法、記録媒体並びにプログラム
JP2015032883A (ja) * 2013-07-31 2015-02-16 パナソニック株式会社 撮像装置及び画像表示方法
JP2016009877A (ja) * 2014-06-20 2016-01-18 キヤノン株式会社 制御装置、制御方法、およびプログラム
JP2016171526A (ja) * 2015-03-13 2016-09-23 株式会社東芝 画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070162248A1 (en) * 1999-07-06 2007-07-12 Hardin Larry C Optical system for detecting intruders
US7176440B2 (en) * 2001-01-19 2007-02-13 Honeywell International Inc. Method and apparatus for detecting objects using structured light patterns
JP4002919B2 (ja) * 2004-09-02 2007-11-07 技研トラステム株式会社 移動体高さ判別装置
JP2006266848A (ja) * 2005-03-23 2006-10-05 Sharp Corp 距離測定装置
US7602944B2 (en) * 2005-04-06 2009-10-13 March Networks Corporation Method and system for counting moving objects in a digital video stream
JP2006329912A (ja) * 2005-05-30 2006-12-07 Hitachi Ltd 物体検知センサ
US7876361B2 (en) * 2005-07-26 2011-01-25 Honeywell International Inc. Size calibration and mapping in overhead camera view
US7884849B2 (en) * 2005-09-26 2011-02-08 Objectvideo, Inc. Video surveillance system with omni-directional camera
JP4617269B2 (ja) * 2006-03-22 2011-01-19 株式会社日立国際電気 監視システム
JP4444927B2 (ja) * 2006-03-30 2010-03-31 富士フイルム株式会社 測距装置及び方法
US8189962B2 (en) * 2006-12-19 2012-05-29 Hitachi Kokusai Electric Inc. Image processing apparatus
JP2010199713A (ja) 2009-02-23 2010-09-09 Panasonic Corp オブジェクト検出装置及びオブジェクト検出方法
JP5495930B2 (ja) * 2010-05-10 2014-05-21 キヤノン株式会社 画像処理装置、方法、およびプログラム
KR20120035042A (ko) * 2010-10-04 2012-04-13 삼성전자주식회사 디지털 영상 촬영 장치 및 이의 제어 방법
WO2013001941A1 (ja) * 2011-06-27 2013-01-03 日本電気株式会社 物体検知装置、物体検知方法および物体検知プログラム
JP2013011950A (ja) 2011-06-28 2013-01-17 Canon Inc 画像処理装置、画像処理方法及びプログラム
KR101758684B1 (ko) * 2012-07-23 2017-07-14 한화테크윈 주식회사 객체 추적 장치 및 방법
CN104662585B (zh) * 2012-09-25 2017-06-13 Sk电信有限公司 设置事件规则的方法和使用该方法的事件监测装置
US9322647B2 (en) * 2013-03-28 2016-04-26 International Business Machines Corporation Determining camera height using distributions of object heights and object image heights
JP2015104016A (ja) 2013-11-26 2015-06-04 キヤノン株式会社 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体
EP2988248B1 (en) * 2014-07-22 2019-09-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method, information processing apparatus, information processing method, and program
JP6700661B2 (ja) * 2015-01-30 2020-05-27 キヤノン株式会社 画像処理装置、画像処理方法、及び画像処理システム
KR20170135946A (ko) * 2015-04-10 2017-12-08 로베르트 보쉬 게엠베하 차량 내부 카메라에 의한 탑승자 크기 및 자세 검출
DE102016115201A1 (de) * 2016-08-16 2018-02-22 Sick Ag Verfahren zum Betreiben eines Überwachungssensors und Überwachungssensor
US10108867B1 (en) * 2017-04-25 2018-10-23 Uber Technologies, Inc. Image-based pedestrian detection
US10740627B2 (en) * 2017-05-10 2020-08-11 Fotonation Limited Multi-camera vision system and method of monitoring

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226645A (ja) * 2011-04-21 2012-11-15 Sony Corp 画像処理装置および方法、記録媒体並びにプログラム
JP2015032883A (ja) * 2013-07-31 2015-02-16 パナソニック株式会社 撮像装置及び画像表示方法
JP2016009877A (ja) * 2014-06-20 2016-01-18 キヤノン株式会社 制御装置、制御方法、およびプログラム
JP2016171526A (ja) * 2015-03-13 2016-09-23 株式会社東芝 画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014252A1 (ja) * 2020-07-15 2022-01-20 オムロン株式会社 情報処理装置および情報処理方法
JP7419999B2 (ja) 2020-07-15 2024-01-23 オムロン株式会社 情報処理装置および情報処理方法
WO2022244424A1 (ja) * 2021-05-18 2022-11-24 オムロン株式会社 画像認識装置、画像認識装置の方法、および画像認識装置プログラム
DE112022002620T5 (de) 2021-05-18 2024-03-14 Omron Corporation Bilderkennungsvorrichtung, bilderkennungsvorrichtungsverfahren und bilderkennungsvorrichtungsprogramm
WO2023053229A1 (ja) * 2021-09-28 2023-04-06 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法

Also Published As

Publication number Publication date
JP7059054B2 (ja) 2022-04-25
US20190287212A1 (en) 2019-09-19
CN110278408B (zh) 2021-08-17
US10949946B2 (en) 2021-03-16
EP3540639A1 (en) 2019-09-18
CN110278408A (zh) 2019-09-24

Similar Documents

Publication Publication Date Title
JP7059054B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2005072888A (ja) 画像投影方法、及び画像投影装置
JP2007129709A (ja) イメージングデバイスをキャリブレートするための方法、イメージングデバイスの配列を含むイメージングシステムをキャリブレートするための方法およびイメージングシステム
CN112217998A (zh) 拍摄装置、信息处理装置及其控制方法、存储介质
CN110199316B (zh) 相机和相机的图像处理方法
US20160292888A1 (en) Image measurement device, and recording medium
US11170520B2 (en) Image processing apparatus for analyzing an image to detect an object within the image
JP6564136B2 (ja) 画像処理装置、画像処理方法、および、プログラム
JP6991045B2 (ja) 画像処理装置、画像処理装置の制御方法
JP2018063675A (ja) 画像処理装置および制御方法
JP6789410B2 (ja) 画像処理装置、制御方法及び制御プログラム
JP2009302731A (ja) 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
JP6821007B2 (ja) 画像処理装置、制御方法及び制御プログラム
JP2018092507A (ja) 画像処理装置、画像処理方法及びプログラム
JP6851337B2 (ja) 撮像装置、制御方法及び制御プログラム
JP2018032991A (ja) 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム
JP2019158519A (ja) 測定装置、測定方法及び測定プログラム
JP6613378B2 (ja) モバイル端末、画像処理方法、および、プログラム
JP2018117191A (ja) 携帯端末、プログラム、および携帯端末の制御方法
JPWO2017126056A1 (ja) モバイル端末、画像処理方法、および、プログラム
JP6501945B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2022123391A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2015197429A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP2023133962A (ja) 画像処理装置、画像処理方法及びプログラム
JP2023137370A (ja) 表示方法、及び表示システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210305

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220413

R151 Written notification of patent or utility model registration

Ref document number: 7059054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151