JP2019102976A - 画像処理装置およびその制御方法、撮像装置、プログラム - Google Patents

画像処理装置およびその制御方法、撮像装置、プログラム Download PDF

Info

Publication number
JP2019102976A
JP2019102976A JP2017231865A JP2017231865A JP2019102976A JP 2019102976 A JP2019102976 A JP 2019102976A JP 2017231865 A JP2017231865 A JP 2017231865A JP 2017231865 A JP2017231865 A JP 2017231865A JP 2019102976 A JP2019102976 A JP 2019102976A
Authority
JP
Japan
Prior art keywords
image
viewpoint
unit
data
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017231865A
Other languages
English (en)
Inventor
直宏 山本
Naohiro Yamamoto
直宏 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017231865A priority Critical patent/JP2019102976A/ja
Publication of JP2019102976A publication Critical patent/JP2019102976A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】撮像された画像に対して視点を変更した画像を提供すること。【解決手段】全方位で撮像される全方位画像のデータを取得可能な撮像装置100は、配信部107において、全方位画像の中心から視点を変更する指示信号を、ユーザインタフェース装置110の表示指示部108から受信する。画像形成部106は、指定された視点に応じて、全方位画像の最外の円周上の画像が全て維持されるように画像変形処理を行い、視点変更後の全方位画像のデータとデワープ処理された画像データを生成して配信部107に出力する。ユーザインタフェース装置110の表示部109は配信部107から、視点が変更された後の画像データを受信して全方位画像とデワープ処理された画像を画面に表示する。【選択図】 図1

Description

本発明は、撮像画像に対して視点を変更して画像変形を行う画像処理技術に関する。
ネットワークカメラシステムは、例えば監視を目的として、公共の建物や場所、銀行、店舗、ダム、基地、飛行場等の立入り禁止区域への侵入者または侵入物を検知する機能を有する。全方位で撮像される画像(以下、全方位画像という)を取得可能な、いわゆる全方位カメラは、360°の方位で取得した画像を処理して一度に画像を表示する。建物の天井や壁等に設置される全方位カメラは、その設置位置によって撮像範囲や視野が確定し、パンニングやチルティングがない固定位置で撮像が行われる。
全方位カメラにより撮像された画像は、ディスプレイ等の画面上で確認することができ、ユーザは全方位画像により設置環境の全体像を把握できる。さらには、全方位画像を分割して、平面画像に画像補正処理(デワープ処理)を施して表示する撮像装置があり、例えば全方位画像の一部を矩形画像に切り出してデワープ処理後の画像が表示される。全方位カメラは設置時に固定された視点を、設置後に変えることはできない。特許文献1では、全方位画像の表示に関して、デワープ処理での画像展開を行わずに、全方位画像を表示する上での画像回転の向きを変える方法が開示されている。全周画像に含まれる基準点が全周画像の中心に対して所定の向きに位置する全周画像の回転角度を算出する処理が行われる。
特開2014−225108号公報
しかしながら、特許文献1に開示の従来技術は、全周を含む画像を画像の中心に対して所定の向きに左右回転させることで、全周を含む画像を展開せずに利用するものであり、視点の角度を変えることはできない。例えば、壁に設置された全方位カメラの左右の向きを調整することを目的とする場合、全方位カメラの上向き、または下向きへの視点変更はできない。
一般的に全方位カメラは、パンニングやチルティングの機構部が無く、固定位置で撮像を行うので、天井や壁等に設置された全方位カメラの撮像面と設置面との間には傾きが発生し得る。この傾きにより、ユーザが撮像したい範囲とは異なる視点の画像範囲しか撮像できないという問題がある。例えば、全方位カメラの撮像面が設置面に対して傾きを有する場合、全方位画像の視点方向が設置面に垂直な方向からずれた方向となる。
本発明の目的は、撮像された画像に対して視点を変更した画像を提供することである。
本発明の一実施形態の装置は、撮像手段により撮像された撮像画像のデータを取得する取得手段と、前記撮像画像に係る視点を指定する指定手段と、前記指定手段によって指定された視点にしたがって前記撮像画像の画像変形処理により画像データを生成する生成手段と、前記生成手段により生成された画像データを出力する出力手段と、を備える。
本発明によれば、撮像された画像に対して視点を変更した画像を提供することできる。
本発明の実施形態におけるシステム構成図である。 撮像装置の画像例および設置例を示す模式図である。 全方位画像における被写体画像の説明図である。 全方位画像における視点変更時の被写体画像の説明図である。 全方位画像と視点変更についての説明図である。 全方位画像の視点変更処理のフローチャートである。 第2実施形態にて視点変更時の全方位画像とデワープ処理を説明する図である。 第2実施形態にて視点変更時の全方位画像と切り出し処理を説明する図である。 第2実施形態における全方位画像の視点変更処理のフローチャートである。
以下に、本発明の好ましい実施の形態を、添付図面に基づいて詳細に説明する。各実施形態では、魚眼レンズ等を用いた撮像光学系により広角で撮像された撮像画像のデータを処理する画像処理装置の一例として、全方位画像での視点を変えた座標系で画像表示することができる視点変更手段を備える撮像装置を示す。ネットワークカメラにおいて、撮像された全方位画像は、ユーザの意図する視点でGUI(グラフィカル・ユーザ・インタフェース)画面に表示される。なお、全方位画像は例示であって、広角撮影が可能な撮像部により取得される画像データを処理する画像処理装置や各種の情報処理装置に本発明を適用可能である。
[第1実施形態]
本実施形態では、全方位画像上で撮像装置の視点方向を変更したときの画像処理と、その処理結果である画像の表示処理について説明する。図1は、本実施形態のシステム構成図である。ネットワークカメラシステムは、撮像装置100と、ユーザインタフェース(以下、UIと略記する)装置110を備え、ネットワークにより互いに接続される。
撮像装置100の撮像部は、ズームレンズ等を有する撮像光学系101と、撮像素子102を備える。撮像素子102の出力は、A/D(アナログ/デジタル)変換処理部103が処理した後、現像処理部104が処理を引き継ぐ。データ記録部105は現像処理された画像データを記録する。画像形成部106は現像処理後のデータから全方位画像の画像形成を行い、配信部107に出力する。なお、図示は省略するが、撮像装置100の制御を統括するシステム制御部が設けられている。また、撮像装置100はズーム制御を行うが、パンニングやチルティングの動作制御は行わないものとする。
UI装置110は、表示指示部108と表示部109を備え、配信部107との間で信号の送受信を行う。例えば、UI装置110はネットワークを介して、ズーミング等のカメラ制御用のコマンドを発行して撮像装置100に送信し、配信部107が当該コマンドを受信する。ズーム指示に関するコマンドにしたがって撮像光学系101ではズームレンズの駆動制御が行われる。つまり、撮像光学系101は被写体からの入射光を結像するための光学部材を備え、ズーム制御用のコマンドに応じたズーム動作を行う。
撮像素子102は撮像光学系101を通して受光した光像を光電変換し、電気信号を出力する。撮像素子102はCCD(電荷結合素子)イメージセンサやCMOS(相補型金属酸化膜半導体)イメージセンサである。A/D変換処理部103は、撮像素子102の出力するアナログ信号を変換して、デジタルデータを現像処理部104に出力する。現像処理部104は、現像処理を行って生成した画像データを出力する。本実施形態では撮像画像として、全方位画像を想定する。現像処理部104により現像処理された画像データは、画像形成部106へ出力されるとともに、データ記録部105に記録される。データ記録部105は、現像処理された画像データを保持する記録媒体を備える。
画像形成部106は、現像処理部104が現像処理した画像データを取得し、画像データから全方位画像を形成する。画像形成部106はさらに、全方位画像に対して視点変更処理、デワープ処理(座標変換と画像切り出し処理)を行い、画像データを生成する。配信部107は、全方位画像の視点変更処理、デワープ処理が行われた画像データを取得して、ネットワーク上で送信できるデータに圧縮した上で配信処理を実行する。
UI装置110は、ネットワークを介して配信部107から送信されたデータを受信する。表示部109は受信された画像データに対応する画像表示を行う。表示指示部108は、ユーザ操作による指示や設定に応じた制御コマンドを、ネットワークを介して配信部107へ送信する。表示指示部108はポインティングデバイス等の操作指示部材を備え、ユーザからのカメラ制御、全方位画像の表示方法、デワープ処理等に関する操作指示を受け付ける。本実施形態では配信部107の出力するデータにしたがって表示部109が画像表示を行う最も簡単な例を説明するが、配信部107の出力データに対して所定の処理を施してから表示部109が画像表示を行う実施形態でもよい。所定の処理とは、例えば侵入者または侵入物の画像を色分けや包囲枠で区別して表示させる後処理等であり、配信部107の出力先に応じた各種の画像処理である。
図2は、ネットワークカメラ201と、UI装置110としてのパーソナルコンピュータ(以下、PCと略記する)202の例を示す模式図である。図2(A)は画像例を示し、図2(B)は設置例を示す。ネットワークカメラ201は壁面に設置され、ネットワークカメラ201の横を通る人物や背景等を撮像する。ネットワークカメラ201とPC202はネットワーク200を介して接続され、相互に通信可能である。
図2(A)に示す画像は、PC202のディスプレイ画面に、全方位画像を4分割してデワープ処理した画像の表示例を示している。楕円枠内の画像は、ネットワークカメラ201で撮像された全方位画像204を示す。全画像203は、全方位画像と無効画像を含んだディスプレイ上に表示される領域の画像を示す。画像205は、デワープ処理を行う場合に、全方位画像204を4分割した場合の画像を示す。4分割された画像領域を、AからDの領域で示している。分割された4つの画像領域に対して、デワープ処理を行って展開した画像を画像206に示し、4つの部分画像A,B,C,Dから構成される。なお、デワープ処理時の分割数4は一例であり、任意の分割数に応じて表示画像のレイアウトが変更される。
図3は、ネットワークカメラ201を壁面に設置した場合の、全方位画像204を示す模式図である。図3(A)は画像例を示し、図3(B)はネットワークカメラ201と被写体301,303との位置関係を示す。ネットワークカメラ201の撮像面の中心から延長される視線300上には、第1の被写体303が存在し、さらには第2の被写体301が存在する例を想定する。つまり、第1の被写体303は、ネットワークカメラ201の視点に対応する位置にあり、第2の被写体301は、視線300よりも上側にずれた方向に位置している。
図3(A)は、ネットワークカメラ201で撮像された全方位画像204を示す。画像302は、全方位画像における被写体301の画像を示し、画像304は、全方位画像における被写体303の画像を示す。被写体301の画像302は、視線300よりも上側の位置で撮像された画像であるため、上部に歪んだ形状で表示される。
図4は、ネットワークカメラ201において被写体に対する視点を変更する場合の模式図である。図4(A)は画像例を示し、図4(B)はネットワークカメラ201と被写体301,303との位置関係を示す。ネットワークカメラ201の視点が変更され、視線400で示す方向に変わった場合、視線400上に被写体301が位置し、その下側に被写体303が位置することになる。全方位画像204内の画像402は被写体301を撮像した画像であり、画像404は被写体303を撮像した画像である。被写体301,303はそれぞれ、全方位画像204内において対応する位置に表示される。ネットワークカメラ201自体の位置は変更されず、視点変更によって視線300から視線400への方向に変更されることで、主被写体が被写体303から被写体301に変わった撮像画像が取得される。
このように、ユーザが意図する観測や監視の対象である、撮像対象物に応じて視点を変更することで、対象物の視認が容易になる。つまり、被写体301の場合、ネットワークカメラ201の視点を変更して視線400上で撮像対象物を捉えた方が、全方位画像での撮像対象物として認識しやすい。
図5は、全方位画像204を極座標系で表した場合の概念的な説明図である。図5(A)は、円形の中心点500を基準として同心円状に配置される複数の座標を模式的に示す。中心点500は、例えば図3(B)に示すネットワークカメラ201の設置時の視点位置に対応する。図5(B)は、円形の中心点500から視点を変更した場合の複数の座標を模式的に示す。
図5(A)にて、円形の中心点500から下方向に視点を変えた場合を想定し、変更後の視点の角度を角度501で示す。角度501の大きさに比例して、視点の中心からの変更角度が大きくなる。この変更角度が大きいほど、全方位画像204の同心円の画像変形による歪が大きくなる。図5(B)は、円形の中心点500から視点が変更された場合に、視点の変更角度に応じた、同心状の複数の閉曲線を示す。つまり、変形した閉曲線群によって図5(A)の同心円でそれぞれ示す範囲に対応する範囲を示している。同心円の変形に合わせた画像座標値を算出することによって、画像変形処理が行われる。
次に図6のフローチャートを参照して、視点変更の画像処理について説明する。
まず、撮像装置100は撮像によって全方位画像のデータを取得してUI装置110に画像データを送信し、表示部109が全方位画像を表示する(S101)。ユーザが表示指示部108を使用して、全方位画像の視点変更を指示したか否かが判定される(S102)。ユーザは視点を変更する場合、表示指示部108を用いて、全方位画像の中心に対して視点の変更操作を行う。例えば、ユーザは表示部109の画面に表示されている全方位画像を見ながら、ポインティングデバイスやキーボード等を操作して、所望の視点に変更したい角度を指定する。その際には全方位画像に対して視点変更が可能な設定範囲が表示される。つまり、画像変形による画像の歪み量が所定の閾値以下となるように設定範囲が予め決められているので、その設定範囲内でユーザにより、視点変更の操作が行われる。ユーザが視点変更の指示を行い、配信部107が視点変更の指示に関するコマンドを受信した場合、S103の処理に進み、視点変更の指示がない場合にはS108へ移行する。
S103では、ユーザの視点変更の指示情報が取得される。視点変更操作にポインティングデバイスを用いたUI装置の場合には、ユーザがポインティングデバイスで画面上のポインタを動かす位置および移動量によって、視点の角度と方向の指示情報を取得することができる。またタッチパネルを備えるUI装置ではユーザが手指で所望の視点に変更する操作を画面上で行うことにより、視点の指示情報を取得できる。操作指示のための手段および方法は任意である。
次に画像形成部106は、配信部107から視点変更の指示情報を取得し、視点変更の角度を判断して決定する(S104)。この角度は、撮像された全方位画像の中心点からの各画素に対する視点変更を行う場合の画像変形処理に必要な角度である。S104で決定された角度に応じて、画像形成部106は全方位画像の各画素に対しての変倍率を算出する(S105)。変倍率は全方位画像の各画素に対して算出され、各画素の位置およびS104で算出された角度に応じて変わる。
画像形成部106は、各画素に対する変倍率にしたがって、各画素に変倍処理を施して画像変形を行う(S106)。全方位画像における最外の円周上の画像を維持するように画像変形処理が行われる。画像変形処理における変倍方法については、線形変倍やバイリニア変倍がある。あるいは他の変倍方法でもかまわない。
S107では、S106の画像変形処理が全方位画像の各画素に対して完了したか否かについて判定処理が行われる。画像形成部106が全画素に対して画像変形処理を完了した場合、S108の処理に進み、完了していない場合にはS105に戻って処理を続行する。
S108で表示部109は全方位画像を画面に表示する。次のS109では、次の撮像データの更新があるかどうかの判断処理が実行される。撮像データの更新がある場合には、S101の処理に戻って処理を続行する。また、撮像データの更新が無い場合には、一連の処理を終了する。
本実施形態によれば、ユーザは、撮像された全方位画像を確認しながら、全方位画像の視点を容易に変更でき、画像変形処理された視認性の高い全方位画像により、画像全体を表示することができる。
[第2実施形態]
次に本発明の第2実施形態を説明する。本実施形態では、全方位画像上で撮像の視点方向を変更したときの撮像画像と、その撮像画像をデワープ処理して歪み補正を行った画像の表示および処理方法について説明する。以下では、第1実施形態との相違点を主に説明し、第1実施形態と同様の事項については説明を省略する。
図7は、本実施形態にて全方位画像の視点を変更したときの画像と、そのデワープ処理を実施した画像について説明する図である。図7(A)は、全方位画像700の基準となる画像中心点701から下方向に角度702の大きさで視点変更を実施するときの座標を模式的に示す。図7(B)は角度702での視点変更が実施された場合の、画像中心点701を中心とする同心状の閉曲線群による座標を模式的に示す。図7(B)では、視点が変更されたことで、図7(A)で同心円状に位置していた画像位置が、下方向に歪んだ形状に変形している。各画素の変形に係る画像処理は、第1実施形態での画像変形処理と同じである。
図7(C)は、図7(B)に示す視点変更後の全方位画像に対して、4分割される領域703から706を示す。全方位画像700は4領域に区分され、各領域の画像はデワープ処理される。図7(D)はデワープ処理された画像領域707から710を示す。デワープ処理前の領域703とデワープ処理後の画像領域707とが対応し、領域704と画像領域708、領域705と画像領域709、領域706と画像領域710が、それぞれに対応する。各画像領域については、デワープ処理によって歪み補正された画像データが生成される。なお、画像領域の分割数4は例示であって、分割数は任意である。また、デワープ処理を行う画像領域については、等分割した画像である必要はなく、一部の選択した矩形画像でも、かまわない。
図8は、全方位画像に対して一部の画像領域をユーザが選択し、その選択された領域内の画像をデワープ処理する場合の例を示す。図8(A)は、全方位画像800の基準である画像中心点801から下方向に角度802の大きさで視点変更を実施するときの座標を模式的に示す。図8(B)は角度802での視点変更を実施した場合の、画像中心点801を中心とする同心状の閉曲線群により座標を模式的に示す。図8(B)では、視点変更により、同心円状に位置していた画像位置が下方向に歪んだ形状に変形している。
図8(C)は、図8(B)に示す視点変更後の全方位画像に対して、領域803,804が指定された場合に画像データを抽出して展開する例を示す図である。この場合、領域803と804はユーザ操作によって指定された領域を示しており、これらの領域に対してデワープ処理が実行されて画像が展開される。図8(D)は、領域803,804に対するデワープ処理後の画像領域805,806を示す。デワープ処理前の領域803とデワープ処理後の画像領域805が対応し、領域804と画像領域806が対応しており、各画像領域に対応する画像データを抽出して展開する処理が実行される。デワープ処理を行う領域の指定数2は例示であり、ユーザは表示指示部108を使用して任意の指定数を指示し、画像抽出および表示処理を行わせることが可能である。
図9のフローチャートを参照して、本実施形態における画像処理について説明する。
まずネットワークカメラ201は、撮像により全方位画像のデータを取得し、UI装置110に画像データを送信する。表示部109は全方位画像を画面に表示する(S201)。次に、ユーザがUI装置110内の表示指示部108を用いて、全方位画像に対してデワープ処理の指示を行ったか否かが判定される(S202)。デワープ処理の指示がある場合、S203に進み、デワープ処理の指示がない場合にはS207へ移行する。
S203では、デワープ処理の対象となる画像の分割数が、表示指示部108により指定される。画像形成部106は、S203で指定された分割数を配信部107から取得して分割数に応じた画像領域を判断し、全方位画像に対してデワープ処理の対象画像を切り出す処理を行う(S204)。さらに画像形成部106は、S204で切り出された画像に対してデワープ処理を実行して画像展開を行う(S205)。展開された画像データは、配信部107を介してUI装置110へ送信される。表示部109は取得した画像データにしたがって画面に画像表示する(S206)。
S206の後、表示部109に表示された画像に対して、ユーザが視点変更の指示を行ったか否かについて判断処理が実行される(S207)。ユーザが視点変更の指示を行ったと判断された場合、S208に進み、視点変更の指示がない場合にはS217に移行する。S208で配信部107は、全方位画像の中心に対する視点変更の指示情報を取得する。視点変更の指示方法は、第1実施形態の場合と同様であり、ユーザが表示されている全方位画像を見ながら、ポインティングデバイス等で視点変更の角度や方向を指定する。
次に画像形成部106は、S208にて指定された視点変更の情報に基づき、視点変更の角度を判断して決定する(S209)。この角度は、撮像された全方位画像の中心点からの各画素に対して視点変更を行う場合に画像変形処理を実施するために必要な角度である。画像形成部106はS209で決定した角度に応じて、全方位画像の各画素に対する変倍率を算出する(S210)。画像変形の変倍率は、全方位画像の各画素の位置およびS209で判断された角度にしたがって算出される。
S211で画像形成部106は、S210で算出した変倍率にしたがって、各画素に対する変倍処理を実施して画像変形処理を行う(S211)。画像変形処理における変倍方法は線形変倍やバイリニア変倍等である。S212はS211の画像変形処理が各画素に対して全て実行されたか否かの判定処理である。全方位画像の全画素に対する処理が完了した場合、S213の処理に進み、完了していない場合にはS210へ戻って処理を続行する。
S213で画像形成部106は、S204で判断した画像の切り出し領域に対して、視点変更を行った結果である画像データを割り当てる。ここで画像形成部106は、視点変更後の画像データについて、画像の切り出し領域に対応する画像を判断する。そして画像形成部106は、S213で判断された画像領域の画像に対してデワープ処理を行って処理後の画像データを展開する(S214)。配信部107は、S214で生成された画像データおよび視点変更後の全方位画像のデータをUI装置110へ送信する。
S215でUI装置110は配信部107から画像データを受信し、表示部109は視点変更後の全方位画像を画面に表示する。さらに表示部109は、S214で生成された、歪み補正された画像を画面に表示する(S216)。
S217では、次の撮像データの更新があるか否かについての判断処理が実行される。撮像装置100にて撮像データの更新がある場合、S201の処理に戻って処理を続行する。撮像データの更新が無い場合には一連の処理を終了する。なお、S207からS217へ移行する場合には、そのまま全方位画像の表示処理が行われ、次の撮像データの更新の判断処理が実行される。
本実施形態では、ユーザ操作にしたがって全方位画像に対して視点を変更した画像と、視点変更後の画像に対するデワープ処理を実行して展開された画像を表示することができる。
前記実施形態の画像処理装置によれば、全方位画像の最外の円周上の画像を全て維持しつつ、視点を任意の方向に変更して画像を表示することができる。撮像装置がパンニングやチルティングの機構部を備える必要はない。ユーザは広角撮影された画像全体に対して表示される画面内にて、所望の視点を選んで画像を視認できる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 撮像装置
106 画像形成部
108 表示指示部
109 表示部

Claims (11)

  1. 撮像手段により撮像された撮像画像のデータを取得する取得手段と、
    前記撮像画像に係る視点を指定する指定手段と、
    前記指定手段によって指定された視点にしたがって前記撮像画像の画像変形処理により画像データを生成する生成手段と、
    前記生成手段により生成された画像データを出力する出力手段と、を備える
    ことを特徴とする画像処理装置。
  2. 前記生成手段により生成された画像データの画像表示を行う表示手段を備え、
    前記撮像画像は前記撮像手段により広角で撮像される画像であり、
    前記生成手段は、前記撮像画像における最外の円周上の画像を維持する前記画像変形処理を行う
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記指定手段は、前記撮像画像の中心点を基準とする視点の角度を指定する
    ことを特徴とする請求項1または請求項2に記載の画像処理装置。
  4. 前記生成手段は、前記画像変形処理を行った画像を分割して歪みを補正した複数の画像データを生成する
    ことを特徴とする請求項1に記載の画像処理装置。
  5. 前記出力手段は、前記生成手段が前記画像変形処理を行った画像のデータ、および前記複数の画像データを出力する
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記出力手段から前記撮像画像のデータを取得して画像を表示する表示手段を備え、
    前記指定手段は、前記表示手段によって表示された前記撮像画像の中心点からの視点を指定することによって視点の変更を指示し、
    前記生成手段は前記指定手段によって変更を指示された視点の角度を決定して前記画像変形処理を行う
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記生成手段は、前記指定手段によって視点の変更が指示された場合、指示された視点の角度を決定して前記画像変形処理を行った画像のデータ、および当該画像を分割して歪みを補正した複数の画像のデータを生成し、前記表示手段は前記撮像画像および前記複数の画像の表示を更新する
    ことを特徴とする請求項6に記載の画像処理装置。
  8. 前記生成手段は、前記画像変形処理が行われた画像にて、前記指定手段によって指示された画像領域に対応する画像データを抽出し、前記出力手段は抽出された画像データを出力する
    ことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 請求項1から8のいずれか1項に記載の画像処理装置、および前記撮像手段を備える撮像装置。
  10. 撮像手段により撮像された撮像画像のデータを取得する工程と、
    前記撮像画像に係る視点を指定する工程と、
    指定された視点にしたがって前記撮像画像の画像変形処理により画像データを生成する工程と、
    生成された画像データを出力する工程と、を有する
    ことを特徴とする画像処理装置の制御方法。
  11. 請求項10に記載の各工程を画像処理装置のコンピュータに実行させるプログラム。
JP2017231865A 2017-12-01 2017-12-01 画像処理装置およびその制御方法、撮像装置、プログラム Pending JP2019102976A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017231865A JP2019102976A (ja) 2017-12-01 2017-12-01 画像処理装置およびその制御方法、撮像装置、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017231865A JP2019102976A (ja) 2017-12-01 2017-12-01 画像処理装置およびその制御方法、撮像装置、プログラム

Publications (1)

Publication Number Publication Date
JP2019102976A true JP2019102976A (ja) 2019-06-24

Family

ID=66974331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017231865A Pending JP2019102976A (ja) 2017-12-01 2017-12-01 画像処理装置およびその制御方法、撮像装置、プログラム

Country Status (1)

Country Link
JP (1) JP2019102976A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11615542B2 (en) 2019-11-14 2023-03-28 Panasonic Avionics Corporation Automatic perspective correction for in-flight entertainment (IFE) monitors

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11615542B2 (en) 2019-11-14 2023-03-28 Panasonic Avionics Corporation Automatic perspective correction for in-flight entertainment (IFE) monitors

Similar Documents

Publication Publication Date Title
JP6587113B2 (ja) 画像処理装置及び画像処理方法
CN110557557B (zh) 非线性延展裁切图像的方法及系统
JP6065195B2 (ja) 表示映像形成装置及び表示映像形成方法
KR102225617B1 (ko) 영상 정합 알고리즘을 설정하는 방법
CN109510967B (zh) 摄像装置、摄像装置的控制方法和存储介质
KR101778744B1 (ko) 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템
JP2006245793A (ja) 撮像システム
KR20180129667A (ko) 표시 제어 장치, 표시 제어 방법 및 저장 매체
JP2014126858A (ja) 撮像装置およびその制御方法
JP2023065475A (ja) 情報処理装置
EP3454548B1 (en) Image processing apparatus, program, and method
JP2013239986A (ja) 補助情報生成装置、撮影画像表示システム、補助情報生成方法、撮影画像表示方法、及びコンピュータプログラム
JP7150456B2 (ja) 撮像システム、情報処理装置、情報処理装置の制御方法、及び、プログラム
JP6938237B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2010217984A (ja) 像検出装置及び像検出方法
JP2019102976A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
EP2611151B1 (en) Method and mobile unit for facilitating installation of a surveillance camera
KR20170055455A (ko) 초광각 카메라를 이용한 렌즈 왜곡 영상 보정 카메라 시스템 및 그가 적용된 tvi 장치
JP5847570B2 (ja) 画像処理装置及びその制御方法
JP2017208658A (ja) 画像処理装置、画像処理方法及びプログラム
JPH08305841A (ja) 歪曲収差画像補正表示装置
JP2019008494A (ja) 画像処理装置
JP6062483B2 (ja) デジタルカメラ
KR20150045080A (ko) 저시력자를 위한 영상보정방법 및 이를 위한 장치
JP2022182840A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム