JP2023042257A - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP2023042257A JP2023042257A JP2021149464A JP2021149464A JP2023042257A JP 2023042257 A JP2023042257 A JP 2023042257A JP 2021149464 A JP2021149464 A JP 2021149464A JP 2021149464 A JP2021149464 A JP 2021149464A JP 2023042257 A JP2023042257 A JP 2023042257A
- Authority
- JP
- Japan
- Prior art keywords
- image
- peripheral
- processing apparatus
- imaging
- reference image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.
スポーツシーンにおいては、多数のカメラにより多くの映像が取得され、編集されて配信される。また、取得された映像からプレーの内容を分析し、対戦相手の特徴を知ったり、自チームの戦力向上につなげたりすることも重要になっている。
しかし、これらの処理には多くの人手がかかるため、学生やユースなどを対象とした場合には、映像が有効に活用されないことがある。このため、人手をかけずに映像を取得して配信用の映像を作成したり、スポーツ分析に必要な情報を抽出したりする技術が求められている。
In a sports scene, many videos are acquired by many cameras, edited and distributed. It is also important to analyze the contents of the play from the acquired video, to know the characteristics of the opponent, and to improve the strength of the own team.
However, since these processes require a lot of manpower, images may not be used effectively when targeting students and youth. For this reason, there is a demand for a technology that acquires video without manpower to create video for distribution and extracts information necessary for sports analysis.
スポーツのように動きの速いシーンで、被写体の動きに合わせてカメラを制御するのは難易度が高いため、全体を俯瞰する映像を高解像度で取得し、そこから必要なシーンを切り出して映像を作成する方法が知られている。
その際に、広範囲に渡って高解像度で動画を取得するためには、多くのメモリが必要となり、処理負荷も重くなる。また、動きのない領域も動画として取得するのは無駄が多い。
In fast-moving scenes such as sports, it is difficult to control the camera according to the movement of the subject. Know how to create.
At that time, a large amount of memory is required in order to acquire high-resolution moving images over a wide range, and the processing load becomes heavy. Moreover, it is wasteful to acquire even a motionless area as a moving image.
特許文献1には、複数系統に振り分けて動画と静止画とにより番組を表示する場合に、同一の被写体を撮像している箇所を動画より切り出して静止画に嵌め込む映像表示装置が開示されている。
特許文献2には、パノラマ画像と動画像との間で特徴点を抽出することにより、動画像をパノラマ画像の領域に対応付けるためのコントロールポイントにもとづいてパノラマ画像に対する動画像のアライメントを調整する画像表示装置が開示されている。 Patent Document 2 describes an image for adjusting the alignment of a moving image with respect to a panoramic image based on control points for associating the moving image with the area of the panoramic image by extracting feature points between the panoramic image and the moving image. A display device is disclosed.
特許文献3には、ファインダ画を表示させると共に、ファインダ画における動画撮像エリアを示す指標であるワクを表示させる撮像装置が開示されている。 Japanese Patent Application Laid-Open No. 2002-200001 discloses an imaging device that displays a finder image and also displays a frame that is an index indicating a moving image imaging area in the finder image.
しかしながら、特許文献1、2に開示の方法では、切り出し範囲によっては、見切れが発生する恐れがあった。また、特許文献3には、画像の切り出しに関する開示はない。
本発明が解決しようとする課題は、切り出し範囲の制限を抑制しつつ、切り出し画像の見切れを防止することである。
However, with the methods disclosed in
The problem to be solved by the present invention is to prevent cutout images from being cut off while suppressing restrictions on the cutout range.
本発明の1つの態様による画像処理装置は、基準画像を取得する第1取得手段と、前記基準画像の撮像領域の周辺領域が撮像された周辺画像を取得する第2取得手段と、前記基準画像の撮像時の画角が拡張されるように前記周辺画像を変換する変換手段と、前記周辺画像から変換された変換画像と前記基準画像とを合成した合成画像を生成する合成手段と、を備える。 An image processing apparatus according to one aspect of the present invention includes first acquisition means for acquiring a reference image, second acquisition means for acquiring a peripheral image in which a peripheral area of an imaging area of the reference image is captured, and the reference image. transforming means for transforming the peripheral image so as to expand the angle of view at the time of imaging; .
本発明の1つの態様によれば、切り出し範囲の制限を抑制しつつ、切り出し画像の見切れを防止することができる。 According to one aspect of the present invention, it is possible to prevent cutout images from being cut off while suppressing restrictions on the cutout range.
以下、添付図面を参照して本発明の実施形態を詳細に説明する。なお、以下の実施形態は本発明を限定するものではなく、また、実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。実施形態の構成は、本発明が適用される装置の仕様や各種条件(使用条件、使用環境等)によって適宜修正または変更され得る。本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in the embodiments are essential for solving means of the present invention. The configuration of the embodiment can be appropriately modified or changed according to the specifications of the device to which the present invention is applied and various conditions (use conditions, use environment, etc.). The technical scope of the present invention is determined by the claims and is not limited by the following individual embodiments.
以下の各実施形態では、スポーツの撮像を例に取り説明するが、これに限らず、種々のイベント、コンサート、講義シーン、アトラクション、パレード、アクロバット、ダンス、演劇および流星などの撮像に適用することも可能である。また、以下の各実施形態では、ネットワークに接続して他の装置と通信可能な撮像装置(ネットワークカメラ)として機能する画像処理装置を例にとる。しかし、これに限らず、ネットワークに接続できない撮像装置として機能する画像処理装置にも適用することも可能である。また、以下の各実施形態では、画像処理装置が撮像機能を有しているものとして説明するが、画像処理装置が撮像機能を有する場合に限らず、撮像機能を画像処理装置とは別の装置で実現させ、画像処理装置は撮像画像を別の装置から取得する構成でもよい。 In each of the following embodiments, the imaging of sports will be described as an example, but not limited to this, it can be applied to imaging of various events, concerts, lecture scenes, attractions, parades, acrobats, dances, plays, meteor showers, and the like. is also possible. Further, in each of the following embodiments, an image processing apparatus functioning as an image capturing apparatus (network camera) capable of connecting to a network and communicating with other apparatuses will be taken as an example. However, it is not limited to this, and can also be applied to an image processing apparatus that functions as an imaging apparatus that cannot be connected to a network. Further, in each of the following embodiments, the image processing apparatus will be described as having an imaging function. , and the image processing device may acquire a captured image from another device.
<第1実施形態>
本実施形態では、動画として撮像される撮像領域の周囲を静止画として取得し、動画の撮像画角に合わせて静止画を補正して保持することで、動画から注目領域を切り出す際に高速に補完処理を行う方法について説明する。このよう処理を行うことで、俯瞰映像から動画の切り出しを行う際に、周辺部の歪みが大きい領域であっても、見切れのない映像を作成することが可能になる。
<First embodiment>
In the present embodiment, by obtaining a still image around an imaging area captured as a moving image, correcting the still image according to the imaging angle of view of the moving image, and holding the still image, the area of interest can be extracted from the moving image at high speed. A method of complementing processing will be described. By performing such processing, when cutting out a moving image from a bird's-eye view image, it is possible to create a seamless image even in an area with large distortion in the peripheral portion.
図1は、第1実施形態に係る画像処理システムの構成例を示すブロック図である。
図1において、画像処理システム10は、撮像装置として機能する画像処理装置100とクライアント装置200を備え、画像処理装置100とクライアント装置200は、ネットワーク300を介して相互に通信可能な状態に接続される。
FIG. 1 is a block diagram showing a configuration example of an image processing system according to the first embodiment.
In FIG. 1, an
本実施形態では、画像処理装置100がネットワーク300に接続して他の装置と通信可能である装置(ネットワークカメラ等)を例にとる。しかし、画像処理装置100がネットワーク300に接続可能であることは必須ではない。例えば、画像処理装置100とクライアント装置200がケーブルで直接接続される構成でもよい。このようなケーブルでは、例えば、HDMI(登録商標)(High-Definition Multimedia Interface)やSDI(Serial Digital Interface)を用いることができる。
In this embodiment, a device (a network camera, etc.) that allows the
クライアント装置200は、ユーザによる操作に基づいて、画像処理装置100に対して、映像(画像)ストリームの配信を要求する配信要求コマンドおよび各種パラメータを設定する設定コマンドを送信する。クライアント装置200は、パーソナルコンピュータ、タブレット端末またはスマートフォンなどのコンピュータに所定のプログラムをインストールすることで実現可能である。
The
画像処理装置100は、配信要求コマンドに応じて、映像ストリームをクライアント装置200に配信し、設定コマンドに応じて種々のパラメータを記憶する。また、画像処理装置100は、基準画像および周辺画像を取得し、基準画像の撮像時の画角が拡張されるように周辺画像を変換し、周辺画像から変換された変換画像と基準画像とを合成した合成画像を生成する。このとき、画像処理装置100は、撮像領域から周辺領域にはみ出した被写体が連続的に接続可能となるように周辺画像を変換する。周辺画像は、基準画像の撮像領域の周辺の周辺領域が撮像された画像である。基準画像は動画、周辺画像は静止画であってもよい。この基準画像は、広角カメラで撮像された俯瞰画像であってもよい。
The
ここで、俯瞰画像の端の部分に注目するため、俯瞰画像の端の部分を中心に俯瞰画像から切り出しを行うと、切り出し領域全体が広角カメラの画角内に収まり切れず、切り出し画像に見切れが発生する。一方、見切れが発生しないように俯瞰画像から切り出しを行うと、切り出し画像の範囲が制限される。
このため、画像処理装置100は、俯瞰画像の端の部分を中心に切り出しを行う場合、周辺画像から変換された変換画像と基準画像とが合成された合成画像から切り出しを行う。これにより、画像処理装置100は、注目領域として切り出される切り出し範囲の制限を抑制しつつ、切り出し画像の見切れを防止することができる。
Here, in order to focus on the edge of the bird's-eye view image, if the edge of the bird's-eye image is cut out from the bird's-eye view image, the entire cropped area cannot fit within the angle of view of the wide-angle camera, and the cropped image is cut off. occurs. On the other hand, if clipping is performed from the bird's-eye view image so as not to cause the clipping, the range of the clipped image is limited.
For this reason, when the
このとき、画像処理装置100は、基準画像の撮像方向と周辺画像の撮像方向とが異なるときに、周辺画像の撮像方向が基準画像の撮像方向に等しくなるように周辺画像を変換することができる。これにより、画像処理装置100は、撮像領域から周辺領域にはみ出した被写体の歪を抑制しつつ、撮像領域から周辺領域にはみ出した被写体が連続的に接続されるように、合成画像を生成することができる。
At this time, when the imaging direction of the reference image and the imaging direction of the peripheral image are different, the
例えば、画像処理装置100は、同一カメラで設置位置を動かさずに、PTZ(パン・チルト・ズーム)により動画像の撮像領域の周辺の周辺領域が撮像された静止画像を取得し、動画像の撮像位置の平面画像に変換して保持する。切り出し画像は、4頂点を指定して矩形に変換する台形変換と呼ばれる方法を用いる場合、周辺領域が撮像された静止画像を動画像の撮像位置の平面画像に変換することで、見切れのない切り出し画像を簡易に取得することができる。
For example, the
図2Aは、第1実施形態に係る画像処理装置の機能的な構成例を示すブロック図である。
図2Aに示す各機能ブロックのうち、ソフトウェアにより実現される機能については、各機能ブロックの機能を提供するためのプログラムがROM(Read Only Memory)等のメモリに記憶される。そして、そのプログラムをRAM(Random Access Memory)に読み出してCPU(Central Processing Unit)が実行することにより実現される。ハードウェアにより実現される機能については、例えば、所定のコンパイラを用いることで、各機能ブロックの機能を実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。FPGAとは、Field Programmable Gate Arrayの略である。また、FPGAと同様にしてゲートアレイ回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。なお、図2Aに示した機能ブロックの構成は一例であり、複数の機能ブロックが1つの機能ブロックを構成するようにしてもよいし、いずれかの機能ブロックが複数の機能を行うブロックに分かれてもよい。
2A is a block diagram illustrating a functional configuration example of the image processing apparatus according to the first embodiment; FIG.
Of the functional blocks shown in FIG. 2A, for functions realized by software, a program for providing the function of each functional block is stored in a memory such as a ROM (Read Only Memory). Then, the program is read into a RAM (Random Access Memory) and executed by a CPU (Central Processing Unit). For the functions realized by hardware, for example, by using a predetermined compiler, a dedicated circuit may be automatically generated on the FPGA from a program for realizing the function of each functional block. FPGA is an abbreviation for Field Programmable Gate Array. Also, a gate array circuit may be formed in the same manner as the FPGA and implemented as hardware. Also, it may be realized by an ASIC (Application Specific Integrated Circuit). Note that the configuration of the functional blocks shown in FIG. 2A is an example, and a plurality of functional blocks may constitute one functional block, or one of the functional blocks may be divided into blocks that perform a plurality of functions. good too.
図2Aにおいて、画像処理装置100は、周辺画像取得部211、画像変換部212、基準画像取得部213、画像解析部214、画像合成部215および画像切り出し部216を備える。
In FIG. 2A , the
基準画像取得部213は、基準画像を取得する。基準画像は動画あってもよい。この基準画像は、広角カメラで撮像された俯瞰画像であってもよい。例えば、基準画像取得部213は、図2Bの撮像部221または不図示の外部装置から動画像を取得し、当該動画像に含まれる1フレームを基準画像としてもよい。また、基準画像取得部213は、図2Bの記憶部222から取得した各種パラメータ(各種設定)を利用して基準画像を生成する。
A reference
周辺画像取得部211は、周辺画像を取得する。周辺画像は、基準画像の撮像領域の周辺の周辺領域が撮像された画像である。例えば、周辺画像取得部211は、図2Bの撮像部221または不図示の外部装置から静止画像を取得し、各フレームに対応する周辺画像を生成する。また、周辺画像取得部211は、図2Bの記憶部222から取得した各種パラメータ(各種設定)を利用して周辺画像を生成する。
The peripheral
画像変換部212は、周辺画像取得部211により生成された画像とその画像を取得する際の各種パラメータ(カメラの向きやズーム値など)に基づいて、周辺画像の変換を行う。このとき、画像変換部212は、基準画像の撮像時の画角が拡張されるように周辺画像を変換する。例えば、画像変換部212は、基準画像の撮像領域から周辺領域にはみ出した被写体が連続的に接続可能となるように周辺画像を変換することができる。ここで、画像変換部212は、基準画像の撮像方向と周辺画像の撮像方向とが異なるときに、周辺画像の撮像方向が基準画像の撮像方向に等しくなるように周辺画像を変換することができる。例えば、画像変換部212は、同一位置に置かれたカメラが異なるパン・チルト・ズーム値で撮像した場合の画像に変換する。画像変換部212は、変換によって生成した変換済み周辺画像を、記憶部222に保持する。
The
画像解析部214は、基準画像を解析し、合成画像から切り出される切り出し画像の切り出し位置を決定する。例えば、画像解析部214は、基準画像取得部213により取得された基準画像に対して、物体検出処理を行い、画像の切り出しを行う切り出し領域を抽出する。物体検出方法は、例えば、機械学習による方法でもよい。このとき、画像解析部214は、検出ターゲットとする物体の特徴を学習した識別機を生成し、画像データに対して適用することで物体を検出し、切り出し位置を決定することができる。画像解析部214は、基準画像取得部213より取得した基準画像と、その基準画像に対して抽出した切り出し領域に関する情報を、記憶部222に保持する。
The
画像合成部215は、記憶部222に保持された変換済み周辺画像と、基準画像取得部213により取得された基準画像を合成し、合成画像を生成する。生成された合成画像は、画像切り出し部216に送られる。
The
画像切り出し部216は、記憶部222に保持された切り出し領域に関する情報に基づいて、画像合成部215で生成された合成画像から疑似的なPTZ画像(以下、疑似PTZ画像と呼ぶ)を作成する。
The
図2Bは、第1実施形態に係る画像処理装置のハードウェア構成例を示すブロック図である。
図2Bにおいて、画像処理装置100は、撮像部221、記憶部222、制御部223、通信部224およびアクセラレータ部225を備える。
FIG. 2B is a block diagram illustrating a hardware configuration example of the image processing apparatus according to the first embodiment;
In FIG. 2B, the
撮像部221は、レンズを通して撮像素子の受光面上に結像した光を画素ごとに電荷に変換して、動画像を取得する。撮像部221は、例えば、ズームレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッタ、光学ローパスフィルタ、IR(Infrared Rays)カットフィルタ、カラーフィルタおよび撮像素子などを備える。撮像素子は、例えば、CMOS(Complementary Metal Oxide Semiconductor)またはCCD(Charge Coupled Device)などのイメージセンサであってもよい。
The
記憶部222は、画像処理装置100が各種動作を行うためのプログラムを記憶する。また、記憶部222は、通信部224を介してクライアント装置200等の外部装置から取得したデータ(コマンドおよび画像データ)および各種パラメータなどを記憶することができる。例えば、記憶部222は、撮像部221で取得された動画像に対するパン・チルト・ズームなどのカメラの向きおよび倍率に関連するパラメータや、カメラのホワイトバランスおよび露出などのカメラの設定に関連するパラメータを記憶する。また、記憶部222は、画像データのフレームレートおよび画像データのサイズ(解像度)を含む画像データに関するパラメータを記憶してもよい。また、記憶部222は、制御部223が各種の処理を実行する際に用いるワークエリアを提供することができる。さらに、記憶部222は、フレームメモリやバッファメモリとして機能することも可能である。
The
記憶部222は、ROMおよびRAMの両方により構成されてもよいし、ROMおよびRAMのいずれか一方により構成されてもよい。また、記憶部222は、SSD(Solid State Drive)、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ、不揮発性のメモリカードまたはDVDなどの記憶媒体を用いてもよい。
制御部223は、記憶部222に記憶されたプログラムを実行することにより画像処理装置100全体を制御する。制御部223は、記憶部222に記憶されたプログラムとOS(Operating System)との協働により画像処理装置100全体を制御するようにしてもよい。
The
制御部223は、CPU(Central Processing Unit)であってもよいし、MPU(Micro Processing Unit)であってもよいし、GPU(Graphics Processing Unit)であってもよい。また、制御部223は、DSP(Digital Signal Processor)等のプロセッサやASIC(Application Specific Integrated Circuit)などを備えてもよい。。
The
通信部224は、図1のネットワーク300を介してクライアント装置200と通信するために、有線信号または無線信号の送受信を行う。
The
アクセラレータ部225は、主にDeepLearningなどの機械学習による高性能処理を行うために、カメラに付加される処理部である。例えば、アクセラレータ部225は、画像解析部214の処理を受け持つようにしてもよい。アクセラレータ部225は、CPU、GPU、FPGAおよび記憶部などを備えることができる。
The
なお、本実施形態では、アクセラレータ部225を含んだ画像処理装置100で画像解析処理を行う場合について示す。解析処理に関しては、これ以外にも、外部よりUSB(Universal Serial Bus)などで付加したアクセラレータ部で行ってもよい。また、GPUやFPGAを持つ専用装置へカメラから直接HDMI(High-Definition Multimedia Interface)またはSDI(Serial Digital Interface)などで映像を入力して解析してもよい。また、映像を一旦配信した後にPC(Personal Computer)などに保存して処理を行ってもよいし、カメラに付属のSDカードに録画した映像を、接続されていないPCで行ってもよい。
Note that the present embodiment shows a case where the
なお、図2Aの画像処理装置100の機能構成は、図2Bのハードウェアにより実現してもよいし、ソフトウェアにより実現することも可能である。
Note that the functional configuration of the
以下、図2Aの画像処理装置100の動作について、スポーツ競技を対象として全体を俯瞰する画像を取得し、そこから動きのあるシーンを見切れなく切り出し可能な合成画像を作成する場合を例にとって説明する。
The operation of the
図3Aは、基準画像として用いられる俯瞰画像の一例を示す図である。
図3Aにおいて、基準画像フレーム30は、バスケットを行う複数のプレイヤー310とバスケットコート320が俯瞰的に撮像されたシーンを含む。ここで、プレイヤー310が集まる領域に注目して切り出し画像を作成する際に切り出される領域の位置が切り出し領域330として設定されたものとする。
FIG. 3A is a diagram showing an example of a bird's-eye view image used as a reference image.
In FIG. 3A, the
図3Bは、図3Aの切り出し領域から切り出された切り出し画像の一例を示す図である。
図3Bにおいて、図3Aの基準画像フレーム30に設定された切り出し領域330から切り出し画像フレーム31が生成されたものとする。切り出し画像フレーム31は、基準画像フレーム30上で指定された4頂点で囲まれる切り出し領域330を矩形に変換して生成することができる。このとき、切り出し領域330が基準画像フレーム30からはみ出している部分に関しては、画素のデータが得られないため、切り出し画像フレーム31では、画素値0の見切れ領域340、341となる。
FIG. 3B is a diagram showing an example of a clipped image clipped from the clipping region in FIG. 3A.
In FIG. 3B, it is assumed that a clipped
画像処理装置100は、見切れ領域340、341の発生を防止するため、基準画像フレーム30の周辺領域が撮像された周辺画像を取得し、基準画像フレーム30と連続的につながるように周辺画像を画像変換した変換済み周辺画像を保持する。そして、画像処理装置100は、基準画像フレーム30を変換済み周辺画像で補完した合成画像を作成し、この合成画像から切り出しを行う。これにより、切り出し領域330が基準画像フレーム30からはみ出す場合においても、切り出し画像に見切れ領域340、341が発生するのを防止することができる。
The
図4は、第1実施形態に係る画像処理装置の画像処理を示すフローチャートである。図5Aは、基準画像の周辺の周辺領域の一例を示す図、図5Bは、基準画像と変換画像を合成した合成画像の一例を示す図である。図6Aは、合成画像に設定された切り出し領域の一例を示す図、図6Bは、図6Aの切り出し領域から切り出された切り出し画像の一例を示す図である。 FIG. 4 is a flow chart showing image processing of the image processing apparatus according to the first embodiment. FIG. 5A is a diagram showing an example of a peripheral area around a reference image, and FIG. 5B is a diagram showing an example of a synthesized image obtained by synthesizing the reference image and the converted image. FIG. 6A is a diagram showing an example of a cutout region set in a composite image, and FIG. 6B is a diagram showing an example of a cutout image cut out from the cutout region of FIG. 6A.
なお、図4の各ステップは、図2Bの記憶部222に記憶されたプログラムを制御部223が読み出し、実行することで実現される。また、図4に示すフローチャートの少なくとも一部をハードウェアにより実現してもよい。ハードウェアにより実現する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。また、FPGAと同様にしてGate Array回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASICにより実現するようにしてもよい。
この場合、図4に示すフローチャートにおける各ブロックは、ハードウェアブロックと見做すことができる。なお、複数のブロックをまとめて1つのハードウェアブロックとして構成してもよく、1つのブロックを複数のハードウェアブロックとして構成してもよい。
Note that each step in FIG. 4 is implemented by the
In this case, each block in the flowchart shown in FIG. 4 can be regarded as a hardware block. A plurality of blocks may be collectively configured as one hardware block, or one block may be configured as a plurality of hardware blocks.
図4の処理は、図2Bの制御部223が記憶部222に記憶されている制御プログラムを実行し、情報の演算、加工および各ハードウェアの制御を実行することにより実現される。また、機械学習による処理を高速に行うために、アクセラレータ部225でも処理を行う。
The processing in FIG. 4 is realized by executing the control program stored in the
図4のステップS41において、周辺画像取得部211および基準画像取得部213は、画像データを生成するために必要な設定を取得する。例えば、周辺画像取得部211および基準画像取得部213は、画像を撮像する撮像部221に関するパラメータを記憶部222から取得する。撮像部221に関するパラメータは、カメラの設置位置、向き、画角、レンズの焦点距離、フレームレートおよび画像データのサイズ(解像度)を含む。例えば、画像データのサイズは1920×1080画素、フレームレートは30fpsとすることができる。
In step S41 of FIG. 4, the peripheral
次に、ステップS42において、周辺画像取得部211は、ステップS41で取得した各種設定の示す基準位置に対して、その周辺領域の撮像を指示し、周辺領域に対応した画像データを取得する。周辺領域は、例えば、図5Aに示すように、図3Aの基準画像フレーム30の撮像領域の周辺の領域50A~50Dである。周辺領域は、基準位置で撮像した画像の補間に用いる領域であり、重要な動体要素を含まない領域が中心になる。そのため、例えば、バスケットの試合が行われている時には、図3Aに示すように、基準位置でプレイヤーおよびボールの動きを撮像するのに対して、試合開始前の未だコートにプレイヤーなどがいない状態の時に周辺領域の撮像を行うようにしてもよい。
Next, in step S42, the peripheral
しかし、周辺領域の撮像を行うタイミングは試合開始前に限らず、任意に選択することが可能である。例えば、試合の合間の休憩時間に撮像を行って最新の画像に更新するようにしてもよい。特に、時間の変化に応じて照明などに変化が生じた場合にのみ、休憩時間に撮像を行って更新してもよい。また、周辺領域の撮像を行うタイミングは、周辺画像を撮像する撮像部221のパラメータの変更後であってもよい。また、周辺画像取得部211は、カメラが固定位置に設置されている場合には、露出などのカメラパラメータに応じて複数の条件で撮像された周辺画像を保持し、基準画像と最も近い撮像条件で撮像された周辺画像を選択してもよい。
However, the timing of imaging the surrounding area is not limited to before the start of the game, and can be arbitrarily selected. For example, an image may be captured during a break between matches and updated to the latest image. In particular, only when there is a change in lighting or the like over time, the image may be captured and updated during the rest period. Also, the timing of capturing the image of the peripheral area may be after changing the parameters of the
ここで、周辺領域に対応する画像データを取得するには、複数の方法がある。例えば、カメラまたは雲台を回転させて、左右または上下にカメラの向きを変えて撮像してもよいし、ズームを変更して、基準位置よりも広い範囲を撮像してもよい。周辺画像取得部211は、こうして撮像された周辺領域に対応する1枚または複数の画像フレームを生成し、記憶部222に保存する。
Here, there are multiple methods for acquiring image data corresponding to the peripheral area. For example, the camera or pan head may be rotated to change the orientation of the camera left and right or up and down to capture an image, or the zoom may be changed to capture a wider range than the reference position. The peripheral
次に、ステップS43において、画像変換部212は、ステップS42で取得した周辺領域の画像フレームから、基準画像フレームに連続的に接続可能な変換済み周辺画像を生成する。ここで、基準画像の第1撮像方向と周辺画像の第2撮像方向とが異なるものとする。このとき、画像変換部212は、第2撮像方向から撮像された周辺画像の平面座標を球面座標上にマッピングし、球面座標上にマッピングされた周辺画像の平面座標を、第1撮像方向から撮像された基準画像の平面座標上にマッピングしてもよい。
Next, in step S43, the
次に、ステップS44において、基準画像取得部213は、ステップS41で取得した各種設定に基づいて基準画像の撮像を指示し、基準画像フレーム30を生成する。
Next, in step S44, the reference
次に、ステップS45において、画像解析部214は、ステップS44で取得した基準画像フレームに対して物体検出処理を行い、ターゲットとなる物体を検出する。例えば、画像解析部214は、図3Aの基準画像フレーム30において、検出ターゲットをプレイヤー310とボールとすることができる。
Next, in step S45, the
画像解析による物体の検出方法としては、高い精度でリアルタイム処理を図るために、機械学習、特にDeepLearningをベースとした方法を用いることができる。具体的には、画像解析による物体の検出方法として、YOLO(You Only Look Once)およびSSD(Single Shot Multibox Detector)などが挙げられる。SSDは、複数の物体が写っている画像からそれぞれの物体を検出する方法の一つである。 As a method of detecting an object by image analysis, a method based on machine learning, particularly Deep Learning, can be used in order to achieve highly accurate real-time processing. Specifically, YOLO (You Only Look Once), SSD (Single Shot Multibox Detector), and the like are examples of object detection methods based on image analysis. SSD is one of methods for detecting each object from an image in which a plurality of objects are shown.
SSDを用いてプレイヤー310とボールを検出する識別機を構築するために、複数の映像から人体が写っている画像を集めて学習用データとして準備する。具体的には、映像中の人体およびボールの領域を抽出し、当該領域の中心位置の座標と当該領域の大きさを記載したファイルを作成する。このようにして準備した学習データを学習し、人体およびボールを検出する識別機を構築する。
In order to construct an identifier that detects the
生成した識別機を用いて人体およびボールを検出すると、検出した領域の位置を示す情報とその大きさを取得する。領域の位置を示す情報は、フレームの左上を原点とする座標として、検出領域の中心位置とその矩形の大きさ(幅と高さ)が、画像の大きさに対する割合として示される。こうして取得した検出領域の位置と大きさは、フレーム内に複数の人物が検出される場合もあるので、リストとして取得される。 When the human body and the ball are detected using the generated classifier, information indicating the position of the detected area and its size are obtained. The information indicating the position of the area indicates the center position of the detection area and its rectangular size (width and height) as a ratio to the size of the image, using coordinates with the upper left corner of the frame as the origin. The positions and sizes of the detection areas thus acquired are acquired as a list, since multiple persons may be detected within the frame.
次に、画像解析部214は、取得したプレイヤー310とボールの検出結果に基づいて、切り出し領域330を求める。具体的には、プレイヤー310とボールの検出位置の重心を求めて、その重心を切り出し領域330の中心とする。ここで、切り出し領域の中心を求める方法には複数の方法がある。例えば、画像解析部214は、プレイヤー310とボールを同じ重みとして重心を算出してもよいし、プレイヤー310のみの重心を算出してもよい。
Next, the
次に、画像解析部214は、切り出し領域330の4頂点を算出する。切り出し領域330は、上記で求めた切り出し領域330の中心に第二のカメラ(俯瞰カメラと同じ位置に置かれた画角の小さいカメラ)を向けた場合の撮像領域を考える。このとき、切り出しにより第二のカメラによってPTZが行われた疑似PTZ画像が生成される。
Next, the
次に、ステップS46において、画像合成部215は、ステップS43で生成された変換済み周辺画像と、ステップS44で取得した基準画像フレームを合成し、疑似的に超広角化された合成画像52を生成する。ステップS43で生成された変換済み周辺画像は、既に基準画像フレームと連続的に接続可能なように変換された画像である。このため、画像合成部215は、ステップS44で取得された基準画像を変換済み周辺画像に埋め込んで合成画像52を生成することができる。さらに、画像合成部215は、基準画像上の座標値を合成画像像の座標に変換するパラメータを求める。このパラメータは、変換済み周辺画像の大きさに応じて、x方向およびz方向への平行移動として保持される。そして、画像合成部215は、生成した合成画像52を記憶部222に保存する。
Next, in step S46, the
例えば、画像合成部215は、図5Bに示すように、基準画像フレーム30の周囲に、ステップS43で取得した変換済み周辺画像51A~51Dを補完することで、合成画像52を生成する。
For example, as shown in FIG. 5B, the
次に、ステップS47において、画像切り出し部216は、ステップS45で取得した切り出し領域330の4頂点の位置から、ステップS46で作成した合成画像52に対して台形変換を行い、図6Bに示すように、切り出し画像フレーム33を作成する。ここで、画像切り出し部216は、必要に応じて、切り出し領域330の4頂点の座標を、ステップ43で取得された平行移動のパラメータにより変換し、合成画像52上の座標に変換する。
Next, in step S47, the
次に、ステップS48において、制御部223は、切り出し処理を行う画像データがあるか否かを判定する。制御部223は、切り出し処理を行う画像データがあれば(ステップS48のYes)、処理をステップS44に戻し、次の画像データに対する処理を継続する。制御部223は、切り出し処理を行う画像データがなければ(ステップS48のNo)、処理を終了する。
Next, in step S48, the
図7は、第1実施形態に係る画像処理装置の画像変換処理を説明する図である。
図7(A)において、画像変換処理では、俯瞰カメラで撮像した基準画像フレーム30に対して、カメラ101の位置Oを原点とした球面座標が設定される。基準画像フレーム30の中心をR、中心Rから上方をz座標、右方向をx座標とすると、基準画像フレーム30上の画素位置は、カメラ101の位置Oから見た球面座標上に1対1にマッピングすることができる。基準画像フレーム30上の座標Q(x、y、z)は、カメラ101の位置Oを原点とした半径rの球面60上の座標P(xp、yp、zp)に対応づけられる。
FIG. 7 is a diagram for explaining image conversion processing of the image processing apparatus according to the first embodiment.
In FIG. 7A, in the image conversion process, spherical coordinates are set with the position O of the
ここで、球面座標(r、θ、φ)は、図7(B)で示したように定義する。このとき、基準画像フレーム30上の座標Q(x、y、z)を球面座標で表した場合、以下の(1)式で与えることができる。
Here, the spherical coordinates (r, θ, φ) are defined as shown in FIG. 7(B). At this time, when coordinates Q (x, y, z) on the
カメラ101の位置Oを原点とした半径rの球面60上の座標P(xp,yp,zp)は、以下の(2)式で与えることができる。
A coordinate P (xp, yp, zp) on the
次に、基準画像フレーム30の周辺領域を撮像するために、図7(C)に示すように、カメラ101の向きを変化させる。この時撮像された周辺画像フレーム51の中心はR’に移動し、周辺画像フレーム51上の点Tは球面60上の点Sに対応づけられる。このように、基準画像フレーム30の周辺領域を撮像した周辺画像フレーム51の情報を球面60上にマッピングすることで、(1)式を再度用いて、中心Rの基準画像フレーム30を拡張した領域に対応づけることができる。
Next, in order to image the surrounding area of the
画像変換部212は、基準画像フレーム30の周辺領域を撮像した周辺画像フレーム51から、画像変換により、基準画像フレーム30に連続的に接続可能な変換済み周辺画像を生成する。さらに、画像変換部212は、基準画像フレーム30上の座標値を変換するためのパラメータを算出する。具体的には、変換済み周辺画像の大きさ(基準画像の左および上に追加されるピクセル数)を保持し、画像の左上を基準として指定する際に平行移動する値として画素位置を保持する。このようにして、画像変換部212は、生成した変換済み周辺画像と平行移動のパラメータを記憶部222に保存する。
The
画像切り出し部216は、図7(D)に示すように、切り出しにより疑似PTZ画像を生成する。具体的には、画像切り出し部216は、基準画像フレーム30上で求めた切り出し領域330の中心座標を、図4のステップS43で示した画像変換により、球面座標上の点U(θc,φc)に変換する。そして、画像切り出し部216は、点Uを中心として、切り出したい大きさの水平画角を2Δθ、垂直画角を2Δφとして、以下の(3)式に示すように、球面60上の切り出し領域61の4頂点(F1、F2、F3、F4)を取得する。
The
そして、画像切り出し部216は、球面60上で取得した切り出し領域61の4頂点(F1、F2、F3、F4)を、(1)式を再度用いて基準画像フレーム30上の座標に変換し、切り出し領域330の4頂点として取得する。画像切り出し部216は、取得した切り出し領域330の4頂点の座標を、記憶部222に保存する。
Then, the
以上説明したように、上述した第1実施形態によれば、画像処理装置100は、動画として撮像を行う画像(基準画像フレーム)から切り出し画像フレーム(疑似PTZ画像)を作成する際に、基準画像フレームの周辺領域を予め撮像する。そして、画像処理装置100は、予め撮像した周辺領域の画像を基準画像フレームと連続的につながるように画像変換した変換済み周辺画像として保持し、基準画像フレームの周囲に合成して合成画像52を作成する。画像処理装置100は、合成画像52から切り出し画像フレーム33を作成することで、図3Aの切り出し領域330を変更することなく、図3Bの見きれ領域340、341の発生を防止することができる。
As described above, according to the first embodiment described above, the
<第2実施形態>
第1実施形態では、疑似PTZ画像を作成する際に、図3Bの見きれ領域340、341を生じないように、基準画像フレーム30に連続的に接続されるように画像変換した変換済み周辺画像を用いて補完する方法について説明した。
このとき、どの程度まで周辺領域を撮像すれば十分であるかをユーザに分かり易く提示できるようにするのが好ましい。また、変換済み周辺画像が静止画で取得されると、補完領域は過去の静止画になる。図3Aの基準画像フレーム30の上方の体育館の壁などであれば静止画でも違和感はないが、左右下方などはバスケットコート320が含まれており、静止画で置き換えない方がよい場合もある。
<Second embodiment>
In the first embodiment, when creating a pseudo PTZ image, the transformed peripheral images are image-transformed so as to be continuously connected to the
At this time, it is preferable to present to the user in an easy-to-understand manner how much of the surrounding area should be imaged. Also, when the converted peripheral image is obtained as a still image, the complementary region becomes a past still image. A still image of the wall of the gymnasium above the
第2実施形態では、変換済み周辺画像を取得した後、基準画像と変換済み周辺画像を表示し、動画撮像の範囲などのパラメータを設定する。具体的には、画像処理装置100は、補完領域によるパン・チルト可能範囲の変化や、ズームした場合の基準画像領域の変化などを示すことで、疑似PTZ画像の生成に関するパラメータ設定を補助する。
なお、第2実施形態では、第1実施形態と同様な部分については同一符号を付し、詳細な説明を省略する。
In the second embodiment, after acquiring the transformed peripheral image, the reference image and the transformed peripheral image are displayed, and parameters such as the moving image capturing range are set. Specifically, the
In addition, in 2nd Embodiment, the same code|symbol is attached|subjected about the part similar to 1st Embodiment, and detailed description is abbreviate|omitted.
図8Aは、第2実施形態に係る画像処理装置の機能的な構成例を示すブロック図である。
図8Aにおいて、画像処理装置101は、図2Aの画像処理装置100の画像切り出し部216の代わりに設定値取得部716を備える。それ以外については、画像処理装置101は、画像処理装置100と同様に構成することができる。
FIG. 8A is a block diagram showing a functional configuration example of an image processing apparatus according to the second embodiment.
In FIG. 8A, the
設定値取得部716は、合成画像の表示画面上で表示される設定を取得する。設定は、合成画像から切り出される切り出し画像の境界、あるいはズーム、パンまたはチルトに基づく基準画像の位置である。設定は、合成画像の動体領域の範囲、動体領域に対する処理であってもよい。動体領域に対する処理は、合成画像から切り出される切り出し画像に含まれる変換画像の強調処理である。動画と静止画の組み合わせ方に関する設定を行うことも可能である。例えば、設定値取得部716は、画像合成部215によって作成された合成画像を、図8BのGUI部726に表示する。そして、設定値取得部716は、ユーザ入力に基づいて、疑似PTZ画像を作成するために必要な設定パラメータを取得する。
The setting
図8Bは、第2実施形態に係る画像処理装置のハードウェア構成例を示すブロック図である。
図8Bにおいて、画像処理装置101は、図2Bの画像処理装置100にGUI(Graphical User Interface)部726が追加されている。それ以外については、画像処理装置101は、画像処理装置100と同様に構成することができる。GUI部726は、合成画像を表示したり、ユーザからの入力をインターラクティブに取得したりするGUIを示す。
FIG. 8B is a block diagram illustrating a hardware configuration example of an image processing apparatus according to the second embodiment;
In FIG. 8B, the
図9は、第2実施形態に係る画像処理装置の画像処理を示すフローチャートである。
図9の処理は、図8Bの制御部223が記憶部222に記憶されている制御プログラムを実行し、情報の演算、加工および各ハードウェアの制御を実行することにより実現される。なお、ステップS85、S86以外の処理は、図4の処理と同様のため、説明を省略する。
FIG. 9 is a flow chart showing image processing of the image processing apparatus according to the second embodiment.
The processing in FIG. 9 is realized by executing the control program stored in the
ステップS85において、図8Aの画像合成部215は、ステップS43で生成された変換済み周辺画像と、ステップS44で取得した基準画像フレームを合成し、疑似的に超広角化された合成画像52を生成する。そして、制御部223は、画像合成部215で作成された合成画像を、GUI部726を通じてユーザに提示する。
In step S85, the
次に、ステップS86において、設定値取得部716は、合成画像に対するユーザの設定値を取得し、疑似PTZ画像作成のために必要な設定パラメータを取得する。
Next, in step S86, the setting
図10Aは、第2実施形態に係る切り出し領域の境界の設定例を示す図である。
図10Aにおいて、設定パラメータとしては、例えば、切り出し領域330がとりうる範囲の左右の境界910を合成画像53上で設定することができる。また、図中に示されてないが、切り出し領域330がとりうる範囲の上下の境界も合成画像53上で設定することが可能である。合成画像53は、試合開始前の未だバスケットコート320にプレイヤー310などがいない状態のシーンであってもよい。このとき、合成画像53では、図5Bの合成画像52の基準画像フレーム30の代わりに図5Aの基準画像フレーム32を用いることができる。
FIG. 10A is a diagram illustrating a setting example of boundaries of clipping regions according to the second embodiment.
In FIG. 10A, as setting parameters, for example, the left and
図10Bは、第2実施形態に係るズーム時の基準画像の位置の提示例を示す図である。
図10Bにおいて、設定パラメータとして、例えば、ズームによって基準画像の画角を変更した場合の位置920を示すことができる。設定パラメータとして、パンまたはチルトによって基準画像を移動させた場合の位置も示すことができる。
FIG. 10B is a diagram showing a presentation example of the position of the reference image during zooming according to the second embodiment.
In FIG. 10B, as a setting parameter, for example, a
図11は、第2実施形態に係る動体領域の設定例を示す図である。
図11において、動体の存在が期待される動体領域321を合成画像53上で設定し、設定値取得部716は、その設定を取得することができる。合成画像53では、俯瞰カメラで撮像されたバスケットコート320の画像を含むが、バスケットコート320の左右の下部で画角内に含まれない領域が生じている。このような領域を過去の静止画から生成された変換済み周辺画像で置き換えると、その領域にプレイヤーが入った場合、プレイヤーが消えるようになる。このような状況を防ぐために、変換済み周辺画像で動体領域321内を置き換える場合には、着色するなど強調表示してユーザに注意喚起することができる。もしくは、プレイヤーの動体追尾を行い、プレイヤーが消えるように見える領域内にプレイヤーが入っていると予測される場合と、予測されない場合で、処理を変えることもできる。このような処理の変更に関する選択をユーザが行うことを可能にする。
FIG. 11 is a diagram showing a setting example of a moving object area according to the second embodiment.
In FIG. 11, a moving
以上説明したように、上述した第2実施形態によれば、画像処理装置100は、基準画像と変換済み周辺画像から疑似PTZ画像を作成する際の設定パラメータを、ユーザが指定しやすいようにGUIに提示する。これにより、画像処理装置100は、ユーザが求める形で疑似PTZ画像を作成することができる。
As described above, according to the above-described second embodiment, the
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを1つ以上のプロセッサが読出して実行する処理でも実現可能である。プログラムは、ネットワーク又は記憶媒体を介して、プロセッサを有するシステム又は装置に供給するようにしてもよい。また、本発明は、上述の実施形態の1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention can also be implemented by processing in which one or more processors read and execute a program that implements one or more functions of the above-described embodiments. The program may be supplied to a system or device having a processor via a network or storage medium. The invention can also be implemented in a circuit (eg, an ASIC) that implements one or more of the functions of the embodiments described above.
10 画像処理システム、100 画像処理装置、200 クライアント装置、300 ネットワーク 10 image processing system, 100 image processing device, 200 client device, 300 network
Claims (13)
前記基準画像の撮像領域の周辺の周辺領域が撮像された周辺画像を取得する第2取得手段と、
前記基準画像の撮像時の画角が拡張されるように前記周辺画像を変換する変換手段と、
前記周辺画像から変換された変換画像と前記基準画像とを合成した合成画像を生成する合成手段と、
を備えることを特徴とする画像処理装置。 a first acquisition means for acquiring a reference image;
a second acquiring means for acquiring a peripheral image in which a peripheral area around the imaging area of the reference image is captured;
conversion means for converting the peripheral image so as to expand the angle of view when the reference image is captured;
synthesizing means for generating a synthetic image by synthesizing the transformed image transformed from the peripheral image and the reference image;
An image processing device comprising:
前記切り出し位置に基づいて、前記合成画像から前記切り出し画像を切り出す切り出し手段と、
をさらに備えることを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 analysis means for analyzing the reference image and determining a cut-out position of the cut-out image cut out from the synthesized image;
clipping means for clipping the clipped image from the composite image based on the clipping position;
5. The image processing apparatus according to any one of claims 1 to 4, further comprising:
前記基準画像の撮像領域の周辺の周辺領域が撮像された周辺画像を取得するステップと、
前記基準画像の撮像時の画角が拡張されるように前記周辺画像を変換するステップと、
前記周辺画像から変換された変換画像と前記基準画像とを合成した合成画像を生成するステップと、
を備えることを特徴とする画像処理方法。 obtaining a reference image;
obtaining a peripheral image in which a peripheral area around the imaging area of the reference image is captured;
a step of transforming the peripheral image so as to expand the angle of view when the reference image is captured;
generating a synthesized image by synthesizing the transformed image transformed from the surrounding image and the reference image;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021149464A JP2023042257A (en) | 2021-09-14 | 2021-09-14 | Image processing device, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021149464A JP2023042257A (en) | 2021-09-14 | 2021-09-14 | Image processing device, image processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023042257A true JP2023042257A (en) | 2023-03-27 |
Family
ID=85717020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021149464A Pending JP2023042257A (en) | 2021-09-14 | 2021-09-14 | Image processing device, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023042257A (en) |
-
2021
- 2021-09-14 JP JP2021149464A patent/JP2023042257A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5867424B2 (en) | Image processing apparatus, image processing method, and program | |
US9712750B2 (en) | Display control device and associated methodology of identifying a subject in an image | |
JP4678404B2 (en) | Imaging apparatus, control method thereof, and program | |
KR20100043139A (en) | Image processing device, dynamic image reproduction device, and processing method and program in them | |
US20050195295A1 (en) | Image-taking apparatus and image processing method | |
JP2018011302A (en) | Image processing device, image processing method, and program | |
JP5725953B2 (en) | Imaging apparatus, control method therefor, and information processing apparatus | |
KR20100043138A (en) | Image processing device, dynamic image reproduction device, and processing method and program in them | |
KR20100086933A (en) | Image processing device, dynamic image reproduction device, and processing method and program used in the devices | |
JP6610535B2 (en) | Image processing apparatus and image processing method | |
WO2017169369A1 (en) | Information processing device, information processing method, program | |
JP2014215604A (en) | Image processing apparatus and image processing method | |
JP5477777B2 (en) | Image acquisition device | |
KR20160094655A (en) | The System and Method for Panoramic Video Surveillance with Multiple High-Resolution Video Cameras | |
JP5733088B2 (en) | Movie presentation device | |
JP2020053774A (en) | Imaging apparatus and image recording method | |
WO2009081732A1 (en) | Image processor, animation reproduction apparatus, and processing method and program for the processor and apparatus | |
KR20140041206A (en) | Camera and camera controlling method for generating privacy mask | |
JP2008217593A (en) | Subject area extraction device and subject area extraction program | |
JP4971813B2 (en) | Video generation apparatus and video generation program | |
KR20180017591A (en) | Camera apparatus, display apparatus and method of correcting a movement therein | |
JP2023042257A (en) | Image processing device, image processing method and program | |
JP7353821B2 (en) | Image processing device, its control method, program | |
EP4007261A1 (en) | Image processing device, image processing method, and program | |
KR20120105208A (en) | Image processing apparatus |