JP2023042257A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2023042257A
JP2023042257A JP2021149464A JP2021149464A JP2023042257A JP 2023042257 A JP2023042257 A JP 2023042257A JP 2021149464 A JP2021149464 A JP 2021149464A JP 2021149464 A JP2021149464 A JP 2021149464A JP 2023042257 A JP2023042257 A JP 2023042257A
Authority
JP
Japan
Prior art keywords
image
peripheral
processing apparatus
imaging
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021149464A
Other languages
Japanese (ja)
Inventor
恵子 米沢
Keiko Yonezawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021149464A priority Critical patent/JP2023042257A/en
Publication of JP2023042257A publication Critical patent/JP2023042257A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

To prevent cut-off of a cut-out image while suppressing the restriction of a cut-out range.SOLUTION: An image processing device according to one aspect comprises: first acquisition means which acquires a reference image; second acquisition means which acquires a peripheral image obtained by imaging a peripheral area on the periphery of an imaging area of the reference image; conversion means which converts the peripheral image so as to extend a field angle in the time of imaging of the reference image; and composition means which generates a composite image obtained by combining a converted image converted from the peripheral image and the reference image.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.

スポーツシーンにおいては、多数のカメラにより多くの映像が取得され、編集されて配信される。また、取得された映像からプレーの内容を分析し、対戦相手の特徴を知ったり、自チームの戦力向上につなげたりすることも重要になっている。
しかし、これらの処理には多くの人手がかかるため、学生やユースなどを対象とした場合には、映像が有効に活用されないことがある。このため、人手をかけずに映像を取得して配信用の映像を作成したり、スポーツ分析に必要な情報を抽出したりする技術が求められている。
In a sports scene, many videos are acquired by many cameras, edited and distributed. It is also important to analyze the contents of the play from the acquired video, to know the characteristics of the opponent, and to improve the strength of the own team.
However, since these processes require a lot of manpower, images may not be used effectively when targeting students and youth. For this reason, there is a demand for a technology that acquires video without manpower to create video for distribution and extracts information necessary for sports analysis.

スポーツのように動きの速いシーンで、被写体の動きに合わせてカメラを制御するのは難易度が高いため、全体を俯瞰する映像を高解像度で取得し、そこから必要なシーンを切り出して映像を作成する方法が知られている。
その際に、広範囲に渡って高解像度で動画を取得するためには、多くのメモリが必要となり、処理負荷も重くなる。また、動きのない領域も動画として取得するのは無駄が多い。
In fast-moving scenes such as sports, it is difficult to control the camera according to the movement of the subject. Know how to create.
At that time, a large amount of memory is required in order to acquire high-resolution moving images over a wide range, and the processing load becomes heavy. Moreover, it is wasteful to acquire even a motionless area as a moving image.

特許文献1には、複数系統に振り分けて動画と静止画とにより番組を表示する場合に、同一の被写体を撮像している箇所を動画より切り出して静止画に嵌め込む映像表示装置が開示されている。 Patent Literature 1 discloses a video display device that, when displaying a program with a moving image and a still image divided into a plurality of systems, cuts out portions of the same subject from the moving image and inserts them into the still image. there is

特許文献2には、パノラマ画像と動画像との間で特徴点を抽出することにより、動画像をパノラマ画像の領域に対応付けるためのコントロールポイントにもとづいてパノラマ画像に対する動画像のアライメントを調整する画像表示装置が開示されている。 Patent Document 2 describes an image for adjusting the alignment of a moving image with respect to a panoramic image based on control points for associating the moving image with the area of the panoramic image by extracting feature points between the panoramic image and the moving image. A display device is disclosed.

特許文献3には、ファインダ画を表示させると共に、ファインダ画における動画撮像エリアを示す指標であるワクを表示させる撮像装置が開示されている。 Japanese Patent Application Laid-Open No. 2002-200001 discloses an imaging device that displays a finder image and also displays a frame that is an index indicating a moving image imaging area in the finder image.

特開2005-229451号公報JP-A-2005-229451 特開2014-82764号公報JP 2014-82764 A 特開2003-259161号公報Japanese Patent Application Laid-Open No. 2003-259161

しかしながら、特許文献1、2に開示の方法では、切り出し範囲によっては、見切れが発生する恐れがあった。また、特許文献3には、画像の切り出しに関する開示はない。
本発明が解決しようとする課題は、切り出し範囲の制限を抑制しつつ、切り出し画像の見切れを防止することである。
However, with the methods disclosed in Patent Literatures 1 and 2, there is a possibility that parting may occur depending on the clipping range. In addition, Patent Document 3 does not disclose image clipping.
The problem to be solved by the present invention is to prevent cutout images from being cut off while suppressing restrictions on the cutout range.

本発明の1つの態様による画像処理装置は、基準画像を取得する第1取得手段と、前記基準画像の撮像領域の周辺領域が撮像された周辺画像を取得する第2取得手段と、前記基準画像の撮像時の画角が拡張されるように前記周辺画像を変換する変換手段と、前記周辺画像から変換された変換画像と前記基準画像とを合成した合成画像を生成する合成手段と、を備える。 An image processing apparatus according to one aspect of the present invention includes first acquisition means for acquiring a reference image, second acquisition means for acquiring a peripheral image in which a peripheral area of an imaging area of the reference image is captured, and the reference image. transforming means for transforming the peripheral image so as to expand the angle of view at the time of imaging; .

本発明の1つの態様によれば、切り出し範囲の制限を抑制しつつ、切り出し画像の見切れを防止することができる。 According to one aspect of the present invention, it is possible to prevent cutout images from being cut off while suppressing restrictions on the cutout range.

第1実施形態に係る画像処理システムの構成例を示すブロック図。1 is a block diagram showing a configuration example of an image processing system according to a first embodiment; FIG. 第1実施形態に係る画像処理装置の機能的な構成例を示すブロック図。2 is a block diagram showing a functional configuration example of the image processing apparatus according to the first embodiment; FIG. 第1実施形態に係る画像処理装置のハードウェア構成例を示すブロック図。2 is a block diagram showing a hardware configuration example of an image processing apparatus according to the first embodiment; FIG. 基準画像に設定された切り出し領域の一例を示す図。FIG. 4 is a diagram showing an example of a clipping area set in a reference image; 図3Aの切り出し領域から切り出された切り出し画像の一例を示す図。FIG. 3B is a view showing an example of a clipped image clipped from the clipping region of FIG. 3A; 第1実施形態に係る画像処理装置の画像処理を示すフローチャート。4 is a flowchart showing image processing of the image processing apparatus according to the first embodiment; 基準画像の周辺の周辺領域の一例を示す図。FIG. 4 is a diagram showing an example of a peripheral area around a reference image; 基準画像と変換画像を合成した合成画像の一例を示す図。FIG. 10 is a diagram showing an example of a synthesized image obtained by synthesizing a reference image and a converted image; 合成画像に設定された切り出し領域の一例を示す図。FIG. 10 is a diagram showing an example of a clipping area set in a composite image; 図6Aの切り出し領域から切り出された切り出し画像の一例を示す図。FIG. 6B is a view showing an example of a clipped image clipped from the clipping region of FIG. 6A; 第1実施形態に係る画像処理装置の画像変換処理を説明する図。4A and 4B are diagrams for explaining image conversion processing of the image processing apparatus according to the first embodiment; FIG. 第2実施形態に係る画像処理装置の機能的な構成例を示すブロック図。FIG. 2 is a block diagram showing a functional configuration example of an image processing apparatus according to a second embodiment; 第2実施形態に係る画像処理装置のハードウェア構成例を示すブロック図。FIG. 10 is a block diagram showing an example hardware configuration of an image processing apparatus according to the second embodiment; 第2実施形態に係る画像処理装置の画像処理を示すフローチャート。8 is a flowchart showing image processing of the image processing apparatus according to the second embodiment; 第2実施形態に係る切り出し領域の境界の設定例を示す図。FIG. 11 is a diagram showing an example of setting boundaries of clipping regions according to the second embodiment; 第2実施形態に係るズーム時の基準画像の位置の提示例を示す図。FIG. 11 is a diagram showing an example of presentation of the position of a reference image during zooming according to the second embodiment; 第2実施形態に係る動体領域の設定例を示す図。FIG. 11 is a diagram showing a setting example of a moving object region according to the second embodiment;

以下、添付図面を参照して本発明の実施形態を詳細に説明する。なお、以下の実施形態は本発明を限定するものではなく、また、実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。実施形態の構成は、本発明が適用される装置の仕様や各種条件(使用条件、使用環境等)によって適宜修正または変更され得る。本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in the embodiments are essential for solving means of the present invention. The configuration of the embodiment can be appropriately modified or changed according to the specifications of the device to which the present invention is applied and various conditions (use conditions, use environment, etc.). The technical scope of the present invention is determined by the claims and is not limited by the following individual embodiments.

以下の各実施形態では、スポーツの撮像を例に取り説明するが、これに限らず、種々のイベント、コンサート、講義シーン、アトラクション、パレード、アクロバット、ダンス、演劇および流星などの撮像に適用することも可能である。また、以下の各実施形態では、ネットワークに接続して他の装置と通信可能な撮像装置(ネットワークカメラ)として機能する画像処理装置を例にとる。しかし、これに限らず、ネットワークに接続できない撮像装置として機能する画像処理装置にも適用することも可能である。また、以下の各実施形態では、画像処理装置が撮像機能を有しているものとして説明するが、画像処理装置が撮像機能を有する場合に限らず、撮像機能を画像処理装置とは別の装置で実現させ、画像処理装置は撮像画像を別の装置から取得する構成でもよい。 In each of the following embodiments, the imaging of sports will be described as an example, but not limited to this, it can be applied to imaging of various events, concerts, lecture scenes, attractions, parades, acrobats, dances, plays, meteor showers, and the like. is also possible. Further, in each of the following embodiments, an image processing apparatus functioning as an image capturing apparatus (network camera) capable of connecting to a network and communicating with other apparatuses will be taken as an example. However, it is not limited to this, and can also be applied to an image processing apparatus that functions as an imaging apparatus that cannot be connected to a network. Further, in each of the following embodiments, the image processing apparatus will be described as having an imaging function. , and the image processing device may acquire a captured image from another device.

<第1実施形態>
本実施形態では、動画として撮像される撮像領域の周囲を静止画として取得し、動画の撮像画角に合わせて静止画を補正して保持することで、動画から注目領域を切り出す際に高速に補完処理を行う方法について説明する。このよう処理を行うことで、俯瞰映像から動画の切り出しを行う際に、周辺部の歪みが大きい領域であっても、見切れのない映像を作成することが可能になる。
<First embodiment>
In the present embodiment, by obtaining a still image around an imaging area captured as a moving image, correcting the still image according to the imaging angle of view of the moving image, and holding the still image, the area of interest can be extracted from the moving image at high speed. A method of complementing processing will be described. By performing such processing, when cutting out a moving image from a bird's-eye view image, it is possible to create a seamless image even in an area with large distortion in the peripheral portion.

図1は、第1実施形態に係る画像処理システムの構成例を示すブロック図である。
図1において、画像処理システム10は、撮像装置として機能する画像処理装置100とクライアント装置200を備え、画像処理装置100とクライアント装置200は、ネットワーク300を介して相互に通信可能な状態に接続される。
FIG. 1 is a block diagram showing a configuration example of an image processing system according to the first embodiment.
In FIG. 1, an image processing system 10 includes an image processing device 100 functioning as an imaging device and a client device 200. The image processing device 100 and the client device 200 are connected via a network 300 so as to be able to communicate with each other. be.

本実施形態では、画像処理装置100がネットワーク300に接続して他の装置と通信可能である装置(ネットワークカメラ等)を例にとる。しかし、画像処理装置100がネットワーク300に接続可能であることは必須ではない。例えば、画像処理装置100とクライアント装置200がケーブルで直接接続される構成でもよい。このようなケーブルでは、例えば、HDMI(登録商標)(High-Definition Multimedia Interface)やSDI(Serial Digital Interface)を用いることができる。 In this embodiment, a device (a network camera, etc.) that allows the image processing device 100 to connect to the network 300 and communicate with other devices is taken as an example. However, it is not essential that the image processing apparatus 100 can be connected to the network 300 . For example, the image processing apparatus 100 and the client apparatus 200 may be directly connected by a cable. For such cables, for example, HDMI (registered trademark) (High-Definition Multimedia Interface) and SDI (Serial Digital Interface) can be used.

クライアント装置200は、ユーザによる操作に基づいて、画像処理装置100に対して、映像(画像)ストリームの配信を要求する配信要求コマンドおよび各種パラメータを設定する設定コマンドを送信する。クライアント装置200は、パーソナルコンピュータ、タブレット端末またはスマートフォンなどのコンピュータに所定のプログラムをインストールすることで実現可能である。 The client device 200 transmits a delivery request command requesting delivery of a video (image) stream and a setting command for setting various parameters to the image processing device 100 based on a user's operation. The client device 200 can be realized by installing a predetermined program in a computer such as a personal computer, tablet terminal, or smart phone.

画像処理装置100は、配信要求コマンドに応じて、映像ストリームをクライアント装置200に配信し、設定コマンドに応じて種々のパラメータを記憶する。また、画像処理装置100は、基準画像および周辺画像を取得し、基準画像の撮像時の画角が拡張されるように周辺画像を変換し、周辺画像から変換された変換画像と基準画像とを合成した合成画像を生成する。このとき、画像処理装置100は、撮像領域から周辺領域にはみ出した被写体が連続的に接続可能となるように周辺画像を変換する。周辺画像は、基準画像の撮像領域の周辺の周辺領域が撮像された画像である。基準画像は動画、周辺画像は静止画であってもよい。この基準画像は、広角カメラで撮像された俯瞰画像であってもよい。 The image processing apparatus 100 distributes the video stream to the client apparatus 200 according to the distribution request command, and stores various parameters according to the setting command. Further, the image processing apparatus 100 acquires a reference image and a peripheral image, converts the peripheral image so as to expand the angle of view when the reference image is captured, and converts the converted image converted from the peripheral image and the reference image. Generate a synthesized composite image. At this time, the image processing apparatus 100 converts the peripheral image so that the subject protruding from the imaging area into the peripheral area can be continuously connected. The peripheral image is an image obtained by capturing a peripheral area around the imaging area of the reference image. The reference image may be a moving image, and the peripheral images may be still images. This reference image may be a bird's-eye view image captured by a wide-angle camera.

ここで、俯瞰画像の端の部分に注目するため、俯瞰画像の端の部分を中心に俯瞰画像から切り出しを行うと、切り出し領域全体が広角カメラの画角内に収まり切れず、切り出し画像に見切れが発生する。一方、見切れが発生しないように俯瞰画像から切り出しを行うと、切り出し画像の範囲が制限される。
このため、画像処理装置100は、俯瞰画像の端の部分を中心に切り出しを行う場合、周辺画像から変換された変換画像と基準画像とが合成された合成画像から切り出しを行う。これにより、画像処理装置100は、注目領域として切り出される切り出し範囲の制限を抑制しつつ、切り出し画像の見切れを防止することができる。
Here, in order to focus on the edge of the bird's-eye view image, if the edge of the bird's-eye image is cut out from the bird's-eye view image, the entire cropped area cannot fit within the angle of view of the wide-angle camera, and the cropped image is cut off. occurs. On the other hand, if clipping is performed from the bird's-eye view image so as not to cause the clipping, the range of the clipped image is limited.
For this reason, when the image processing apparatus 100 cuts out around the edge portion of the bird's-eye view image, the image processing apparatus 100 cuts out from a composite image in which the converted image converted from the surrounding image and the reference image are combined. As a result, the image processing apparatus 100 can prevent the clipped image from being cut off while suppressing restrictions on the clipping range that is clipped as the region of interest.

このとき、画像処理装置100は、基準画像の撮像方向と周辺画像の撮像方向とが異なるときに、周辺画像の撮像方向が基準画像の撮像方向に等しくなるように周辺画像を変換することができる。これにより、画像処理装置100は、撮像領域から周辺領域にはみ出した被写体の歪を抑制しつつ、撮像領域から周辺領域にはみ出した被写体が連続的に接続されるように、合成画像を生成することができる。 At this time, when the imaging direction of the reference image and the imaging direction of the peripheral image are different, the image processing apparatus 100 can convert the peripheral image so that the imaging direction of the peripheral image is equal to the imaging direction of the reference image. . As a result, the image processing apparatus 100 can generate a composite image such that the subject protruding from the imaging area into the peripheral area is continuously connected while suppressing the distortion of the subject protruding from the imaging area into the peripheral area. can be done.

例えば、画像処理装置100は、同一カメラで設置位置を動かさずに、PTZ(パン・チルト・ズーム)により動画像の撮像領域の周辺の周辺領域が撮像された静止画像を取得し、動画像の撮像位置の平面画像に変換して保持する。切り出し画像は、4頂点を指定して矩形に変換する台形変換と呼ばれる方法を用いる場合、周辺領域が撮像された静止画像を動画像の撮像位置の平面画像に変換することで、見切れのない切り出し画像を簡易に取得することができる。 For example, the image processing apparatus 100 obtains a still image in which the peripheral area around the imaging area of the moving image is captured by PTZ (pan, tilt, zoom) without moving the installation position of the same camera. It is converted into a planar image of the imaging position and held. When using a method called trapezoidal transformation, in which four vertices are specified and converted into a rectangle, the clipped image is converted from a still image in which the surrounding area is captured to a planar image at the shooting position of the moving image, so that it can be clipped without any breaks. Images can be acquired easily.

図2Aは、第1実施形態に係る画像処理装置の機能的な構成例を示すブロック図である。
図2Aに示す各機能ブロックのうち、ソフトウェアにより実現される機能については、各機能ブロックの機能を提供するためのプログラムがROM(Read Only Memory)等のメモリに記憶される。そして、そのプログラムをRAM(Random Access Memory)に読み出してCPU(Central Processing Unit)が実行することにより実現される。ハードウェアにより実現される機能については、例えば、所定のコンパイラを用いることで、各機能ブロックの機能を実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。FPGAとは、Field Programmable Gate Arrayの略である。また、FPGAと同様にしてゲートアレイ回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。なお、図2Aに示した機能ブロックの構成は一例であり、複数の機能ブロックが1つの機能ブロックを構成するようにしてもよいし、いずれかの機能ブロックが複数の機能を行うブロックに分かれてもよい。
2A is a block diagram illustrating a functional configuration example of the image processing apparatus according to the first embodiment; FIG.
Of the functional blocks shown in FIG. 2A, for functions realized by software, a program for providing the function of each functional block is stored in a memory such as a ROM (Read Only Memory). Then, the program is read into a RAM (Random Access Memory) and executed by a CPU (Central Processing Unit). For the functions realized by hardware, for example, by using a predetermined compiler, a dedicated circuit may be automatically generated on the FPGA from a program for realizing the function of each functional block. FPGA is an abbreviation for Field Programmable Gate Array. Also, a gate array circuit may be formed in the same manner as the FPGA and implemented as hardware. Also, it may be realized by an ASIC (Application Specific Integrated Circuit). Note that the configuration of the functional blocks shown in FIG. 2A is an example, and a plurality of functional blocks may constitute one functional block, or one of the functional blocks may be divided into blocks that perform a plurality of functions. good too.

図2Aにおいて、画像処理装置100は、周辺画像取得部211、画像変換部212、基準画像取得部213、画像解析部214、画像合成部215および画像切り出し部216を備える。 In FIG. 2A , the image processing apparatus 100 includes a peripheral image acquisition section 211 , an image conversion section 212 , a reference image acquisition section 213 , an image analysis section 214 , an image synthesis section 215 and an image clipping section 216 .

基準画像取得部213は、基準画像を取得する。基準画像は動画あってもよい。この基準画像は、広角カメラで撮像された俯瞰画像であってもよい。例えば、基準画像取得部213は、図2Bの撮像部221または不図示の外部装置から動画像を取得し、当該動画像に含まれる1フレームを基準画像としてもよい。また、基準画像取得部213は、図2Bの記憶部222から取得した各種パラメータ(各種設定)を利用して基準画像を生成する。 A reference image acquisition unit 213 acquires a reference image. The reference image may be a moving image. This reference image may be a bird's-eye view image captured by a wide-angle camera. For example, the reference image acquisition unit 213 may acquire a moving image from the imaging unit 221 in FIG. 2B or an external device (not shown), and use one frame included in the moving image as the reference image. Also, the reference image acquisition unit 213 generates a reference image using various parameters (various settings) acquired from the storage unit 222 in FIG. 2B.

周辺画像取得部211は、周辺画像を取得する。周辺画像は、基準画像の撮像領域の周辺の周辺領域が撮像された画像である。例えば、周辺画像取得部211は、図2Bの撮像部221または不図示の外部装置から静止画像を取得し、各フレームに対応する周辺画像を生成する。また、周辺画像取得部211は、図2Bの記憶部222から取得した各種パラメータ(各種設定)を利用して周辺画像を生成する。 The peripheral image acquisition unit 211 acquires peripheral images. The peripheral image is an image obtained by capturing a peripheral area around the imaging area of the reference image. For example, the peripheral image acquisition unit 211 acquires a still image from the imaging unit 221 in FIG. 2B or an external device (not shown), and generates a peripheral image corresponding to each frame. In addition, the surrounding image acquisition unit 211 generates a surrounding image using various parameters (various settings) acquired from the storage unit 222 in FIG. 2B.

画像変換部212は、周辺画像取得部211により生成された画像とその画像を取得する際の各種パラメータ(カメラの向きやズーム値など)に基づいて、周辺画像の変換を行う。このとき、画像変換部212は、基準画像の撮像時の画角が拡張されるように周辺画像を変換する。例えば、画像変換部212は、基準画像の撮像領域から周辺領域にはみ出した被写体が連続的に接続可能となるように周辺画像を変換することができる。ここで、画像変換部212は、基準画像の撮像方向と周辺画像の撮像方向とが異なるときに、周辺画像の撮像方向が基準画像の撮像方向に等しくなるように周辺画像を変換することができる。例えば、画像変換部212は、同一位置に置かれたカメラが異なるパン・チルト・ズーム値で撮像した場合の画像に変換する。画像変換部212は、変換によって生成した変換済み周辺画像を、記憶部222に保持する。 The image conversion unit 212 converts the peripheral image based on the image generated by the peripheral image acquisition unit 211 and various parameters (camera direction, zoom value, etc.) used when acquiring the image. At this time, the image conversion unit 212 converts the surrounding images so that the angle of view at the time of capturing the reference image is expanded. For example, the image conversion unit 212 can convert the peripheral image so that the subject protruding from the imaging area of the reference image into the peripheral area can be continuously connected. Here, when the imaging direction of the reference image and the imaging direction of the peripheral image are different, the image conversion unit 212 can convert the peripheral image so that the imaging direction of the peripheral image becomes equal to the imaging direction of the reference image. . For example, the image conversion unit 212 converts the images into images captured by cameras placed at the same position with different pan/tilt/zoom values. The image conversion unit 212 stores the converted peripheral image generated by the conversion in the storage unit 222 .

画像解析部214は、基準画像を解析し、合成画像から切り出される切り出し画像の切り出し位置を決定する。例えば、画像解析部214は、基準画像取得部213により取得された基準画像に対して、物体検出処理を行い、画像の切り出しを行う切り出し領域を抽出する。物体検出方法は、例えば、機械学習による方法でもよい。このとき、画像解析部214は、検出ターゲットとする物体の特徴を学習した識別機を生成し、画像データに対して適用することで物体を検出し、切り出し位置を決定することができる。画像解析部214は、基準画像取得部213より取得した基準画像と、その基準画像に対して抽出した切り出し領域に関する情報を、記憶部222に保持する。 The image analysis unit 214 analyzes the reference image and determines the clipping position of the clipped image that is clipped from the composite image. For example, the image analysis unit 214 performs object detection processing on the reference image acquired by the reference image acquisition unit 213, and extracts an image clipping region. The object detection method may be, for example, a method based on machine learning. At this time, the image analysis unit 214 can generate a classifier that has learned the features of the object to be detected, apply the classifier to the image data, detect the object, and determine the cutout position. The image analysis unit 214 retains in the storage unit 222 the reference image acquired from the reference image acquisition unit 213 and the information regarding the clipping region extracted from the reference image.

画像合成部215は、記憶部222に保持された変換済み周辺画像と、基準画像取得部213により取得された基準画像を合成し、合成画像を生成する。生成された合成画像は、画像切り出し部216に送られる。 The image synthesizing unit 215 synthesizes the converted peripheral image held in the storage unit 222 and the reference image obtained by the reference image obtaining unit 213 to generate a synthesized image. The generated composite image is sent to the image clipping unit 216 .

画像切り出し部216は、記憶部222に保持された切り出し領域に関する情報に基づいて、画像合成部215で生成された合成画像から疑似的なPTZ画像(以下、疑似PTZ画像と呼ぶ)を作成する。 The image clipping unit 216 creates a pseudo PTZ image (hereinafter referred to as a pseudo PTZ image) from the synthesized image generated by the image synthesizing unit 215 based on the information about the clipping area held in the storage unit 222 .

図2Bは、第1実施形態に係る画像処理装置のハードウェア構成例を示すブロック図である。
図2Bにおいて、画像処理装置100は、撮像部221、記憶部222、制御部223、通信部224およびアクセラレータ部225を備える。
FIG. 2B is a block diagram illustrating a hardware configuration example of the image processing apparatus according to the first embodiment;
In FIG. 2B, the image processing apparatus 100 includes an imaging unit 221, a storage unit 222, a control unit 223, a communication unit 224, and an accelerator unit 225.

撮像部221は、レンズを通して撮像素子の受光面上に結像した光を画素ごとに電荷に変換して、動画像を取得する。撮像部221は、例えば、ズームレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッタ、光学ローパスフィルタ、IR(Infrared Rays)カットフィルタ、カラーフィルタおよび撮像素子などを備える。撮像素子は、例えば、CMOS(Complementary Metal Oxide Semiconductor)またはCCD(Charge Coupled Device)などのイメージセンサであってもよい。 The imaging unit 221 acquires a moving image by converting the light imaged on the light receiving surface of the imaging element through the lens into an electric charge for each pixel. The imaging unit 221 includes, for example, a zoom lens, a focus lens, a blur correction lens, an aperture, a shutter, an optical low-pass filter, an IR (Infrared Rays) cut filter, a color filter, an imaging element, and the like. The imaging device may be, for example, an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device).

記憶部222は、画像処理装置100が各種動作を行うためのプログラムを記憶する。また、記憶部222は、通信部224を介してクライアント装置200等の外部装置から取得したデータ(コマンドおよび画像データ)および各種パラメータなどを記憶することができる。例えば、記憶部222は、撮像部221で取得された動画像に対するパン・チルト・ズームなどのカメラの向きおよび倍率に関連するパラメータや、カメラのホワイトバランスおよび露出などのカメラの設定に関連するパラメータを記憶する。また、記憶部222は、画像データのフレームレートおよび画像データのサイズ(解像度)を含む画像データに関するパラメータを記憶してもよい。また、記憶部222は、制御部223が各種の処理を実行する際に用いるワークエリアを提供することができる。さらに、記憶部222は、フレームメモリやバッファメモリとして機能することも可能である。 The storage unit 222 stores programs for the image processing apparatus 100 to perform various operations. The storage unit 222 can also store data (commands and image data) and various parameters acquired from an external device such as the client device 200 via the communication unit 224 . For example, the storage unit 222 stores parameters related to camera orientation and magnification such as pan/tilt/zoom for moving images acquired by the imaging unit 221, and parameters related to camera settings such as camera white balance and exposure. memorize The storage unit 222 may also store parameters related to image data, including the frame rate of image data and the size (resolution) of image data. Further, the storage unit 222 can provide a work area used when the control unit 223 executes various processes. Furthermore, the storage unit 222 can also function as a frame memory or a buffer memory.

記憶部222は、ROMおよびRAMの両方により構成されてもよいし、ROMおよびRAMのいずれか一方により構成されてもよい。また、記憶部222は、SSD(Solid State Drive)、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ、不揮発性のメモリカードまたはDVDなどの記憶媒体を用いてもよい。 Storage unit 222 may be configured with both ROM and RAM, or may be configured with either ROM or RAM. The storage unit 222 uses a storage medium such as an SSD (Solid State Drive), flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, non-volatile memory card, or DVD. good too.

制御部223は、記憶部222に記憶されたプログラムを実行することにより画像処理装置100全体を制御する。制御部223は、記憶部222に記憶されたプログラムとOS(Operating System)との協働により画像処理装置100全体を制御するようにしてもよい。 The control unit 223 controls the entire image processing apparatus 100 by executing programs stored in the storage unit 222 . The control unit 223 may control the entire image processing apparatus 100 in cooperation with the programs stored in the storage unit 222 and an OS (Operating System).

制御部223は、CPU(Central Processing Unit)であってもよいし、MPU(Micro Processing Unit)であってもよいし、GPU(Graphics Processing Unit)であってもよい。また、制御部223は、DSP(Digital Signal Processor)等のプロセッサやASIC(Application Specific Integrated Circuit)などを備えてもよい。。 The control unit 223 may be a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a GPU (Graphics Processing Unit). Further, the control unit 223 may include a processor such as a DSP (Digital Signal Processor) or an ASIC (Application Specific Integrated Circuit). .

通信部224は、図1のネットワーク300を介してクライアント装置200と通信するために、有線信号または無線信号の送受信を行う。 The communication unit 224 transmits and receives wired or wireless signals to communicate with the client device 200 via the network 300 of FIG.

アクセラレータ部225は、主にDeepLearningなどの機械学習による高性能処理を行うために、カメラに付加される処理部である。例えば、アクセラレータ部225は、画像解析部214の処理を受け持つようにしてもよい。アクセラレータ部225は、CPU、GPU、FPGAおよび記憶部などを備えることができる。 The accelerator unit 225 is a processing unit added to the camera mainly to perform high-performance processing based on machine learning such as Deep Learning. For example, the accelerator section 225 may take charge of the processing of the image analysis section 214 . The accelerator unit 225 can include a CPU, GPU, FPGA, storage unit, and the like.

なお、本実施形態では、アクセラレータ部225を含んだ画像処理装置100で画像解析処理を行う場合について示す。解析処理に関しては、これ以外にも、外部よりUSB(Universal Serial Bus)などで付加したアクセラレータ部で行ってもよい。また、GPUやFPGAを持つ専用装置へカメラから直接HDMI(High-Definition Multimedia Interface)またはSDI(Serial Digital Interface)などで映像を入力して解析してもよい。また、映像を一旦配信した後にPC(Personal Computer)などに保存して処理を行ってもよいし、カメラに付属のSDカードに録画した映像を、接続されていないPCで行ってもよい。 Note that the present embodiment shows a case where the image processing apparatus 100 including the accelerator unit 225 performs image analysis processing. In addition to this, the analysis processing may be performed by an accelerator unit added by USB (Universal Serial Bus) or the like from the outside. Alternatively, video may be input directly from a camera to a dedicated device having a GPU or FPGA via HDMI (High-Definition Multimedia Interface) or SDI (Serial Digital Interface) and analyzed. Also, once the video is distributed, it may be stored in a PC (Personal Computer) or the like and processed, or the video recorded in the SD card attached to the camera may be processed in a PC that is not connected.

なお、図2Aの画像処理装置100の機能構成は、図2Bのハードウェアにより実現してもよいし、ソフトウェアにより実現することも可能である。 Note that the functional configuration of the image processing apparatus 100 in FIG. 2A may be realized by the hardware shown in FIG. 2B, or may be realized by software.

以下、図2Aの画像処理装置100の動作について、スポーツ競技を対象として全体を俯瞰する画像を取得し、そこから動きのあるシーンを見切れなく切り出し可能な合成画像を作成する場合を例にとって説明する。 The operation of the image processing apparatus 100 shown in FIG. 2A will be described below by taking as an example a case of acquiring an overall bird's-eye view image of a sporting event and creating a composite image from which a moving scene can be cut out without interruption. .

図3Aは、基準画像として用いられる俯瞰画像の一例を示す図である。
図3Aにおいて、基準画像フレーム30は、バスケットを行う複数のプレイヤー310とバスケットコート320が俯瞰的に撮像されたシーンを含む。ここで、プレイヤー310が集まる領域に注目して切り出し画像を作成する際に切り出される領域の位置が切り出し領域330として設定されたものとする。
FIG. 3A is a diagram showing an example of a bird's-eye view image used as a reference image.
In FIG. 3A, the reference image frame 30 includes a scene in which a plurality of players 310 playing basketball and a basketball court 320 are captured from above. Here, it is assumed that the position of the area to be cut out when creating the cutout image is set as the cutout area 330 by paying attention to the area where the players 310 gather.

図3Bは、図3Aの切り出し領域から切り出された切り出し画像の一例を示す図である。
図3Bにおいて、図3Aの基準画像フレーム30に設定された切り出し領域330から切り出し画像フレーム31が生成されたものとする。切り出し画像フレーム31は、基準画像フレーム30上で指定された4頂点で囲まれる切り出し領域330を矩形に変換して生成することができる。このとき、切り出し領域330が基準画像フレーム30からはみ出している部分に関しては、画素のデータが得られないため、切り出し画像フレーム31では、画素値0の見切れ領域340、341となる。
FIG. 3B is a diagram showing an example of a clipped image clipped from the clipping region in FIG. 3A.
In FIG. 3B, it is assumed that a clipped image frame 31 is generated from a clipped region 330 set in the reference image frame 30 of FIG. 3A. The clipped image frame 31 can be generated by converting a clipped area 330 surrounded by four vertices specified on the reference image frame 30 into a rectangle. At this time, since pixel data cannot be obtained for a portion where the cutout region 330 protrudes from the reference image frame 30 , the cutout image frame 31 has closed regions 340 and 341 with a pixel value of 0. FIG.

画像処理装置100は、見切れ領域340、341の発生を防止するため、基準画像フレーム30の周辺領域が撮像された周辺画像を取得し、基準画像フレーム30と連続的につながるように周辺画像を画像変換した変換済み周辺画像を保持する。そして、画像処理装置100は、基準画像フレーム30を変換済み周辺画像で補完した合成画像を作成し、この合成画像から切り出しを行う。これにより、切り出し領域330が基準画像フレーム30からはみ出す場合においても、切り出し画像に見切れ領域340、341が発生するのを防止することができる。 The image processing apparatus 100 acquires a peripheral image in which the peripheral region of the reference image frame 30 is captured, and images the peripheral image so as to be continuously connected to the reference image frame 30 in order to prevent the occurrence of the cut-off regions 340 and 341 . Holds the transformed transformed surrounding image. Then, the image processing apparatus 100 creates a synthesized image by complementing the reference image frame 30 with the converted peripheral images, and cuts out from this synthesized image. As a result, even when the clipped region 330 protrudes from the reference image frame 30, it is possible to prevent the clipped regions 340 and 341 from occurring in the clipped image.

図4は、第1実施形態に係る画像処理装置の画像処理を示すフローチャートである。図5Aは、基準画像の周辺の周辺領域の一例を示す図、図5Bは、基準画像と変換画像を合成した合成画像の一例を示す図である。図6Aは、合成画像に設定された切り出し領域の一例を示す図、図6Bは、図6Aの切り出し領域から切り出された切り出し画像の一例を示す図である。 FIG. 4 is a flow chart showing image processing of the image processing apparatus according to the first embodiment. FIG. 5A is a diagram showing an example of a peripheral area around a reference image, and FIG. 5B is a diagram showing an example of a synthesized image obtained by synthesizing the reference image and the converted image. FIG. 6A is a diagram showing an example of a cutout region set in a composite image, and FIG. 6B is a diagram showing an example of a cutout image cut out from the cutout region of FIG. 6A.

なお、図4の各ステップは、図2Bの記憶部222に記憶されたプログラムを制御部223が読み出し、実行することで実現される。また、図4に示すフローチャートの少なくとも一部をハードウェアにより実現してもよい。ハードウェアにより実現する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。また、FPGAと同様にしてGate Array回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASICにより実現するようにしてもよい。
この場合、図4に示すフローチャートにおける各ブロックは、ハードウェアブロックと見做すことができる。なお、複数のブロックをまとめて1つのハードウェアブロックとして構成してもよく、1つのブロックを複数のハードウェアブロックとして構成してもよい。
Note that each step in FIG. 4 is implemented by the control unit 223 reading and executing the program stored in the storage unit 222 in FIG. 2B. Also, at least part of the flowchart shown in FIG. 4 may be realized by hardware. When implemented by hardware, for example, by using a predetermined compiler, a dedicated circuit may be automatically generated on an FPGA from a program for implementing each step. Also, a Gate Array circuit may be formed in the same manner as the FPGA and implemented as hardware. Also, it may be realized by an ASIC.
In this case, each block in the flowchart shown in FIG. 4 can be regarded as a hardware block. A plurality of blocks may be collectively configured as one hardware block, or one block may be configured as a plurality of hardware blocks.

図4の処理は、図2Bの制御部223が記憶部222に記憶されている制御プログラムを実行し、情報の演算、加工および各ハードウェアの制御を実行することにより実現される。また、機械学習による処理を高速に行うために、アクセラレータ部225でも処理を行う。 The processing in FIG. 4 is realized by executing the control program stored in the storage unit 222 by the control unit 223 in FIG. 2B to perform calculation and processing of information and control of each hardware. In addition, the accelerator unit 225 also performs processing in order to perform processing by machine learning at high speed.

図4のステップS41において、周辺画像取得部211および基準画像取得部213は、画像データを生成するために必要な設定を取得する。例えば、周辺画像取得部211および基準画像取得部213は、画像を撮像する撮像部221に関するパラメータを記憶部222から取得する。撮像部221に関するパラメータは、カメラの設置位置、向き、画角、レンズの焦点距離、フレームレートおよび画像データのサイズ(解像度)を含む。例えば、画像データのサイズは1920×1080画素、フレームレートは30fpsとすることができる。 In step S41 of FIG. 4, the peripheral image acquisition unit 211 and the reference image acquisition unit 213 acquire settings necessary for generating image data. For example, the peripheral image acquisition unit 211 and the reference image acquisition unit 213 acquire parameters related to the imaging unit 221 that captures images from the storage unit 222 . Parameters related to the imaging unit 221 include the installation position, orientation, angle of view, focal length of the lens, frame rate, and image data size (resolution) of the camera. For example, the image data size can be 1920×1080 pixels and the frame rate can be 30 fps.

次に、ステップS42において、周辺画像取得部211は、ステップS41で取得した各種設定の示す基準位置に対して、その周辺領域の撮像を指示し、周辺領域に対応した画像データを取得する。周辺領域は、例えば、図5Aに示すように、図3Aの基準画像フレーム30の撮像領域の周辺の領域50A~50Dである。周辺領域は、基準位置で撮像した画像の補間に用いる領域であり、重要な動体要素を含まない領域が中心になる。そのため、例えば、バスケットの試合が行われている時には、図3Aに示すように、基準位置でプレイヤーおよびボールの動きを撮像するのに対して、試合開始前の未だコートにプレイヤーなどがいない状態の時に周辺領域の撮像を行うようにしてもよい。 Next, in step S42, the peripheral image acquiring unit 211 instructs imaging of the peripheral area with respect to the reference position indicated by the various settings acquired in step S41, and acquires image data corresponding to the peripheral area. The peripheral areas are, for example, areas 50A to 50D around the imaging area of the reference image frame 30 in FIG. 3A, as shown in FIG. 5A. The peripheral area is an area used for interpolation of the image captured at the reference position, and is centered around an area that does not contain important moving object elements. For this reason, for example, when a basketball game is being played, as shown in FIG. 3A, the movement of the player and the ball is imaged at the reference position, whereas the image is captured before the start of the game when there are no players on the court. The surrounding area may be imaged from time to time.

しかし、周辺領域の撮像を行うタイミングは試合開始前に限らず、任意に選択することが可能である。例えば、試合の合間の休憩時間に撮像を行って最新の画像に更新するようにしてもよい。特に、時間の変化に応じて照明などに変化が生じた場合にのみ、休憩時間に撮像を行って更新してもよい。また、周辺領域の撮像を行うタイミングは、周辺画像を撮像する撮像部221のパラメータの変更後であってもよい。また、周辺画像取得部211は、カメラが固定位置に設置されている場合には、露出などのカメラパラメータに応じて複数の条件で撮像された周辺画像を保持し、基準画像と最も近い撮像条件で撮像された周辺画像を選択してもよい。 However, the timing of imaging the surrounding area is not limited to before the start of the game, and can be arbitrarily selected. For example, an image may be captured during a break between matches and updated to the latest image. In particular, only when there is a change in lighting or the like over time, the image may be captured and updated during the rest period. Also, the timing of capturing the image of the peripheral area may be after changing the parameters of the imaging unit 221 that captures the peripheral image. In addition, when the camera is installed at a fixed position, the peripheral image acquisition unit 211 holds peripheral images captured under a plurality of conditions according to camera parameters such as exposure. You may select the surrounding image imaged by .

ここで、周辺領域に対応する画像データを取得するには、複数の方法がある。例えば、カメラまたは雲台を回転させて、左右または上下にカメラの向きを変えて撮像してもよいし、ズームを変更して、基準位置よりも広い範囲を撮像してもよい。周辺画像取得部211は、こうして撮像された周辺領域に対応する1枚または複数の画像フレームを生成し、記憶部222に保存する。 Here, there are multiple methods for acquiring image data corresponding to the peripheral area. For example, the camera or pan head may be rotated to change the orientation of the camera left and right or up and down to capture an image, or the zoom may be changed to capture a wider range than the reference position. The peripheral image acquisition unit 211 generates one or more image frames corresponding to the peripheral area captured in this way, and stores them in the storage unit 222 .

次に、ステップS43において、画像変換部212は、ステップS42で取得した周辺領域の画像フレームから、基準画像フレームに連続的に接続可能な変換済み周辺画像を生成する。ここで、基準画像の第1撮像方向と周辺画像の第2撮像方向とが異なるものとする。このとき、画像変換部212は、第2撮像方向から撮像された周辺画像の平面座標を球面座標上にマッピングし、球面座標上にマッピングされた周辺画像の平面座標を、第1撮像方向から撮像された基準画像の平面座標上にマッピングしてもよい。 Next, in step S43, the image conversion unit 212 generates a converted peripheral image that can be continuously connected to the reference image frame from the image frames of the peripheral region acquired in step S42. Here, it is assumed that the first imaging direction of the reference image and the second imaging direction of the peripheral images are different. At this time, the image conversion unit 212 maps the plane coordinates of the peripheral image captured from the second imaging direction onto the spherical coordinates, and captures the plane coordinates of the peripheral image mapped onto the spherical coordinates from the first imaging direction. may be mapped onto the plane coordinates of the reference image.

次に、ステップS44において、基準画像取得部213は、ステップS41で取得した各種設定に基づいて基準画像の撮像を指示し、基準画像フレーム30を生成する。 Next, in step S44, the reference image obtaining unit 213 instructs the imaging of the reference image based on the various settings obtained in step S41, and generates the reference image frame 30. FIG.

次に、ステップS45において、画像解析部214は、ステップS44で取得した基準画像フレームに対して物体検出処理を行い、ターゲットとなる物体を検出する。例えば、画像解析部214は、図3Aの基準画像フレーム30において、検出ターゲットをプレイヤー310とボールとすることができる。 Next, in step S45, the image analysis unit 214 performs object detection processing on the reference image frame acquired in step S44 to detect a target object. For example, the image analyzer 214 may set the detection targets to be the player 310 and the ball in the reference image frame 30 of FIG. 3A.

画像解析による物体の検出方法としては、高い精度でリアルタイム処理を図るために、機械学習、特にDeepLearningをベースとした方法を用いることができる。具体的には、画像解析による物体の検出方法として、YOLO(You Only Look Once)およびSSD(Single Shot Multibox Detector)などが挙げられる。SSDは、複数の物体が写っている画像からそれぞれの物体を検出する方法の一つである。 As a method of detecting an object by image analysis, a method based on machine learning, particularly Deep Learning, can be used in order to achieve highly accurate real-time processing. Specifically, YOLO (You Only Look Once), SSD (Single Shot Multibox Detector), and the like are examples of object detection methods based on image analysis. SSD is one of methods for detecting each object from an image in which a plurality of objects are shown.

SSDを用いてプレイヤー310とボールを検出する識別機を構築するために、複数の映像から人体が写っている画像を集めて学習用データとして準備する。具体的には、映像中の人体およびボールの領域を抽出し、当該領域の中心位置の座標と当該領域の大きさを記載したファイルを作成する。このようにして準備した学習データを学習し、人体およびボールを検出する識別機を構築する。 In order to construct an identifier that detects the player 310 and the ball using an SSD, images showing human bodies are collected from a plurality of videos and prepared as learning data. Specifically, the regions of the human body and the ball in the video are extracted, and a file is created in which the coordinates of the center position of the region and the size of the region are described. The training data prepared in this way is learned, and a discriminator for detecting a human body and a ball is constructed.

生成した識別機を用いて人体およびボールを検出すると、検出した領域の位置を示す情報とその大きさを取得する。領域の位置を示す情報は、フレームの左上を原点とする座標として、検出領域の中心位置とその矩形の大きさ(幅と高さ)が、画像の大きさに対する割合として示される。こうして取得した検出領域の位置と大きさは、フレーム内に複数の人物が検出される場合もあるので、リストとして取得される。 When the human body and the ball are detected using the generated classifier, information indicating the position of the detected area and its size are obtained. The information indicating the position of the area indicates the center position of the detection area and its rectangular size (width and height) as a ratio to the size of the image, using coordinates with the upper left corner of the frame as the origin. The positions and sizes of the detection areas thus acquired are acquired as a list, since multiple persons may be detected within the frame.

次に、画像解析部214は、取得したプレイヤー310とボールの検出結果に基づいて、切り出し領域330を求める。具体的には、プレイヤー310とボールの検出位置の重心を求めて、その重心を切り出し領域330の中心とする。ここで、切り出し領域の中心を求める方法には複数の方法がある。例えば、画像解析部214は、プレイヤー310とボールを同じ重みとして重心を算出してもよいし、プレイヤー310のみの重心を算出してもよい。 Next, the image analysis unit 214 obtains a cutout area 330 based on the acquired detection results of the player 310 and the ball. Specifically, the center of gravity of the detected positions of the player 310 and the ball is obtained, and the center of the cutout area 330 is set as the center of gravity. Here, there are a plurality of methods for obtaining the center of the cutout region. For example, the image analysis unit 214 may calculate the center of gravity of the player 310 and the ball with the same weight, or may calculate the center of gravity of the player 310 only.

次に、画像解析部214は、切り出し領域330の4頂点を算出する。切り出し領域330は、上記で求めた切り出し領域330の中心に第二のカメラ(俯瞰カメラと同じ位置に置かれた画角の小さいカメラ)を向けた場合の撮像領域を考える。このとき、切り出しにより第二のカメラによってPTZが行われた疑似PTZ画像が生成される。 Next, the image analysis unit 214 calculates the 4 vertices of the cutout region 330 . The cropping area 330 is an imaging area when a second camera (a camera with a small angle of view placed at the same position as the bird's-eye camera) is directed to the center of the cropping area 330 obtained above. At this time, a pseudo PTZ image is generated by clipping and performing PTZ with the second camera.

次に、ステップS46において、画像合成部215は、ステップS43で生成された変換済み周辺画像と、ステップS44で取得した基準画像フレームを合成し、疑似的に超広角化された合成画像52を生成する。ステップS43で生成された変換済み周辺画像は、既に基準画像フレームと連続的に接続可能なように変換された画像である。このため、画像合成部215は、ステップS44で取得された基準画像を変換済み周辺画像に埋め込んで合成画像52を生成することができる。さらに、画像合成部215は、基準画像上の座標値を合成画像像の座標に変換するパラメータを求める。このパラメータは、変換済み周辺画像の大きさに応じて、x方向およびz方向への平行移動として保持される。そして、画像合成部215は、生成した合成画像52を記憶部222に保存する。 Next, in step S46, the image synthesizing unit 215 synthesizes the converted peripheral image generated in step S43 and the reference image frame obtained in step S44 to generate a synthetic image 52 with a pseudo super-wide angle. do. The transformed peripheral image generated in step S43 is an image that has already been transformed so as to be continuously connectable with the reference image frame. Therefore, the image synthesizing unit 215 can generate the synthetic image 52 by embedding the reference image acquired in step S44 in the transformed peripheral image. Furthermore, the image synthesizing unit 215 obtains parameters for converting the coordinate values on the reference image into the coordinates of the synthetic image. This parameter is preserved as a translation in the x and z directions, depending on the size of the transformed surrounding image. Then, the image synthesizing unit 215 saves the generated synthetic image 52 in the storage unit 222 .

例えば、画像合成部215は、図5Bに示すように、基準画像フレーム30の周囲に、ステップS43で取得した変換済み周辺画像51A~51Dを補完することで、合成画像52を生成する。 For example, as shown in FIG. 5B, the image synthesizing unit 215 generates a synthesized image 52 by interpolating around the reference image frame 30 with the transformed surrounding images 51A to 51D acquired in step S43.

次に、ステップS47において、画像切り出し部216は、ステップS45で取得した切り出し領域330の4頂点の位置から、ステップS46で作成した合成画像52に対して台形変換を行い、図6Bに示すように、切り出し画像フレーム33を作成する。ここで、画像切り出し部216は、必要に応じて、切り出し領域330の4頂点の座標を、ステップ43で取得された平行移動のパラメータにより変換し、合成画像52上の座標に変換する。 Next, in step S47, the image clipping unit 216 performs trapezoidal transformation on the synthesized image 52 created in step S46 from the positions of the four vertices of the clipped region 330 obtained in step S45, and obtains a shape as shown in FIG. 6B. , to create a cropped image frame 33 . Here, the image clipping unit 216 converts the coordinates of the four vertices of the clipping region 330 into coordinates on the composite image 52 by using the translation parameters obtained in step 43 as necessary.

次に、ステップS48において、制御部223は、切り出し処理を行う画像データがあるか否かを判定する。制御部223は、切り出し処理を行う画像データがあれば(ステップS48のYes)、処理をステップS44に戻し、次の画像データに対する処理を継続する。制御部223は、切り出し処理を行う画像データがなければ(ステップS48のNo)、処理を終了する。 Next, in step S48, the control unit 223 determines whether or not there is image data to be clipped. If there is image data to be clipped (Yes in step S48), the control unit 223 returns the process to step S44 and continues the process for the next image data. If there is no image data to be clipped (No in step S48), the control unit 223 ends the process.

図7は、第1実施形態に係る画像処理装置の画像変換処理を説明する図である。
図7(A)において、画像変換処理では、俯瞰カメラで撮像した基準画像フレーム30に対して、カメラ101の位置Oを原点とした球面座標が設定される。基準画像フレーム30の中心をR、中心Rから上方をz座標、右方向をx座標とすると、基準画像フレーム30上の画素位置は、カメラ101の位置Oから見た球面座標上に1対1にマッピングすることができる。基準画像フレーム30上の座標Q(x、y、z)は、カメラ101の位置Oを原点とした半径rの球面60上の座標P(xp、yp、zp)に対応づけられる。
FIG. 7 is a diagram for explaining image conversion processing of the image processing apparatus according to the first embodiment.
In FIG. 7A, in the image conversion process, spherical coordinates are set with the position O of the camera 101 as the origin for the reference image frame 30 captured by the bird's-eye view camera. Assuming that the center of the reference image frame 30 is R, the upper direction from the center R is the z coordinate, and the right direction is the x coordinate, the pixel positions on the reference image frame 30 are on the spherical coordinates seen from the position O of the camera 101 one to one. can be mapped to Coordinates Q (x, y, z) on reference image frame 30 are associated with coordinates P (xp, yp, zp) on spherical surface 60 of radius r with position O of camera 101 as the origin.

ここで、球面座標(r、θ、φ)は、図7(B)で示したように定義する。このとき、基準画像フレーム30上の座標Q(x、y、z)を球面座標で表した場合、以下の(1)式で与えることができる。 Here, the spherical coordinates (r, θ, φ) are defined as shown in FIG. 7(B). At this time, when coordinates Q (x, y, z) on the reference image frame 30 are represented by spherical coordinates, they can be given by the following equation (1).

Figure 2023042257000002
Figure 2023042257000002

カメラ101の位置Oを原点とした半径rの球面60上の座標P(xp,yp,zp)は、以下の(2)式で与えることができる。 A coordinate P (xp, yp, zp) on the spherical surface 60 having a radius r with the position O of the camera 101 as the origin can be given by the following equation (2).

Figure 2023042257000003
Figure 2023042257000003

次に、基準画像フレーム30の周辺領域を撮像するために、図7(C)に示すように、カメラ101の向きを変化させる。この時撮像された周辺画像フレーム51の中心はR’に移動し、周辺画像フレーム51上の点Tは球面60上の点Sに対応づけられる。このように、基準画像フレーム30の周辺領域を撮像した周辺画像フレーム51の情報を球面60上にマッピングすることで、(1)式を再度用いて、中心Rの基準画像フレーム30を拡張した領域に対応づけることができる。 Next, in order to image the surrounding area of the reference image frame 30, the orientation of the camera 101 is changed as shown in FIG. 7(C). At this time, the center of the captured peripheral image frame 51 moves to R′, and the point T on the peripheral image frame 51 is associated with the point S on the spherical surface 60 . In this way, by mapping the information of the surrounding image frame 51 obtained by imaging the surrounding area of the reference image frame 30 onto the spherical surface 60, the area obtained by extending the reference image frame 30 at the center R can be obtained by using the equation (1) again. can be associated with

画像変換部212は、基準画像フレーム30の周辺領域を撮像した周辺画像フレーム51から、画像変換により、基準画像フレーム30に連続的に接続可能な変換済み周辺画像を生成する。さらに、画像変換部212は、基準画像フレーム30上の座標値を変換するためのパラメータを算出する。具体的には、変換済み周辺画像の大きさ(基準画像の左および上に追加されるピクセル数)を保持し、画像の左上を基準として指定する際に平行移動する値として画素位置を保持する。このようにして、画像変換部212は、生成した変換済み周辺画像と平行移動のパラメータを記憶部222に保存する。 The image conversion unit 212 generates a converted peripheral image that can be continuously connected to the reference image frame 30 by image conversion from the peripheral image frame 51 obtained by imaging the peripheral area of the reference image frame 30 . Furthermore, the image conversion unit 212 calculates parameters for converting coordinate values on the reference image frame 30 . Specifically, it holds the size of the transformed surrounding image (the number of pixels added to the left and top of the reference image), and holds the pixel position as a value to translate when specifying the top left of the image as the reference. . In this manner, the image transforming unit 212 stores the generated transformed peripheral image and the translation parameter in the storage unit 222 .

画像切り出し部216は、図7(D)に示すように、切り出しにより疑似PTZ画像を生成する。具体的には、画像切り出し部216は、基準画像フレーム30上で求めた切り出し領域330の中心座標を、図4のステップS43で示した画像変換により、球面座標上の点U(θc,φc)に変換する。そして、画像切り出し部216は、点Uを中心として、切り出したい大きさの水平画角を2Δθ、垂直画角を2Δφとして、以下の(3)式に示すように、球面60上の切り出し領域61の4頂点(F1、F2、F3、F4)を取得する。 The image clipping unit 216 generates a pseudo PTZ image by clipping, as shown in FIG. 7(D). Specifically, the image clipping unit 216 converts the central coordinates of the clipped region 330 obtained on the reference image frame 30 to a point U (θc, φc) on the spherical coordinates by the image conversion shown in step S43 in FIG. Convert to Then, the image clipping unit 216 sets the horizontal angle of view of the size to be clipped to 2Δθ and the vertical angle of view to 2Δφ with the point U as the center, and the clipping region 61 on the spherical surface 60 as shown in the following equation (3). 4 vertices (F1, F2, F3, F4).

Figure 2023042257000004
Figure 2023042257000004

そして、画像切り出し部216は、球面60上で取得した切り出し領域61の4頂点(F1、F2、F3、F4)を、(1)式を再度用いて基準画像フレーム30上の座標に変換し、切り出し領域330の4頂点として取得する。画像切り出し部216は、取得した切り出し領域330の4頂点の座標を、記憶部222に保存する。 Then, the image clipping unit 216 converts the four vertices (F1, F2, F3, F4) of the clipped region 61 acquired on the spherical surface 60 to the coordinates on the reference image frame 30 using the equation (1) again, Obtained as the four vertices of the clipped region 330 . The image clipping unit 216 saves the acquired coordinates of the four vertices of the clipping region 330 in the storage unit 222 .

以上説明したように、上述した第1実施形態によれば、画像処理装置100は、動画として撮像を行う画像(基準画像フレーム)から切り出し画像フレーム(疑似PTZ画像)を作成する際に、基準画像フレームの周辺領域を予め撮像する。そして、画像処理装置100は、予め撮像した周辺領域の画像を基準画像フレームと連続的につながるように画像変換した変換済み周辺画像として保持し、基準画像フレームの周囲に合成して合成画像52を作成する。画像処理装置100は、合成画像52から切り出し画像フレーム33を作成することで、図3Aの切り出し領域330を変更することなく、図3Bの見きれ領域340、341の発生を防止することができる。 As described above, according to the first embodiment described above, the image processing apparatus 100 generates a clipped image frame (pseudo PTZ image) from an image (reference image frame) to be captured as a moving image. The surrounding area of the frame is imaged in advance. Then, the image processing apparatus 100 holds an image of the peripheral area captured in advance as a transformed peripheral image that has been image-transformed so as to be continuously connected to the reference image frame, and combines it around the reference image frame to create a synthesized image 52 . create. By creating the cropped image frame 33 from the composite image 52, the image processing apparatus 100 can prevent the out-of-sight areas 340 and 341 in FIG. 3B without changing the cropped area 330 in FIG. 3A.

<第2実施形態>
第1実施形態では、疑似PTZ画像を作成する際に、図3Bの見きれ領域340、341を生じないように、基準画像フレーム30に連続的に接続されるように画像変換した変換済み周辺画像を用いて補完する方法について説明した。
このとき、どの程度まで周辺領域を撮像すれば十分であるかをユーザに分かり易く提示できるようにするのが好ましい。また、変換済み周辺画像が静止画で取得されると、補完領域は過去の静止画になる。図3Aの基準画像フレーム30の上方の体育館の壁などであれば静止画でも違和感はないが、左右下方などはバスケットコート320が含まれており、静止画で置き換えない方がよい場合もある。
<Second embodiment>
In the first embodiment, when creating a pseudo PTZ image, the transformed peripheral images are image-transformed so as to be continuously connected to the reference image frame 30 so as not to cause the out-of-view areas 340 and 341 in FIG. 3B. I explained how to complement using .
At this time, it is preferable to present to the user in an easy-to-understand manner how much of the surrounding area should be imaged. Also, when the converted peripheral image is obtained as a still image, the complementary region becomes a past still image. A still image of the wall of the gymnasium above the reference image frame 30 in FIG. 3A does not cause a sense of incongruity.

第2実施形態では、変換済み周辺画像を取得した後、基準画像と変換済み周辺画像を表示し、動画撮像の範囲などのパラメータを設定する。具体的には、画像処理装置100は、補完領域によるパン・チルト可能範囲の変化や、ズームした場合の基準画像領域の変化などを示すことで、疑似PTZ画像の生成に関するパラメータ設定を補助する。
なお、第2実施形態では、第1実施形態と同様な部分については同一符号を付し、詳細な説明を省略する。
In the second embodiment, after acquiring the transformed peripheral image, the reference image and the transformed peripheral image are displayed, and parameters such as the moving image capturing range are set. Specifically, the image processing apparatus 100 assists the setting of parameters related to the generation of the pseudo PTZ image by indicating changes in the pan/tilt possible range due to the complementary area, changes in the reference image area when zoomed, and the like.
In addition, in 2nd Embodiment, the same code|symbol is attached|subjected about the part similar to 1st Embodiment, and detailed description is abbreviate|omitted.

図8Aは、第2実施形態に係る画像処理装置の機能的な構成例を示すブロック図である。
図8Aにおいて、画像処理装置101は、図2Aの画像処理装置100の画像切り出し部216の代わりに設定値取得部716を備える。それ以外については、画像処理装置101は、画像処理装置100と同様に構成することができる。
FIG. 8A is a block diagram showing a functional configuration example of an image processing apparatus according to the second embodiment.
In FIG. 8A, the image processing apparatus 101 includes a setting value acquisition unit 716 instead of the image clipping unit 216 of the image processing apparatus 100 in FIG. 2A. Otherwise, the image processing apparatus 101 can be configured in the same manner as the image processing apparatus 100 .

設定値取得部716は、合成画像の表示画面上で表示される設定を取得する。設定は、合成画像から切り出される切り出し画像の境界、あるいはズーム、パンまたはチルトに基づく基準画像の位置である。設定は、合成画像の動体領域の範囲、動体領域に対する処理であってもよい。動体領域に対する処理は、合成画像から切り出される切り出し画像に含まれる変換画像の強調処理である。動画と静止画の組み合わせ方に関する設定を行うことも可能である。例えば、設定値取得部716は、画像合成部215によって作成された合成画像を、図8BのGUI部726に表示する。そして、設定値取得部716は、ユーザ入力に基づいて、疑似PTZ画像を作成するために必要な設定パラメータを取得する。 The setting value acquisition unit 716 acquires settings displayed on the display screen of the composite image. The settings are the boundaries of the cropped image that is cropped from the composite image, or the position of the reference image based on zoom, pan or tilt. The setting may be the range of the moving object area of the synthesized image, or processing for the moving object area. The processing for the moving object region is enhancement processing of the transformed image included in the clipped image clipped from the composite image. It is also possible to set how to combine moving images and still images. For example, the setting value obtaining unit 716 displays the synthesized image created by the image synthesizing unit 215 on the GUI unit 726 in FIG. 8B. Then, the setting value acquisition unit 716 acquires setting parameters necessary for creating a pseudo PTZ image based on user input.

図8Bは、第2実施形態に係る画像処理装置のハードウェア構成例を示すブロック図である。
図8Bにおいて、画像処理装置101は、図2Bの画像処理装置100にGUI(Graphical User Interface)部726が追加されている。それ以外については、画像処理装置101は、画像処理装置100と同様に構成することができる。GUI部726は、合成画像を表示したり、ユーザからの入力をインターラクティブに取得したりするGUIを示す。
FIG. 8B is a block diagram illustrating a hardware configuration example of an image processing apparatus according to the second embodiment;
In FIG. 8B, the image processing apparatus 101 has a GUI (Graphical User Interface) unit 726 added to the image processing apparatus 100 in FIG. 2B. Otherwise, the image processing apparatus 101 can be configured in the same manner as the image processing apparatus 100 . A GUI unit 726 indicates a GUI for displaying a synthesized image and interactively obtaining input from the user.

図9は、第2実施形態に係る画像処理装置の画像処理を示すフローチャートである。
図9の処理は、図8Bの制御部223が記憶部222に記憶されている制御プログラムを実行し、情報の演算、加工および各ハードウェアの制御を実行することにより実現される。なお、ステップS85、S86以外の処理は、図4の処理と同様のため、説明を省略する。
FIG. 9 is a flow chart showing image processing of the image processing apparatus according to the second embodiment.
The processing in FIG. 9 is realized by executing the control program stored in the storage unit 222 by the control unit 223 in FIG. 8B to perform calculation and processing of information and control of each hardware. Note that the processing other than steps S85 and S86 is the same as the processing in FIG. 4, so description thereof will be omitted.

ステップS85において、図8Aの画像合成部215は、ステップS43で生成された変換済み周辺画像と、ステップS44で取得した基準画像フレームを合成し、疑似的に超広角化された合成画像52を生成する。そして、制御部223は、画像合成部215で作成された合成画像を、GUI部726を通じてユーザに提示する。 In step S85, the image synthesizing unit 215 in FIG. 8A synthesizes the converted peripheral image generated in step S43 and the reference image frame obtained in step S44 to generate a synthetic image 52 with a pseudo super-wide angle. do. Then, the control unit 223 presents the synthesized image created by the image synthesizing unit 215 to the user through the GUI unit 726 .

次に、ステップS86において、設定値取得部716は、合成画像に対するユーザの設定値を取得し、疑似PTZ画像作成のために必要な設定パラメータを取得する。 Next, in step S86, the setting value acquisition unit 716 acquires the user's setting values for the synthesized image, and acquires the setting parameters necessary for creating the pseudo PTZ image.

図10Aは、第2実施形態に係る切り出し領域の境界の設定例を示す図である。
図10Aにおいて、設定パラメータとしては、例えば、切り出し領域330がとりうる範囲の左右の境界910を合成画像53上で設定することができる。また、図中に示されてないが、切り出し領域330がとりうる範囲の上下の境界も合成画像53上で設定することが可能である。合成画像53は、試合開始前の未だバスケットコート320にプレイヤー310などがいない状態のシーンであってもよい。このとき、合成画像53では、図5Bの合成画像52の基準画像フレーム30の代わりに図5Aの基準画像フレーム32を用いることができる。
FIG. 10A is a diagram illustrating a setting example of boundaries of clipping regions according to the second embodiment.
In FIG. 10A, as setting parameters, for example, the left and right boundaries 910 of the range that the cutout region 330 can take can be set on the synthesized image 53 . Also, although not shown in the figure, upper and lower boundaries of the range that the clipping area 330 can take can also be set on the synthesized image 53 . The composite image 53 may be a scene in which the player 310 and the like are not yet on the basketball court 320 before the start of the match. At this time, in the synthesized image 53, the reference image frame 32 of FIG. 5A can be used instead of the reference image frame 30 of the synthesized image 52 of FIG. 5B.

図10Bは、第2実施形態に係るズーム時の基準画像の位置の提示例を示す図である。
図10Bにおいて、設定パラメータとして、例えば、ズームによって基準画像の画角を変更した場合の位置920を示すことができる。設定パラメータとして、パンまたはチルトによって基準画像を移動させた場合の位置も示すことができる。
FIG. 10B is a diagram showing a presentation example of the position of the reference image during zooming according to the second embodiment.
In FIG. 10B, as a setting parameter, for example, a position 920 when the angle of view of the reference image is changed by zooming can be shown. As a setting parameter, the position when the reference image is moved by panning or tilting can also be indicated.

図11は、第2実施形態に係る動体領域の設定例を示す図である。
図11において、動体の存在が期待される動体領域321を合成画像53上で設定し、設定値取得部716は、その設定を取得することができる。合成画像53では、俯瞰カメラで撮像されたバスケットコート320の画像を含むが、バスケットコート320の左右の下部で画角内に含まれない領域が生じている。このような領域を過去の静止画から生成された変換済み周辺画像で置き換えると、その領域にプレイヤーが入った場合、プレイヤーが消えるようになる。このような状況を防ぐために、変換済み周辺画像で動体領域321内を置き換える場合には、着色するなど強調表示してユーザに注意喚起することができる。もしくは、プレイヤーの動体追尾を行い、プレイヤーが消えるように見える領域内にプレイヤーが入っていると予測される場合と、予測されない場合で、処理を変えることもできる。このような処理の変更に関する選択をユーザが行うことを可能にする。
FIG. 11 is a diagram showing a setting example of a moving object area according to the second embodiment.
In FIG. 11, a moving body region 321 in which the presence of a moving body is expected is set on the synthesized image 53, and the set value acquisition unit 716 can acquire the setting. The composite image 53 includes the image of the basketball court 320 captured by the bird's-eye camera, but there are regions in the lower left and right sides of the basketball court 320 that are not included in the angle of view. Replacing such an area with a transformed surrounding image generated from a past still image will cause the player to disappear when the player enters the area. In order to prevent such a situation, when the inside of the moving object region 321 is replaced with the converted peripheral image, it is possible to draw the user's attention by highlighting, for example, by coloring. Alternatively, it is possible to track the moving object of the player and change the processing depending on whether or not it is predicted that the player is in an area where the player appears to disappear. Allowing the user to make choices regarding such processing changes.

以上説明したように、上述した第2実施形態によれば、画像処理装置100は、基準画像と変換済み周辺画像から疑似PTZ画像を作成する際の設定パラメータを、ユーザが指定しやすいようにGUIに提示する。これにより、画像処理装置100は、ユーザが求める形で疑似PTZ画像を作成することができる。 As described above, according to the above-described second embodiment, the image processing apparatus 100 provides a GUI so that the user can easily specify setting parameters for creating a pseudo PTZ image from a reference image and transformed peripheral images. presented to Thereby, the image processing apparatus 100 can create a pseudo PTZ image in a form desired by the user.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを1つ以上のプロセッサが読出して実行する処理でも実現可能である。プログラムは、ネットワーク又は記憶媒体を介して、プロセッサを有するシステム又は装置に供給するようにしてもよい。また、本発明は、上述の実施形態の1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention can also be implemented by processing in which one or more processors read and execute a program that implements one or more functions of the above-described embodiments. The program may be supplied to a system or device having a processor via a network or storage medium. The invention can also be implemented in a circuit (eg, an ASIC) that implements one or more of the functions of the embodiments described above.

10 画像処理システム、100 画像処理装置、200 クライアント装置、300 ネットワーク 10 image processing system, 100 image processing device, 200 client device, 300 network

Claims (13)

基準画像を取得する第1取得手段と、
前記基準画像の撮像領域の周辺の周辺領域が撮像された周辺画像を取得する第2取得手段と、
前記基準画像の撮像時の画角が拡張されるように前記周辺画像を変換する変換手段と、
前記周辺画像から変換された変換画像と前記基準画像とを合成した合成画像を生成する合成手段と、
を備えることを特徴とする画像処理装置。
a first acquisition means for acquiring a reference image;
a second acquiring means for acquiring a peripheral image in which a peripheral area around the imaging area of the reference image is captured;
conversion means for converting the peripheral image so as to expand the angle of view when the reference image is captured;
synthesizing means for generating a synthetic image by synthesizing the transformed image transformed from the peripheral image and the reference image;
An image processing device comprising:
前記変換手段は、前記撮像領域から前記周辺領域にはみ出した被写体が連続的に接続可能となるように前記周辺画像を変換することを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein said conversion means converts said peripheral image so that a subject protruding from said imaging area into said peripheral area can be continuously connected. 前記変換手段は、前記基準画像の第1撮像方向と前記周辺画像の第2撮像方向とが異なるときに、前記周辺画像の第2撮像方向が前記基準画像の第1撮像方向に等しくなるように前記周辺画像を変換することを特徴とする請求項2に記載の画像処理装置。 When the first imaging direction of the reference image and the second imaging direction of the peripheral image are different, the conversion means converts the second imaging direction of the peripheral image to be equal to the first imaging direction of the reference image. 3. The image processing apparatus according to claim 2, wherein the peripheral image is transformed. 前記変換手段は、前記第2撮像方向から撮像された前記周辺画像の平面座標を球面座標上にマッピングし、前記球面座標上にマッピングされた前記周辺画像の平面座標を、前記第1撮像方向から撮像された前記基準画像の平面座標上にマッピングすることを特徴とする請求項3に記載の画像処理装置。 The conversion means maps the plane coordinates of the peripheral image captured from the second imaging direction onto spherical coordinates, and converts the plane coordinates of the peripheral image mapped onto the spherical coordinates from the first imaging direction. 4. The image processing apparatus according to claim 3, wherein mapping is performed on the plane coordinates of the captured reference image. 前記基準画像を解析し、前記合成画像から切り出される切り出し画像の切り出し位置を決定する解析手段と、
前記切り出し位置に基づいて、前記合成画像から前記切り出し画像を切り出す切り出し手段と、
をさらに備えることを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
analysis means for analyzing the reference image and determining a cut-out position of the cut-out image cut out from the synthesized image;
clipping means for clipping the clipped image from the composite image based on the clipping position;
5. The image processing apparatus according to any one of claims 1 to 4, further comprising:
前記周辺画像は、スポーツの試合開始前、スポーツの休憩時間または前記周辺画像を撮像する撮像手段のパラメータの変更後に撮像された画像であることを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。 6. The peripheral image is an image captured before the start of a sports match, during a sports break, or after a change in a parameter of imaging means for capturing the peripheral image. The image processing device according to . 前記第2取得手段は、複数の撮像条件で撮像された周辺画像から、前記基準画像の撮像条件に最も近い撮像条件で撮像された周辺画像を取得することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。 7. The method according to any one of claims 1 to 6, wherein said second acquiring means acquires a peripheral image captured under an imaging condition closest to an imaging condition of said reference image from peripheral images captured under a plurality of imaging conditions. The image processing device according to any one of items 1 and 2. 前記合成画像の表示画面上で表示される設定を取得する第3取得手段をさらに備えることを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。 8. The image processing apparatus according to any one of claims 1 to 7, further comprising third acquisition means for acquiring settings displayed on the display screen of the composite image. 前記設定は、前記合成画像から切り出される切り出し画像の境界、あるいはズーム、パンまたはチルトに基づく前記基準画像の位置であることを特徴とする請求項8に記載の画像処理装置。 9. The image processing apparatus according to claim 8, wherein the setting is a boundary of a clipped image clipped from the composite image, or a position of the reference image based on zooming, panning, or tilting. 前記設定は、前記合成画像の動体領域の範囲、前記動体領域に対する処理であることを特徴とする請求項8または9に記載の画像処理装置。 10. The image processing apparatus according to claim 8, wherein the setting is a range of a moving object area of the synthesized image and a process for the moving object area. 前記動体領域に対する処理は、前記合成画像から切り出される切り出し画像に含まれる変換画像の強調処理であることを特徴とする請求項10に記載の画像処理装置。 11. The image processing apparatus according to claim 10, wherein the processing for the moving object region is enhancement processing of a transformed image included in a clipped image clipped from the composite image. 基準画像を取得するステップと、
前記基準画像の撮像領域の周辺の周辺領域が撮像された周辺画像を取得するステップと、
前記基準画像の撮像時の画角が拡張されるように前記周辺画像を変換するステップと、
前記周辺画像から変換された変換画像と前記基準画像とを合成した合成画像を生成するステップと、
を備えることを特徴とする画像処理方法。
obtaining a reference image;
obtaining a peripheral image in which a peripheral area around the imaging area of the reference image is captured;
a step of transforming the peripheral image so as to expand the angle of view when the reference image is captured;
generating a synthesized image by synthesizing the transformed image transformed from the surrounding image and the reference image;
An image processing method comprising:
コンピュータを請求項1から11のいずれか1項に記載の画像処理装置として動作させるためのプログラム。 A program for operating a computer as the image processing apparatus according to any one of claims 1 to 11.
JP2021149464A 2021-09-14 2021-09-14 Image processing device, image processing method and program Pending JP2023042257A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021149464A JP2023042257A (en) 2021-09-14 2021-09-14 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021149464A JP2023042257A (en) 2021-09-14 2021-09-14 Image processing device, image processing method and program

Publications (1)

Publication Number Publication Date
JP2023042257A true JP2023042257A (en) 2023-03-27

Family

ID=85717020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021149464A Pending JP2023042257A (en) 2021-09-14 2021-09-14 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP2023042257A (en)

Similar Documents

Publication Publication Date Title
JP5867424B2 (en) Image processing apparatus, image processing method, and program
US9712750B2 (en) Display control device and associated methodology of identifying a subject in an image
JP4678404B2 (en) Imaging apparatus, control method thereof, and program
KR20100043139A (en) Image processing device, dynamic image reproduction device, and processing method and program in them
US20050195295A1 (en) Image-taking apparatus and image processing method
JP2018011302A (en) Image processing device, image processing method, and program
JP5725953B2 (en) Imaging apparatus, control method therefor, and information processing apparatus
KR20100043138A (en) Image processing device, dynamic image reproduction device, and processing method and program in them
KR20100086933A (en) Image processing device, dynamic image reproduction device, and processing method and program used in the devices
JP6610535B2 (en) Image processing apparatus and image processing method
WO2017169369A1 (en) Information processing device, information processing method, program
JP2014215604A (en) Image processing apparatus and image processing method
JP5477777B2 (en) Image acquisition device
KR20160094655A (en) The System and Method for Panoramic Video Surveillance with Multiple High-Resolution Video Cameras
JP5733088B2 (en) Movie presentation device
JP2020053774A (en) Imaging apparatus and image recording method
WO2009081732A1 (en) Image processor, animation reproduction apparatus, and processing method and program for the processor and apparatus
KR20140041206A (en) Camera and camera controlling method for generating privacy mask
JP2008217593A (en) Subject area extraction device and subject area extraction program
JP4971813B2 (en) Video generation apparatus and video generation program
KR20180017591A (en) Camera apparatus, display apparatus and method of correcting a movement therein
JP2023042257A (en) Image processing device, image processing method and program
JP7353821B2 (en) Image processing device, its control method, program
EP4007261A1 (en) Image processing device, image processing method, and program
KR20120105208A (en) Image processing apparatus