JP2022043132A - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
JP2022043132A
JP2022043132A JP2021198997A JP2021198997A JP2022043132A JP 2022043132 A JP2022043132 A JP 2022043132A JP 2021198997 A JP2021198997 A JP 2021198997A JP 2021198997 A JP2021198997 A JP 2021198997A JP 2022043132 A JP2022043132 A JP 2022043132A
Authority
JP
Japan
Prior art keywords
image
range
viewpoint
image processing
input value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021198997A
Other languages
Japanese (ja)
Other versions
JP7302647B2 (en
Inventor
誠 庄原
Makoto Shohara
望 今江
Nozomi Imae
亨 原田
Toru Harada
英明 山本
Hideaki Yamamoto
康雄 上田
Yasuo Ueda
洋一 伊藤
Yoichi Ito
聡 澤口
Satoshi Sawaguchi
博一 竹中
Hiroichi Takenaka
憲介 増田
Kensuke Masuda
裕之 佐藤
Hiroyuki Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020035859A external-priority patent/JP6992829B2/en
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2021198997A priority Critical patent/JP7302647B2/en
Publication of JP2022043132A publication Critical patent/JP2022043132A/en
Application granted granted Critical
Publication of JP7302647B2 publication Critical patent/JP7302647B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system, an image processing method, and a program for projecting an image formed at a wide angle of view based on a three-dimensional model.
SOLUTION: The present image forming system 100 comprises: receiving means 258 that receives an input value defining an output range; creation means (260, 266) that create a three-dimensional model in which an object image is attached in a three-dimensional shape; determination means (260, 264) that determine the position of a viewpoint and a viewing angle based on the input value; and projection means (260, 268) that project the three-dimensional model from the viewpoint. When the input value is within a first range, the determination means (260, 264) preferentially change the viewing angle to change a range in which the object image enters a visual field, and when the input value is within a second range closer to a wide visual field than the first range, preferentially change the position of the viewpoint to change the range in which the object image enters the visual field.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、画像処理技術に関し、より詳細には、広画角で構成された画像を三次元モデルに基づき射影するための画像処理システム、画像処理方法およびプログラムに関する。 The present invention relates to an image processing technique, and more particularly to an image processing system, an image processing method, and a program for projecting an image composed of a wide angle of view based on a three-dimensional model.

従来、カメラなどにより撮影された画像を平面ディスプレイ上で表示するシステムとして、パノラマ画像ビューワが知られている。パノラマ画像ビューワは、撮影方向が異なり、かつ一部被写体を重複して撮影した複数枚の画像をつなぎ合わせ、つなぎ合わせた合成画像をディスプレイ上に表示するシステムである。 Conventionally, a panoramic image viewer is known as a system for displaying an image taken by a camera or the like on a flat display. The panoramic image viewer is a system that stitches together a plurality of images shot in different shooting directions and overlaps some subjects, and displays the stitched composite image on the display.

従来のパノラマ画像ビューワは、つなぎ合わせたパノラマ画像について、パン(視野の左右移動)、チルト(視野の上下移動)、ズーム(拡大縮小)といった各種の表示範囲変更操作を可能とする機能を備えている。パノラマ画像ビューワは、円筒の側面上または球面上に貼り付けられた画像を円筒もしくは球の重心から見た場合の画像を平面上に射影して表示させる手法を利用することが多い。この場合、平面ディスプレイ上には、ユーザによって設定された、パン、チルト、ズームの各設定値に対応して、円筒の側面上もしくは球面上に沿って焦点を形成した三次元面上の画像を平面画像に射影して表示が行われる。 The conventional panoramic image viewer has a function that enables various display range change operations such as pan (horizontal movement of the field of view), tilt (up / down movement of the field of view), and zoom (enlargement / reduction) for the stitched panoramic images. There is. The panoramic image viewer often uses a method of projecting an image pasted on a side surface of a cylinder or a spherical surface onto a plane when viewed from the center of gravity of the cylinder or sphere. In this case, on the planar display, an image on a three-dimensional surface having a focal point formed on the side surface of the cylinder or along the spherical surface corresponding to each setting value of pan, tilt, and zoom set by the user is displayed. It is displayed by projecting onto a flat image.

しかしながら、従来技術のパノラマ画像ビューワでは、表示範囲変更操作のうちの特にズーム機能によって一定以上に視野が広くなった場合に、視野の端部で画像に違和感を生じさせたり、歪みを感じさせてしまうことがあるという問題があった。 However, in the panoramic image viewer of the prior art, when the field of view is widened beyond a certain level by the zoom function of the display range changing operations, the image may be discomforted or distorted at the edge of the field of view. There was a problem that it could end up.

パノラマ画像のような広画角な画像を違和感なく表示することを目的とした技術として、非特許文献1が知られている。非特許文献1は、パノラマ画像を求められる視野で表示するビューワを開示する。非特許文献1のビューワは、狭視野では、透視投影を行い、広視野では、円筒投影または球面投影を行うように、射影方式を連続的に調整している。 Non-Patent Document 1 is known as a technique for displaying a wide angle of view image such as a panoramic image without discomfort. Non-Patent Document 1 discloses a viewer that displays a panoramic image in a required field of view. The viewer of Non-Patent Document 1 continuously adjusts the projection method so as to perform perspective projection in a narrow field of view and cylindrical projection or spherical projection in a wide field of view.

しかしながら、上記非特許文献1の従来技術は、ズームに応じて射影方式を切り替えているため、処理が複雑になり、リアルタイム処理を実現するためには、高い演算性能を必要とする。一方で、近年、パノラマ画像ビューワは、パーソナル・コンピュータのみならず、スマートフォン端末、タブレット端末など、CPU(Central Processing Unit)の演算能力が比較的低い情報端末上で実行されることも多くなっている。このような低演算能力の情報端末では、上記非特許文献1のような複雑な処理では、例えば30fps(Frame per Second)程度のリアルタイム表示を行うことが困難になる。 However, in the prior art of Non-Patent Document 1, since the projection method is switched according to the zoom, the processing becomes complicated, and high calculation performance is required to realize real-time processing. On the other hand, in recent years, panoramic image viewers are often executed not only on personal computers but also on information terminals such as smartphone terminals and tablet terminals, which have relatively low CPU (Central Processing Unit) computing power. .. With such an information terminal having low computing power, it becomes difficult to perform real-time display of, for example, about 30 fps (Frame per Second) in a complicated process as in Non-Patent Document 1.

近年の情報端末は、CPUに加えて、グラフィックス演算を担当するGPU(Graphics Processing Unit)を搭載するものも多い。GPUは、典型的には、OpenGLなどのAPI(Application Programming Interface)に対応した演算機能を有し、高速な画像処理演算を実現可能としている。しかしながら、スマートフォンなどが備えるGPUは、OpenGLのサブセット版に対応するものであり、比較的単純なモデルでの演算を余儀なくされる。 In recent years, many information terminals are equipped with a GPU (Graphics Processing Unit) in charge of graphics calculation in addition to the CPU. The GPU typically has a calculation function corresponding to an API (Application Programming Interface) such as OpenGL, and makes it possible to realize high-speed image processing calculation. However, the GPU provided in smartphones and the like corresponds to a subset version of OpenGL, and is obliged to perform operations with a relatively simple model.

上述した背景から、演算能力に制約のあるような情報端末でも、パノラマ画像表示する際に、広画角領域での表示において、上下左右の端部の被写体が引き伸ばされることによる違和感を低減しつつ、高速表示が可能な技術の開発が望まれていた。 From the above background, even in an information terminal with limited computing power, when displaying a panoramic image, while reducing the discomfort caused by stretching the subject at the top, bottom, left, and right edges in the display in the wide angle of view area. It has been desired to develop a technology capable of high-speed display.

本発明は、上記従来技術の不充分な点に鑑みてなされたものであり、本発明は、画像表示する際に、広視野領域での表示において、上下左右の端部の被写体が引き伸ばされることによる違和感を低減しつつ高速表示を可能とする、演算能力に対する要件が緩和された画像処理システム、画像処理方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the deficiencies of the above-mentioned prior art, and the present invention is to stretch the subject at the upper, lower, left and right edges in the display in a wide field of view when displaying an image. It is an object of the present invention to provide an image processing system, an image processing method, and a program in which the requirements for computing power are relaxed, which enables high-speed display while reducing the discomfort caused by.

本発明では、上記課題を解決するために、下記特徴を有する画像処理システムを提供する。本画像処理システムは、出力範囲を規定する入力値を受け付ける受付手段と、対象画像を三次元形状に貼り付けた三次元モデルを生成する生成手段と、上記入力値に基づき、視点の位置および視野角を決定する決定手段と、視点から上記三次元モデルを射影する射影手段とを含む。上記決定手段は、上述した入力値が、第1の範囲にある場合は、視野角を優先的に変化させることで対象画像の視野内に入る範囲を変化させる。一方、上記入力値が、第1の範囲より広視野側にある第2の範囲にある場合は、視点の位置を優先的に変化させることで視野内に入る範囲を変化させる。 The present invention provides an image processing system having the following features in order to solve the above problems. This image processing system has a reception means that accepts an input value that defines an output range, a generation means that generates a three-dimensional model in which a target image is pasted into a three-dimensional shape, and a viewpoint position and a field of view based on the above input values. It includes a determination means for determining an angle and a projection means for projecting the above-mentioned three-dimensional model from a viewpoint. When the above-mentioned input value is in the first range, the determination means preferentially changes the viewing angle to change the range within the field of view of the target image. On the other hand, when the input value is in the second range on the wide field of view side of the first range, the range within the visual field is changed by preferentially changing the position of the viewpoint.

上記構成によれば、画像表示する際に、広視野側の領域での表示において、上下左右の端部の被写体が引き伸ばされることによる違和感を低減しつつ高速表示を行う際の、演算能力に対する要件を緩和することができる。 According to the above configuration, when displaying an image, in the display in the area on the wide field of view side, a requirement for computing power when performing high-speed display while reducing discomfort due to stretching of the subject at the top, bottom, left, and right edges. Can be alleviated.

本実施形態による全天球画像表示システムを示す概略図。The schematic diagram which shows the spherical image display system by this embodiment. 本実施形態における全天球画像表示システムにおける全天球画像出力処理に関する機能ブロック図。The functional block diagram about the spherical image output processing in the spherical image display system in this embodiment. 全天球画像出力処理における画像データフロー図。Image data flow diagram in spherical image output processing. 魚眼レンズで採用される射影方式を例示する図。The figure which illustrates the projection method adopted in the fisheye lens. 本実施形態で用いられる全天球画像フォーマットの画像データのデータ構造を示す図。The figure which shows the data structure of the image data of the spherical image format used in this embodiment. 三次元グラフィックス表示で行われる透視投影(Perspective Projection)を説明する図。A diagram illustrating a perspective projection performed in a three-dimensional graphics display. 本実施形態の画像処理装置が実行する全天球画像表示処理を示すフローチャート。The flowchart which shows the spherical image display processing which performs the image processing apparatus of this embodiment. 全天球画像を所定範囲で表示する画像ビューワ画面を例示する図。The figure which illustrates the image viewer screen which displays the whole celestial sphere image in a predetermined range. 本実施形態における画像処理装置上の平面画像生成部の機能ブロック図。The functional block diagram of the plane image generation part on the image processing apparatus in this embodiment. モデル座標系と、カメラの位置(d)および視野角(Θ)と、画角(Φ)との関係を説明する図。The figure explaining the relationship between the model coordinate system, the position (d) of a camera, the viewing angle (Θ), and the angle of view (Φ). ズーム指定値に応じてどのように画像生成パラメータを決定するかを説明する図(1/2)。The figure (1/2) explaining how the image generation parameter is determined according to the zoom specified value. ズーム指定値に応じてどのように画像生成パラメータを決定するかを説明する図(2/2)。It is a figure (2/2) explaining how the image generation parameter is determined according to the zoom specified value. 本実施形態における画像処理装置のハードウェア構成図。The hardware configuration diagram of the image processing apparatus in this embodiment.

以下、本発明の実施形態について説明するが、本発明の実施形態は、以下に説明する実施形態に限定されるものではない。なお、説明する実施形態では、画像処理システムとして、全天球撮像装置と、該全天球撮像装置により撮像された画像を受け取り、ディスプレイ装置等に出力するための出力画像を生成する画像処理装置とを含む全天球画像表示システムを一例に説明する。 Hereinafter, embodiments of the present invention will be described, but the embodiments of the present invention are not limited to the embodiments described below. In the embodiment described, as the image processing system, an omnidirectional image pickup device and an image processing device that receives an image captured by the omnidirectional image pickup device and generates an output image for output to a display device or the like. An omnidirectional image display system including and will be described as an example.

図1は、本実施形態による全天球画像表示システム100の概略構成を説明する図である。図1に示す全天球画像表示システム100は、全天球を撮像する全天球撮像装置110と、スマートフォン120と、タブレット端末122と、パーソナル・コンピュータ124とを含み構成されている。スマートフォン120、タブレット端末122およびパーソナル・コンピュータ124は、それぞれ、全天球撮像装置110で撮像された画像をディスプレイ等に表示する画像ビューワ機能を備えた、本実施形態における画像処理装置を構成する。 FIG. 1 is a diagram illustrating a schematic configuration of the spherical image display system 100 according to the present embodiment. The spherical image display system 100 shown in FIG. 1 includes a spherical imager 110 for imaging spherical images, a smartphone 120, a tablet terminal 122, and a personal computer 124. The smartphone 120, the tablet terminal 122, and the personal computer 124 each constitute an image processing device according to the present embodiment, which has an image viewer function for displaying an image captured by the celestial sphere image pickup device 110 on a display or the like.

図1に示す実施形態において、全天球撮像装置110と、画像処理装置120~124とは、特に限定されるものではないが、無線LAN(Local Area Network)、ワイヤレスUSB(Universal Serial Bus)またはBluetooth(登録商標)などの無線接続により接続されている。全天球撮像装置110で撮像された所定のフォーマットの画像は、無線通信を介して、画像処理装置120~124に送信され、所定の画像処理が施されて、画像処理装置120~124が備えるディスプレイ装置上に表示される。なお、上記接続形態は、一例であり、有線LANや有線USBなどにより有線接続されていてもよい。 In the embodiment shown in FIG. 1, the celestial sphere image pickup device 110 and the image processing devices 120 to 124 are not particularly limited, but are a wireless LAN (Local Area Network), a wireless USB (Universal Serial Bus), or the like. It is connected by a wireless connection such as Bluetooth®. Images in a predetermined format captured by the celestial sphere image pickup device 110 are transmitted to the image processing devices 120 to 124 via wireless communication, subjected to predetermined image processing, and included in the image processing devices 120 to 124. It is displayed on the display device. The above connection form is an example, and may be wiredly connected by a wired LAN, a wired USB, or the like.

説明する実施形態において、全天球撮像装置110は、それぞれ結像光学系および固体撮像素子から構成される2つの撮像光学系を備え、撮像光学系毎に各方向から撮影し撮像画像を生成する。結像光学系は、それぞれ、例えば6群7枚で魚眼レンズとして構成することができる。上記魚眼レンズは、180度(=360度/n;n=2)より大きい全画角を有し、好適には、185度以上の全画角を有し、より好適には、190度以上の全画角を有する。なお、説明する実施形態では、魚眼レンズは、広角レンズや、超広角レンズと呼ばれるものを含むものとする。 In the embodiment described, the celestial sphere image pickup device 110 includes two image pickup optical systems each composed of an image pickup optical system and a solid-state image pickup element, and each image pickup optical system is photographed from each direction to generate an image pickup image. .. The imaging optical system can be configured as a fisheye lens, for example, with 7 elements in 6 groups. The fisheye lens has a total angle of view larger than 180 degrees (= 360 degrees / n; n = 2), preferably a total angle of view of 185 degrees or more, and more preferably 190 degrees or more. Has all angles of view. In the embodiment to be described, the fisheye lens includes a wide-angle lens and a so-called ultra-wide-angle lens.

全天球撮像装置110は、複数の固体撮像素子でそれぞれ撮像された撮像画像をつなぎ合わせて合成し、立体角4πラジアンの画像(以下「全天球画像」と参照する。)を生成する。全天球画像は、撮影地点から見渡すことのできる全ての方向を撮影したものとなる。上述したように、魚眼レンズが180度を超える全画角を有するため、各撮像光学系で撮像した撮影画像において、180度を超えた部分で撮影範囲が重複する。画像をつなぎ合わせる際には、この重複領域が同一像を表す基準データとして参照されて、全天球画像が生成される。 The spherical image sensor 110 joins and synthesizes images captured by a plurality of solid-state image sensors to generate an image having a solid angle of 4π radians (hereinafter referred to as “spherical image”). The spherical image is taken in all directions that can be seen from the shooting point. As described above, since the fisheye lens has a total angle of view exceeding 180 degrees, in the captured images captured by each imaging optical system, the imaging range overlaps in the portion exceeding 180 degrees. When joining the images, this overlapping region is referred to as reference data representing the same image, and a spherical image is generated.

ここで、説明する実施形態では、立体角4πラジアンの全天球画像を生成するものとしているが、他の実施形態では、水平面のみ360度を撮影した、いわゆるパノラマ画像であってもよい。また、説明する実施形態では、2つの撮像光学系を含み構成されるものとして説明するが、撮像光学系の数は、特に限定されるものではない。他の実施形態では、全天球撮像装置110は、3つ以上の魚眼レンズを光学系に含む撮像体を備えるとともに、3つ以上の魚眼レンズで撮像された複数の撮像画像に基づいて全天球画像を生成する機能を備えていてもよい。さらに他の実施形態では、全天球撮像装置110は、単一の魚眼レンズを光学系に含む撮像体を備え、単一の魚眼レンズで異なる方位で撮像された複数の撮像画像に基づいて全天球画像を生成する機能を備えていてもよい。 Here, in the embodiment described, a spherical image having a solid angle of 4π radians is generated, but in other embodiments, a so-called panoramic image in which only the horizontal plane is photographed at 360 degrees may be used. Further, in the embodiment described, the description is made assuming that the two imaging optical systems are included, but the number of the imaging optical systems is not particularly limited. In another embodiment, the spherical imager 110 includes an imager including three or more fisheye lenses in an optical system, and a spherical image based on a plurality of captured images captured by the three or more fisheye lenses. It may have a function to generate. In yet another embodiment, the spherical imager 110 comprises an imager including a single fisheye lens in its optical system and is based on a plurality of captured images captured in different orientations by the single fisheye lens. It may have a function to generate an image.

生成された全天球画像は、所定のフォーマットで、通信により外部の画像処理装置120~124に送信され、あるいはSD(登録商標)カード、コンパクトフラッシュ(登録商標)などの外部記憶媒体などに出力される。 The generated spherical image is transmitted to an external image processing device 120 to 124 by communication in a predetermined format, or output to an external storage medium such as an SD (registered trademark) card or a compact flash (registered trademark). Will be done.

上記画像処理装置120~124は、接続を介して全天球画像を受信し、または、全天球画像が記録された外部記録媒体を経由して全天球画像を取得し、一旦自身の記録装置上に全天球画像を保存する。上記画像処理装置120~124は、取得された全天球画像から、自身が備えるディスプレイ、自身に接続されるプロジェクタなどの平面表示デバイスに表示出力するための出力画像を生成し、平面表示デバイスから出力画像を表示させることができる。上記画像処理装置120~124は、さらに、生成された出力画像を、自身に接続された画像形成装置から紙媒体へ印刷出力することもできる。全天球画像から出力画像を生成する処理ついては、詳細を後述する。 The image processing devices 120 to 124 receive the spherical image via the connection, or acquire the spherical image via an external recording medium on which the spherical image is recorded, and once record themselves. Save the spherical image on the device. The image processing devices 120 to 124 generate an output image to be displayed and output from the acquired whole celestial sphere image to a plane display device such as a display provided by the image processing device or a projector connected to the image processing device 120 to 124, and the image processing device 120 to 124 generate an output image to be displayed and output from the plane display device. The output image can be displayed. The image processing devices 120 to 124 can also print out the generated output image from the image forming device connected to the image processing device 120 to 124 on a paper medium. The details of the process of generating the output image from the spherical image will be described later.

図1に示す実施形態では、さらに、全天球撮像装置110および画像処理装置120~124は、アクセスポイント、モバイル・ルータ、ブロードバンドルータなどの通信機器104を介して、インターネット102に接続されている。そして、インターネット102上には、画像表示サーバ130が設けられている。 In the embodiment shown in FIG. 1, the spherical image pickup device 110 and the image processing devices 120 to 124 are further connected to the Internet 102 via a communication device 104 such as an access point, a mobile router, and a broadband router. .. An image display server 130 is provided on the Internet 102.

図1に示す画像表示サーバ130は、全天球撮像装置110または画像処理装置120~124から送付された全天球画像を受信し、受信した全天球画像を蓄積し、管理する。画像表示サーバ130は、また、画像処理装置120~124や他の情報処理端末からの全天球画像の表示要求に応答して、全天球画像に基づき出力画像を生成し、生成した出力画像を要求元装置へ送信する。これにより、要求元装置の平面表示デバイス上に該出力画像を表示させることができる。 The image display server 130 shown in FIG. 1 receives the spherical images sent from the spherical image pickup device 110 or the image processing devices 120 to 124, and accumulates and manages the received spherical images. The image display server 130 also generates an output image based on the spherical image in response to a display request for the spherical image from the image processing devices 120 to 124 and other information processing terminals, and the generated output image. To the requesting device. As a result, the output image can be displayed on the flat display device of the requesting device.

画像表示サーバ130は、特定の実施形態では、webサーバとして構成することができ、HTTP(HyperText Transfer Protocol)に従い、全天球画像を含む画像登録要求にかかるリクエストを受信し、全天球画像を蓄積することができる。画像表示サーバ130は、さらに、出力対象の全天球画像が指定された画像表示要求にかかるリクエストを受信し、対象となる全天球画像を読み出し、画像処理を施し出力画像を生成して、出力画像を含むレスポンスを応答することができる。レスポンスを受信した要求元装置では、ウェブブラウザにより、受信した出力画像が平面表示デバイス上に表示される。そして、ウェブブラウザにより、適宜、出力画像の印刷出力が行われる。なお、画像表示サーバ130も、本実施形態において、出力画像を生成する画像処理装置として構成される。 In a specific embodiment, the image display server 130 can be configured as a web server, receives a request for an image registration request including an all-sky image according to HTTP (HyperText Transfer Protocol), and displays the all-sky image. Can be accumulated. The image display server 130 further receives a request for an image display request for which the spherical image to be output is specified, reads the spherical image to be output, performs image processing, and generates an output image. You can respond with a response that includes an output image. In the requesting device that received the response, the received output image is displayed on the flat display device by the web browser. Then, the web browser appropriately prints and outputs the output image. The image display server 130 is also configured as an image processing device that generates an output image in the present embodiment.

以下、図2~図12を参照しながら、本実施形態における、全天球画像から出力画像を生成する全天球画像出力処理について、より詳細に説明する。図2は、本実施形態における全天球画像表示システムにおける全天球画像出力処理に関する機能ブロック200を示す図である。図2に示す機能ブロック200は、全天球撮像装置110上の機能ブロック210と、画像処理装置120~124,130上の機能ブロック250とを含み構成される。 Hereinafter, the spherical image output processing for generating an output image from the spherical image in the present embodiment will be described in more detail with reference to FIGS. 2 to 12. FIG. 2 is a diagram showing a functional block 200 related to spherical image output processing in the spherical image display system according to the present embodiment. The functional block 200 shown in FIG. 2 includes a functional block 210 on the spherical image pickup device 110 and a functional block 250 on the image processing devices 120 to 124, 130.

全天球撮像装置110の機能ブロック210は、それぞれ各方向を撮像する2つの撮像光学系212A,212Bと、各撮像光学系212で撮影された各撮像画像の入力を受けて、全天球画像を生成し、出力する合成処理ブロック214とを含む。 The functional block 210 of the celestial sphere image pickup device 110 receives inputs of two image pickup optical systems 212A and 212B for photographing each direction and each image pickup image taken by each image pickup optical system 212, and receives an all celestial sphere image. Is included with the synthesis processing block 214 to generate and output.

画像処理装置の機能ブロック250は、入力部252と、出力部254と、全天球画像蓄積部256と、ユーザ入力受付部258と、平面画像生成部260と、画像出力部262とを含み構成される。入力部252は、タッチパネル、マウス、キーボードなどの入力装置である。出力部254は、入力部252に行われたユーザ操作の入力に応じた画像処理結果を表示する平面表示デバイス、画像処理結果を印刷出力する画像形成装置などの出力装置である。入力部252および出力部254は、画像処理装置自身に備えられてもよいし、画像処理装置が接続される外部装置に備えられてもよい。 The functional block 250 of the image processing device includes an input unit 252, an output unit 254, a spherical image storage unit 256, a user input reception unit 258, a plane image generation unit 260, and an image output unit 262. Will be done. The input unit 252 is an input device such as a touch panel, a mouse, and a keyboard. The output unit 254 is an output device such as a plane display device that displays an image processing result according to an input of a user operation performed on the input unit 252, and an image forming device that prints out the image processing result. The input unit 252 and the output unit 254 may be provided in the image processing device itself, or may be provided in an external device to which the image processing device is connected.

全天球画像蓄積部256は、全天球撮像装置110で撮像され、上記接続または外部記録媒体などを介して画像処理装置120~124に入力された全天球画像を蓄積する手段である。ユーザ入力受付部258は、入力部252を介して行われた出力範囲変更操作に基づき、操作に応じた全天球画像の出力範囲を規定する入力値を受け付け、入力値を平面画像生成部260に渡す。 The spherical image storage unit 256 is a means for accumulating spherical images captured by the spherical image pickup device 110 and input to the image processing devices 120 to 124 via the connection or an external recording medium. The user input reception unit 258 receives an input value that defines the output range of the spherical image according to the operation based on the output range change operation performed via the input unit 252, and the input value is the plane image generation unit 260. Pass to.

出力範囲変更操作としては、視野を左右に移動させるパン操作、視野を上下に移動させるチルト操作および、出力する画像の範囲を拡大または縮小するズーム操作などを挙げることができる。上記出力範囲変更操作による変更の結果として、または直接入力された結果として、パン指定値、チルト指定値およびズーム指定値が、全天球画像の出力範囲を規定する入力値として取得される。 Examples of the output range changing operation include a pan operation for moving the field of view left and right, a tilt operation for moving the field of view up and down, and a zoom operation for expanding or contracting the range of the output image. As a result of the change by the output range change operation or as a result of being directly input, the pan specified value, the tilt specified value and the zoom specified value are acquired as input values defining the output range of the spherical image.

平面画像生成部260は、受け付けられた上記入力値に基づき、画像生成する際のパラメータ(以下、画像生成パラメータと参照する。)を決定し、決定された画像生成パラメータに基づき、全天球画像から出力画像を生成する。画像出力部262は、生成された出力画像を、出力部254に出力させる。出力画像は、平面表示デバイス上での適切な表示を行うため平面画像となる。 The plane image generation unit 260 determines a parameter for image generation (hereinafter referred to as an image generation parameter) based on the received input value, and based on the determined image generation parameter, an all-sky image. Generate an output image from. The image output unit 262 outputs the generated output image to the output unit 254. The output image is a flat image for proper display on the flat display device.

なお、画像処理装置が、画像表示サーバ130などのwebサーバとして動作する場合は、入力部252および出力部254の構成は、以下のようになる。すなわち、入力部252は、画像登録にかかるHTTPリクエストを受信するHTTP受信部として構成される。出力部254は、画像表示にかかるHTTPリクエストに応答して、生成された出力画像を、レスポンスとして要求元に返すHTTP送信部として構成される。 When the image processing device operates as a web server such as an image display server 130, the configuration of the input unit 252 and the output unit 254 is as follows. That is, the input unit 252 is configured as an HTTP receiving unit that receives an HTTP request for image registration. The output unit 254 is configured as an HTTP transmission unit that returns the generated output image as a response to the request source in response to the HTTP request for displaying the image.

図3は、全天球画像出力処理における各画像のデータ構造および画像のデータフローを説明する図である。本実施形態による撮像光学系212は、撮像処理により、2つの撮像画像を生成する。本実施形態において、レンズ光学系に入射した光は、所定の射影方式に従って、対応する固体撮像素子の受光領域に結像される。上記撮像画像は、受光領域が平面エリアを成す2次元の固体撮像素子で撮像されたものであり、平面座標系で表現された画像データとなる。また本実施形態では、画像対角線よりもイメージサークル径が小さな、いわゆる円周魚眼レンズの構成が採用される。したがって、得られる撮像画像は、図3において「撮像画像A」および「撮像画像B」で示されるように、各撮影範囲が投影されたイメージサークル全体を含む平面画像として構成される。 FIG. 3 is a diagram illustrating a data structure of each image and a data flow of the image in the spherical image output processing. The image pickup optical system 212 according to the present embodiment generates two captured images by an image pickup process. In the present embodiment, the light incident on the lens optical system is imaged in the light receiving region of the corresponding solid-state image pickup device according to a predetermined projection method. The captured image is captured by a two-dimensional solid-state image sensor whose light receiving region forms a plane area, and is image data expressed in a plane coordinate system. Further, in the present embodiment, a configuration of a so-called circumferential fisheye lens having an image circle diameter smaller than that of the diagonal line of the image is adopted. Therefore, the obtained captured image is configured as a plane image including the entire image circle on which each shooting range is projected, as shown by "captured image A" and "captured image B" in FIG.

図4は、魚眼レンズで採用され得る射影方式を例示する図である。魚眼レンズとしては、種々の設計が考えられるが、その射影方式としては、図4に示すような、正射影方式(図4(A))、等距離射影方式(図4(B))、立体射影方式(図4(C))および等立体角射影方式(図4(D))を挙げることができる。また、説明する実施形態において、1つの魚眼レンズで撮影された撮像画像は、撮影地点から概ね半球分(全画角が180度を超える部分で半球からはみ出している。)の方位を撮影したものとなる。そして、図4に示すように、画像は、光軸に対する入射角度βに対応した像高rで生成される。入射角βからの光を受光する受光領域上の画素位置(像高:レンズ焦点からの放射方向の距離)rは、焦点距離をfとして、所定の投影モデルに応じた下記射影関数を用いて決定することができる。 FIG. 4 is a diagram illustrating a projection method that can be adopted in a fisheye lens. Various designs can be considered for the fisheye lens, and the projection methods include the orthographic projection method (FIG. 4 (A)), the equidistant projection method (FIG. 4 (B)), and the stereographic projection as shown in FIG. Methods (FIG. 4 (C)) and equidistant angle projection (FIG. 4 (D)) can be mentioned. Further, in the embodiment to be described, the captured image taken by one fisheye lens is taken in the direction of a hemisphere (the part where the total angle of view exceeds 180 degrees is out of the hemisphere) from the shooting point. Become. Then, as shown in FIG. 4, the image is generated at the image height r corresponding to the incident angle β with respect to the optical axis. The pixel position (image height: distance in the radiation direction from the lens focal length) r on the light receiving region that receives light from the incident angle β is determined by using the following projection function according to a predetermined projection model, with the focal length as f. Can be decided.

Figure 2022043132000002
Figure 2022043132000002

魚眼レンズが採用する射影方式に対応した上記式により、方位(入射角および光軸周りの回転角)と、平面画像上の画素位置の座標とが対応付けられる。好ましい実施形態では、魚眼レンズは、図4(C)で示す立体射影方式を用いることができる。 According to the above equation corresponding to the projection method adopted by the fisheye lens, the orientation (angle of incidence and the angle of rotation around the optical axis) is associated with the coordinates of the pixel position on the plane image. In a preferred embodiment, the fisheye lens can use the stereographic projection method shown in FIG. 4 (C).

合成処理ブロック214は、2つの撮像光学系212A,212Bから得られた2つの撮影画像に対し、図示しない3軸加速度センサからの情報を利用し、歪曲補正とともに天地補正を施し、画像合成する。画像合成処理では、平面画像として構成される各撮像画像から、まず、相補的な各半休部分を含む各全天球画像が生成される。そして、各半球部分を含む2つの全天球画像が、重複領域のマッチングに基づいて位置合わせされ、画像合成され、全天球全体を含む全天球画像が生成される。 The compositing processing block 214 uses information from a 3-axis accelerometer (not shown) to perform top-bottom correction as well as distortion correction on the two captured images obtained from the two imaging optical systems 212A and 212B, and synthesizes the images. In the image composition process, first, each spherical image including each complementary half-rest portion is generated from each captured image configured as a plane image. Then, the two spherical images including each hemisphere portion are aligned based on the matching of the overlapping regions, and the images are combined to generate the spherical image including the entire spherical surface.

図5は、本実施形態で用いられる全天球画像フォーマットの画像データのデータ構造を説明する図である。図5(A)に示すように、全天球画像フォーマットの画像データは、所定の軸に対してなされる垂直角度φと、上記所定の軸周りの回転角に対応する水平角度θとを座標とした画素値の配列として表現される。ここで、全天球画像は、図3に示すように、撮影されたシーンの天頂方向を軸とした垂直角度(緯度経度座標における緯度)および、天頂方向の軸周りの水平角度(緯度経度座標における経度)で構成される座標系で表現されるものとする。垂直角度φは、-90度~+90度の範囲となり、水平角度θは、-180度~+180度の範囲となる。 FIG. 5 is a diagram illustrating a data structure of image data in the spherical image format used in the present embodiment. As shown in FIG. 5A, the image data in the all-sky image format coordinates the vertical angle φ made with respect to a predetermined axis and the horizontal angle θ corresponding to the rotation angle around the predetermined axis. It is expressed as an array of pixel values. Here, as shown in FIG. 3, the whole celestial sphere image has a vertical angle (latitude in latitude / longitude coordinates) about the zenith direction of the captured scene and a horizontal angle (latitude / longitude coordinates) around the axis in the zenith direction. It shall be expressed in a coordinate system composed of (longitude in). The vertical angle φ is in the range of −90 degrees to +90 degrees, and the horizontal angle θ is in the range of −180 degrees to +180 degrees.

全天球フォーマットの各座標値(θ,φ)は、図5(B)に示すように、撮影地点を中心とした全方位を表す球面上の各点と対応付けられており、全方位が全天球画像上に対応付けられる。魚眼レンズで撮影された撮像画像の平面座標と、全天球画像フォーマットの球面上の座標とは、上述した射影関数、適宜座標変換を施すことによって対応付けされる。 As shown in FIG. 5 (B), each coordinate value (θ, φ) in the spherical format is associated with each point on a spherical surface representing all directions centered on the shooting point, and all directions are It is associated on the spherical image. The plane coordinates of the captured image taken by the fisheye lens and the coordinates on the spherical surface of the spherical image format are associated with each other by performing the above-mentioned projection function and appropriate coordinate conversion.

なお、以下の説明では、全天球画像フォーマットの図5(A)に示す2次元座標は、図5(A)において灰色の軸で示すように、左下原点の座標系である。そして、以下の説明では、2次元座標は、0~水平方向の画素数に応じた範囲の水平角度値xと、0~垂直方向の画素数に応じた範囲の垂直角度値yに変換して取り扱うものとする。例えば1/10度刻みで画素を構成すると、水平角度値xは、0~3799の範囲となり、垂直角度値yは、0~1800の範囲となる。水平角度値xと水平角度θとの関係および垂直角度値yと垂直角度φとの関係は、下記(1)および(2)で表される。下記式(1)および(2)中、wおよびhは、それぞれ、全天球画像フォーマットの画像幅(例えば3600画素)および画像高さ(例えば1801画素)に対応する。 In the following description, the two-dimensional coordinates shown in FIG. 5A of the spherical image format are the coordinate system of the lower left origin as shown by the gray axis in FIG. 5A. Then, in the following description, the two-dimensional coordinates are converted into a horizontal angle value x in the range corresponding to the number of pixels in the horizontal direction from 0 and a vertical angle value y in the range corresponding to the number of pixels in the 0 to the vertical direction. It shall be handled. For example, when the pixels are configured in 1/10 degree increments, the horizontal angle value x is in the range of 0 to 3799, and the vertical angle value y is in the range of 0 to 1800. The relationship between the horizontal angle value x and the horizontal angle θ and the relationship between the vertical angle value y and the vertical angle φ are represented by the following (1) and (2). In the following equations (1) and (2), w and h correspond to the image width (for example, 3600 pixels) and the image height (for example, 1801 pixels) of the spherical image format, respectively.

Figure 2022043132000003
Figure 2022043132000003

そして、図5(A)に示す全天球画像の2次元座標(x,y)と、図5(B)に示す全天球の表面の三次元座標(xs,ys,zs)との間の関係は、下記式(3)および(4)で計算される。図5(B)に示す三次元座標は、右手系であり、球体の中心を原点とし、rは半径を表す。 Then, between the two-dimensional coordinates (x, y) of the spherical image shown in FIG. 5 (A) and the three-dimensional coordinates (xs, ys, zs) of the surface of the spherical surface shown in FIG. 5 (B). The relationship between is calculated by the following equations (3) and (4). The three-dimensional coordinates shown in FIG. 5B are a right-handed system, with the center of the sphere as the origin and r representing the radius.

Figure 2022043132000004
Figure 2022043132000004

2つの撮像光学系212A,212Bで撮影された2つの画像(撮像画像Aおよび撮像画像B)と、全天球画像上の画像領域との関係は、説明する実施形態では、図3に「全天球画像」で示す対応関係となる。画像合成された全天球画像は、所定のフォーマットで、内蔵メモリまたは外部記録媒体に保存される。全天球画像が保存されるファイル・フォーマットは、ビットマップなどの無圧縮の静止画像であってもよいし、JPEG(Joint Photographic Experts Group)、GIF(Graphics Interchange Format)、PNG(Portable Network Graphics)などの圧縮形式の静止画像としてもよい。全天球画像は、さらに他の実施形態では、MPEG(Moving Picture Experts Group)やAVI(Audio Video Interleave)などの動画像におけるフレーム画像として含まれてもよい。なお、以下に説明する実施形態では、全天球画像は、静止画像であるとして説明する。 The relationship between the two images (captured image A and captured image B) taken by the two imaging optical systems 212A and 212B and the image region on the whole celestial sphere image is shown in FIG. The correspondence is shown in "Tenkyu image". The image-combined spherical image is stored in a built-in memory or an external recording medium in a predetermined format. The file format in which the whole celestial sphere image is saved may be an uncompressed still image such as a bitmap, JPEG (Joint Photographic Experts Group), GIF (Graphics Interchange Format), PNG (Portable Network Graphics). It may be a still image in a compressed format such as. In still another embodiment, the spherical image may be included as a frame image in a moving image such as MPEG (Moving Picture Experts Group) or AVI (Audio Video Interleave). In the embodiment described below, the spherical image will be described as a still image.

画像処理装置の機能ブロック250では、全天球画像蓄積部256により、全天球画像が保存され、平面画像生成部260により、引き続き、全天球画像を入力として、全天球画像から出力画像に変換する画像処理が行われる。なお、説明する実施形態では、入力される全天球画像は、好適な実施形態では、全天球撮像装置110により撮像されたものとして説明するが、全天球画像の由来は、必ずしも限定されるものではない。例えば、撮像された画像に対して所定の画像加工が施されてもよいし、コンピュータ・グラフィックスにより生成された画像が含まれてもよい。 In the functional block 250 of the image processing device, the all-sky image is saved by the all-sky image storage unit 256, and the plane image generation unit 260 continues to input the all-heaven sphere image and output the image from the all-heaven sphere image. Image processing is performed to convert to. In the embodiment described, the input spherical image is described as being captured by the spherical imager 110 in a preferred embodiment, but the origin of the spherical image is not necessarily limited. It's not something. For example, the captured image may be subjected to predetermined image processing, or an image generated by computer graphics may be included.

平面画像生成部260は、ユーザ入力受付部258から、上記出力範囲変更操作による変更等の結果として、決定された上記パン指定値、チルト指定値およびズーム指定値を含む入力値を受け取る。平面画像生成部260は、受け取った入力値に基づき、後述するように画像生成パラメータを決定し、決定された画像生成パラメータに基づき、出力画像の画像生成処理を実行する。 The plane image generation unit 260 receives from the user input reception unit 258 an input value including the determined pan designation value, tilt designation value, and zoom designation value as a result of the change due to the output range change operation or the like. The plane image generation unit 260 determines an image generation parameter as described later based on the received input value, and executes an image generation process of the output image based on the determined image generation parameter.

上述したように、全天球画像は、上記式(3)および(4)により三次元座標に対応付けることができる。上記画像生成処理では、入力された全天球画像を、所定の三次元形状の内面に貼り付けた三次元モデルを構築し、所定条件の下、仮想的なカメラ(以下、単にカメラと参照する。)から射影表示させて出力画像Sを得る。 As described above, the spherical image can be associated with the three-dimensional coordinates by the above equations (3) and (4). In the above image generation process, a three-dimensional model in which the input spherical image is pasted on the inner surface of a predetermined three-dimensional shape is constructed, and under predetermined conditions, a virtual camera (hereinafter, simply referred to as a camera) is used. The output image S is obtained by displaying the projection from.).

図6は、三次元グラフィックス表示で行われる透視投影(Perspective Projection)を説明する図である。図6に示すように、平面画像生成部260は、全天球画像を球体の内面に貼り付けた三次元モデルを、透視投影処理することによって平面画像の出力画像を生成する。透視投影する際の画像生成パラメータは、上記入力値に応じて決定される。画像生成パラメータとしては、特定の実施形態では、カメラの視点の位置(d)、方向(v)、視野角(Θ)および投影範囲(zNear,zFar)を挙げることができる。 FIG. 6 is a diagram illustrating a perspective projection performed in a three-dimensional graphics display. As shown in FIG. 6, the plane image generation unit 260 generates an output image of a plane image by performing a perspective projection process on a three-dimensional model in which a whole celestial sphere image is attached to the inner surface of a sphere. The image generation parameters for perspective projection are determined according to the above input values. In certain embodiments, the image generation parameters include the position (d), direction (v), viewing angle (Θ), and projection range (zNear, zFar) of the viewpoint of the camera.

出力画像Sは、球体の中心から特定の緯度経度方向(v)を向いて三次元モデルを見たときに、特定の視野角(Θ)内で観察される画像を、表示領域の形状に応じて切り取った画像となる。上記投影範囲(zNear,zFar)のパラメータは、透視投影される範囲を指定するものであるが、適切な値が決定されるものとする。なお、画像生成パラメータの決定方法および射影処理の詳細については、図7~図12を参照して後述する。 The output image S is an image observed within a specific viewing angle (Θ) when the three-dimensional model is viewed from the center of the sphere in a specific latitude / longitude direction (v), depending on the shape of the display area. The image will be cut out. The parameters of the projection range (zNear, zFar) specify the range to be perspectively projected, but an appropriate value shall be determined. The details of the image generation parameter determination method and the projection processing will be described later with reference to FIGS. 7 to 12.

なお、図2に示した実施形態では、撮像光学系212および合成処理ブロック214を全天球撮像装置上のコンポーネントとしている。そして、入力部252、出力部254、全天球画像蓄積部256、ユーザ入力受付部258、平面画像生成部260および画像出力部262を画像処理装置上のコンポーネントとして、分散実装している。しかしながら、実装の態様は特に限定されるものではない。 In the embodiment shown in FIG. 2, the image pickup optical system 212 and the synthesis processing block 214 are components on the spherical image pickup device. Then, the input unit 252, the output unit 254, the spherical image storage unit 256, the user input reception unit 258, the plane image generation unit 260, and the image output unit 262 are distributed and mounted as components on the image processing device. However, the mounting mode is not particularly limited.

他の実施形態では、すべてのコンポーネントを単一の装置上に配置して全天球画像表示システムを構成してもよい。さらに他の実施形態では、コンポーネントの任意の一部を、それぞれ、全天球画像表示システムを構成している複数の装置のいずれか上に配置して、複数の装置の組み合わせとして全天球画像表示システムを構成してもよい。例えば、特定の実施形態では、画像処理装置が合成処理ブロックを備え、全天球撮像装置から2つの撮像画像を受信して、全天球画像を準備する構成とすることができる。 In other embodiments, all components may be placed on a single device to configure a spherical image display system. In yet another embodiment, any part of the component is placed on any of the plurality of devices constituting the spherical image display system, respectively, and the spherical image is formed as a combination of the plurality of devices. A display system may be configured. For example, in a specific embodiment, the image processing device may include a synthesis processing block, receive two captured images from the spherical image pickup device, and prepare the spherical image.

以下、図7および図8を参照しながら、本実施形態における全天球画像出力処理の流れについて、より詳細に説明する。なお、以下、出力処理として、全天球画像を表示する画像ビューワにおける表示処理について説明する。図7は、本実施形態の画像処理装置が実行する全天球画像表示処理を示すフローチャートである。図8は、全天球画像を所定範囲で表示する画像ビューワ画面を例示する図である。 Hereinafter, the flow of the spherical image output processing in the present embodiment will be described in more detail with reference to FIGS. 7 and 8. Hereinafter, as the output processing, the display processing in the image viewer for displaying the spherical image will be described. FIG. 7 is a flowchart showing the spherical image display processing executed by the image processing apparatus of the present embodiment. FIG. 8 is a diagram illustrating an image viewer screen that displays a spherical image in a predetermined range.

図7に示す処理は、例えば、画像処理装置250のオペレータにより、所定の全天球画像を特定した表示指示が行われたことに応答して、ステップS100から開始される。ステップS101では、画像処理装置250は、平面画像生成部260により、予め設定されたデフォルトのパン指定値、チルト指定値およびズーム指定値に基づき、初期の画像処理パラメータを決定する。ステップS102では、画像処理装置250は、平面画像生成部260により、決定された画像処理パラメータに基づき、全天球画像から平面画像を生成する。 The process shown in FIG. 7 is started from step S100 in response to, for example, an operator of the image processing device 250 giving a display instruction specifying a predetermined spherical image. In step S101, the image processing apparatus 250 determines the initial image processing parameters by the plane image generation unit 260 based on the preset default pan designation value, tilt designation value, and zoom designation value. In step S102, the image processing device 250 generates a plane image from the spherical image based on the image processing parameters determined by the plane image generation unit 260.

ステップS103では、画像処理装置250は、画像出力部262により、生成された平面画像を画像ビューワ画面の所定位置に表示させる。図8に示す画像ビューワ画面300は、画像表示領域310と、画像表示領域310に表示させる画像の表示範囲を変更するためのGUI(Graphical User Interface)部品322,324とを含み構成される。画像表示領域310には、上記平面画像生成部260により生成された、入力値に応じた範囲の出力画像が、画像出力部262により表示される。 In step S103, the image processing device 250 causes the image output unit 262 to display the generated planar image at a predetermined position on the image viewer screen. The image viewer screen 300 shown in FIG. 8 includes an image display area 310 and GUI (Graphical User Interface) components 322 and 324 for changing the display range of the image to be displayed in the image display area 310. In the image display area 310, the output image in the range corresponding to the input value generated by the plane image generation unit 260 is displayed by the image output unit 262.

ステップS104では、画像処理装置250は、ユーザ入力受付部258により表示範囲変更操作が受け付けられたか否かを判定する。ここで、表示範囲変更操作は、各操作に対応するGUI部品322,324に対して行われた、クリック、フリックなど操作イベントの発生により検出される。図8に例示する画像ビューワ画面300は、ズーム指定値を変更するものとして、ズームインの指示を待ち受けるGUI部品322Iと、ズームアウトの指示を待ち受けるGUI部品322Oとを含む。画像ビューワ画面300は、さらに、パン指定値およびチルト指定値を変更するものとして、左および右方向へパンの指示を待ち受ける左ボタン324Lおよび右ボタン324Rと、上および下方向へチルトの指示を待ち受ける上ボタン324Uおよび下ボタン324Dとを含む。 In step S104, the image processing device 250 determines whether or not the display range change operation has been accepted by the user input reception unit 258. Here, the display range change operation is detected by the occurrence of an operation event such as a click or a flick performed on the GUI parts 322 and 324 corresponding to each operation. The image viewer screen 300 illustrated in FIG. 8 includes a GUI component 322I that awaits a zoom-in instruction and a GUI component 322O that awaits a zoom-out instruction to change the zoom specified value. The image viewer screen 300 further waits for the left button 324L and the right button 324R, which await a pan instruction in the left and right directions, and an up and down tilt instruction, as a means of changing the pan specified value and the tilt specified value. Includes up button 324U and down button 324D.

表示範囲変更操作は、GUI部品に対する操作の他、各表示範囲変更操作に関連付けられたショートカット・キー、ジェスチャ、マルチタッチ操作など操作イベントの発生により検出することができる。例えば、ショートカット・キーとしては、キーボードにおけるズームインおよびズームアウトを指示する「+」ボタンおよび「-」ボタンを挙げることができる。さらに、左右のパンおよび上下のチルトを指示する左右の矢印ボタンおよび上下の矢印ボタンに対するキー操作をショートカット・キーとしてもよい。マルチタッチ操作としては、ズーム操作に関連付けられたピンチインおよびピンチアウトを挙げることができる。 The display range change operation can be detected by the occurrence of an operation event such as a shortcut key, a gesture, or a multi-touch operation associated with each display range change operation, in addition to the operation for the GUI component. For example, shortcut keys may include "+" and "-" buttons that direct zoom-in and zoom-out on the keyboard. Further, key operations for the left and right arrow buttons and the up and down arrow buttons for instructing left and right pan and up and down tilt may be used as shortcut keys. Multi-touch operations include pinch-in and pinch-out associated with zoom operations.

ステップS104では、表示範囲変更操作を受け付けるまでの間(ステップS104でNOの間)、ステップS104内をループさせて、表示範囲変更操作が待ち受けられる。ステップS104で表示変更操作が受け付けられたと判定された場合(YES)は、ステップS105へと処理が分岐される。 In step S104, the display range change operation is awaited by looping in step S104 until the display range change operation is accepted (between NO in step S104). If it is determined in step S104 that the display change operation has been accepted (YES), the process is branched to step S105.

ステップS105では、上記表示変更操作が行われた結果として決定されるパン指定値、チルト指定値およびズーム指定値に基づき、変更された画像処理パラメータを決定し、ステップS102へ処理を分岐させる。この場合、続くステップS102では、平面画像生成部260により、変更後の画像処理パラメータに基づき、平面画像の生成処理が行われる。ステップS103では、画像出力部262により、ユーザ操作に応じて新たに生成された平面画像で、画像ビューワ画面300の画像表示領域310が更新される。 In step S105, the changed image processing parameters are determined based on the pan specified value, the tilt specified value, and the zoom specified value determined as a result of the display change operation, and the processing is branched to step S102. In this case, in the following step S102, the plane image generation unit 260 performs the plane image generation processing based on the changed image processing parameters. In step S103, the image output unit 262 updates the image display area 310 of the image viewer screen 300 with a plane image newly generated in response to a user operation.

以下、図9~図12を参照しながら、本実施形態による全天球画像出力処理について、より詳細に説明する。図9は、本実施形態における画像処理装置上の平面画像生成部260の詳細な機能ブロックを示す図である。図9に示す平面画像生成部260は、パラメータ決定部264と、テクスチャマッピング部266と、射影部268とを含み構成される。 Hereinafter, the spherical image output processing according to the present embodiment will be described in more detail with reference to FIGS. 9 to 12. FIG. 9 is a diagram showing a detailed functional block of the plane image generation unit 260 on the image processing apparatus according to the present embodiment. The plane image generation unit 260 shown in FIG. 9 includes a parameter determination unit 264, a texture mapping unit 266, and a projection unit 268.

パラメータ決定部264は、ユーザ入力受付部258から渡された各種入力値(パン指定値、チルト指定値およびズーム指定値)に応じて、カメラの視点の位置(d)および視野角(Θ)を含む画像生成パラメータを決定する決定手段である。 The parameter determination unit 264 determines the position (d) and viewing angle (Θ) of the viewpoint of the camera according to various input values (pan specified value, tilt specified value and zoom specified value) passed from the user input receiving unit 258. It is a determination means for determining the image generation parameters to be included.

テクスチャマッピング部266は、表示対象画像である全天球画像を所定の三次元形状に貼り付けた三次元モデルを生成する生成手段である。三次元モデルの生成は、いわゆるテクスチャマッピングの手法により行うことができる。テクスチャマッピングは、スマートフォンやタブレットなどの演算能力に制約がある情報処理端末が搭載するGPUが対応するOpenGLなどでも一般的なグラフィックス処理であり、三次元形状の表面にテクスチャ画像を貼り付ける処理をいう。テクスチャマッピング部266は、指定された全天球画像を読み出し、テクスチャを格納するテクスチャバッファに転送し、三次元モデルに割り付ける。 The texture mapping unit 266 is a generation means for generating a three-dimensional model in which a spherical image, which is a display target image, is attached to a predetermined three-dimensional shape. The generation of the three-dimensional model can be performed by the so-called texture mapping method. Texture mapping is a general graphics process even in OpenGL, which is supported by GPUs installed in information processing terminals with limited computing power such as smartphones and tablets, and is a process of pasting a texture image on the surface of a three-dimensional shape. say. The texture mapping unit 266 reads the designated spherical image, transfers it to the texture buffer that stores the texture, and allocates it to the three-dimensional model.

説明する実施形態において、三次元形状は、球体、円筒、その他鑑賞者にとって違和感ない出力画像を射影できる如何なる三次元形状を用いることができる。鑑賞者に対し違和感を感じさせず、かつ、演算処理を簡略化する観点からは、好適には、球体を用いることができる。3次元形状は、全天球画像が貼り付けられる少なくとも1つの内面を有し、球体を採用した場合は、全天球画像が貼り付けられる球面を含む。 In the embodiments described, the three-dimensional shape can be a sphere, a cylinder, or any other three-dimensional shape capable of projecting an output image that does not give the viewer a sense of discomfort. From the viewpoint of not making the viewer feel uncomfortable and simplifying the arithmetic processing, a sphere can be preferably used. The three-dimensional shape has at least one inner surface to which the spherical image is attached, and when a sphere is adopted, includes a spherical surface to which the spherical image is attached.

射影部268は、パラメータ決定部264により決定された画像生成パラメータに応じて、所定位置に視点が設定されたカメラから、全天球画像が貼り付けられた三次元モデルを、所定の投影方式で射影し、出力画像を生成する射影手段である。テクスチャマッピングした三次元モデルを任意カメラ視点から、所定の条件で観測した場合の画像をレンダリングすることで、出力画像を生成することができる。 The projection unit 268 uses a predetermined projection method to project a three-dimensional model to which a spherical image is pasted from a camera whose viewpoint is set at a predetermined position according to an image generation parameter determined by the parameter determination unit 264. It is a projection means that projects and produces an output image. An output image can be generated by rendering an image when a three-dimensional model with texture mapping is observed from an arbitrary camera viewpoint under predetermined conditions.

非特許文献1によれば、広視野表示時と狭視野表示時とでは、射影方式を異ならしめることが有効であることが知られている。しかしながら、複数の射影方式を連続的に適用すると、画像処理装置に対する性能要件が厳しくなる。 According to Non-Patent Document 1, it is known that it is effective to make the projection method different between the wide-field display and the narrow-field display. However, when a plurality of projection methods are continuously applied, the performance requirements for the image processing device become strict.

そこで、本実施形態では、画像処理装置のハードウェア要件を緩和するべく、平面画像生成部260は、単一の射影方式で、表示モデルの画像生成パラメータを変化させることで、鑑賞者による観賞に適した表示効果を得る構成を採用する。以下、入力値に応じた画像生成パラメータの決定処理について、図10~図12を参照して説明する。なお、説明する実施形態では、投影方式として、透視投影方式(遠近法投影)を用いるが、他の実施形態では、正射影方式など他の投影方式を採用してもよい。 Therefore, in the present embodiment, in order to relax the hardware requirements of the image processing device, the plane image generation unit 260 changes the image generation parameters of the display model by a single projection method, so that the viewer can view the images. Adopt a configuration that obtains a suitable display effect. Hereinafter, the process of determining the image generation parameter according to the input value will be described with reference to FIGS. 10 to 12. In the embodiment described, a perspective projection method (perspective projection) is used as the projection method, but in other embodiments, another projection method such as an orthographic projection method may be adopted.

上述したように画像生成パラメータは、投影方式として透視投影を採用する特定の実施形態では、カメラの視点の位置(d)、方向(v)、視野角(Θ)および投影範囲(zNear,zFar)を含む。三次元コンピュータ・グラフィックスでは、典型的には、世界座標系、モデル座標系およびカメラ座標系の3種の座標系が定義される。世界座標系は、絶対的な三次元空間を定義し、世界座標系により定義される三次元空間にカメラおよびオブジェクトが配置される。モデル座標系は、所定のオブジェクトを中心とした座標系である。説明する実施形態では、球体モデルを構築し、この球体モデルを世界座標系の原点に配置する。したがって、世界座標系と、球体モデルのモデル座標系とは、原点が一致し、軸のみが異なり得る。カメラ座標系は、カメラの視点を中心とした視野の方向(v)などを表す。 As described above, the image generation parameters are the position (d), direction (v), viewing angle (Θ) and projection range (zNear, zFar) of the viewpoint of the camera in a specific embodiment in which perspective projection is adopted as the projection method. including. In 3D computer graphics, three types of coordinate systems are typically defined: a world coordinate system, a model coordinate system, and a camera coordinate system. The world coordinate system defines an absolute three-dimensional space, and cameras and objects are placed in the three-dimensional space defined by the world coordinate system. The model coordinate system is a coordinate system centered on a predetermined object. In the embodiment described, a sphere model is constructed and the sphere model is placed at the origin of the world coordinate system. Therefore, the origin of the world coordinate system and the model coordinate system of the sphere model may be the same, and only the axes may be different. The camera coordinate system represents the direction (v) of the field of view centered on the viewpoint of the camera.

そして、射影部268は、全天球画像が内面に貼り付けられた球体モデルを、カメラの視点から2次元スクリーンに投影し、得られた投影画像を表示画像とする。スクリーンは、カメラ座標の原点を通る平面に配置され、透視投影によりスクリーンに全天球画像が投影される。 Then, the projection unit 268 projects a spherical model on which the spherical image is pasted on the inner surface onto a two-dimensional screen from the viewpoint of the camera, and uses the obtained projected image as a display image. The screen is arranged in a plane passing through the origin of the camera coordinates, and the spherical image is projected on the screen by perspective projection.

図10は、モデル座標系と、カメラの位置(d)および視野角(Θ)と、その視野内に写り込む画像の範囲を表す画角(Φ)との関係を説明する図である。カメラの視点が球体モデルの中心に位置すると、その視野内に写り込む画像の範囲を表す画角(Φ)と、カメラの視野角(Θ)とは一致する。しかしながら、図10において二重丸で示されているように、カメラの視点の位置(d)が、三次元モデルの中心から離れると、画角(Φ)と、カメラの視野角(Θ)とは異なる値をとることになる。ズームインおよびズームアウトは、画角(Φ)を変更する操作に対応する。説明する実施形態では、ズーム指定値の範囲に応じてカメラの視点の位置(d)および視野角(Θ)のいずれかを変更することで、画角(Φ)の変化を生み出す。 FIG. 10 is a diagram illustrating the relationship between the model coordinate system, the camera position (d) and the viewing angle (Θ), and the angle of view (Φ) representing the range of the image captured in the field of view. When the viewpoint of the camera is located at the center of the spherical model, the angle of view (Φ) representing the range of the image captured in the field of view coincides with the viewing angle (Θ) of the camera. However, as shown by the double circle in FIG. 10, when the position (d) of the viewpoint of the camera is separated from the center of the three-dimensional model, the angle of view (Φ) and the viewing angle (Θ) of the camera Will take different values. Zoom-in and zoom-out correspond to the operation of changing the angle of view (Φ). In the embodiment to be described, the angle of view (Φ) is changed by changing either the position (d) of the viewpoint of the camera or the viewing angle (Θ) according to the range of the specified zoom value.

本実施形態におけるパン、チルトおよびズームの表示範囲の操作に応じた画像生成パラメータの変更については、下記表1にまとめる。 The changes in the image generation parameters according to the operation of the pan, tilt, and zoom display ranges in this embodiment are summarized in Table 1 below.

Figure 2022043132000005
Figure 2022043132000005

なお、表1では、上記チルトおよびパンによる画像の表示位置の移動は、視野の方向(v)を固定し、世界座標系において球体モデルを回転変換することにより、実現されている。しかしながら、他の実施形態では、球体モデルを世界座標系に対して固定し、カメラの視野の方向(v)を変更することにより、画像表示位置の移動を実現してもよい。 In Table 1, the movement of the display position of the image by the tilt and pan is realized by fixing the direction (v) of the field of view and rotating the sphere model in the world coordinate system. However, in another embodiment, the sphere model may be fixed with respect to the world coordinate system and the direction (v) of the field of view of the camera may be changed to realize the movement of the image display position.

以下、図11および図12を参照して、本実施形態におけるズーム指定値に応じた画像生成パラメータの決定処理について、より詳細に説明する。図11および図12は、ズーム指定値に応じて、どのように画像生成パラメータを決定するかを説明する図であり、その際の出力画像および球体モデルの表示される範囲を併せて示す。図11および図12には、A~Eで示す特定のズーム指定値(z)が与えられた場合の画像生成パラメータの決定方法が示されている。 Hereinafter, the process of determining the image generation parameter according to the specified zoom value in the present embodiment will be described in more detail with reference to FIGS. 11 and 12. 11 and 12 are diagrams illustrating how the image generation parameters are determined according to the zoom specified value, and also show the output image and the displayed range of the sphere model at that time. 11 and 12 show a method of determining an image generation parameter when a specific zoom designation value (z) indicated by A to E is given.

また、ズーム指定値(z)に応じて決定される画像生成パラメータ、その際の表示倍率および画角(Φ)を下記表2としてまとめて示す。下記表2中、viewWHは、出力画像の表示領域の幅または高さを表し、表示領域が横長の場合は、表示領域の幅となり、表示領域が縦長の場合は、表示領域の高さとなる。下記表2中、imgWHは、画像の幅または高さを表し、表示領域が横長の場合は、画像幅となり、表示領域が縦長の場合は、画像高さとなる。imgDegは、画像の表示範囲の角度を表し、画像幅の場合は、360度、画像高さの場合は、180度となる。 Further, the image generation parameters determined according to the zoom specified value (z), the display magnification and the angle of view (Φ) at that time are collectively shown in Table 2 below. In Table 2 below, viewWH represents the width or height of the display area of the output image. When the display area is horizontally long, it is the width of the display area, and when the display area is vertically long, it is the height of the display area. In Table 2 below, imgWH represents the width or height of the image, and when the display area is horizontally long, it is the image width, and when the display area is vertically long, it is the image height. The imgDeg represents the angle of the display range of the image, which is 360 degrees in the case of the image width and 180 degrees in the case of the image height.

Figure 2022043132000006
Figure 2022043132000006

本実施形態において、ズーム指定値(z)の範囲は、表2に示したように、A~Bの範囲、B~Cの範囲、C~Dの範囲およびD~Eの範囲を含む4つの範囲に区分される。ズーム指定値(z)は、表示させたい画角に対応した値であり、説明する実施形態では、最小画角60度から最大画角300度までの範囲でユーザから指定される。 In the present embodiment, as shown in Table 2, the range of the specified zoom value (z) is four, including the range of A to B, the range of B to C, the range of C to D, and the range of D to E. It is divided into ranges. The zoom specified value (z) is a value corresponding to the angle of view to be displayed, and is designated by the user in the range from the minimum angle of view of 60 degrees to the maximum angle of view of 300 degrees in the embodiment described.

ズームアウトを考えると、ズーム指定値(z)が、A~Bの範囲にある場合は、カメラの視野角(Θ)が60度に固定され、カメラ位置(d)が中心から離れて行くことで、図11のAおよび図11のBで示すように、画角(Φ)が広げられる。A~Bの範囲にある場合のカメラ位置(d)は、図11のAで示す原点0から、図11のBで示す球体モデルの外縁に対応する1まで、表2中の計算式で表されるように画角(Φ)およびズーム指定値(z)に応じた値に決定される。 Considering zoom-out, when the specified zoom value (z) is in the range of A to B, the viewing angle (Θ) of the camera is fixed at 60 degrees, and the camera position (d) moves away from the center. Then, as shown by A in FIG. 11 and B in FIG. 11, the angle of view (Φ) is widened. The camera position (d) in the range of A to B is shown by the formula in Table 2 from the origin 0 shown by A in FIG. 11 to 1 corresponding to the outer edge of the spherical model shown by B in FIG. The value is determined according to the angle of view (Φ) and the specified zoom value (z).

ズーム指定値(z)が、A~Bより広視野側にあるB~Cの範囲にある場合は、図11のBおよび図11のCで示すように、カメラ位置(d)が球体モデルの外縁に固定され(d=1)、カメラの視野角(Θ)を広げて行くことで、画角(Φ)が広げられる。カメラの視野角(Θ)は、A~Bの範囲で固定されていた60度から120度まで、計算式Θ=Φ/2にしたがって増加する。視野内に写り込む画像の範囲を表す画角(Φ)は、A~Bの範囲およびB~Cの範囲では、ズーム指定値(z)に一致し、単調増加することになる。 When the specified zoom value (z) is in the range of B to C on the wide field of view side of A to B, the camera position (d) is the spherical model as shown by B in FIG. 11 and C in FIG. It is fixed to the outer edge (d = 1), and the angle of view (Φ) is widened by widening the viewing angle (Θ) of the camera. The viewing angle (Θ) of the camera increases from 60 degrees to 120 degrees, which is fixed in the range of A to B, according to the formula Θ = Φ / 2. The angle of view (Φ) representing the range of the image captured in the field of view matches the zoom specified value (z) in the range of A to B and the range of B to C, and increases monotonically.

ズーム指定値(z)が、B~Cの範囲より広視野側にあるC~Dの範囲およびD~Eの範囲にある場合は、図11のC、図12のDおよび図12のEで示すようになる。すなわち、カメラの視野角(Θ)が120度に固定されたまま、カメラの視点の位置(d)が再び中心から離れる方向に移動されることで、画角(Φ)が広げられる。カメラ視点の位置(d)は、表2に記載された計算式に従い、ズーム指定値(z)に応じて決定される。また、C~Dの範囲およびD~Eの範囲では、画角(Φ)は、ズーム指定値(z)とは一致しなくなる。 When the specified zoom value (z) is in the range of C to D and the range of D to E on the wider field of view side than the range of B to C, C in FIG. 11, D in FIG. 12 and E in FIG. Will be shown. That is, the angle of view (Φ) is widened by moving the position (d) of the viewpoint of the camera away from the center again while the viewing angle (Θ) of the camera is fixed at 120 degrees. The position (d) of the camera viewpoint is determined according to the zoom specified value (z) according to the calculation formula shown in Table 2. Further, in the range of C to D and the range of D to E, the angle of view (Φ) does not match the zoom specified value (z).

図12のDで示された位置に対応する表2中のdmax1は、図12においてDに併せて示したような、表示領域の矩形いっぱいに最大の画角で球体モデルが表示される距離に対応し、特定の実施形態では、下記式(5)で計算することができる。図12のEで示された位置(D)に対応する表2中のdmax2は、図12においてEに併せて示したような、表示領域の矩形内に球体モデルが内接する最大の画角で球体モデルが表示される距離に対応し、特定の実施形態では、下記式(6)で計算される。 The dmax1 in Table 2 corresponding to the position indicated by D in FIG. 12 is the distance at which the sphere model is displayed at the maximum angle of view in the entire rectangle of the display area as shown together with D in FIG. Correspondingly, in a specific embodiment, it can be calculated by the following equation (5). Dmax2 in Table 2 corresponding to the position (D) indicated by E in FIG. 12 is the maximum angle of view in which the sphere model is inscribed in the rectangle of the display area as shown together with E in FIG. Corresponding to the distance at which the sphere model is displayed, in a particular embodiment, it is calculated by the following equation (6).

Figure 2022043132000007
Figure 2022043132000007

上記式(5)および(6)中、viewWおよびviewHは、表示領域の幅および高さを表す。したがって、dmax1およびdmax2は、表示画面の大きさ(幅および高さ、対角の長さ)に依存する値となる。dmax2は、カメラの視点が取りうる最遠位置に対応し、ズーム指定値(z)は、表示領域の大きさに応じて制限されることになる。表2に示した範囲(~dmax2)にカメラの視点の位置が収まるようにズーム指定値(z)を制限することで、表示画面上にフィットし、または所定の倍率で全天球画像が球形状に表示された状態で、ズームアウトを終了させることができる。これにより、鑑賞者に、表示されている画像が全天球画像であることを視覚的に認識させることができるとともに、違和感のない状態でズームアウトを終了させることができる。 In the above equations (5) and (6), viewW and viewH represent the width and height of the display area. Therefore, dmax1 and dmax2 are values that depend on the size (width and height, diagonal length) of the display screen. dmax2 corresponds to the farthest position that the viewpoint of the camera can take, and the zoom specified value (z) is limited according to the size of the display area. By limiting the zoom specified value (z) so that the position of the viewpoint of the camera falls within the range (to dmax2) shown in Table 2, the spherical image fits on the display screen or the spherical image is spherical at a predetermined magnification. You can end the zoom out while it is displayed on the shape. As a result, the viewer can visually recognize that the displayed image is a spherical image, and the zoom-out can be completed without any discomfort.

また、表2および図11を参照すると明らかなように、上述した各範囲間では、画角(Φ)は、連続しているが、広角側へのズームアウトによって画角(Φ)は、一様に増加していない。すなわち、カメラの視点位置が変更されるC~D~Eの範囲のうちの、C~Dの範囲では、カメラの視点の位置(d)が球体モデルの中心から距離が離れるにつれて、画角(Φ)が増大するが、D~Eの範囲では、距離が離れるにつれて画角(Φ)が減少して行く。これは、球体モデルの外側の領域が視野内に写り込むことによる。そして、ズーム指定値が240度以上の広視野域において、カメラの視点位置(d)を移動させることで、違和感の少ない表示を行いながら、画角(Φ)を変化させることが可能となる。 Further, as is clear from Table 2 and FIG. 11, the angle of view (Φ) is continuous between the above-mentioned ranges, but the angle of view (Φ) is one due to the zoom-out to the wide-angle side. It has not increased so much. That is, in the range of C to D in the range of C to D to E where the viewpoint position of the camera is changed, the angle of view ( Φ) increases, but in the range of D to E, the angle of view (Φ) decreases as the distance increases. This is due to the fact that the outer region of the sphere model is reflected in the field of view. Then, by moving the viewpoint position (d) of the camera in a wide field of view with a zoom specified value of 240 degrees or more, it is possible to change the angle of view (Φ) while displaying with less discomfort.

したがって、ズーム指定値の広角方向への変更を考えると、基本的には、画角(Φ)が広くなって行く方向となる。このとき、カメラの視野角(Θ)の増加が押さえられ、モデル座標系からカメラが遠ざかることによって広角表示時の開放感が表現されるので、画像の歪みが軽減される。また、カメラが遠ざかる動きは、実際に人間が広い範囲を確認しようとする場合の行動に類似した動きであるため、違和感の少ないズームアウトとなると考えられる。そして、画角(Φ)は、D~Eの範囲では、ズーム指定値が広視野側へ行くにつれ減少して行くが、これにより、鑑賞者は、球体から遠ざかって行くように感じられ、違和感の少ないズームアウトとなる。 Therefore, considering the change of the zoom specified value in the wide-angle direction, the angle of view (Φ) is basically widened. At this time, the increase in the viewing angle (Θ) of the camera is suppressed, and the camera moves away from the model coordinate system to express a feeling of openness during wide-angle display, so that distortion of the image is reduced. Further, since the movement of the camera moving away is similar to the behavior when a human actually tries to confirm a wide range, it is considered that the zoom-out is less uncomfortable. The angle of view (Φ) decreases in the range of D to E as the specified zoom value goes toward the wide field of view, but this makes the viewer feel as if he / she is moving away from the sphere, which makes him feel uncomfortable. Zoom out with less.

なお、上述した説明では、各範囲では、カメラ視点の位置(d)および視野角(Θ)のいずれか一方のみが変更され、他方が固定されるものとして説明した。しかしながらが、他の実施形態では、カメラ視点の位置(d)および視野角(Θ)のいずれか一方を優先的に変更し、他方を比較的小さな変化量で変更する態様も妨げられない。また、上記説明では、ズームアウトする方向に変更される文脈で、画像生成パラメータの決定方法について説明したが、ズームインの際も同様に画像生成パラメータを決定することができる。 In the above description, it is assumed that only one of the camera viewpoint position (d) and the viewing angle (Θ) is changed and the other is fixed in each range. However, in other embodiments, it is not hindered to preferentially change either the position (d) or the viewing angle (Θ) of the camera viewpoint and change the other with a relatively small amount of change. Further, in the above description, the method of determining the image generation parameter has been described in the context of being changed in the zoom-out direction, but the image generation parameter can be similarly determined when zooming in.

以下、図13を参照しながら、本実施形態による画像処理装置のハードウェア構成について説明する。図13は、本実施形態による画像処理装置のハードウェア構成を示す図である。本実施形態による画像処理装置は、タブレット端末122といった携帯情報端末として構成されている。図13に示すタブレット端末122は、シングルコアまたはマルチコアのCPU(Central Processing Unit)、GPU、ベースバンドプロセッサおよびメモリコントローラなどがSoC(System on Chip)として統合されたモバイルプロセッサ10と、モバイルプロセッサ10に接続され、CPUなどの作業領域を提供するLPDDR(Low-Power Double DataRate)SDRAMといったメモリ12と、フラッシュメモリ14と、SDカードなどの外部記録媒体スロット16とを含む。 Hereinafter, the hardware configuration of the image processing apparatus according to the present embodiment will be described with reference to FIG. 13. FIG. 13 is a diagram showing a hardware configuration of an image processing device according to the present embodiment. The image processing device according to the present embodiment is configured as a mobile information terminal such as a tablet terminal 122. The tablet terminal 122 shown in FIG. 13 includes a mobile processor 10 in which a single-core or multi-core CPU (Central Processing Unit), a GPU, a baseband processor, a memory controller, and the like are integrated as a SoC (System on Chip), and the mobile processor 10. It includes a memory 12 such as an LPDDR (Low-Power Double DataRate) SDRAM that is connected and provides a work area such as a CPU, a flash memory 14, and an external recording medium slot 16 such as an SD card.

フラッシュメモリ14は、タブレット端末122を制御するためのOS、上述した機能部を実現するための制御プログラム、各種システム情報や各種設定情報、さらに上記全天球画像などを含むユーザデータを格納する。外部記録媒体スロット16には、全天球画像などのユーザデータが格納された記録媒体が装着される。 The flash memory 14 stores user data including an OS for controlling the tablet terminal 122, a control program for realizing the above-mentioned functional unit, various system information and various setting information, and the above-mentioned spherical image. A recording medium in which user data such as a spherical image is stored is installed in the external recording medium slot 16.

モバイルプロセッサ10には、さらに、タッチ・スクリーン・コントローラ18およびディスプレイ・インタフェース20を介して、タッチ・スクリーン・センサが搭載されたディスプレイ22と接続されている。ディスプレイ22は、各種設定画面およびアプリケーション画面を表示し、本実施形態においては、全天球画像から生成された出力画像を含む画像ビューワの画面を表示することができる。タブレット端末122は、さらに、モバイルプロセッサ10に接続されたHDMI(登録商標,High-Definition Multimedia Interface)などの映像出力インタフェース24を備え、外部のディスプレイやプロジェクタと接続可能とされている。 The mobile processor 10 is further connected to a display 22 equipped with a touch screen sensor via a touch screen controller 18 and a display interface 20. The display 22 displays various setting screens and application screens, and in the present embodiment, the screen of the image viewer including the output image generated from the spherical image can be displayed. The tablet terminal 122 further includes a video output interface 24 such as HDMI (registered trademark, High-Definition Multimedia Interface) connected to the mobile processor 10, and can be connected to an external display or projector.

タブレット端末122は、さらに、CMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサを含むカメラ28を備える。カメラ28は、カメラインタフェース26を介してモバイルプロセッサ10と接続されている。タブレット端末122は、さらに、音声のエンコードおよびデコード処理を行う音声コーデック30と、ヘッドフォンやスピーカの音声を切り替える音声スイッチ32とを備える。 The tablet terminal 122 further includes a camera 28 including an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor). The camera 28 is connected to the mobile processor 10 via the camera interface 26. The tablet terminal 122 further includes an audio codec 30 that encodes and decodes audio, and an audio switch 32 that switches audio from headphones and speakers.

モバイルプロセッサ10には、さらに、無線LANポート34と、Bluetooth(登録商標)などの近距離無線ポート36が接続されており、無線通信により外部の機器と接続可能とされている。説明する実施形態では、タブレット端末122は、無線LANポート34または近距離無線ポート36を介して、外部の全天球撮像装置110と接続されている。タブレット端末122は、電源管理ユニット38を備え、電源管理ユニット38により、タブレット端末122の外部電源およびバッテリの電源管理が行われる。 Further, a wireless LAN port 34 and a short-range wireless port 36 such as Bluetooth (registered trademark) are connected to the mobile processor 10, and it is possible to connect to an external device by wireless communication. In the embodiment described, the tablet terminal 122 is connected to an external spherical image pickup device 110 via a wireless LAN port 34 or a short-range wireless port 36. The tablet terminal 122 includes a power management unit 38, and the power management unit 38 manages the external power supply of the tablet terminal 122 and the power supply of the battery.

本実施形態によるタブレット端末122は、フラッシュメモリ14から制御プログラムを読み出し、メモリ12が提供する作業空間に展開することにより、モバイルプロセッサ10内に統合されたCPUの制御の下、上述した各機能部および各処理を実現する。その際には、OpenGLなどのグラフィック処理用のAPIを介して、モバイルプロセッサ10内に統合されたGPUの演算機能が呼び出され、上述したテクスチャマッピング処理および射影処理などの画像演算が実行される。 The tablet terminal 122 according to the present embodiment reads a control program from the flash memory 14 and expands it in the work space provided by the memory 12, so that each functional unit described above is controlled by a CPU integrated in the mobile processor 10. And realize each process. At that time, the calculation function of the GPU integrated in the mobile processor 10 is called via the API for graphic processing such as OpenGL, and the image calculation such as the texture mapping processing and the projection processing described above is executed.

以上説明した実施形態によれば、画像表示する際に、広視野領域での表示において、上下左右の端部の被写体が引き伸ばされることによる違和感を低減しつつ高速表示を可能とする、演算能力に対する要件が緩和された画像処理システム、画像処理方法およびプログラムを提供することができる。 According to the embodiment described above, when displaying an image, it is possible to perform high-speed display while reducing a sense of discomfort due to stretching of the subject at the top, bottom, left, and right edges in the display in a wide field of view. It is possible to provide an image processing system, an image processing method and a program with relaxed requirements.

上述した実施形態によれば、表示モデルが単一の射影方式として構築されるので、制限された画像演算機能を有する画像処理装置であっても、リアルタイムかつスムーズなズーム表示を行うことが可能となる。そして、カメラの視点位置を三次元モデルから遠ざけることでズームアウトを表現しているので、視野角の増大が押さえられ、広がり感を出しながらも、画像の歪みを抑えることが可能となる。 According to the above-described embodiment, since the display model is constructed as a single projection method, it is possible to perform real-time and smooth zoom display even with an image processing device having a limited image calculation function. Become. Since the zoom-out is expressed by moving the viewpoint position of the camera away from the three-dimensional model, it is possible to suppress the increase in the viewing angle and suppress the distortion of the image while giving a feeling of spaciousness.

なお、上記機能部は、アセンブラ、C、C++、C#、Java(登録商標)などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD-ROM、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、ブルーレイディスク、SDカード、MOなど装置可読な記録媒体に格納して、あるいは電気通信回線を通じて頒布することができる。また、上記機能部の一部または全部は、例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラマブル・デバイス(PD)上に実装することができ、あるいはASIC(特定用途向集積)として実装することができ、上記機能部をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(VHSIC(Very High Speed Integrated Circuits) Hardware Description Language)、Verilog-HDLなどにより記述されたデータとして記録媒体により配布することができる。 The above functional unit can be realized by a computer-executable program described in a legacy programming language such as an assembler, C, C ++, C #, Java (registered trademark), an object-oriented programming language, or the like, and is ROM, EEPROM, EPROM. , Flash memory, flexible disc, CD-ROM, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, Blu-ray disc, SD card, MO, etc. Stored in a device-readable recording medium, or through a telecommunications line Can be distributed. In addition, some or all of the functional parts can be mounted on a programmable device (PD) such as a field programmable gate array (FPGA), or as an ASIC (application specific integrated circuit). Circuit configuration data (bit stream data) to be downloaded to PD to realize the above functional unit on PD, HDL (Hardware Description Language) to generate circuit configuration data, VHDL (VHSIC (Very High Speed)) Integrated Circuits) Hardware Description Language), can be distributed by recording medium as data described by Verilog-HDL and the like.

これまで本発明の実施形態について説明してきたが、本発明の実施形態は上述した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 Although the embodiments of the present invention have been described so far, the embodiments of the present invention are not limited to the above-described embodiments, and those skilled in the art may think of other embodiments, additions, changes, deletions, and the like. It can be changed within the range possible, and is included in the scope of the present invention as long as the action / effect of the present invention is exhibited in any of the embodiments.

100…全天球画像表示システム、102…インターネット、104…通信機器、110…全天球撮像装置、120~124…画像処理装置、130…画像表示サーバ、200…機能ブロック、210…機能ブロック、212…撮像光学系、214…合成処理ブロック、250…機能ブロック、252…入力部、254…出力部、256…全天球画像蓄積部、258…ユーザ入力受付部、260…平面画像生成部、262…画像出力部、264…パラメータ決定部、264…テクスチャマッピング部、266…射影部、300…画像ビューワ画面、310…画像表示領域、312,314…GUI部品、10…モバイルプロセッサ、12…メモリ、14…フラッシュメモリ、16…外部記録媒体スロット、18…タッチ・スクリーン・コントローラ、20…ディスプレイ・インタフェース、22…ディスプレイ、24…外部映像インタフェース、26…カメラインタフェース、28…カメラ、30…音声コーデック、32…音声スイッチ、34…無線LANポート、36…近距離無線ポート、38…電源管理ユニット 100 ... All-sky image display system, 102 ... Internet, 104 ... Communication equipment, 110 ... All-sky imager, 120-124 ... Image processing device, 130 ... Image display server, 200 ... Functional block, 210 ... Functional block, 212 ... Imaging optical system, 214 ... Composite processing block, 250 ... Functional block, 252 ... Input unit, 254 ... Output unit, 256 ... All-sky image storage unit, 258 ... User input reception unit, 260 ... Planar image generation unit, 262 ... Image output unit, 264 ... Parameter determination unit, 264 ... Texture mapping unit, 266 ... Projection unit, 300 ... Image viewer screen, 310 ... Image display area, 312, 314 ... GUI parts, 10 ... Mobile processor, 12 ... Memory , 14 ... Flash memory, 16 ... External recording medium slot, 18 ... Touch screen controller, 20 ... Display interface, 22 ... Display, 24 ... External video interface, 26 ... Camera interface, 28 ... Camera, 30 ... Voice codec , 32 ... voice switch, 34 ... wireless LAN port, 36 ... short-range wireless port, 38 ... power management unit

J. Kopf, et. al、”Capturing and Viewing Gigapixel Images”、ACM Transactions on Graphics (TOG) - Proceedings of ACM SIGGRAPH 2007、Volume 26、Issue 3、July 2007、Article No. 93、ACM New York, NY, USAJ. Kopf, et. Al, "Capturing and Viewing Gigapixel Images", ACM Transactions on Graphics (TOG)-Proceedings of ACM SIGGRAPH 2007, Volume 26, Issue 3, July 2007, Article No. 93, ACM New York, NY, USA

Claims (9)

出力範囲を規定する入力値を受け付ける受付手段と、
対象画像を三次元形状に貼り付けた三次元モデルを生成する生成手段と、
前記入力値に基づき、視点の位置および視野角を決定する決定手段と、
前記視点から前記三次元モデルを射影する射影手段と
を含み、前記決定手段は、前記入力値が、第1の範囲にある場合は、前記視野角を優先的に変化させることで前記対象画像の視野内に入る範囲を変化させ、前記入力値が、前記第1の範囲より広視野側にある第2の範囲にある場合は、前記視点の位置を優先的に変化させることで前記視野内に入る範囲を変化させる、画像処理システム。
A reception means that accepts input values that specify the output range,
A generation means for generating a 3D model in which a target image is pasted into a 3D shape,
A determination means for determining the position and viewing angle of the viewpoint based on the input value, and
The determination means includes a projection means for projecting the three-dimensional model from the viewpoint, and the determination means preferentially changes the viewing angle of the target image when the input value is in the first range. The range within the visual field is changed, and when the input value is in the second range on the wider visual field side than the first range, the position of the viewpoint is preferentially changed into the visual field. An image processing system that changes the range of entry.
前記第2の範囲は、前記視点の位置が前記三次元形状の中心から距離が離れるにつれて、前記視野内に入る範囲が増大する範囲と、離れるにつれ前記視野内に入る範囲が減少する範囲とを含む、請求項1に記載の画像処理システム。 The second range includes a range in which the range within the visual field increases as the position of the viewpoint moves away from the center of the three-dimensional shape, and a range in which the range within the visual field decreases as the position moves away. The image processing system according to claim 1, which includes. 前記視点の位置は、出力領域の大きさに応じて制限される、請求項2に記載の画像処理システム。 The image processing system according to claim 2, wherein the position of the viewpoint is limited according to the size of the output area. 前記決定手段は、前記入力値が第1の範囲にある場合は、前記三次元形状の中心から離れた位置に前記視点を決定する、請求項1~3のいずれか1項に記載の画像処理システム。 The image processing according to any one of claims 1 to 3, wherein the determination means determines the viewpoint at a position away from the center of the three-dimensional shape when the input value is in the first range. system. 前記決定手段は、前記入力値が前記第1の範囲よりも狭視野側にある第3の範囲にある場合は、前記視点の位置を優先的に変化させることで前記視野内に入る範囲を変化させる、請求項1~4のいずれか1項に記載の画像処理システム。 When the input value is in a third range on the narrower visual field side than the first range, the determining means changes the range within the visual field by preferentially changing the position of the viewpoint. The image processing system according to any one of claims 1 to 4. 前記入力値は、ズームの程度を指定するズーム指定値であり、前記受付手段は、さらに、出力範囲を上下に振るチルト指定値、および出力範囲を左右に振るパン指定値、またはこれらの少なくとも1つを受け付け、
前記チルト指定値およびパン指定値またはこれらの少なくとも1つに応じて、世界座標系に対して前記三次元モデルを回転するか、視野方向を変更する手段をさらに含む、請求項1~5のいずれか1項に記載の画像処理システム。
The input value is a zoom specified value that specifies the degree of zoom, and the receiving means further includes a tilt specified value that swings the output range up and down, a pan specified value that swings the output range left and right, or at least one of these. Accept one,
Any of claims 1-5, further comprising means for rotating the three-dimensional model or changing the viewing direction with respect to the world coordinate system according to the tilt and pan designations or at least one of them. The image processing system according to item 1.
前記三次元形状は、前記対象画像が貼り付けられる少なくとも1つの内面を有する立体であり、前記対象画像は、少なくとも1つの角度座標を含む座標系で表現される画像であり、前記射影手段は、単一の射影方式で射影する、請求項1~6のいずれか1項に記載の画像処理システム。 The three-dimensional shape is a solid body having at least one inner surface to which the target image is attached, the target image is an image represented by a coordinate system including at least one angular coordinate, and the projection means is a projection means. The image processing system according to any one of claims 1 to 6, wherein the image is projected by a single projection method. 出力画像を生成する画像処理方法であって、コンピュータが、
出力範囲を規定する入力値を受け付けるステップと、
前記入力値に基づき、視点の位置および視野角を決定するステップと、
対象画像を三次元形状に貼り付けた三次元モデルを生成するステップと、
前記視点から前記三次元モデルを射影するステップと
を実行し、前記決定するステップでは、前記コンピュータが、
前記入力値が、第1の範囲にある場合に、前記視野角を優先的に変化させることで前記対象画像の視野内に入る範囲を変化させるサブステップ、または、
前記入力値が、前記第1の範囲より広視野側にある第2の範囲にある場合に、前記視点の位置を優先的に変化させることで前記視野内に入る範囲を変化させるサブステップ
を実行する、画像処理方法。
An image processing method that produces an output image, which is a computer
A step that accepts an input value that defines the output range,
Steps to determine the position and viewing angle of the viewpoint based on the input values,
Steps to generate a 3D model with the target image pasted into a 3D shape,
In the step of projecting the three-dimensional model from the viewpoint and the step of determining the determination, the computer performs the step of projecting the three-dimensional model.
When the input value is in the first range, a sub-step that changes the range within the field of view of the target image by preferentially changing the viewing angle, or
When the input value is in the second range on the wide field of view side of the first range, the sub-step of changing the range within the field of view by preferentially changing the position of the viewpoint is executed. Image processing method.
コンピュータを、
出力範囲を規定する入力値を受け付ける受付手段、
対象画像を三次元形状に貼り付けた三次元モデルを生成する生成手段、
前記入力値に基づき、視点の位置および視野角を決定する決定手段、および
前記視点から前記三次元モデルを射影する射影手段
として機能させるためのプログラムであって、
前記決定手段は、前記入力値が、第1の範囲にある場合は、前記視野角を優先的に変化させることで前記対象画像の視野内に入る範囲を変化させ、前記入力値が、前記第1の範囲より広視野側にある第2の範囲にある場合は、前記視点の位置を優先的に変化させることで前記視野内に入る範囲を変化させる、プログラム。
Computer,
Reception means that accepts input values that specify the output range,
A generation means for generating a 3D model in which a target image is pasted into a 3D shape,
It is a program for functioning as a determining means for determining a viewpoint position and a viewing angle based on the input value, and a projection means for projecting the three-dimensional model from the viewpoint.
When the input value is in the first range, the determination means preferentially changes the viewing angle to change the range within the field of view of the target image, and the input value is the first range. A program that changes the range within the visual field by preferentially changing the position of the viewpoint when it is in the second range on the wide visual field side of the range 1.
JP2021198997A 2020-03-03 2021-12-08 Image processing system, image processing method and program Active JP7302647B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021198997A JP7302647B2 (en) 2020-03-03 2021-12-08 Image processing system, image processing method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020035859A JP6992829B2 (en) 2020-03-03 2020-03-03 Image processing system, image processing method and program
JP2021198997A JP7302647B2 (en) 2020-03-03 2021-12-08 Image processing system, image processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020035859A Division JP6992829B2 (en) 2020-03-03 2020-03-03 Image processing system, image processing method and program

Publications (2)

Publication Number Publication Date
JP2022043132A true JP2022043132A (en) 2022-03-15
JP7302647B2 JP7302647B2 (en) 2023-07-04

Family

ID=86996585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021198997A Active JP7302647B2 (en) 2020-03-03 2021-12-08 Image processing system, image processing method and program

Country Status (1)

Country Link
JP (1) JP7302647B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002203254A (en) * 2000-08-30 2002-07-19 Usc Corp Curved surface image transforming method and recording medium with the curved surface image transforming method recorded thereon
JP2005223416A (en) * 2004-02-03 2005-08-18 Sony Corp Image processing system, image processing apparatus and image processing method, and program
JP2007233996A (en) * 2006-02-06 2007-09-13 Olympus Imaging Corp Image compositing apparatus, image compositing method, image compositing program and recording medium
WO2009014075A1 (en) * 2007-07-20 2009-01-29 Techwell Japan K.K. Image processing device and camera system
JP2010049346A (en) * 2008-08-19 2010-03-04 Canon Inc Image display apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002203254A (en) * 2000-08-30 2002-07-19 Usc Corp Curved surface image transforming method and recording medium with the curved surface image transforming method recorded thereon
JP2005223416A (en) * 2004-02-03 2005-08-18 Sony Corp Image processing system, image processing apparatus and image processing method, and program
JP2007233996A (en) * 2006-02-06 2007-09-13 Olympus Imaging Corp Image compositing apparatus, image compositing method, image compositing program and recording medium
WO2009014075A1 (en) * 2007-07-20 2009-01-29 Techwell Japan K.K. Image processing device and camera system
JP2010049346A (en) * 2008-08-19 2010-03-04 Canon Inc Image display apparatus

Also Published As

Publication number Publication date
JP7302647B2 (en) 2023-07-04

Similar Documents

Publication Publication Date Title
JP6044328B2 (en) Image processing system, image processing method, and program
JP5743016B2 (en) Apparatus and method for generating images
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
CN109218606B (en) Image pickup control apparatus, control method thereof, and computer readable medium
JP2019164782A (en) Image processing apparatus, image capturing system, image processing method, and program
JP4875887B2 (en) Image composition system and image composition method
JP6992829B2 (en) Image processing system, image processing method and program
JP6394682B2 (en) Method and image processing apparatus
US20220230275A1 (en) Imaging system, image processing apparatus, imaging device, and recording medium
JP7424076B2 (en) Image processing device, image processing system, imaging device, image processing method and program
JP6705477B2 (en) Image processing system, image processing method and program
JP7302647B2 (en) Image processing system, image processing method and program
JP2019164783A (en) Image processing apparatus, image capturing system, image processing method, and program
WO2017159014A1 (en) Image processing device, image processing method and image processing system
WO2008012983A1 (en) Imaging device and imaging system
JP7187307B2 (en) Electronic device and its control method
TWI704408B (en) Omnidirectional camera apparatus and image mapping/combining method thereof
JPWO2017145483A1 (en) Image processing apparatus, image processing system, and program
JP7118383B1 (en) Display system, display method, and display program
JP7219620B2 (en) Delivery image generation method
JP7278773B2 (en) Electronic device and its control method
JP2022084529A (en) Device, system, method and program
JP2021005829A (en) Imaging apparatus, image processing system, method, and program
JP2021005828A (en) Imaging apparatus, imaging system, method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230605

R151 Written notification of patent or utility model registration

Ref document number: 7302647

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151