JP2022043132A - Image processing system, image processing method, and program - Google Patents
Image processing system, image processing method, and program Download PDFInfo
- Publication number
- JP2022043132A JP2022043132A JP2021198997A JP2021198997A JP2022043132A JP 2022043132 A JP2022043132 A JP 2022043132A JP 2021198997 A JP2021198997 A JP 2021198997A JP 2021198997 A JP2021198997 A JP 2021198997A JP 2022043132 A JP2022043132 A JP 2022043132A
- Authority
- JP
- Japan
- Prior art keywords
- image
- range
- viewpoint
- image processing
- input value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 98
- 238000003672 processing method Methods 0.000 title claims abstract description 7
- 230000008859 change Effects 0.000 claims abstract description 26
- 230000000007 visual effect Effects 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 43
- 230000007423 decrease Effects 0.000 claims description 3
- 239000007787 solid Substances 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 9
- 238000013507 mapping Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理技術に関し、より詳細には、広画角で構成された画像を三次元モデルに基づき射影するための画像処理システム、画像処理方法およびプログラムに関する。 The present invention relates to an image processing technique, and more particularly to an image processing system, an image processing method, and a program for projecting an image composed of a wide angle of view based on a three-dimensional model.
従来、カメラなどにより撮影された画像を平面ディスプレイ上で表示するシステムとして、パノラマ画像ビューワが知られている。パノラマ画像ビューワは、撮影方向が異なり、かつ一部被写体を重複して撮影した複数枚の画像をつなぎ合わせ、つなぎ合わせた合成画像をディスプレイ上に表示するシステムである。 Conventionally, a panoramic image viewer is known as a system for displaying an image taken by a camera or the like on a flat display. The panoramic image viewer is a system that stitches together a plurality of images shot in different shooting directions and overlaps some subjects, and displays the stitched composite image on the display.
従来のパノラマ画像ビューワは、つなぎ合わせたパノラマ画像について、パン(視野の左右移動)、チルト(視野の上下移動)、ズーム(拡大縮小)といった各種の表示範囲変更操作を可能とする機能を備えている。パノラマ画像ビューワは、円筒の側面上または球面上に貼り付けられた画像を円筒もしくは球の重心から見た場合の画像を平面上に射影して表示させる手法を利用することが多い。この場合、平面ディスプレイ上には、ユーザによって設定された、パン、チルト、ズームの各設定値に対応して、円筒の側面上もしくは球面上に沿って焦点を形成した三次元面上の画像を平面画像に射影して表示が行われる。 The conventional panoramic image viewer has a function that enables various display range change operations such as pan (horizontal movement of the field of view), tilt (up / down movement of the field of view), and zoom (enlargement / reduction) for the stitched panoramic images. There is. The panoramic image viewer often uses a method of projecting an image pasted on a side surface of a cylinder or a spherical surface onto a plane when viewed from the center of gravity of the cylinder or sphere. In this case, on the planar display, an image on a three-dimensional surface having a focal point formed on the side surface of the cylinder or along the spherical surface corresponding to each setting value of pan, tilt, and zoom set by the user is displayed. It is displayed by projecting onto a flat image.
しかしながら、従来技術のパノラマ画像ビューワでは、表示範囲変更操作のうちの特にズーム機能によって一定以上に視野が広くなった場合に、視野の端部で画像に違和感を生じさせたり、歪みを感じさせてしまうことがあるという問題があった。 However, in the panoramic image viewer of the prior art, when the field of view is widened beyond a certain level by the zoom function of the display range changing operations, the image may be discomforted or distorted at the edge of the field of view. There was a problem that it could end up.
パノラマ画像のような広画角な画像を違和感なく表示することを目的とした技術として、非特許文献1が知られている。非特許文献1は、パノラマ画像を求められる視野で表示するビューワを開示する。非特許文献1のビューワは、狭視野では、透視投影を行い、広視野では、円筒投影または球面投影を行うように、射影方式を連続的に調整している。 Non-Patent Document 1 is known as a technique for displaying a wide angle of view image such as a panoramic image without discomfort. Non-Patent Document 1 discloses a viewer that displays a panoramic image in a required field of view. The viewer of Non-Patent Document 1 continuously adjusts the projection method so as to perform perspective projection in a narrow field of view and cylindrical projection or spherical projection in a wide field of view.
しかしながら、上記非特許文献1の従来技術は、ズームに応じて射影方式を切り替えているため、処理が複雑になり、リアルタイム処理を実現するためには、高い演算性能を必要とする。一方で、近年、パノラマ画像ビューワは、パーソナル・コンピュータのみならず、スマートフォン端末、タブレット端末など、CPU(Central Processing Unit)の演算能力が比較的低い情報端末上で実行されることも多くなっている。このような低演算能力の情報端末では、上記非特許文献1のような複雑な処理では、例えば30fps(Frame per Second)程度のリアルタイム表示を行うことが困難になる。 However, in the prior art of Non-Patent Document 1, since the projection method is switched according to the zoom, the processing becomes complicated, and high calculation performance is required to realize real-time processing. On the other hand, in recent years, panoramic image viewers are often executed not only on personal computers but also on information terminals such as smartphone terminals and tablet terminals, which have relatively low CPU (Central Processing Unit) computing power. .. With such an information terminal having low computing power, it becomes difficult to perform real-time display of, for example, about 30 fps (Frame per Second) in a complicated process as in Non-Patent Document 1.
近年の情報端末は、CPUに加えて、グラフィックス演算を担当するGPU(Graphics Processing Unit)を搭載するものも多い。GPUは、典型的には、OpenGLなどのAPI(Application Programming Interface)に対応した演算機能を有し、高速な画像処理演算を実現可能としている。しかしながら、スマートフォンなどが備えるGPUは、OpenGLのサブセット版に対応するものであり、比較的単純なモデルでの演算を余儀なくされる。 In recent years, many information terminals are equipped with a GPU (Graphics Processing Unit) in charge of graphics calculation in addition to the CPU. The GPU typically has a calculation function corresponding to an API (Application Programming Interface) such as OpenGL, and makes it possible to realize high-speed image processing calculation. However, the GPU provided in smartphones and the like corresponds to a subset version of OpenGL, and is obliged to perform operations with a relatively simple model.
上述した背景から、演算能力に制約のあるような情報端末でも、パノラマ画像表示する際に、広画角領域での表示において、上下左右の端部の被写体が引き伸ばされることによる違和感を低減しつつ、高速表示が可能な技術の開発が望まれていた。 From the above background, even in an information terminal with limited computing power, when displaying a panoramic image, while reducing the discomfort caused by stretching the subject at the top, bottom, left, and right edges in the display in the wide angle of view area. It has been desired to develop a technology capable of high-speed display.
本発明は、上記従来技術の不充分な点に鑑みてなされたものであり、本発明は、画像表示する際に、広視野領域での表示において、上下左右の端部の被写体が引き伸ばされることによる違和感を低減しつつ高速表示を可能とする、演算能力に対する要件が緩和された画像処理システム、画像処理方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the deficiencies of the above-mentioned prior art, and the present invention is to stretch the subject at the upper, lower, left and right edges in the display in a wide field of view when displaying an image. It is an object of the present invention to provide an image processing system, an image processing method, and a program in which the requirements for computing power are relaxed, which enables high-speed display while reducing the discomfort caused by.
本発明では、上記課題を解決するために、下記特徴を有する画像処理システムを提供する。本画像処理システムは、出力範囲を規定する入力値を受け付ける受付手段と、対象画像を三次元形状に貼り付けた三次元モデルを生成する生成手段と、上記入力値に基づき、視点の位置および視野角を決定する決定手段と、視点から上記三次元モデルを射影する射影手段とを含む。上記決定手段は、上述した入力値が、第1の範囲にある場合は、視野角を優先的に変化させることで対象画像の視野内に入る範囲を変化させる。一方、上記入力値が、第1の範囲より広視野側にある第2の範囲にある場合は、視点の位置を優先的に変化させることで視野内に入る範囲を変化させる。 The present invention provides an image processing system having the following features in order to solve the above problems. This image processing system has a reception means that accepts an input value that defines an output range, a generation means that generates a three-dimensional model in which a target image is pasted into a three-dimensional shape, and a viewpoint position and a field of view based on the above input values. It includes a determination means for determining an angle and a projection means for projecting the above-mentioned three-dimensional model from a viewpoint. When the above-mentioned input value is in the first range, the determination means preferentially changes the viewing angle to change the range within the field of view of the target image. On the other hand, when the input value is in the second range on the wide field of view side of the first range, the range within the visual field is changed by preferentially changing the position of the viewpoint.
上記構成によれば、画像表示する際に、広視野側の領域での表示において、上下左右の端部の被写体が引き伸ばされることによる違和感を低減しつつ高速表示を行う際の、演算能力に対する要件を緩和することができる。 According to the above configuration, when displaying an image, in the display in the area on the wide field of view side, a requirement for computing power when performing high-speed display while reducing discomfort due to stretching of the subject at the top, bottom, left, and right edges. Can be alleviated.
以下、本発明の実施形態について説明するが、本発明の実施形態は、以下に説明する実施形態に限定されるものではない。なお、説明する実施形態では、画像処理システムとして、全天球撮像装置と、該全天球撮像装置により撮像された画像を受け取り、ディスプレイ装置等に出力するための出力画像を生成する画像処理装置とを含む全天球画像表示システムを一例に説明する。 Hereinafter, embodiments of the present invention will be described, but the embodiments of the present invention are not limited to the embodiments described below. In the embodiment described, as the image processing system, an omnidirectional image pickup device and an image processing device that receives an image captured by the omnidirectional image pickup device and generates an output image for output to a display device or the like. An omnidirectional image display system including and will be described as an example.
図1は、本実施形態による全天球画像表示システム100の概略構成を説明する図である。図1に示す全天球画像表示システム100は、全天球を撮像する全天球撮像装置110と、スマートフォン120と、タブレット端末122と、パーソナル・コンピュータ124とを含み構成されている。スマートフォン120、タブレット端末122およびパーソナル・コンピュータ124は、それぞれ、全天球撮像装置110で撮像された画像をディスプレイ等に表示する画像ビューワ機能を備えた、本実施形態における画像処理装置を構成する。
FIG. 1 is a diagram illustrating a schematic configuration of the spherical
図1に示す実施形態において、全天球撮像装置110と、画像処理装置120~124とは、特に限定されるものではないが、無線LAN(Local Area Network)、ワイヤレスUSB(Universal Serial Bus)またはBluetooth(登録商標)などの無線接続により接続されている。全天球撮像装置110で撮像された所定のフォーマットの画像は、無線通信を介して、画像処理装置120~124に送信され、所定の画像処理が施されて、画像処理装置120~124が備えるディスプレイ装置上に表示される。なお、上記接続形態は、一例であり、有線LANや有線USBなどにより有線接続されていてもよい。
In the embodiment shown in FIG. 1, the celestial sphere
説明する実施形態において、全天球撮像装置110は、それぞれ結像光学系および固体撮像素子から構成される2つの撮像光学系を備え、撮像光学系毎に各方向から撮影し撮像画像を生成する。結像光学系は、それぞれ、例えば6群7枚で魚眼レンズとして構成することができる。上記魚眼レンズは、180度(=360度/n;n=2)より大きい全画角を有し、好適には、185度以上の全画角を有し、より好適には、190度以上の全画角を有する。なお、説明する実施形態では、魚眼レンズは、広角レンズや、超広角レンズと呼ばれるものを含むものとする。
In the embodiment described, the celestial sphere
全天球撮像装置110は、複数の固体撮像素子でそれぞれ撮像された撮像画像をつなぎ合わせて合成し、立体角4πラジアンの画像(以下「全天球画像」と参照する。)を生成する。全天球画像は、撮影地点から見渡すことのできる全ての方向を撮影したものとなる。上述したように、魚眼レンズが180度を超える全画角を有するため、各撮像光学系で撮像した撮影画像において、180度を超えた部分で撮影範囲が重複する。画像をつなぎ合わせる際には、この重複領域が同一像を表す基準データとして参照されて、全天球画像が生成される。
The
ここで、説明する実施形態では、立体角4πラジアンの全天球画像を生成するものとしているが、他の実施形態では、水平面のみ360度を撮影した、いわゆるパノラマ画像であってもよい。また、説明する実施形態では、2つの撮像光学系を含み構成されるものとして説明するが、撮像光学系の数は、特に限定されるものではない。他の実施形態では、全天球撮像装置110は、3つ以上の魚眼レンズを光学系に含む撮像体を備えるとともに、3つ以上の魚眼レンズで撮像された複数の撮像画像に基づいて全天球画像を生成する機能を備えていてもよい。さらに他の実施形態では、全天球撮像装置110は、単一の魚眼レンズを光学系に含む撮像体を備え、単一の魚眼レンズで異なる方位で撮像された複数の撮像画像に基づいて全天球画像を生成する機能を備えていてもよい。
Here, in the embodiment described, a spherical image having a solid angle of 4π radians is generated, but in other embodiments, a so-called panoramic image in which only the horizontal plane is photographed at 360 degrees may be used. Further, in the embodiment described, the description is made assuming that the two imaging optical systems are included, but the number of the imaging optical systems is not particularly limited. In another embodiment, the
生成された全天球画像は、所定のフォーマットで、通信により外部の画像処理装置120~124に送信され、あるいはSD(登録商標)カード、コンパクトフラッシュ(登録商標)などの外部記憶媒体などに出力される。
The generated spherical image is transmitted to an external
上記画像処理装置120~124は、接続を介して全天球画像を受信し、または、全天球画像が記録された外部記録媒体を経由して全天球画像を取得し、一旦自身の記録装置上に全天球画像を保存する。上記画像処理装置120~124は、取得された全天球画像から、自身が備えるディスプレイ、自身に接続されるプロジェクタなどの平面表示デバイスに表示出力するための出力画像を生成し、平面表示デバイスから出力画像を表示させることができる。上記画像処理装置120~124は、さらに、生成された出力画像を、自身に接続された画像形成装置から紙媒体へ印刷出力することもできる。全天球画像から出力画像を生成する処理ついては、詳細を後述する。
The
図1に示す実施形態では、さらに、全天球撮像装置110および画像処理装置120~124は、アクセスポイント、モバイル・ルータ、ブロードバンドルータなどの通信機器104を介して、インターネット102に接続されている。そして、インターネット102上には、画像表示サーバ130が設けられている。
In the embodiment shown in FIG. 1, the spherical
図1に示す画像表示サーバ130は、全天球撮像装置110または画像処理装置120~124から送付された全天球画像を受信し、受信した全天球画像を蓄積し、管理する。画像表示サーバ130は、また、画像処理装置120~124や他の情報処理端末からの全天球画像の表示要求に応答して、全天球画像に基づき出力画像を生成し、生成した出力画像を要求元装置へ送信する。これにより、要求元装置の平面表示デバイス上に該出力画像を表示させることができる。
The
画像表示サーバ130は、特定の実施形態では、webサーバとして構成することができ、HTTP(HyperText Transfer Protocol)に従い、全天球画像を含む画像登録要求にかかるリクエストを受信し、全天球画像を蓄積することができる。画像表示サーバ130は、さらに、出力対象の全天球画像が指定された画像表示要求にかかるリクエストを受信し、対象となる全天球画像を読み出し、画像処理を施し出力画像を生成して、出力画像を含むレスポンスを応答することができる。レスポンスを受信した要求元装置では、ウェブブラウザにより、受信した出力画像が平面表示デバイス上に表示される。そして、ウェブブラウザにより、適宜、出力画像の印刷出力が行われる。なお、画像表示サーバ130も、本実施形態において、出力画像を生成する画像処理装置として構成される。
In a specific embodiment, the
以下、図2~図12を参照しながら、本実施形態における、全天球画像から出力画像を生成する全天球画像出力処理について、より詳細に説明する。図2は、本実施形態における全天球画像表示システムにおける全天球画像出力処理に関する機能ブロック200を示す図である。図2に示す機能ブロック200は、全天球撮像装置110上の機能ブロック210と、画像処理装置120~124,130上の機能ブロック250とを含み構成される。
Hereinafter, the spherical image output processing for generating an output image from the spherical image in the present embodiment will be described in more detail with reference to FIGS. 2 to 12. FIG. 2 is a diagram showing a
全天球撮像装置110の機能ブロック210は、それぞれ各方向を撮像する2つの撮像光学系212A,212Bと、各撮像光学系212で撮影された各撮像画像の入力を受けて、全天球画像を生成し、出力する合成処理ブロック214とを含む。
The
画像処理装置の機能ブロック250は、入力部252と、出力部254と、全天球画像蓄積部256と、ユーザ入力受付部258と、平面画像生成部260と、画像出力部262とを含み構成される。入力部252は、タッチパネル、マウス、キーボードなどの入力装置である。出力部254は、入力部252に行われたユーザ操作の入力に応じた画像処理結果を表示する平面表示デバイス、画像処理結果を印刷出力する画像形成装置などの出力装置である。入力部252および出力部254は、画像処理装置自身に備えられてもよいし、画像処理装置が接続される外部装置に備えられてもよい。
The functional block 250 of the image processing device includes an
全天球画像蓄積部256は、全天球撮像装置110で撮像され、上記接続または外部記録媒体などを介して画像処理装置120~124に入力された全天球画像を蓄積する手段である。ユーザ入力受付部258は、入力部252を介して行われた出力範囲変更操作に基づき、操作に応じた全天球画像の出力範囲を規定する入力値を受け付け、入力値を平面画像生成部260に渡す。
The spherical
出力範囲変更操作としては、視野を左右に移動させるパン操作、視野を上下に移動させるチルト操作および、出力する画像の範囲を拡大または縮小するズーム操作などを挙げることができる。上記出力範囲変更操作による変更の結果として、または直接入力された結果として、パン指定値、チルト指定値およびズーム指定値が、全天球画像の出力範囲を規定する入力値として取得される。 Examples of the output range changing operation include a pan operation for moving the field of view left and right, a tilt operation for moving the field of view up and down, and a zoom operation for expanding or contracting the range of the output image. As a result of the change by the output range change operation or as a result of being directly input, the pan specified value, the tilt specified value and the zoom specified value are acquired as input values defining the output range of the spherical image.
平面画像生成部260は、受け付けられた上記入力値に基づき、画像生成する際のパラメータ(以下、画像生成パラメータと参照する。)を決定し、決定された画像生成パラメータに基づき、全天球画像から出力画像を生成する。画像出力部262は、生成された出力画像を、出力部254に出力させる。出力画像は、平面表示デバイス上での適切な表示を行うため平面画像となる。
The plane
なお、画像処理装置が、画像表示サーバ130などのwebサーバとして動作する場合は、入力部252および出力部254の構成は、以下のようになる。すなわち、入力部252は、画像登録にかかるHTTPリクエストを受信するHTTP受信部として構成される。出力部254は、画像表示にかかるHTTPリクエストに応答して、生成された出力画像を、レスポンスとして要求元に返すHTTP送信部として構成される。
When the image processing device operates as a web server such as an
図3は、全天球画像出力処理における各画像のデータ構造および画像のデータフローを説明する図である。本実施形態による撮像光学系212は、撮像処理により、2つの撮像画像を生成する。本実施形態において、レンズ光学系に入射した光は、所定の射影方式に従って、対応する固体撮像素子の受光領域に結像される。上記撮像画像は、受光領域が平面エリアを成す2次元の固体撮像素子で撮像されたものであり、平面座標系で表現された画像データとなる。また本実施形態では、画像対角線よりもイメージサークル径が小さな、いわゆる円周魚眼レンズの構成が採用される。したがって、得られる撮像画像は、図3において「撮像画像A」および「撮像画像B」で示されるように、各撮影範囲が投影されたイメージサークル全体を含む平面画像として構成される。
FIG. 3 is a diagram illustrating a data structure of each image and a data flow of the image in the spherical image output processing. The image pickup
図4は、魚眼レンズで採用され得る射影方式を例示する図である。魚眼レンズとしては、種々の設計が考えられるが、その射影方式としては、図4に示すような、正射影方式(図4(A))、等距離射影方式(図4(B))、立体射影方式(図4(C))および等立体角射影方式(図4(D))を挙げることができる。また、説明する実施形態において、1つの魚眼レンズで撮影された撮像画像は、撮影地点から概ね半球分(全画角が180度を超える部分で半球からはみ出している。)の方位を撮影したものとなる。そして、図4に示すように、画像は、光軸に対する入射角度βに対応した像高rで生成される。入射角βからの光を受光する受光領域上の画素位置(像高:レンズ焦点からの放射方向の距離)rは、焦点距離をfとして、所定の投影モデルに応じた下記射影関数を用いて決定することができる。 FIG. 4 is a diagram illustrating a projection method that can be adopted in a fisheye lens. Various designs can be considered for the fisheye lens, and the projection methods include the orthographic projection method (FIG. 4 (A)), the equidistant projection method (FIG. 4 (B)), and the stereographic projection as shown in FIG. Methods (FIG. 4 (C)) and equidistant angle projection (FIG. 4 (D)) can be mentioned. Further, in the embodiment to be described, the captured image taken by one fisheye lens is taken in the direction of a hemisphere (the part where the total angle of view exceeds 180 degrees is out of the hemisphere) from the shooting point. Become. Then, as shown in FIG. 4, the image is generated at the image height r corresponding to the incident angle β with respect to the optical axis. The pixel position (image height: distance in the radiation direction from the lens focal length) r on the light receiving region that receives light from the incident angle β is determined by using the following projection function according to a predetermined projection model, with the focal length as f. Can be decided.
魚眼レンズが採用する射影方式に対応した上記式により、方位(入射角および光軸周りの回転角)と、平面画像上の画素位置の座標とが対応付けられる。好ましい実施形態では、魚眼レンズは、図4(C)で示す立体射影方式を用いることができる。 According to the above equation corresponding to the projection method adopted by the fisheye lens, the orientation (angle of incidence and the angle of rotation around the optical axis) is associated with the coordinates of the pixel position on the plane image. In a preferred embodiment, the fisheye lens can use the stereographic projection method shown in FIG. 4 (C).
合成処理ブロック214は、2つの撮像光学系212A,212Bから得られた2つの撮影画像に対し、図示しない3軸加速度センサからの情報を利用し、歪曲補正とともに天地補正を施し、画像合成する。画像合成処理では、平面画像として構成される各撮像画像から、まず、相補的な各半休部分を含む各全天球画像が生成される。そして、各半球部分を含む2つの全天球画像が、重複領域のマッチングに基づいて位置合わせされ、画像合成され、全天球全体を含む全天球画像が生成される。
The
図5は、本実施形態で用いられる全天球画像フォーマットの画像データのデータ構造を説明する図である。図5(A)に示すように、全天球画像フォーマットの画像データは、所定の軸に対してなされる垂直角度φと、上記所定の軸周りの回転角に対応する水平角度θとを座標とした画素値の配列として表現される。ここで、全天球画像は、図3に示すように、撮影されたシーンの天頂方向を軸とした垂直角度(緯度経度座標における緯度)および、天頂方向の軸周りの水平角度(緯度経度座標における経度)で構成される座標系で表現されるものとする。垂直角度φは、-90度~+90度の範囲となり、水平角度θは、-180度~+180度の範囲となる。 FIG. 5 is a diagram illustrating a data structure of image data in the spherical image format used in the present embodiment. As shown in FIG. 5A, the image data in the all-sky image format coordinates the vertical angle φ made with respect to a predetermined axis and the horizontal angle θ corresponding to the rotation angle around the predetermined axis. It is expressed as an array of pixel values. Here, as shown in FIG. 3, the whole celestial sphere image has a vertical angle (latitude in latitude / longitude coordinates) about the zenith direction of the captured scene and a horizontal angle (latitude / longitude coordinates) around the axis in the zenith direction. It shall be expressed in a coordinate system composed of (longitude in). The vertical angle φ is in the range of −90 degrees to +90 degrees, and the horizontal angle θ is in the range of −180 degrees to +180 degrees.
全天球フォーマットの各座標値(θ,φ)は、図5(B)に示すように、撮影地点を中心とした全方位を表す球面上の各点と対応付けられており、全方位が全天球画像上に対応付けられる。魚眼レンズで撮影された撮像画像の平面座標と、全天球画像フォーマットの球面上の座標とは、上述した射影関数、適宜座標変換を施すことによって対応付けされる。 As shown in FIG. 5 (B), each coordinate value (θ, φ) in the spherical format is associated with each point on a spherical surface representing all directions centered on the shooting point, and all directions are It is associated on the spherical image. The plane coordinates of the captured image taken by the fisheye lens and the coordinates on the spherical surface of the spherical image format are associated with each other by performing the above-mentioned projection function and appropriate coordinate conversion.
なお、以下の説明では、全天球画像フォーマットの図5(A)に示す2次元座標は、図5(A)において灰色の軸で示すように、左下原点の座標系である。そして、以下の説明では、2次元座標は、0~水平方向の画素数に応じた範囲の水平角度値xと、0~垂直方向の画素数に応じた範囲の垂直角度値yに変換して取り扱うものとする。例えば1/10度刻みで画素を構成すると、水平角度値xは、0~3799の範囲となり、垂直角度値yは、0~1800の範囲となる。水平角度値xと水平角度θとの関係および垂直角度値yと垂直角度φとの関係は、下記(1)および(2)で表される。下記式(1)および(2)中、wおよびhは、それぞれ、全天球画像フォーマットの画像幅(例えば3600画素)および画像高さ(例えば1801画素)に対応する。 In the following description, the two-dimensional coordinates shown in FIG. 5A of the spherical image format are the coordinate system of the lower left origin as shown by the gray axis in FIG. 5A. Then, in the following description, the two-dimensional coordinates are converted into a horizontal angle value x in the range corresponding to the number of pixels in the horizontal direction from 0 and a vertical angle value y in the range corresponding to the number of pixels in the 0 to the vertical direction. It shall be handled. For example, when the pixels are configured in 1/10 degree increments, the horizontal angle value x is in the range of 0 to 3799, and the vertical angle value y is in the range of 0 to 1800. The relationship between the horizontal angle value x and the horizontal angle θ and the relationship between the vertical angle value y and the vertical angle φ are represented by the following (1) and (2). In the following equations (1) and (2), w and h correspond to the image width (for example, 3600 pixels) and the image height (for example, 1801 pixels) of the spherical image format, respectively.
そして、図5(A)に示す全天球画像の2次元座標(x,y)と、図5(B)に示す全天球の表面の三次元座標(xs,ys,zs)との間の関係は、下記式(3)および(4)で計算される。図5(B)に示す三次元座標は、右手系であり、球体の中心を原点とし、rは半径を表す。 Then, between the two-dimensional coordinates (x, y) of the spherical image shown in FIG. 5 (A) and the three-dimensional coordinates (xs, ys, zs) of the surface of the spherical surface shown in FIG. 5 (B). The relationship between is calculated by the following equations (3) and (4). The three-dimensional coordinates shown in FIG. 5B are a right-handed system, with the center of the sphere as the origin and r representing the radius.
2つの撮像光学系212A,212Bで撮影された2つの画像(撮像画像Aおよび撮像画像B)と、全天球画像上の画像領域との関係は、説明する実施形態では、図3に「全天球画像」で示す対応関係となる。画像合成された全天球画像は、所定のフォーマットで、内蔵メモリまたは外部記録媒体に保存される。全天球画像が保存されるファイル・フォーマットは、ビットマップなどの無圧縮の静止画像であってもよいし、JPEG(Joint Photographic Experts Group)、GIF(Graphics Interchange Format)、PNG(Portable Network Graphics)などの圧縮形式の静止画像としてもよい。全天球画像は、さらに他の実施形態では、MPEG(Moving Picture Experts Group)やAVI(Audio Video Interleave)などの動画像におけるフレーム画像として含まれてもよい。なお、以下に説明する実施形態では、全天球画像は、静止画像であるとして説明する。
The relationship between the two images (captured image A and captured image B) taken by the two imaging
画像処理装置の機能ブロック250では、全天球画像蓄積部256により、全天球画像が保存され、平面画像生成部260により、引き続き、全天球画像を入力として、全天球画像から出力画像に変換する画像処理が行われる。なお、説明する実施形態では、入力される全天球画像は、好適な実施形態では、全天球撮像装置110により撮像されたものとして説明するが、全天球画像の由来は、必ずしも限定されるものではない。例えば、撮像された画像に対して所定の画像加工が施されてもよいし、コンピュータ・グラフィックスにより生成された画像が含まれてもよい。
In the functional block 250 of the image processing device, the all-sky image is saved by the all-sky
平面画像生成部260は、ユーザ入力受付部258から、上記出力範囲変更操作による変更等の結果として、決定された上記パン指定値、チルト指定値およびズーム指定値を含む入力値を受け取る。平面画像生成部260は、受け取った入力値に基づき、後述するように画像生成パラメータを決定し、決定された画像生成パラメータに基づき、出力画像の画像生成処理を実行する。
The plane
上述したように、全天球画像は、上記式(3)および(4)により三次元座標に対応付けることができる。上記画像生成処理では、入力された全天球画像を、所定の三次元形状の内面に貼り付けた三次元モデルを構築し、所定条件の下、仮想的なカメラ(以下、単にカメラと参照する。)から射影表示させて出力画像Sを得る。 As described above, the spherical image can be associated with the three-dimensional coordinates by the above equations (3) and (4). In the above image generation process, a three-dimensional model in which the input spherical image is pasted on the inner surface of a predetermined three-dimensional shape is constructed, and under predetermined conditions, a virtual camera (hereinafter, simply referred to as a camera) is used. The output image S is obtained by displaying the projection from.).
図6は、三次元グラフィックス表示で行われる透視投影(Perspective Projection)を説明する図である。図6に示すように、平面画像生成部260は、全天球画像を球体の内面に貼り付けた三次元モデルを、透視投影処理することによって平面画像の出力画像を生成する。透視投影する際の画像生成パラメータは、上記入力値に応じて決定される。画像生成パラメータとしては、特定の実施形態では、カメラの視点の位置(d)、方向(v)、視野角(Θ)および投影範囲(zNear,zFar)を挙げることができる。
FIG. 6 is a diagram illustrating a perspective projection performed in a three-dimensional graphics display. As shown in FIG. 6, the plane
出力画像Sは、球体の中心から特定の緯度経度方向(v)を向いて三次元モデルを見たときに、特定の視野角(Θ)内で観察される画像を、表示領域の形状に応じて切り取った画像となる。上記投影範囲(zNear,zFar)のパラメータは、透視投影される範囲を指定するものであるが、適切な値が決定されるものとする。なお、画像生成パラメータの決定方法および射影処理の詳細については、図7~図12を参照して後述する。 The output image S is an image observed within a specific viewing angle (Θ) when the three-dimensional model is viewed from the center of the sphere in a specific latitude / longitude direction (v), depending on the shape of the display area. The image will be cut out. The parameters of the projection range (zNear, zFar) specify the range to be perspectively projected, but an appropriate value shall be determined. The details of the image generation parameter determination method and the projection processing will be described later with reference to FIGS. 7 to 12.
なお、図2に示した実施形態では、撮像光学系212および合成処理ブロック214を全天球撮像装置上のコンポーネントとしている。そして、入力部252、出力部254、全天球画像蓄積部256、ユーザ入力受付部258、平面画像生成部260および画像出力部262を画像処理装置上のコンポーネントとして、分散実装している。しかしながら、実装の態様は特に限定されるものではない。
In the embodiment shown in FIG. 2, the image pickup
他の実施形態では、すべてのコンポーネントを単一の装置上に配置して全天球画像表示システムを構成してもよい。さらに他の実施形態では、コンポーネントの任意の一部を、それぞれ、全天球画像表示システムを構成している複数の装置のいずれか上に配置して、複数の装置の組み合わせとして全天球画像表示システムを構成してもよい。例えば、特定の実施形態では、画像処理装置が合成処理ブロックを備え、全天球撮像装置から2つの撮像画像を受信して、全天球画像を準備する構成とすることができる。 In other embodiments, all components may be placed on a single device to configure a spherical image display system. In yet another embodiment, any part of the component is placed on any of the plurality of devices constituting the spherical image display system, respectively, and the spherical image is formed as a combination of the plurality of devices. A display system may be configured. For example, in a specific embodiment, the image processing device may include a synthesis processing block, receive two captured images from the spherical image pickup device, and prepare the spherical image.
以下、図7および図8を参照しながら、本実施形態における全天球画像出力処理の流れについて、より詳細に説明する。なお、以下、出力処理として、全天球画像を表示する画像ビューワにおける表示処理について説明する。図7は、本実施形態の画像処理装置が実行する全天球画像表示処理を示すフローチャートである。図8は、全天球画像を所定範囲で表示する画像ビューワ画面を例示する図である。 Hereinafter, the flow of the spherical image output processing in the present embodiment will be described in more detail with reference to FIGS. 7 and 8. Hereinafter, as the output processing, the display processing in the image viewer for displaying the spherical image will be described. FIG. 7 is a flowchart showing the spherical image display processing executed by the image processing apparatus of the present embodiment. FIG. 8 is a diagram illustrating an image viewer screen that displays a spherical image in a predetermined range.
図7に示す処理は、例えば、画像処理装置250のオペレータにより、所定の全天球画像を特定した表示指示が行われたことに応答して、ステップS100から開始される。ステップS101では、画像処理装置250は、平面画像生成部260により、予め設定されたデフォルトのパン指定値、チルト指定値およびズーム指定値に基づき、初期の画像処理パラメータを決定する。ステップS102では、画像処理装置250は、平面画像生成部260により、決定された画像処理パラメータに基づき、全天球画像から平面画像を生成する。
The process shown in FIG. 7 is started from step S100 in response to, for example, an operator of the image processing device 250 giving a display instruction specifying a predetermined spherical image. In step S101, the image processing apparatus 250 determines the initial image processing parameters by the plane
ステップS103では、画像処理装置250は、画像出力部262により、生成された平面画像を画像ビューワ画面の所定位置に表示させる。図8に示す画像ビューワ画面300は、画像表示領域310と、画像表示領域310に表示させる画像の表示範囲を変更するためのGUI(Graphical User Interface)部品322,324とを含み構成される。画像表示領域310には、上記平面画像生成部260により生成された、入力値に応じた範囲の出力画像が、画像出力部262により表示される。
In step S103, the image processing device 250 causes the
ステップS104では、画像処理装置250は、ユーザ入力受付部258により表示範囲変更操作が受け付けられたか否かを判定する。ここで、表示範囲変更操作は、各操作に対応するGUI部品322,324に対して行われた、クリック、フリックなど操作イベントの発生により検出される。図8に例示する画像ビューワ画面300は、ズーム指定値を変更するものとして、ズームインの指示を待ち受けるGUI部品322Iと、ズームアウトの指示を待ち受けるGUI部品322Oとを含む。画像ビューワ画面300は、さらに、パン指定値およびチルト指定値を変更するものとして、左および右方向へパンの指示を待ち受ける左ボタン324Lおよび右ボタン324Rと、上および下方向へチルトの指示を待ち受ける上ボタン324Uおよび下ボタン324Dとを含む。
In step S104, the image processing device 250 determines whether or not the display range change operation has been accepted by the user
表示範囲変更操作は、GUI部品に対する操作の他、各表示範囲変更操作に関連付けられたショートカット・キー、ジェスチャ、マルチタッチ操作など操作イベントの発生により検出することができる。例えば、ショートカット・キーとしては、キーボードにおけるズームインおよびズームアウトを指示する「+」ボタンおよび「-」ボタンを挙げることができる。さらに、左右のパンおよび上下のチルトを指示する左右の矢印ボタンおよび上下の矢印ボタンに対するキー操作をショートカット・キーとしてもよい。マルチタッチ操作としては、ズーム操作に関連付けられたピンチインおよびピンチアウトを挙げることができる。 The display range change operation can be detected by the occurrence of an operation event such as a shortcut key, a gesture, or a multi-touch operation associated with each display range change operation, in addition to the operation for the GUI component. For example, shortcut keys may include "+" and "-" buttons that direct zoom-in and zoom-out on the keyboard. Further, key operations for the left and right arrow buttons and the up and down arrow buttons for instructing left and right pan and up and down tilt may be used as shortcut keys. Multi-touch operations include pinch-in and pinch-out associated with zoom operations.
ステップS104では、表示範囲変更操作を受け付けるまでの間(ステップS104でNOの間)、ステップS104内をループさせて、表示範囲変更操作が待ち受けられる。ステップS104で表示変更操作が受け付けられたと判定された場合(YES)は、ステップS105へと処理が分岐される。 In step S104, the display range change operation is awaited by looping in step S104 until the display range change operation is accepted (between NO in step S104). If it is determined in step S104 that the display change operation has been accepted (YES), the process is branched to step S105.
ステップS105では、上記表示変更操作が行われた結果として決定されるパン指定値、チルト指定値およびズーム指定値に基づき、変更された画像処理パラメータを決定し、ステップS102へ処理を分岐させる。この場合、続くステップS102では、平面画像生成部260により、変更後の画像処理パラメータに基づき、平面画像の生成処理が行われる。ステップS103では、画像出力部262により、ユーザ操作に応じて新たに生成された平面画像で、画像ビューワ画面300の画像表示領域310が更新される。
In step S105, the changed image processing parameters are determined based on the pan specified value, the tilt specified value, and the zoom specified value determined as a result of the display change operation, and the processing is branched to step S102. In this case, in the following step S102, the plane
以下、図9~図12を参照しながら、本実施形態による全天球画像出力処理について、より詳細に説明する。図9は、本実施形態における画像処理装置上の平面画像生成部260の詳細な機能ブロックを示す図である。図9に示す平面画像生成部260は、パラメータ決定部264と、テクスチャマッピング部266と、射影部268とを含み構成される。
Hereinafter, the spherical image output processing according to the present embodiment will be described in more detail with reference to FIGS. 9 to 12. FIG. 9 is a diagram showing a detailed functional block of the plane
パラメータ決定部264は、ユーザ入力受付部258から渡された各種入力値(パン指定値、チルト指定値およびズーム指定値)に応じて、カメラの視点の位置(d)および視野角(Θ)を含む画像生成パラメータを決定する決定手段である。
The
テクスチャマッピング部266は、表示対象画像である全天球画像を所定の三次元形状に貼り付けた三次元モデルを生成する生成手段である。三次元モデルの生成は、いわゆるテクスチャマッピングの手法により行うことができる。テクスチャマッピングは、スマートフォンやタブレットなどの演算能力に制約がある情報処理端末が搭載するGPUが対応するOpenGLなどでも一般的なグラフィックス処理であり、三次元形状の表面にテクスチャ画像を貼り付ける処理をいう。テクスチャマッピング部266は、指定された全天球画像を読み出し、テクスチャを格納するテクスチャバッファに転送し、三次元モデルに割り付ける。
The
説明する実施形態において、三次元形状は、球体、円筒、その他鑑賞者にとって違和感ない出力画像を射影できる如何なる三次元形状を用いることができる。鑑賞者に対し違和感を感じさせず、かつ、演算処理を簡略化する観点からは、好適には、球体を用いることができる。3次元形状は、全天球画像が貼り付けられる少なくとも1つの内面を有し、球体を採用した場合は、全天球画像が貼り付けられる球面を含む。 In the embodiments described, the three-dimensional shape can be a sphere, a cylinder, or any other three-dimensional shape capable of projecting an output image that does not give the viewer a sense of discomfort. From the viewpoint of not making the viewer feel uncomfortable and simplifying the arithmetic processing, a sphere can be preferably used. The three-dimensional shape has at least one inner surface to which the spherical image is attached, and when a sphere is adopted, includes a spherical surface to which the spherical image is attached.
射影部268は、パラメータ決定部264により決定された画像生成パラメータに応じて、所定位置に視点が設定されたカメラから、全天球画像が貼り付けられた三次元モデルを、所定の投影方式で射影し、出力画像を生成する射影手段である。テクスチャマッピングした三次元モデルを任意カメラ視点から、所定の条件で観測した場合の画像をレンダリングすることで、出力画像を生成することができる。
The
非特許文献1によれば、広視野表示時と狭視野表示時とでは、射影方式を異ならしめることが有効であることが知られている。しかしながら、複数の射影方式を連続的に適用すると、画像処理装置に対する性能要件が厳しくなる。 According to Non-Patent Document 1, it is known that it is effective to make the projection method different between the wide-field display and the narrow-field display. However, when a plurality of projection methods are continuously applied, the performance requirements for the image processing device become strict.
そこで、本実施形態では、画像処理装置のハードウェア要件を緩和するべく、平面画像生成部260は、単一の射影方式で、表示モデルの画像生成パラメータを変化させることで、鑑賞者による観賞に適した表示効果を得る構成を採用する。以下、入力値に応じた画像生成パラメータの決定処理について、図10~図12を参照して説明する。なお、説明する実施形態では、投影方式として、透視投影方式(遠近法投影)を用いるが、他の実施形態では、正射影方式など他の投影方式を採用してもよい。
Therefore, in the present embodiment, in order to relax the hardware requirements of the image processing device, the plane
上述したように画像生成パラメータは、投影方式として透視投影を採用する特定の実施形態では、カメラの視点の位置(d)、方向(v)、視野角(Θ)および投影範囲(zNear,zFar)を含む。三次元コンピュータ・グラフィックスでは、典型的には、世界座標系、モデル座標系およびカメラ座標系の3種の座標系が定義される。世界座標系は、絶対的な三次元空間を定義し、世界座標系により定義される三次元空間にカメラおよびオブジェクトが配置される。モデル座標系は、所定のオブジェクトを中心とした座標系である。説明する実施形態では、球体モデルを構築し、この球体モデルを世界座標系の原点に配置する。したがって、世界座標系と、球体モデルのモデル座標系とは、原点が一致し、軸のみが異なり得る。カメラ座標系は、カメラの視点を中心とした視野の方向(v)などを表す。 As described above, the image generation parameters are the position (d), direction (v), viewing angle (Θ) and projection range (zNear, zFar) of the viewpoint of the camera in a specific embodiment in which perspective projection is adopted as the projection method. including. In 3D computer graphics, three types of coordinate systems are typically defined: a world coordinate system, a model coordinate system, and a camera coordinate system. The world coordinate system defines an absolute three-dimensional space, and cameras and objects are placed in the three-dimensional space defined by the world coordinate system. The model coordinate system is a coordinate system centered on a predetermined object. In the embodiment described, a sphere model is constructed and the sphere model is placed at the origin of the world coordinate system. Therefore, the origin of the world coordinate system and the model coordinate system of the sphere model may be the same, and only the axes may be different. The camera coordinate system represents the direction (v) of the field of view centered on the viewpoint of the camera.
そして、射影部268は、全天球画像が内面に貼り付けられた球体モデルを、カメラの視点から2次元スクリーンに投影し、得られた投影画像を表示画像とする。スクリーンは、カメラ座標の原点を通る平面に配置され、透視投影によりスクリーンに全天球画像が投影される。
Then, the
図10は、モデル座標系と、カメラの位置(d)および視野角(Θ)と、その視野内に写り込む画像の範囲を表す画角(Φ)との関係を説明する図である。カメラの視点が球体モデルの中心に位置すると、その視野内に写り込む画像の範囲を表す画角(Φ)と、カメラの視野角(Θ)とは一致する。しかしながら、図10において二重丸で示されているように、カメラの視点の位置(d)が、三次元モデルの中心から離れると、画角(Φ)と、カメラの視野角(Θ)とは異なる値をとることになる。ズームインおよびズームアウトは、画角(Φ)を変更する操作に対応する。説明する実施形態では、ズーム指定値の範囲に応じてカメラの視点の位置(d)および視野角(Θ)のいずれかを変更することで、画角(Φ)の変化を生み出す。 FIG. 10 is a diagram illustrating the relationship between the model coordinate system, the camera position (d) and the viewing angle (Θ), and the angle of view (Φ) representing the range of the image captured in the field of view. When the viewpoint of the camera is located at the center of the spherical model, the angle of view (Φ) representing the range of the image captured in the field of view coincides with the viewing angle (Θ) of the camera. However, as shown by the double circle in FIG. 10, when the position (d) of the viewpoint of the camera is separated from the center of the three-dimensional model, the angle of view (Φ) and the viewing angle (Θ) of the camera Will take different values. Zoom-in and zoom-out correspond to the operation of changing the angle of view (Φ). In the embodiment to be described, the angle of view (Φ) is changed by changing either the position (d) of the viewpoint of the camera or the viewing angle (Θ) according to the range of the specified zoom value.
本実施形態におけるパン、チルトおよびズームの表示範囲の操作に応じた画像生成パラメータの変更については、下記表1にまとめる。 The changes in the image generation parameters according to the operation of the pan, tilt, and zoom display ranges in this embodiment are summarized in Table 1 below.
なお、表1では、上記チルトおよびパンによる画像の表示位置の移動は、視野の方向(v)を固定し、世界座標系において球体モデルを回転変換することにより、実現されている。しかしながら、他の実施形態では、球体モデルを世界座標系に対して固定し、カメラの視野の方向(v)を変更することにより、画像表示位置の移動を実現してもよい。 In Table 1, the movement of the display position of the image by the tilt and pan is realized by fixing the direction (v) of the field of view and rotating the sphere model in the world coordinate system. However, in another embodiment, the sphere model may be fixed with respect to the world coordinate system and the direction (v) of the field of view of the camera may be changed to realize the movement of the image display position.
以下、図11および図12を参照して、本実施形態におけるズーム指定値に応じた画像生成パラメータの決定処理について、より詳細に説明する。図11および図12は、ズーム指定値に応じて、どのように画像生成パラメータを決定するかを説明する図であり、その際の出力画像および球体モデルの表示される範囲を併せて示す。図11および図12には、A~Eで示す特定のズーム指定値(z)が与えられた場合の画像生成パラメータの決定方法が示されている。 Hereinafter, the process of determining the image generation parameter according to the specified zoom value in the present embodiment will be described in more detail with reference to FIGS. 11 and 12. 11 and 12 are diagrams illustrating how the image generation parameters are determined according to the zoom specified value, and also show the output image and the displayed range of the sphere model at that time. 11 and 12 show a method of determining an image generation parameter when a specific zoom designation value (z) indicated by A to E is given.
また、ズーム指定値(z)に応じて決定される画像生成パラメータ、その際の表示倍率および画角(Φ)を下記表2としてまとめて示す。下記表2中、viewWHは、出力画像の表示領域の幅または高さを表し、表示領域が横長の場合は、表示領域の幅となり、表示領域が縦長の場合は、表示領域の高さとなる。下記表2中、imgWHは、画像の幅または高さを表し、表示領域が横長の場合は、画像幅となり、表示領域が縦長の場合は、画像高さとなる。imgDegは、画像の表示範囲の角度を表し、画像幅の場合は、360度、画像高さの場合は、180度となる。 Further, the image generation parameters determined according to the zoom specified value (z), the display magnification and the angle of view (Φ) at that time are collectively shown in Table 2 below. In Table 2 below, viewWH represents the width or height of the display area of the output image. When the display area is horizontally long, it is the width of the display area, and when the display area is vertically long, it is the height of the display area. In Table 2 below, imgWH represents the width or height of the image, and when the display area is horizontally long, it is the image width, and when the display area is vertically long, it is the image height. The imgDeg represents the angle of the display range of the image, which is 360 degrees in the case of the image width and 180 degrees in the case of the image height.
本実施形態において、ズーム指定値(z)の範囲は、表2に示したように、A~Bの範囲、B~Cの範囲、C~Dの範囲およびD~Eの範囲を含む4つの範囲に区分される。ズーム指定値(z)は、表示させたい画角に対応した値であり、説明する実施形態では、最小画角60度から最大画角300度までの範囲でユーザから指定される。 In the present embodiment, as shown in Table 2, the range of the specified zoom value (z) is four, including the range of A to B, the range of B to C, the range of C to D, and the range of D to E. It is divided into ranges. The zoom specified value (z) is a value corresponding to the angle of view to be displayed, and is designated by the user in the range from the minimum angle of view of 60 degrees to the maximum angle of view of 300 degrees in the embodiment described.
ズームアウトを考えると、ズーム指定値(z)が、A~Bの範囲にある場合は、カメラの視野角(Θ)が60度に固定され、カメラ位置(d)が中心から離れて行くことで、図11のAおよび図11のBで示すように、画角(Φ)が広げられる。A~Bの範囲にある場合のカメラ位置(d)は、図11のAで示す原点0から、図11のBで示す球体モデルの外縁に対応する1まで、表2中の計算式で表されるように画角(Φ)およびズーム指定値(z)に応じた値に決定される。
Considering zoom-out, when the specified zoom value (z) is in the range of A to B, the viewing angle (Θ) of the camera is fixed at 60 degrees, and the camera position (d) moves away from the center. Then, as shown by A in FIG. 11 and B in FIG. 11, the angle of view (Φ) is widened. The camera position (d) in the range of A to B is shown by the formula in Table 2 from the
ズーム指定値(z)が、A~Bより広視野側にあるB~Cの範囲にある場合は、図11のBおよび図11のCで示すように、カメラ位置(d)が球体モデルの外縁に固定され(d=1)、カメラの視野角(Θ)を広げて行くことで、画角(Φ)が広げられる。カメラの視野角(Θ)は、A~Bの範囲で固定されていた60度から120度まで、計算式Θ=Φ/2にしたがって増加する。視野内に写り込む画像の範囲を表す画角(Φ)は、A~Bの範囲およびB~Cの範囲では、ズーム指定値(z)に一致し、単調増加することになる。 When the specified zoom value (z) is in the range of B to C on the wide field of view side of A to B, the camera position (d) is the spherical model as shown by B in FIG. 11 and C in FIG. It is fixed to the outer edge (d = 1), and the angle of view (Φ) is widened by widening the viewing angle (Θ) of the camera. The viewing angle (Θ) of the camera increases from 60 degrees to 120 degrees, which is fixed in the range of A to B, according to the formula Θ = Φ / 2. The angle of view (Φ) representing the range of the image captured in the field of view matches the zoom specified value (z) in the range of A to B and the range of B to C, and increases monotonically.
ズーム指定値(z)が、B~Cの範囲より広視野側にあるC~Dの範囲およびD~Eの範囲にある場合は、図11のC、図12のDおよび図12のEで示すようになる。すなわち、カメラの視野角(Θ)が120度に固定されたまま、カメラの視点の位置(d)が再び中心から離れる方向に移動されることで、画角(Φ)が広げられる。カメラ視点の位置(d)は、表2に記載された計算式に従い、ズーム指定値(z)に応じて決定される。また、C~Dの範囲およびD~Eの範囲では、画角(Φ)は、ズーム指定値(z)とは一致しなくなる。 When the specified zoom value (z) is in the range of C to D and the range of D to E on the wider field of view side than the range of B to C, C in FIG. 11, D in FIG. 12 and E in FIG. Will be shown. That is, the angle of view (Φ) is widened by moving the position (d) of the viewpoint of the camera away from the center again while the viewing angle (Θ) of the camera is fixed at 120 degrees. The position (d) of the camera viewpoint is determined according to the zoom specified value (z) according to the calculation formula shown in Table 2. Further, in the range of C to D and the range of D to E, the angle of view (Φ) does not match the zoom specified value (z).
図12のDで示された位置に対応する表2中のdmax1は、図12においてDに併せて示したような、表示領域の矩形いっぱいに最大の画角で球体モデルが表示される距離に対応し、特定の実施形態では、下記式(5)で計算することができる。図12のEで示された位置(D)に対応する表2中のdmax2は、図12においてEに併せて示したような、表示領域の矩形内に球体モデルが内接する最大の画角で球体モデルが表示される距離に対応し、特定の実施形態では、下記式(6)で計算される。 The dmax1 in Table 2 corresponding to the position indicated by D in FIG. 12 is the distance at which the sphere model is displayed at the maximum angle of view in the entire rectangle of the display area as shown together with D in FIG. Correspondingly, in a specific embodiment, it can be calculated by the following equation (5). Dmax2 in Table 2 corresponding to the position (D) indicated by E in FIG. 12 is the maximum angle of view in which the sphere model is inscribed in the rectangle of the display area as shown together with E in FIG. Corresponding to the distance at which the sphere model is displayed, in a particular embodiment, it is calculated by the following equation (6).
上記式(5)および(6)中、viewWおよびviewHは、表示領域の幅および高さを表す。したがって、dmax1およびdmax2は、表示画面の大きさ(幅および高さ、対角の長さ)に依存する値となる。dmax2は、カメラの視点が取りうる最遠位置に対応し、ズーム指定値(z)は、表示領域の大きさに応じて制限されることになる。表2に示した範囲(~dmax2)にカメラの視点の位置が収まるようにズーム指定値(z)を制限することで、表示画面上にフィットし、または所定の倍率で全天球画像が球形状に表示された状態で、ズームアウトを終了させることができる。これにより、鑑賞者に、表示されている画像が全天球画像であることを視覚的に認識させることができるとともに、違和感のない状態でズームアウトを終了させることができる。 In the above equations (5) and (6), viewW and viewH represent the width and height of the display area. Therefore, dmax1 and dmax2 are values that depend on the size (width and height, diagonal length) of the display screen. dmax2 corresponds to the farthest position that the viewpoint of the camera can take, and the zoom specified value (z) is limited according to the size of the display area. By limiting the zoom specified value (z) so that the position of the viewpoint of the camera falls within the range (to dmax2) shown in Table 2, the spherical image fits on the display screen or the spherical image is spherical at a predetermined magnification. You can end the zoom out while it is displayed on the shape. As a result, the viewer can visually recognize that the displayed image is a spherical image, and the zoom-out can be completed without any discomfort.
また、表2および図11を参照すると明らかなように、上述した各範囲間では、画角(Φ)は、連続しているが、広角側へのズームアウトによって画角(Φ)は、一様に増加していない。すなわち、カメラの視点位置が変更されるC~D~Eの範囲のうちの、C~Dの範囲では、カメラの視点の位置(d)が球体モデルの中心から距離が離れるにつれて、画角(Φ)が増大するが、D~Eの範囲では、距離が離れるにつれて画角(Φ)が減少して行く。これは、球体モデルの外側の領域が視野内に写り込むことによる。そして、ズーム指定値が240度以上の広視野域において、カメラの視点位置(d)を移動させることで、違和感の少ない表示を行いながら、画角(Φ)を変化させることが可能となる。 Further, as is clear from Table 2 and FIG. 11, the angle of view (Φ) is continuous between the above-mentioned ranges, but the angle of view (Φ) is one due to the zoom-out to the wide-angle side. It has not increased so much. That is, in the range of C to D in the range of C to D to E where the viewpoint position of the camera is changed, the angle of view ( Φ) increases, but in the range of D to E, the angle of view (Φ) decreases as the distance increases. This is due to the fact that the outer region of the sphere model is reflected in the field of view. Then, by moving the viewpoint position (d) of the camera in a wide field of view with a zoom specified value of 240 degrees or more, it is possible to change the angle of view (Φ) while displaying with less discomfort.
したがって、ズーム指定値の広角方向への変更を考えると、基本的には、画角(Φ)が広くなって行く方向となる。このとき、カメラの視野角(Θ)の増加が押さえられ、モデル座標系からカメラが遠ざかることによって広角表示時の開放感が表現されるので、画像の歪みが軽減される。また、カメラが遠ざかる動きは、実際に人間が広い範囲を確認しようとする場合の行動に類似した動きであるため、違和感の少ないズームアウトとなると考えられる。そして、画角(Φ)は、D~Eの範囲では、ズーム指定値が広視野側へ行くにつれ減少して行くが、これにより、鑑賞者は、球体から遠ざかって行くように感じられ、違和感の少ないズームアウトとなる。 Therefore, considering the change of the zoom specified value in the wide-angle direction, the angle of view (Φ) is basically widened. At this time, the increase in the viewing angle (Θ) of the camera is suppressed, and the camera moves away from the model coordinate system to express a feeling of openness during wide-angle display, so that distortion of the image is reduced. Further, since the movement of the camera moving away is similar to the behavior when a human actually tries to confirm a wide range, it is considered that the zoom-out is less uncomfortable. The angle of view (Φ) decreases in the range of D to E as the specified zoom value goes toward the wide field of view, but this makes the viewer feel as if he / she is moving away from the sphere, which makes him feel uncomfortable. Zoom out with less.
なお、上述した説明では、各範囲では、カメラ視点の位置(d)および視野角(Θ)のいずれか一方のみが変更され、他方が固定されるものとして説明した。しかしながらが、他の実施形態では、カメラ視点の位置(d)および視野角(Θ)のいずれか一方を優先的に変更し、他方を比較的小さな変化量で変更する態様も妨げられない。また、上記説明では、ズームアウトする方向に変更される文脈で、画像生成パラメータの決定方法について説明したが、ズームインの際も同様に画像生成パラメータを決定することができる。 In the above description, it is assumed that only one of the camera viewpoint position (d) and the viewing angle (Θ) is changed and the other is fixed in each range. However, in other embodiments, it is not hindered to preferentially change either the position (d) or the viewing angle (Θ) of the camera viewpoint and change the other with a relatively small amount of change. Further, in the above description, the method of determining the image generation parameter has been described in the context of being changed in the zoom-out direction, but the image generation parameter can be similarly determined when zooming in.
以下、図13を参照しながら、本実施形態による画像処理装置のハードウェア構成について説明する。図13は、本実施形態による画像処理装置のハードウェア構成を示す図である。本実施形態による画像処理装置は、タブレット端末122といった携帯情報端末として構成されている。図13に示すタブレット端末122は、シングルコアまたはマルチコアのCPU(Central Processing Unit)、GPU、ベースバンドプロセッサおよびメモリコントローラなどがSoC(System on Chip)として統合されたモバイルプロセッサ10と、モバイルプロセッサ10に接続され、CPUなどの作業領域を提供するLPDDR(Low-Power Double DataRate)SDRAMといったメモリ12と、フラッシュメモリ14と、SDカードなどの外部記録媒体スロット16とを含む。
Hereinafter, the hardware configuration of the image processing apparatus according to the present embodiment will be described with reference to FIG. 13. FIG. 13 is a diagram showing a hardware configuration of an image processing device according to the present embodiment. The image processing device according to the present embodiment is configured as a mobile information terminal such as a
フラッシュメモリ14は、タブレット端末122を制御するためのOS、上述した機能部を実現するための制御プログラム、各種システム情報や各種設定情報、さらに上記全天球画像などを含むユーザデータを格納する。外部記録媒体スロット16には、全天球画像などのユーザデータが格納された記録媒体が装着される。
The
モバイルプロセッサ10には、さらに、タッチ・スクリーン・コントローラ18およびディスプレイ・インタフェース20を介して、タッチ・スクリーン・センサが搭載されたディスプレイ22と接続されている。ディスプレイ22は、各種設定画面およびアプリケーション画面を表示し、本実施形態においては、全天球画像から生成された出力画像を含む画像ビューワの画面を表示することができる。タブレット端末122は、さらに、モバイルプロセッサ10に接続されたHDMI(登録商標,High-Definition Multimedia Interface)などの映像出力インタフェース24を備え、外部のディスプレイやプロジェクタと接続可能とされている。
The
タブレット端末122は、さらに、CMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサを含むカメラ28を備える。カメラ28は、カメラインタフェース26を介してモバイルプロセッサ10と接続されている。タブレット端末122は、さらに、音声のエンコードおよびデコード処理を行う音声コーデック30と、ヘッドフォンやスピーカの音声を切り替える音声スイッチ32とを備える。
The
モバイルプロセッサ10には、さらに、無線LANポート34と、Bluetooth(登録商標)などの近距離無線ポート36が接続されており、無線通信により外部の機器と接続可能とされている。説明する実施形態では、タブレット端末122は、無線LANポート34または近距離無線ポート36を介して、外部の全天球撮像装置110と接続されている。タブレット端末122は、電源管理ユニット38を備え、電源管理ユニット38により、タブレット端末122の外部電源およびバッテリの電源管理が行われる。
Further, a
本実施形態によるタブレット端末122は、フラッシュメモリ14から制御プログラムを読み出し、メモリ12が提供する作業空間に展開することにより、モバイルプロセッサ10内に統合されたCPUの制御の下、上述した各機能部および各処理を実現する。その際には、OpenGLなどのグラフィック処理用のAPIを介して、モバイルプロセッサ10内に統合されたGPUの演算機能が呼び出され、上述したテクスチャマッピング処理および射影処理などの画像演算が実行される。
The
以上説明した実施形態によれば、画像表示する際に、広視野領域での表示において、上下左右の端部の被写体が引き伸ばされることによる違和感を低減しつつ高速表示を可能とする、演算能力に対する要件が緩和された画像処理システム、画像処理方法およびプログラムを提供することができる。 According to the embodiment described above, when displaying an image, it is possible to perform high-speed display while reducing a sense of discomfort due to stretching of the subject at the top, bottom, left, and right edges in the display in a wide field of view. It is possible to provide an image processing system, an image processing method and a program with relaxed requirements.
上述した実施形態によれば、表示モデルが単一の射影方式として構築されるので、制限された画像演算機能を有する画像処理装置であっても、リアルタイムかつスムーズなズーム表示を行うことが可能となる。そして、カメラの視点位置を三次元モデルから遠ざけることでズームアウトを表現しているので、視野角の増大が押さえられ、広がり感を出しながらも、画像の歪みを抑えることが可能となる。 According to the above-described embodiment, since the display model is constructed as a single projection method, it is possible to perform real-time and smooth zoom display even with an image processing device having a limited image calculation function. Become. Since the zoom-out is expressed by moving the viewpoint position of the camera away from the three-dimensional model, it is possible to suppress the increase in the viewing angle and suppress the distortion of the image while giving a feeling of spaciousness.
なお、上記機能部は、アセンブラ、C、C++、C#、Java(登録商標)などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD-ROM、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、ブルーレイディスク、SDカード、MOなど装置可読な記録媒体に格納して、あるいは電気通信回線を通じて頒布することができる。また、上記機能部の一部または全部は、例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラマブル・デバイス(PD)上に実装することができ、あるいはASIC(特定用途向集積)として実装することができ、上記機能部をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(VHSIC(Very High Speed Integrated Circuits) Hardware Description Language)、Verilog-HDLなどにより記述されたデータとして記録媒体により配布することができる。 The above functional unit can be realized by a computer-executable program described in a legacy programming language such as an assembler, C, C ++, C #, Java (registered trademark), an object-oriented programming language, or the like, and is ROM, EEPROM, EPROM. , Flash memory, flexible disc, CD-ROM, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, Blu-ray disc, SD card, MO, etc. Stored in a device-readable recording medium, or through a telecommunications line Can be distributed. In addition, some or all of the functional parts can be mounted on a programmable device (PD) such as a field programmable gate array (FPGA), or as an ASIC (application specific integrated circuit). Circuit configuration data (bit stream data) to be downloaded to PD to realize the above functional unit on PD, HDL (Hardware Description Language) to generate circuit configuration data, VHDL (VHSIC (Very High Speed)) Integrated Circuits) Hardware Description Language), can be distributed by recording medium as data described by Verilog-HDL and the like.
これまで本発明の実施形態について説明してきたが、本発明の実施形態は上述した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 Although the embodiments of the present invention have been described so far, the embodiments of the present invention are not limited to the above-described embodiments, and those skilled in the art may think of other embodiments, additions, changes, deletions, and the like. It can be changed within the range possible, and is included in the scope of the present invention as long as the action / effect of the present invention is exhibited in any of the embodiments.
100…全天球画像表示システム、102…インターネット、104…通信機器、110…全天球撮像装置、120~124…画像処理装置、130…画像表示サーバ、200…機能ブロック、210…機能ブロック、212…撮像光学系、214…合成処理ブロック、250…機能ブロック、252…入力部、254…出力部、256…全天球画像蓄積部、258…ユーザ入力受付部、260…平面画像生成部、262…画像出力部、264…パラメータ決定部、264…テクスチャマッピング部、266…射影部、300…画像ビューワ画面、310…画像表示領域、312,314…GUI部品、10…モバイルプロセッサ、12…メモリ、14…フラッシュメモリ、16…外部記録媒体スロット、18…タッチ・スクリーン・コントローラ、20…ディスプレイ・インタフェース、22…ディスプレイ、24…外部映像インタフェース、26…カメラインタフェース、28…カメラ、30…音声コーデック、32…音声スイッチ、34…無線LANポート、36…近距離無線ポート、38…電源管理ユニット 100 ... All-sky image display system, 102 ... Internet, 104 ... Communication equipment, 110 ... All-sky imager, 120-124 ... Image processing device, 130 ... Image display server, 200 ... Functional block, 210 ... Functional block, 212 ... Imaging optical system, 214 ... Composite processing block, 250 ... Functional block, 252 ... Input unit, 254 ... Output unit, 256 ... All-sky image storage unit, 258 ... User input reception unit, 260 ... Planar image generation unit, 262 ... Image output unit, 264 ... Parameter determination unit, 264 ... Texture mapping unit, 266 ... Projection unit, 300 ... Image viewer screen, 310 ... Image display area, 312, 314 ... GUI parts, 10 ... Mobile processor, 12 ... Memory , 14 ... Flash memory, 16 ... External recording medium slot, 18 ... Touch screen controller, 20 ... Display interface, 22 ... Display, 24 ... External video interface, 26 ... Camera interface, 28 ... Camera, 30 ... Voice codec , 32 ... voice switch, 34 ... wireless LAN port, 36 ... short-range wireless port, 38 ... power management unit
Claims (9)
対象画像を三次元形状に貼り付けた三次元モデルを生成する生成手段と、
前記入力値に基づき、視点の位置および視野角を決定する決定手段と、
前記視点から前記三次元モデルを射影する射影手段と
を含み、前記決定手段は、前記入力値が、第1の範囲にある場合は、前記視野角を優先的に変化させることで前記対象画像の視野内に入る範囲を変化させ、前記入力値が、前記第1の範囲より広視野側にある第2の範囲にある場合は、前記視点の位置を優先的に変化させることで前記視野内に入る範囲を変化させる、画像処理システム。 A reception means that accepts input values that specify the output range,
A generation means for generating a 3D model in which a target image is pasted into a 3D shape,
A determination means for determining the position and viewing angle of the viewpoint based on the input value, and
The determination means includes a projection means for projecting the three-dimensional model from the viewpoint, and the determination means preferentially changes the viewing angle of the target image when the input value is in the first range. The range within the visual field is changed, and when the input value is in the second range on the wider visual field side than the first range, the position of the viewpoint is preferentially changed into the visual field. An image processing system that changes the range of entry.
前記チルト指定値およびパン指定値またはこれらの少なくとも1つに応じて、世界座標系に対して前記三次元モデルを回転するか、視野方向を変更する手段をさらに含む、請求項1~5のいずれか1項に記載の画像処理システム。 The input value is a zoom specified value that specifies the degree of zoom, and the receiving means further includes a tilt specified value that swings the output range up and down, a pan specified value that swings the output range left and right, or at least one of these. Accept one,
Any of claims 1-5, further comprising means for rotating the three-dimensional model or changing the viewing direction with respect to the world coordinate system according to the tilt and pan designations or at least one of them. The image processing system according to item 1.
出力範囲を規定する入力値を受け付けるステップと、
前記入力値に基づき、視点の位置および視野角を決定するステップと、
対象画像を三次元形状に貼り付けた三次元モデルを生成するステップと、
前記視点から前記三次元モデルを射影するステップと
を実行し、前記決定するステップでは、前記コンピュータが、
前記入力値が、第1の範囲にある場合に、前記視野角を優先的に変化させることで前記対象画像の視野内に入る範囲を変化させるサブステップ、または、
前記入力値が、前記第1の範囲より広視野側にある第2の範囲にある場合に、前記視点の位置を優先的に変化させることで前記視野内に入る範囲を変化させるサブステップ
を実行する、画像処理方法。 An image processing method that produces an output image, which is a computer
A step that accepts an input value that defines the output range,
Steps to determine the position and viewing angle of the viewpoint based on the input values,
Steps to generate a 3D model with the target image pasted into a 3D shape,
In the step of projecting the three-dimensional model from the viewpoint and the step of determining the determination, the computer performs the step of projecting the three-dimensional model.
When the input value is in the first range, a sub-step that changes the range within the field of view of the target image by preferentially changing the viewing angle, or
When the input value is in the second range on the wide field of view side of the first range, the sub-step of changing the range within the field of view by preferentially changing the position of the viewpoint is executed. Image processing method.
出力範囲を規定する入力値を受け付ける受付手段、
対象画像を三次元形状に貼り付けた三次元モデルを生成する生成手段、
前記入力値に基づき、視点の位置および視野角を決定する決定手段、および
前記視点から前記三次元モデルを射影する射影手段
として機能させるためのプログラムであって、
前記決定手段は、前記入力値が、第1の範囲にある場合は、前記視野角を優先的に変化させることで前記対象画像の視野内に入る範囲を変化させ、前記入力値が、前記第1の範囲より広視野側にある第2の範囲にある場合は、前記視点の位置を優先的に変化させることで前記視野内に入る範囲を変化させる、プログラム。 Computer,
Reception means that accepts input values that specify the output range,
A generation means for generating a 3D model in which a target image is pasted into a 3D shape,
It is a program for functioning as a determining means for determining a viewpoint position and a viewing angle based on the input value, and a projection means for projecting the three-dimensional model from the viewpoint.
When the input value is in the first range, the determination means preferentially changes the viewing angle to change the range within the field of view of the target image, and the input value is the first range. A program that changes the range within the visual field by preferentially changing the position of the viewpoint when it is in the second range on the wide visual field side of the range 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021198997A JP7302647B2 (en) | 2020-03-03 | 2021-12-08 | Image processing system, image processing method and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020035859A JP6992829B2 (en) | 2020-03-03 | 2020-03-03 | Image processing system, image processing method and program |
JP2021198997A JP7302647B2 (en) | 2020-03-03 | 2021-12-08 | Image processing system, image processing method and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020035859A Division JP6992829B2 (en) | 2020-03-03 | 2020-03-03 | Image processing system, image processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022043132A true JP2022043132A (en) | 2022-03-15 |
JP7302647B2 JP7302647B2 (en) | 2023-07-04 |
Family
ID=86996585
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021198997A Active JP7302647B2 (en) | 2020-03-03 | 2021-12-08 | Image processing system, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7302647B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002203254A (en) * | 2000-08-30 | 2002-07-19 | Usc Corp | Curved surface image transforming method and recording medium with the curved surface image transforming method recorded thereon |
JP2005223416A (en) * | 2004-02-03 | 2005-08-18 | Sony Corp | Image processing system, image processing apparatus and image processing method, and program |
JP2007233996A (en) * | 2006-02-06 | 2007-09-13 | Olympus Imaging Corp | Image compositing apparatus, image compositing method, image compositing program and recording medium |
WO2009014075A1 (en) * | 2007-07-20 | 2009-01-29 | Techwell Japan K.K. | Image processing device and camera system |
JP2010049346A (en) * | 2008-08-19 | 2010-03-04 | Canon Inc | Image display apparatus |
-
2021
- 2021-12-08 JP JP2021198997A patent/JP7302647B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002203254A (en) * | 2000-08-30 | 2002-07-19 | Usc Corp | Curved surface image transforming method and recording medium with the curved surface image transforming method recorded thereon |
JP2005223416A (en) * | 2004-02-03 | 2005-08-18 | Sony Corp | Image processing system, image processing apparatus and image processing method, and program |
JP2007233996A (en) * | 2006-02-06 | 2007-09-13 | Olympus Imaging Corp | Image compositing apparatus, image compositing method, image compositing program and recording medium |
WO2009014075A1 (en) * | 2007-07-20 | 2009-01-29 | Techwell Japan K.K. | Image processing device and camera system |
JP2010049346A (en) * | 2008-08-19 | 2010-03-04 | Canon Inc | Image display apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP7302647B2 (en) | 2023-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6044328B2 (en) | Image processing system, image processing method, and program | |
JP5743016B2 (en) | Apparatus and method for generating images | |
US10437545B2 (en) | Apparatus, system, and method for controlling display, and recording medium | |
CN109218606B (en) | Image pickup control apparatus, control method thereof, and computer readable medium | |
JP2019164782A (en) | Image processing apparatus, image capturing system, image processing method, and program | |
JP4875887B2 (en) | Image composition system and image composition method | |
JP6992829B2 (en) | Image processing system, image processing method and program | |
JP6394682B2 (en) | Method and image processing apparatus | |
US20220230275A1 (en) | Imaging system, image processing apparatus, imaging device, and recording medium | |
JP7424076B2 (en) | Image processing device, image processing system, imaging device, image processing method and program | |
JP6705477B2 (en) | Image processing system, image processing method and program | |
JP7302647B2 (en) | Image processing system, image processing method and program | |
JP2019164783A (en) | Image processing apparatus, image capturing system, image processing method, and program | |
WO2017159014A1 (en) | Image processing device, image processing method and image processing system | |
WO2008012983A1 (en) | Imaging device and imaging system | |
JP7187307B2 (en) | Electronic device and its control method | |
TWI704408B (en) | Omnidirectional camera apparatus and image mapping/combining method thereof | |
JPWO2017145483A1 (en) | Image processing apparatus, image processing system, and program | |
JP7118383B1 (en) | Display system, display method, and display program | |
JP7219620B2 (en) | Delivery image generation method | |
JP7278773B2 (en) | Electronic device and its control method | |
JP2022084529A (en) | Device, system, method and program | |
JP2021005829A (en) | Imaging apparatus, image processing system, method, and program | |
JP2021005828A (en) | Imaging apparatus, imaging system, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220107 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230605 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7302647 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |