JP6705477B2 - Image processing system, image processing method and program - Google Patents

Image processing system, image processing method and program Download PDF

Info

Publication number
JP6705477B2
JP6705477B2 JP2018159518A JP2018159518A JP6705477B2 JP 6705477 B2 JP6705477 B2 JP 6705477B2 JP 2018159518 A JP2018159518 A JP 2018159518A JP 2018159518 A JP2018159518 A JP 2018159518A JP 6705477 B2 JP6705477 B2 JP 6705477B2
Authority
JP
Japan
Prior art keywords
image
viewpoint
predetermined
changing
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018159518A
Other languages
Japanese (ja)
Other versions
JP2019003676A5 (en
JP2019003676A (en
Inventor
誠 庄原
誠 庄原
今江 望
望 今江
亨 原田
亨 原田
山本 英明
英明 山本
康雄 上田
康雄 上田
伊藤 洋一
洋一 伊藤
聡 澤口
聡 澤口
竹中 博一
博一 竹中
憲介 増田
憲介 増田
佐藤 裕之
裕之 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018159518A priority Critical patent/JP6705477B2/en
Publication of JP2019003676A publication Critical patent/JP2019003676A/en
Publication of JP2019003676A5 publication Critical patent/JP2019003676A5/ja
Application granted granted Critical
Publication of JP6705477B2 publication Critical patent/JP6705477B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理技術に関し、より詳細には、広画角で構成された画像を三次元モデルに基づき射影するための画像処理システム、画像処理方法およびプログラムに関する。 The present invention relates to an image processing technique, and more particularly, to an image processing system, an image processing method, and a program for projecting an image configured with a wide angle of view based on a three-dimensional model.

従来、カメラなどにより撮影された画像を平面ディスプレイ上で表示するシステムとして、パノラマ画像ビューワが知られている。パノラマ画像ビューワは、撮影方向が異なり、かつ一部被写体を重複して撮影した複数枚の画像をつなぎ合わせ、つなぎ合わせた合成画像をディスプレイ上に表示するシステムである。 2. Description of the Related Art Conventionally, a panoramic image viewer is known as a system for displaying an image captured by a camera or the like on a flat display. The panoramic image viewer is a system that joins a plurality of images captured in different shooting directions and overlapping some subjects, and displays a stitched composite image on a display.

従来のパノラマ画像ビューワは、つなぎ合わせたパノラマ画像について、パン(視野の左右移動)、チルト(視野の上下移動)、ズーム(拡大縮小)といった各種の表示範囲変更操作を可能とする機能を備えている。パノラマ画像ビューワは、円筒の側面上または球面上に貼り付けられた画像を円筒もしくは球の重心から見た場合の画像を平面上に射影して表示させる手法を利用することが多い。この場合、平面ディスプレイ上には、ユーザによって設定された、パン、チルト、ズームの各設定値に対応して、円筒の側面上もしくは球面上に沿って焦点を形成した三次元面上の画像を平面画像に射影して表示が行われる。 Conventional panoramic image viewers have functions that enable various display range changing operations such as pan (moving the field of view left and right), tilt (moving the field of view up and down), and zoom (enlargement/reduction) for the combined panoramic images. There is. The panoramic image viewer often uses a method of projecting and displaying an image pasted on the side surface or the spherical surface of the cylinder on the plane when the image is viewed from the center of gravity of the cylinder or sphere. In this case, on the flat display, an image on a three-dimensional surface in which a focus is formed along the side surface of the cylinder or the spherical surface corresponding to the pan, tilt, and zoom set values set by the user is displayed. It is displayed by projecting it onto a plane image.

しかしながら、従来技術のパノラマ画像ビューワでは、表示範囲変更操作のうちの特にズーム機能によって一定以上に視野が広くなった場合に、視野の端部で画像に違和感を生じさせたり、歪みを感じさせてしまうことがあるという問題があった。 However, in the conventional panoramic image viewer, when the view is widened to a certain extent or more due to the zoom function of the display range changing operation, the image may be distorted or distorted at the edge of the view. There was a problem that it might end up.

パノラマ画像のような広画角な画像を違和感なく表示することを目的とした技術として、非特許文献1が知られている。非特許文献1は、パノラマ画像を求められる視野で表示するビューワを開示する。非特許文献1のビューワは、狭視野では、透視投影を行い、広視野では、円筒投影または球面投影を行うように、射影方式を連続的に調整している。 Non-Patent Document 1 is known as a technique for displaying an image with a wide angle of view such as a panoramic image without a sense of discomfort. Non-Patent Document 1 discloses a viewer that displays a panoramic image in a required field of view. The viewer of Non-Patent Document 1 continuously adjusts the projection method to perform perspective projection in a narrow field of view and cylindrical projection or spherical projection in a wide field of view.

しかしながら、上記非特許文献1の従来技術は、ズームに応じて射影方式を切り替えているため、処理が複雑になり、リアルタイム処理を実現するためには、高い演算性能を必要とする。一方で、近年、パノラマ画像ビューワは、パーソナル・コンピュータのみならず、スマートフォン端末、タブレット端末など、CPU(Central Processing Unit)の演算能力が比較的低い情報端末上で実行されることも多くなっている。このような低演算能力の情報端末では、上記非特許文献1のような複雑な処理では、例えば30fps(Frame per Second)程度のリアルタイム表示を行うことが困難になる。 However, in the conventional technique of Non-Patent Document 1, since the projection method is switched according to the zoom, the processing becomes complicated, and high computing performance is required to realize the real-time processing. On the other hand, in recent years, the panoramic image viewer is often executed not only on a personal computer but also on an information terminal such as a smartphone terminal or a tablet terminal having a relatively low CPU (Central Processing Unit) computing capability. .. With such an information terminal having a low computing capability, it becomes difficult to perform real-time display at, for example, about 30 fps (Frame per Second) with the complicated processing as in Non-Patent Document 1.

近年の情報端末は、CPUに加えて、グラフィックス演算を担当するGPU(Graphics Processing Unit)を搭載するものも多い。GPUは、典型的には、OpenGLなどのAPI(Application Programming Interface)に対応した演算機能を有し、高速な画像処理演算を実現可能としている。しかしながら、スマートフォンなどが備えるGPUは、OpenGLのサブセット版に対応するものであり、比較的単純なモデルでの演算を余儀なくされる。 In recent years, many information terminals are equipped with a GPU (Graphics Processing Unit) that is in charge of graphics calculation in addition to the CPU. The GPU typically has a calculation function corresponding to an API (Application Programming Interface) such as OpenGL and can realize high-speed image processing calculation. However, a GPU included in a smartphone or the like corresponds to a subset version of OpenGL, and is forced to perform a calculation with a relatively simple model.

上述した背景から、演算能力に制約のあるような情報端末でも、パノラマ画像表示する際に、広画角領域での表示において、上下左右の端部の被写体が引き伸ばされることによる違和感を低減しつつ、高速表示が可能な技術の開発が望まれていた。 From the background described above, even in the case of an information terminal having a limited computing capacity, when displaying a panoramic image, in a display in a wide angle of view area, it is possible to reduce the discomfort caused by stretching the subjects at the top, bottom, left, and right edges. The development of technology capable of high-speed display has been desired.

本発明は、上記従来技術の不充分な点に鑑みてなされたものであり、本発明は、画像表示する際に、広視野領域での表示において、上下左右の端部の被写体が引き伸ばされることによる違和感を低減しつつ高速表示を可能とする、演算能力に対する要件が緩和された画像処理システム、画像処理方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the inadequacies of the above-described prior art, and the present invention is such that, when displaying an image, the subject at the upper, lower, left, and right ends is stretched in the display in a wide visual field region. It is an object of the present invention to provide an image processing system, an image processing method, and a program that enable high-speed display while reducing discomfort due to the above, and have relaxed requirements for computing power.

本発明では、上記課題を解決するために、下記特徴を有する画像処理システムを提供する。本画像処理システムは、出力範囲を規定する入力値を受け付ける受付手段と、対象画像を三次元形状に貼り付けた三次元モデルを生成する生成手段と、上記入力値に基づき、視点の位置および視野角を決定する決定手段と、視点から上記三次元モデルを射影する射影手段とを含む。上記決定手段は、上述した入力値が、第1の範囲にある場合は、視野角を優先的に変化させることで対象画像の視野内に入る範囲を変化させる。一方、上記入力値が、第1の範囲より広視野側にある第2の範囲にある場合は、視点の位置を優先的に変化させることで視野内に入る範囲を変化させる。 In order to solve the above problems, the present invention provides an image processing system having the following features. The image processing system includes an acceptance unit that accepts an input value that defines an output range, a generation unit that generates a three-dimensional model in which a target image is attached to a three-dimensional shape, and a position and a visual field of a viewpoint based on the input value. It includes a determining means for determining an angle and a projecting means for projecting the three-dimensional model from a viewpoint. When the input value described above is in the first range, the determining unit changes the range included in the field of view of the target image by preferentially changing the viewing angle. On the other hand, when the input value is in the second range, which is on the wider visual field side than the first range, the range of the visual field is changed by preferentially changing the position of the visual point.

上記構成によれば、画像表示する際に、広視野側の領域での表示において、上下左右の端部の被写体が引き伸ばされることによる違和感を低減しつつ高速表示を行う際の、演算能力に対する要件を緩和することができる。 According to the above configuration, when displaying an image, in the display in the area on the wide field of view side, the requirement for the calculation capability when performing high-speed display while reducing the discomfort caused by the subject at the upper, lower, left, and right ends being stretched Can be relaxed.

本実施形態による全天球画像表示システムを示す概略図。The schematic diagram showing the omnidirectional image display system by this embodiment. 本実施形態における全天球画像表示システムにおける全天球画像出力処理に関する機能ブロック図。FIG. 3 is a functional block diagram related to spherical image output processing in the spherical image display system according to the present embodiment. 全天球画像出力処理における画像データフロー図。The image data flow diagram in the spherical image output processing. 魚眼レンズで採用される射影方式を例示する図。The figure which illustrates the projection system employ|adopted with a fisheye lens. 本実施形態で用いられる全天球画像フォーマットの画像データのデータ構造を示す図。The figure which shows the data structure of the image data of the spherical image format used by this embodiment. 三次元グラフィックス表示で行われる透視投影(Perspective Projection)を説明する図。The figure explaining the perspective projection (Perspective Projection) performed by three-dimensional graphics display. 本実施形態の画像処理装置が実行する全天球画像表示処理を示すフローチャート。The flowchart which shows the omnidirectional image display process which the image processing apparatus of this embodiment performs. 全天球画像を所定範囲で表示する画像ビューワ画面を例示する図。The figure which illustrates the image viewer screen which displays a spherical image in a predetermined range. 本実施形態における画像処理装置上の平面画像生成部の機能ブロック図。3 is a functional block diagram of a plane image generation unit on the image processing apparatus according to the present embodiment. FIG. モデル座標系と、カメラの位置(d)および視野角(Θ)と、画角(Φ)との関係を説明する図。The figure explaining a model coordinate system, the position (d) of a camera, a viewing angle ((theta)), and the relationship with an angle of view ((phi)). ズーム指定値に応じてどのように画像生成パラメータを決定するかを説明する図(1/2)。FIG. 6 is a diagram (1/2) illustrating how to determine an image generation parameter according to a zoom designated value. ズーム指定値に応じてどのように画像生成パラメータを決定するかを説明する図(2/2)。FIG. 3B is a diagram (2/2) explaining how to determine the image generation parameter according to the designated zoom value. 本実施形態における画像処理装置のハードウェア構成図。The hardware block diagram of the image processing apparatus in this embodiment.

以下、本発明の実施形態について説明するが、本発明の実施形態は、以下に説明する実施形態に限定されるものではない。なお、説明する実施形態では、画像処理システムとして、全天球撮像装置と、該全天球撮像装置により撮像された画像を受け取り、ディスプレイ装置等に出力するための出力画像を生成する画像処理装置とを含む全天球画像表示システムを一例に説明する。 Hereinafter, embodiments of the present invention will be described, but the embodiments of the present invention are not limited to the embodiments described below. In the embodiment to be described, as the image processing system, an omnidirectional imaging device, and an image processing device that receives an image captured by the omnidirectional imaging device and generates an output image to be output to a display device or the like. A spherical image display system including and will be described as an example.

図1は、本実施形態による全天球画像表示システム100の概略構成を説明する図である。図1に示す全天球画像表示システム100は、全天球を撮像する全天球撮像装置110と、スマートフォン120と、タブレット端末122と、パーソナル・コンピュータ124とを含み構成されている。スマートフォン120、タブレット端末122およびパーソナル・コンピュータ124は、それぞれ、全天球撮像装置110で撮像された画像をディスプレイ等に表示する画像ビューワ機能を備えた、本実施形態における画像処理装置を構成する。 FIG. 1 is a diagram illustrating a schematic configuration of a spherical image display system 100 according to the present embodiment. The celestial sphere image display system 100 shown in FIG. 1 includes a celestial sphere imaging device 110 that captures an image of the celestial sphere, a smartphone 120, a tablet terminal 122, and a personal computer 124. The smartphone 120, the tablet terminal 122, and the personal computer 124 each constitute an image processing device according to the present embodiment, which has an image viewer function of displaying an image captured by the omnidirectional imaging device 110 on a display or the like.

図1に示す実施形態において、全天球撮像装置110と、画像処理装置120〜124とは、特に限定されるものではないが、無線LAN(Local Area Network)、ワイヤレスUSB(Universal Serial Bus)またはBluetooth(登録商標)などの無線接続により接続されている。全天球撮像装置110で撮像された所定のフォーマットの画像は、無線通信を介して、画像処理装置120〜124に送信され、所定の画像処理が施されて、画像処理装置120〜124が備えるディスプレイ装置上に表示される。なお、上記接続形態は、一例であり、有線LANや有線USBなどにより有線接続されていてもよい。 In the embodiment shown in FIG. 1, the omnidirectional imaging device 110 and the image processing devices 120 to 124 are not particularly limited, but a wireless LAN (Local Area Network), a wireless USB (Universal Serial Bus), or It is connected by a wireless connection such as Bluetooth (registered trademark). The image in the predetermined format captured by the omnidirectional imaging device 110 is transmitted to the image processing devices 120 to 124 via wireless communication, subjected to predetermined image processing, and provided in the image processing devices 120 to 124. It is displayed on the display device. Note that the above connection form is an example, and may be connected by wire via a wired LAN, a wired USB, or the like.

説明する実施形態において、全天球撮像装置110は、それぞれ結像光学系および固体撮像素子から構成される2つの撮像光学系を備え、撮像光学系毎に各方向から撮影し撮像画像を生成する。結像光学系は、それぞれ、例えば6群7枚で魚眼レンズとして構成することができる。上記魚眼レンズは、180度(=360度/n;n=2)より大きい全画角を有し、好適には、185度以上の全画角を有し、より好適には、190度以上の全画角を有する。なお、説明する実施形態では、魚眼レンズは、広角レンズや、超広角レンズと呼ばれるものを含むものとする。 In the embodiment to be described, the omnidirectional imaging device 110 includes two imaging optical systems each including an imaging optical system and a solid-state imaging device, and captures images from each direction for each imaging optical system to generate a captured image. .. Each of the image forming optical systems can be configured as a fisheye lens with, for example, 7 elements in 6 groups. The fisheye lens has a total angle of view larger than 180 degrees (=360 degrees/n; n=2), preferably a total angle of view of 185 degrees or more, and more preferably 190 degrees or more. Has full angle of view. In the embodiment described, the fisheye lens includes a wide-angle lens and a so-called ultra-wide-angle lens.

全天球撮像装置110は、複数の固体撮像素子でそれぞれ撮像された撮像画像をつなぎ合わせて合成し、立体角4πラジアンの画像(以下「全天球画像」と参照する。)を生成する。全天球画像は、撮影地点から見渡すことのできる全ての方向を撮影したものとなる。上述したように、魚眼レンズが180度を超える全画角を有するため、各撮像光学系で撮像した撮影画像において、180度を超えた部分で撮影範囲が重複する。画像をつなぎ合わせる際には、この重複領域が同一像を表す基準データとして参照されて、全天球画像が生成される。 The celestial sphere image pickup device 110 joins the picked-up images picked up by the plurality of solid-state image pickup devices, and synthesizes the images to generate an image having a solid angle of 4π radians (hereinafter, referred to as “all-sky image”). The celestial sphere image is a photograph of all directions that can be viewed from the photographing point. As described above, since the fish-eye lens has a total angle of view of more than 180 degrees, in the captured image captured by each imaging optical system, the capturing range overlaps at the portion exceeding 180 degrees. When the images are stitched together, this overlapping area is referred to as reference data representing the same image, and a spherical image is generated.

ここで、説明する実施形態では、立体角4πラジアンの全天球画像を生成するものとしているが、他の実施形態では、水平面のみ360度を撮影した、いわゆるパノラマ画像であってもよい。また、説明する実施形態では、2つの撮像光学系を含み構成されるものとして説明するが、撮像光学系の数は、特に限定されるものではない。他の実施形態では、全天球撮像装置110は、3つ以上の魚眼レンズを光学系に含む撮像体を備えるとともに、3つ以上の魚眼レンズで撮像された複数の撮像画像に基づいて全天球画像を生成する機能を備えていてもよい。さらに他の実施形態では、全天球撮像装置110は、単一の魚眼レンズを光学系に含む撮像体を備え、単一の魚眼レンズで異なる方位で撮像された複数の撮像画像に基づいて全天球画像を生成する機能を備えていてもよい。 Here, in the embodiment to be described, a celestial sphere image with a solid angle of 4π radians is generated, but in another embodiment, a so-called panoramic image in which only a horizontal plane is photographed at 360 degrees may be used. Moreover, in the embodiment to be described, the configuration is described as including two imaging optical systems, but the number of imaging optical systems is not particularly limited. In another embodiment, the celestial sphere imaging device 110 includes an imaging body that includes three or more fisheye lenses in its optical system, and a celestial sphere image based on a plurality of captured images captured by the three or more fisheye lenses. May be provided. In still another embodiment, the omnidirectional imaging device 110 includes an imaging body that includes a single fish-eye lens in its optical system, and the omnidirectional sphere is based on a plurality of picked-up images picked up by the single fish-eye lens in different directions. It may have a function of generating an image.

生成された全天球画像は、所定のフォーマットで、通信により外部の画像処理装置120〜124に送信され、あるいはSD(登録商標)カード、コンパクトフラッシュ(登録商標)などの外部記憶媒体などに出力される。 The generated spherical image is transmitted in a predetermined format to the external image processing devices 120 to 124 by communication, or is output to an external storage medium such as an SD (registered trademark) card or a compact flash (registered trademark). To be done.

上記画像処理装置120〜124は、接続を介して全天球画像を受信し、または、全天球画像が記録された外部記録媒体を経由して全天球画像を取得し、一旦自身の記録装置上に全天球画像を保存する。上記画像処理装置120〜124は、取得された全天球画像から、自身が備えるディスプレイ、自身に接続されるプロジェクタなどの平面表示デバイスに表示出力するための出力画像を生成し、平面表示デバイスから出力画像を表示させることができる。上記画像処理装置120〜124は、さらに、生成された出力画像を、自身に接続された画像形成装置から紙媒体へ印刷出力することもできる。全天球画像から出力画像を生成する処理ついては、詳細を後述する。 The image processing devices 120 to 124 receive the omnidirectional image through the connection, or acquire the omnidirectional image via an external recording medium in which the omnidirectional image is recorded, and once record their own. Save the spherical image on the device. The image processing apparatuses 120 to 124 generate an output image for display output on a flat display device such as a display included in itself or a projector connected to itself from the obtained omnidirectional image, and output from the flat display device. The output image can be displayed. The image processing apparatuses 120 to 124 can also print out the generated output image from an image forming apparatus connected to itself to a paper medium. Details of the process of generating the output image from the spherical image will be described later.

図1に示す実施形態では、さらに、全天球撮像装置110および画像処理装置120〜124は、アクセスポイント、モバイル・ルータ、ブロードバンドルータなどの通信機器104を介して、インターネット102に接続されている。そして、インターネット102上には、画像表示サーバ130が設けられている。 In the embodiment shown in FIG. 1, the omnidirectional imaging device 110 and the image processing devices 120 to 124 are further connected to the Internet 102 via a communication device 104 such as an access point, a mobile router or a broadband router. .. An image display server 130 is provided on the Internet 102.

図1に示す画像表示サーバ130は、全天球撮像装置110または画像処理装置120〜124から送付された全天球画像を受信し、受信した全天球画像を蓄積し、管理する。画像表示サーバ130は、また、画像処理装置120〜124や他の情報処理端末からの全天球画像の表示要求に応答して、全天球画像に基づき出力画像を生成し、生成した出力画像を要求元装置へ送信する。これにより、要求元装置の平面表示デバイス上に該出力画像を表示させることができる。 The image display server 130 shown in FIG. 1 receives the omnidirectional images sent from the omnidirectional imaging device 110 or the image processing devices 120 to 124, accumulates and manages the received omnidirectional images. The image display server 130 also generates an output image based on the spherical image in response to a display request for the spherical image from the image processing devices 120 to 124 and other information processing terminals, and the generated output image. To the request source device. Thereby, the output image can be displayed on the flat display device of the request source device.

画像表示サーバ130は、特定の実施形態では、webサーバとして構成することができ、HTTP(HyperText Transfer Protocol)に従い、全天球画像を含む画像登録要求にかかるリクエストを受信し、全天球画像を蓄積することができる。画像表示サーバ130は、さらに、出力対象の全天球画像が指定された画像表示要求にかかるリクエストを受信し、対象となる全天球画像を読み出し、画像処理を施し出力画像を生成して、出力画像を含むレスポンスを応答することができる。レスポンスを受信した要求元装置では、ウェブブラウザにより、受信した出力画像が平面表示デバイス上に表示される。そして、ウェブブラウザにより、適宜、出力画像の印刷出力が行われる。なお、画像表示サーバ130も、本実施形態において、出力画像を生成する画像処理装置として構成される。 The image display server 130 may be configured as a web server in a specific embodiment, receives a request for an image registration request including a omnidirectional image according to HTTP (HyperText Transfer Protocol), and displays the omnidirectional image. Can be accumulated. The image display server 130 further receives a request for an image display request in which the omnidirectional image to be output is designated, reads the omnidirectional image to be processed, performs image processing, and generates an output image, It is possible to respond with a response including the output image. In the request source device that has received the response, the web browser displays the received output image on the flat display device. Then, the web browser appropriately prints out the output image. The image display server 130 is also configured as an image processing device that generates an output image in this embodiment.

以下、図2〜図12を参照しながら、本実施形態における、全天球画像から出力画像を生成する全天球画像出力処理について、より詳細に説明する。図2は、本実施形態における全天球画像表示システムにおける全天球画像出力処理に関する機能ブロック200を示す図である。図2に示す機能ブロック200は、全天球撮像装置110上の機能ブロック210と、画像処理装置120〜124,130上の機能ブロック250とを含み構成される。 Hereinafter, the omnidirectional image output processing of generating an output image from the omnidirectional image in the present embodiment will be described in more detail with reference to FIGS. 2 to 12. FIG. 2 is a diagram showing a functional block 200 related to the spherical image output processing in the spherical image display system in the present embodiment. The functional block 200 shown in FIG. 2 is configured to include a functional block 210 on the omnidirectional imaging device 110 and a functional block 250 on the image processing devices 120 to 124 and 130.

全天球撮像装置110の機能ブロック210は、それぞれ各方向を撮像する2つの撮像光学系212A,212Bと、各撮像光学系212で撮影された各撮像画像の入力を受けて、全天球画像を生成し、出力する合成処理ブロック214とを含む。 The functional block 210 of the celestial sphere image pickup device 110 receives two image pickup optical systems 212A and 212B for picking up images in respective directions and the respective picked-up images picked up by the image pickup optical systems 212, and receives a omnidirectional image. Is generated and output.

画像処理装置の機能ブロック250は、入力部252と、出力部254と、全天球画像蓄積部256と、ユーザ入力受付部258と、平面画像生成部260と、画像出力部262とを含み構成される。入力部252は、タッチパネル、マウス、キーボードなどの入力装置である。出力部254は、入力部252に行われたユーザ操作の入力に応じた画像処理結果を表示する平面表示デバイス、画像処理結果を印刷出力する画像形成装置などの出力装置である。入力部252および出力部254は、画像処理装置自身に備えられてもよいし、画像処理装置が接続される外部装置に備えられてもよい。 The functional block 250 of the image processing apparatus includes an input unit 252, an output unit 254, a celestial sphere image storage unit 256, a user input reception unit 258, a plane image generation unit 260, and an image output unit 262. To be done. The input unit 252 is an input device such as a touch panel, a mouse, and a keyboard. The output unit 254 is an output device such as a flat display device that displays an image processing result according to an input of a user operation performed on the input unit 252, an image forming apparatus that prints out the image processing result, and the like. The input unit 252 and the output unit 254 may be provided in the image processing apparatus itself, or may be provided in an external device to which the image processing apparatus is connected.

全天球画像蓄積部256は、全天球撮像装置110で撮像され、上記接続または外部記録媒体などを介して画像処理装置120〜124に入力された全天球画像を蓄積する手段である。ユーザ入力受付部258は、入力部252を介して行われた出力範囲変更操作に基づき、操作に応じた全天球画像の出力範囲を規定する入力値を受け付け、入力値を平面画像生成部260に渡す。 The celestial sphere image storage unit 256 is a unit that stores the celestial sphere image captured by the celestial sphere imaging device 110 and input to the image processing devices 120 to 124 via the above-mentioned connection or an external recording medium. The user input accepting unit 258 accepts an input value defining the output range of the omnidirectional image according to the operation based on the output range changing operation performed via the input unit 252, and outputs the input value to the planar image generating unit 260. Pass to.

出力範囲変更操作としては、視野を左右に移動させるパン操作、視野を上下に移動させるチルト操作および、出力する画像の範囲を拡大または縮小するズーム操作などを挙げることができる。上記出力範囲変更操作による変更の結果として、または直接入力された結果として、パン指定値、チルト指定値およびズーム指定値が、全天球画像の出力範囲を規定する入力値として取得される。 Examples of the output range changing operation include a pan operation for moving the visual field left and right, a tilt operation for moving the visual field up and down, and a zoom operation for enlarging or reducing the range of the image to be output. As a result of the change by the output range changing operation or as a result of direct input, the pan specified value, the tilt specified value, and the zoom specified value are acquired as input values that define the output range of the omnidirectional image.

平面画像生成部260は、受け付けられた上記入力値に基づき、画像生成する際のパラメータ(以下、画像生成パラメータと参照する。)を決定し、決定された画像生成パラメータに基づき、全天球画像から出力画像を生成する。画像出力部262は、生成された出力画像を、出力部254に出力させる。出力画像は、平面表示デバイス上での適切な表示を行うため平面画像となる。 The plane image generation unit 260 determines a parameter for image generation (hereinafter referred to as an image generation parameter) based on the received input value, and the spherical image based on the determined image generation parameter. Generate an output image from. The image output unit 262 causes the output unit 254 to output the generated output image. The output image is a plane image for proper display on the plane display device.

なお、画像処理装置が、画像表示サーバ130などのwebサーバとして動作する場合は、入力部252および出力部254の構成は、以下のようになる。すなわち、入力部252は、画像登録にかかるHTTPリクエストを受信するHTTP受信部として構成される。出力部254は、画像表示にかかるHTTPリクエストに応答して、生成された出力画像を、レスポンスとして要求元に返すHTTP送信部として構成される。 When the image processing apparatus operates as a web server such as the image display server 130, the configurations of the input unit 252 and the output unit 254 are as follows. That is, the input unit 252 is configured as an HTTP receiving unit that receives an HTTP request for image registration. The output unit 254 is configured as an HTTP transmission unit that returns the generated output image to the request source as a response in response to the HTTP request for image display.

図3は、全天球画像出力処理における各画像のデータ構造および画像のデータフローを説明する図である。本実施形態による撮像光学系212は、撮像処理により、2つの撮像画像を生成する。本実施形態において、レンズ光学系に入射した光は、所定の射影方式に従って、対応する固体撮像素子の受光領域に結像される。上記撮像画像は、受光領域が平面エリアを成す2次元の固体撮像素子で撮像されたものであり、平面座標系で表現された画像データとなる。また本実施形態では、画像対角線よりもイメージサークル径が小さな、いわゆる円周魚眼レンズの構成が採用される。したがって、得られる撮像画像は、図3において「撮像画像A」および「撮像画像B」で示されるように、各撮影範囲が投影されたイメージサークル全体を含む平面画像として構成される。 FIG. 3 is a diagram illustrating the data structure of each image and the data flow of the image in the spherical image output processing. The imaging optical system 212 according to the present embodiment generates two captured images by the imaging process. In the present embodiment, the light incident on the lens optical system is imaged on the light receiving area of the corresponding solid-state image sensor according to a predetermined projection method. The picked-up image is picked up by a two-dimensional solid-state image pickup device in which the light receiving area forms a plane area, and is image data expressed in a plane coordinate system. Further, in the present embodiment, a so-called circumferential fisheye lens having a smaller image circle diameter than the diagonal line of the image is adopted. Therefore, the obtained captured image is configured as a plane image including the entire image circle onto which each shooting range is projected, as shown by "captured image A" and "captured image B" in FIG.

図4は、魚眼レンズで採用され得る射影方式を例示する図である。魚眼レンズとしては、種々の設計が考えられるが、その射影方式としては、図4に示すような、正射影方式(図4(A))、等距離射影方式(図4(B))、立体射影方式(図4(C))および等立体角射影方式(図4(D))を挙げることができる。また、説明する実施形態において、1つの魚眼レンズで撮影された撮像画像は、撮影地点から概ね半球分(全画角が180度を超える部分で半球からはみ出している。)の方位を撮影したものとなる。そして、図4に示すように、画像は、光軸に対する入射角度βに対応した像高rで生成される。入射角βからの光を受光する受光領域上の画素位置(像高:レンズ焦点からの放射方向の距離)rは、焦点距離をfとして、所定の投影モデルに応じた下記射影関数を用いて決定することができる。 FIG. 4 is a diagram illustrating a projection method that can be adopted in a fisheye lens. Although various designs are conceivable for the fisheye lens, the projection methods thereof include the orthogonal projection method (FIG. 4A), the equidistant projection method (FIG. 4B), and the stereoscopic projection as shown in FIG. The method (FIG. 4(C)) and the equal solid angle projection method (FIG. 4(D)) can be mentioned. Further, in the embodiment to be described, it is assumed that the captured image captured by one fish-eye lens is captured in a direction of approximately a hemisphere (a part of the total angle of view exceeds 180 degrees extends from the hemisphere) from the shooting point. Become. Then, as shown in FIG. 4, the image is generated with an image height r corresponding to the incident angle β with respect to the optical axis. The pixel position (image height: distance in the radial direction from the lens focus) r on the light receiving area that receives light from the incident angle β is calculated by using the following projection function according to a predetermined projection model, where f is the focal length. You can decide.

魚眼レンズが採用する射影方式に対応した上記式により、方位(入射角および光軸周りの回転角)と、平面画像上の画素位置の座標とが対応付けられる。好ましい実施形態では、魚眼レンズは、図4(C)で示す立体射影方式を用いることができる。 The azimuth (incident angle and rotation angle around the optical axis) is associated with the coordinates of the pixel position on the planar image by the above formula corresponding to the projection method adopted by the fisheye lens. In a preferred embodiment, the fisheye lens can use the stereoscopic projection method shown in FIG.

合成処理ブロック214は、2つの撮像光学系212A,212Bから得られた2つの撮影画像に対し、図示しない3軸加速度センサからの情報を利用し、歪曲補正とともに天地補正を施し、画像合成する。画像合成処理では、平面画像として構成される各撮像画像から、まず、相補的な各半休部分を含む各全天球画像が生成される。そして、各半球部分を含む2つの全天球画像が、重複領域のマッチングに基づいて位置合わせされ、画像合成され、全天球全体を含む全天球画像が生成される。 The synthesizing processing block 214 utilizes information from a three-axis acceleration sensor (not shown) on the two captured images obtained from the two image-capturing optical systems 212A and 212B, performs distortion correction as well as top-bottom correction, and synthesizes the images. In the image synthesizing process, first, each celestial sphere image including each complementary semi-hollow portion is generated from each captured image configured as a plane image. Then, the two spherical images including the respective hemispherical parts are aligned based on the matching of the overlapping regions and the images are combined to generate the spherical image including the entire spherical surface.

図5は、本実施形態で用いられる全天球画像フォーマットの画像データのデータ構造を説明する図である。図5(A)に示すように、全天球画像フォーマットの画像データは、所定の軸に対してなされる垂直角度φと、上記所定の軸周りの回転角に対応する水平角度θとを座標とした画素値の配列として表現される。ここで、全天球画像は、図3に示すように、撮影されたシーンの天頂方向を軸とした垂直角度(緯度経度座標における緯度)および、天頂方向の軸周りの水平角度(緯度経度座標における経度)で構成される座標系で表現されるものとする。垂直角度φは、−90度〜+90度の範囲となり、水平角度θは、−180度〜+180度の範囲となる。 FIG. 5 is a diagram illustrating the data structure of image data in the spherical image format used in this embodiment. As shown in FIG. 5(A), the image data in the spherical image format has coordinates of a vertical angle φ with respect to a predetermined axis and a horizontal angle θ corresponding to the rotation angle around the predetermined axis. Is expressed as an array of pixel values. Here, as shown in FIG. 3, the omnidirectional image has a vertical angle (latitude in latitude/longitude coordinates) about the zenith direction of the captured scene and a horizontal angle around the zenith direction (latitude/longitude coordinates). It is assumed to be represented by a coordinate system composed of (longitude in). The vertical angle φ is in the range of −90 degrees to +90 degrees, and the horizontal angle θ is in the range of −180 degrees to +180 degrees.

全天球フォーマットの各座標値(θ,φ)は、図5(B)に示すように、撮影地点を中心とした全方位を表す球面上の各点と対応付けられており、全方位が全天球画像上に対応付けられる。魚眼レンズで撮影された撮像画像の平面座標と、全天球画像フォーマットの球面上の座標とは、上述した射影関数、適宜座標変換を施すことによって対応付けされる。 Each coordinate value (θ, φ) in the omnidirectional format is associated with each point on the spherical surface that represents the azimuth around the shooting point, as shown in FIG. It is associated with the spherical image. The plane coordinates of the captured image captured by the fisheye lens and the coordinates on the spherical surface of the spherical image format are associated with each other by performing the above-mentioned projection function and appropriate coordinate conversion.

なお、以下の説明では、全天球画像フォーマットの図5(A)に示す2次元座標は、図5(A)において灰色の軸で示すように、左下原点の座標系である。そして、以下の説明では、2次元座標は、0〜水平方向の画素数に応じた範囲の水平角度値xと、0〜垂直方向の画素数に応じた範囲の垂直角度値yに変換して取り扱うものとする。例えば1/10度刻みで画素を構成すると、水平角度値xは、0〜3799の範囲となり、垂直角度値yは、0〜1800の範囲となる。水平角度値xと水平角度θとの関係および垂直角度値yと垂直角度φとの関係は、下記(1)および(2)で表される。下記式(1)および(2)中、wおよびhは、それぞれ、全天球画像フォーマットの画像幅(例えば3600画素)および画像高さ(例えば1801画素)に対応する。 In the following description, the two-dimensional coordinates in the spherical image format shown in FIG. 5A are the coordinate system of the lower left origin, as indicated by the gray axis in FIG. 5A. Then, in the following description, the two-dimensional coordinates are converted into a horizontal angle value x in the range corresponding to the number of pixels in the 0 to horizontal direction and a vertical angle value y in the range corresponding to the number of pixels in the 0 to vertical direction. Shall be handled. For example, when pixels are formed in 1/10 degree increments, the horizontal angle value x is in the range of 0 to 3799 and the vertical angle value y is in the range of 0 to 1800. The relationship between the horizontal angle value x and the horizontal angle θ and the relationship between the vertical angle value y and the vertical angle φ are represented by the following (1) and (2). In equations (1) and (2) below, w and h correspond to the image width (for example, 3600 pixels) and the image height (for example, 1801 pixels) of the spherical image format, respectively.

そして、図5(A)に示す全天球画像の2次元座標(x,y)と、図5(B)に示す全天球の表面の三次元座標(xs,ys,zs)との間の関係は、下記式(3)および(4)で計算される。図5(B)に示す三次元座標は、右手系であり、球体の中心を原点とし、rは半径を表す。 Then, between the two-dimensional coordinates (x, y) of the spherical image shown in FIG. 5(A) and the three-dimensional coordinates (xs, ys, zs) of the surface of the spherical image shown in FIG. 5(B). The relationship of is calculated by the following equations (3) and (4). The three-dimensional coordinate shown in FIG. 5B is a right-handed system, where the center of the sphere is the origin and r represents the radius.

2つの撮像光学系212A,212Bで撮影された2つの画像(撮像画像Aおよび撮像画像B)と、全天球画像上の画像領域との関係は、説明する実施形態では、図3に「全天球画像」で示す対応関係となる。画像合成された全天球画像は、所定のフォーマットで、内蔵メモリまたは外部記録媒体に保存される。全天球画像が保存されるファイル・フォーマットは、ビットマップなどの無圧縮の静止画像であってもよいし、JPEG(Joint Photographic Experts Group)、GIF(Graphics Interchange Format)、PNG(Portable Network Graphics)などの圧縮形式の静止画像としてもよい。全天球画像は、さらに他の実施形態では、MPEG(Moving Picture Experts Group)やAVI(Audio Video Interleave)などの動画像におけるフレーム画像として含まれてもよい。なお、以下に説明する実施形態では、全天球画像は、静止画像であるとして説明する。 The relationship between the two images (captured image A and captured image B) captured by the two capturing optical systems 212A and 212B and the image area on the spherical image is shown in FIG. The correspondence is represented by "celestial sphere image". The image-combined spherical image is stored in a built-in memory or an external recording medium in a predetermined format. The file format in which the spherical image is stored may be an uncompressed still image such as a bitmap, JPEG (Joint Photographic Experts Group), GIF (Graphics Interchange Format), PNG (Portable Network Graphics). It may be a still image in a compressed format such as. In still another embodiment, the spherical image may be included as a frame image in a moving image such as MPEG (Moving Picture Experts Group) or AVI (Audio Video Interleave). In the embodiments described below, the spherical image is described as a still image.

画像処理装置の機能ブロック250では、全天球画像蓄積部256により、全天球画像が保存され、平面画像生成部260により、引き続き、全天球画像を入力として、全天球画像から出力画像に変換する画像処理が行われる。なお、説明する実施形態では、入力される全天球画像は、好適な実施形態では、全天球撮像装置110により撮像されたものとして説明するが、全天球画像の由来は、必ずしも限定されるものではない。例えば、撮像された画像に対して所定の画像加工が施されてもよいし、コンピュータ・グラフィックスにより生成された画像が含まれてもよい。 In the functional block 250 of the image processing apparatus, the omnidirectional image storage unit 256 stores the omnidirectional image, and the plane image generation unit 260 continuously inputs the omnidirectional image and outputs an image from the omnidirectional image. Image processing is performed to convert to. It should be noted that in the embodiment to be described, the input omnidirectional image is described as being imaged by the omnidirectional imaging device 110 in the preferred embodiment, but the origin of the omnidirectional image is not necessarily limited. Not something. For example, the captured image may be subjected to predetermined image processing, or an image generated by computer graphics may be included.

平面画像生成部260は、ユーザ入力受付部258から、上記出力範囲変更操作による変更等の結果として、決定された上記パン指定値、チルト指定値およびズーム指定値を含む入力値を受け取る。平面画像生成部260は、受け取った入力値に基づき、後述するように画像生成パラメータを決定し、決定された画像生成パラメータに基づき、出力画像の画像生成処理を実行する。 The planar image generation unit 260 receives, from the user input reception unit 258, an input value including the determined pan designation value, tilt designation value, and zoom designation value as a result of the change or the like by the output range changing operation. The plane image generation unit 260 determines an image generation parameter as described later based on the received input value, and executes the image generation process of the output image based on the determined image generation parameter.

上述したように、全天球画像は、上記式(3)および(4)により三次元座標に対応付けることができる。上記画像生成処理では、入力された全天球画像を、所定の三次元形状の内面に貼り付けた三次元モデルを構築し、所定条件の下、仮想的なカメラ(以下、単にカメラと参照する。)から射影表示させて出力画像Sを得る。 As described above, the spherical image can be associated with the three-dimensional coordinates by the above equations (3) and (4). In the image generation process, a three-dimensional model in which the input spherical image is pasted on the inner surface of a predetermined three-dimensional shape is constructed, and under a predetermined condition, a virtual camera (hereinafter, simply referred to as a camera). .) to obtain an output image S.

図6は、三次元グラフィックス表示で行われる透視投影(Perspective Projection)を説明する図である。図6に示すように、平面画像生成部260は、全天球画像を球体の内面に貼り付けた三次元モデルを、透視投影処理することによって平面画像の出力画像を生成する。透視投影する際の画像生成パラメータは、上記入力値に応じて決定される。画像生成パラメータとしては、特定の実施形態では、カメラの視点の位置(d)、方向(v)、視野角(Θ)および投影範囲(zNear,zFar)を挙げることができる。 FIG. 6 is a diagram for explaining perspective projection (Perspective Projection) performed in three-dimensional graphics display. As shown in FIG. 6, the plane image generation unit 260 generates an output image of a plane image by performing perspective projection processing on the three-dimensional model in which the spherical image is attached to the inner surface of the sphere. The image generation parameter for perspective projection is determined according to the input value. The image generation parameters may include the position (d) of the viewpoint of the camera, the direction (v), the viewing angle (Θ) and the projection range (zNear, zFar) in certain embodiments.

出力画像Sは、球体の中心から特定の緯度経度方向(v)を向いて三次元モデルを見たときに、特定の視野角(Θ)内で観察される画像を、表示領域の形状に応じて切り取った画像となる。上記投影範囲(zNear,zFar)のパラメータは、透視投影される範囲を指定するものであるが、適切な値が決定されるものとする。なお、画像生成パラメータの決定方法および射影処理の詳細については、図7〜図12を参照して後述する。 The output image S is an image observed within a specific viewing angle (Θ) when the three-dimensional model is viewed from the center of the sphere in a specific latitude/longitude direction (v) according to the shape of the display area. The image is cut out. The parameters of the projection range (zNear, zFar) specify the range of perspective projection, but an appropriate value is determined. The details of the method of determining the image generation parameter and the projection process will be described later with reference to FIGS.

なお、図2に示した実施形態では、撮像光学系212および合成処理ブロック214を全天球撮像装置上のコンポーネントとしている。そして、入力部252、出力部254、全天球画像蓄積部256、ユーザ入力受付部258、平面画像生成部260および画像出力部262を画像処理装置上のコンポーネントとして、分散実装している。しかしながら、実装の態様は特に限定されるものではない。 In the embodiment shown in FIG. 2, the image pickup optical system 212 and the combining processing block 214 are components on the omnidirectional image pickup device. The input unit 252, the output unit 254, the celestial sphere image storage unit 256, the user input reception unit 258, the plane image generation unit 260, and the image output unit 262 are distributed and mounted as components on the image processing apparatus. However, the mode of implementation is not particularly limited.

他の実施形態では、すべてのコンポーネントを単一の装置上に配置して全天球画像表示システムを構成してもよい。さらに他の実施形態では、コンポーネントの任意の一部を、それぞれ、全天球画像表示システムを構成している複数の装置のいずれか上に配置して、複数の装置の組み合わせとして全天球画像表示システムを構成してもよい。例えば、特定の実施形態では、画像処理装置が合成処理ブロックを備え、全天球撮像装置から2つの撮像画像を受信して、全天球画像を準備する構成とすることができる。 In other embodiments, all components may be placed on a single device to form a spherical image display system. In still another embodiment, an arbitrary part of the components is arranged on any one of the plurality of devices forming the spherical image display system, and the spherical image is obtained as a combination of the plurality of devices. The display system may be configured. For example, in a specific embodiment, the image processing device may include a composition processing block, and may receive two captured images from the omnidirectional image capturing device to prepare the omnidirectional image.

以下、図7および図8を参照しながら、本実施形態における全天球画像出力処理の流れについて、より詳細に説明する。なお、以下、出力処理として、全天球画像を表示する画像ビューワにおける表示処理について説明する。図7は、本実施形態の画像処理装置が実行する全天球画像表示処理を示すフローチャートである。図8は、全天球画像を所定範囲で表示する画像ビューワ画面を例示する図である。 Hereinafter, the flow of the omnidirectional image output processing in this embodiment will be described in more detail with reference to FIGS. 7 and 8. Note that, as the output process, a display process in an image viewer that displays a spherical image will be described below. FIG. 7 is a flowchart showing the spherical image display processing executed by the image processing apparatus of this embodiment. FIG. 8: is a figure which illustrates the image viewer screen which displays a spherical image in a predetermined range.

図7に示す処理は、例えば、画像処理装置250のオペレータにより、所定の全天球画像を特定した表示指示が行われたことに応答して、ステップS100から開始される。ステップS101では、画像処理装置250は、平面画像生成部260により、予め設定されたデフォルトのパン指定値、チルト指定値およびズーム指定値に基づき、初期の画像処理パラメータを決定する。ステップS102では、画像処理装置250は、平面画像生成部260により、決定された画像処理パラメータに基づき、全天球画像から平面画像を生成する。 The process shown in FIG. 7 is started from step S100 in response to, for example, an operator of the image processing device 250 issuing a display instruction specifying a predetermined spherical image. In step S101, the image processing apparatus 250 determines the initial image processing parameters based on the preset default pan designation value, tilt designation value, and zoom designation value by the planar image generation unit 260. In step S102, the image processing apparatus 250 causes the planar image generation unit 260 to generate a planar image from the spherical image based on the determined image processing parameters.

ステップS103では、画像処理装置250は、画像出力部262により、生成された平面画像を画像ビューワ画面の所定位置に表示させる。図8に示す画像ビューワ画面300は、画像表示領域310と、画像表示領域310に表示させる画像の表示範囲を変更するためのGUI(Graphical User Interface)部品322,324とを含み構成される。画像表示領域310には、上記平面画像生成部260により生成された、入力値に応じた範囲の出力画像が、画像出力部262により表示される。 In step S103, the image processing device 250 causes the image output unit 262 to display the generated planar image at a predetermined position on the image viewer screen. The image viewer screen 300 shown in FIG. 8 includes an image display area 310 and GUI (Graphical User Interface) components 322 and 324 for changing the display range of the image displayed in the image display area 310. In the image display area 310, the output image generated by the plane image generation unit 260 in the range corresponding to the input value is displayed by the image output unit 262.

ステップS104では、画像処理装置250は、ユーザ入力受付部258により表示範囲変更操作が受け付けられたか否かを判定する。ここで、表示範囲変更操作は、各操作に対応するGUI部品322,324に対して行われた、クリック、フリックなど操作イベントの発生により検出される。図8に例示する画像ビューワ画面300は、ズーム指定値を変更するものとして、ズームインの指示を待ち受けるGUI部品322Iと、ズームアウトの指示を待ち受けるGUI部品322Oとを含む。画像ビューワ画面300は、さらに、パン指定値およびチルト指定値を変更するものとして、左および右方向へパンの指示を待ち受ける左ボタン324Lおよび右ボタン324Rと、上および下方向へチルトの指示を待ち受ける上ボタン324Uおよび下ボタン324Dとを含む。 In step S104, the image processing apparatus 250 determines whether the display range changing operation has been received by the user input receiving unit 258. Here, the display range changing operation is detected by the occurrence of an operation event such as click or flick performed on the GUI components 322 and 324 corresponding to each operation. The image viewer screen 300 illustrated in FIG. 8 includes a GUI component 322I that waits for a zoom-in instruction and a GUI component 322O that waits for a zoom-out instruction for changing the designated zoom value. The image viewer screen 300 further waits for a left button 324L and a right button 324R for waiting for a pan instruction to the left and right directions and for waiting for a tilt instruction for up and down, in order to change the pan specified value and the tilt specified value. An upper button 324U and a lower button 324D are included.

表示範囲変更操作は、GUI部品に対する操作の他、各表示範囲変更操作に関連付けられたショートカット・キー、ジェスチャ、マルチタッチ操作など操作イベントの発生により検出することができる。例えば、ショートカット・キーとしては、キーボードにおけるズームインおよびズームアウトを指示する「+」ボタンおよび「−」ボタンを挙げることができる。さらに、左右のパンおよび上下のチルトを指示する左右の矢印ボタンおよび上下の矢印ボタンに対するキー操作をショートカット・キーとしてもよい。マルチタッチ操作としては、ズーム操作に関連付けられたピンチインおよびピンチアウトを挙げることができる。 The display range changing operation can be detected by the occurrence of an operation event such as a shortcut key associated with each display range changing operation, a gesture, or a multi-touch operation, in addition to an operation on the GUI component. For example, the shortcut keys may include "+" and "-" buttons for instructing zoom-in and zoom-out on the keyboard. Further, key operations for the left and right arrow buttons and the up and down arrow buttons for instructing left and right pan and up and down tilt may be used as the shortcut keys. Multi-touch operations can include pinch in and pinch out associated with zoom operations.

ステップS104では、表示範囲変更操作を受け付けるまでの間(ステップS104でNOの間)、ステップS104内をループさせて、表示範囲変更操作が待ち受けられる。ステップS104で表示変更操作が受け付けられたと判定された場合(YES)は、ステップS105へと処理が分岐される。 In step S104, until the display range changing operation is received (while NO in step S104), the inside of step S104 is looped to wait for the display range changing operation. If it is determined in step S104 that the display change operation has been accepted (YES), the process branches to step S105.

ステップS105では、上記表示変更操作が行われた結果として決定されるパン指定値、チルト指定値およびズーム指定値に基づき、変更された画像処理パラメータを決定し、ステップS102へ処理を分岐させる。この場合、続くステップS102では、平面画像生成部260により、変更後の画像処理パラメータに基づき、平面画像の生成処理が行われる。ステップS103では、画像出力部262により、ユーザ操作に応じて新たに生成された平面画像で、画像ビューワ画面300の画像表示領域310が更新される。 In step S105, the changed image processing parameter is determined based on the pan designation value, tilt designation value, and zoom designation value determined as a result of the display change operation, and the process branches to step S102. In this case, in subsequent step S102, the plane image generation unit 260 performs the plane image generation process based on the changed image processing parameter. In step S103, the image output unit 262 updates the image display area 310 of the image viewer screen 300 with the plane image newly generated according to the user operation.

以下、図9〜図12を参照しながら、本実施形態による全天球画像出力処理について、より詳細に説明する。図9は、本実施形態における画像処理装置上の平面画像生成部260の詳細な機能ブロックを示す図である。図9に示す平面画像生成部260は、パラメータ決定部264と、テクスチャマッピング部266と、射影部268とを含み構成される。 Hereinafter, the omnidirectional image output processing according to the present embodiment will be described in more detail with reference to FIGS. 9 to 12. FIG. 9 is a diagram showing detailed functional blocks of the plane image generation unit 260 on the image processing apparatus in this embodiment. The plane image generation unit 260 shown in FIG. 9 includes a parameter determination unit 264, a texture mapping unit 266, and a projection unit 268.

パラメータ決定部264は、ユーザ入力受付部258から渡された各種入力値(パン指定値、チルト指定値およびズーム指定値)に応じて、カメラの視点の位置(d)および視野角(Θ)を含む画像生成パラメータを決定する決定手段である。 The parameter determination unit 264 determines the viewpoint position (d) and the viewing angle (Θ) of the camera according to various input values (pan designated value, tilt designated value, and zoom designated value) passed from the user input reception unit 258. It is a determining means for determining the image generation parameter to be included.

テクスチャマッピング部266は、表示対象画像である全天球画像を所定の三次元形状に貼り付けた三次元モデルを生成する生成手段である。三次元モデルの生成は、いわゆるテクスチャマッピングの手法により行うことができる。テクスチャマッピングは、スマートフォンやタブレットなどの演算能力に制約がある情報処理端末が搭載するGPUが対応するOpenGLなどでも一般的なグラフィックス処理であり、三次元形状の表面にテクスチャ画像を貼り付ける処理をいう。テクスチャマッピング部266は、指定された全天球画像を読み出し、テクスチャを格納するテクスチャバッファに転送し、三次元モデルに割り付ける。 The texture mapping unit 266 is a generation unit that generates a three-dimensional model in which a spherical image that is a display target image is attached to a predetermined three-dimensional shape. The three-dimensional model can be generated by a so-called texture mapping method. Texture mapping is a general graphics process such as OpenGL that is compatible with GPUs installed in information processing terminals such as smartphones and tablets that have limited computing power. Say. The texture mapping unit 266 reads out the specified spherical image, transfers it to the texture buffer that stores the texture, and allocates it to the three-dimensional model.

説明する実施形態において、三次元形状は、球体、円筒、その他鑑賞者にとって違和感ない出力画像を射影できる如何なる三次元形状を用いることができる。鑑賞者に対し違和感を感じさせず、かつ、演算処理を簡略化する観点からは、好適には、球体を用いることができる。3次元形状は、全天球画像が貼り付けられる少なくとも1つの内面を有し、球体を採用した場合は、全天球画像が貼り付けられる球面を含む。 In the described embodiment, the three-dimensional shape may be a sphere, a cylinder, or any other three-dimensional shape capable of projecting an output image that does not make the viewer feel uncomfortable. From the viewpoint of not making the viewer feel uncomfortable and simplifying the arithmetic processing, a sphere can be preferably used. The three-dimensional shape has at least one inner surface to which the spherical image is attached, and when a sphere is adopted, includes a spherical surface to which the spherical image is attached.

射影部268は、パラメータ決定部264により決定された画像生成パラメータに応じて、所定位置に視点が設定されたカメラから、全天球画像が貼り付けられた三次元モデルを、所定の投影方式で射影し、出力画像を生成する射影手段である。テクスチャマッピングした三次元モデルを任意カメラ視点から、所定の条件で観測した場合の画像をレンダリングすることで、出力画像を生成することができる。 The projection unit 268, in accordance with the image generation parameter determined by the parameter determination unit 264, uses a predetermined projection method to project the three-dimensional model to which the spherical image is attached from the camera whose viewpoint is set at a predetermined position. Projection means for projecting and generating an output image. An output image can be generated by rendering an image of a texture-mapped three-dimensional model observed from an arbitrary camera viewpoint under a predetermined condition.

非特許文献1によれば、広視野表示時と狭視野表示時とでは、射影方式を異ならしめることが有効であることが知られている。しかしながら、複数の射影方式を連続的に適用すると、画像処理装置に対する性能要件が厳しくなる。 According to Non-Patent Document 1, it is known that it is effective to change the projection method between the wide-field display and the narrow-field display. However, if a plurality of projection methods are continuously applied, the performance requirements for the image processing apparatus become strict.

そこで、本実施形態では、画像処理装置のハードウェア要件を緩和するべく、平面画像生成部260は、単一の射影方式で、表示モデルの画像生成パラメータを変化させることで、鑑賞者による観賞に適した表示効果を得る構成を採用する。以下、入力値に応じた画像生成パラメータの決定処理について、図10〜図12を参照して説明する。なお、説明する実施形態では、投影方式として、透視投影方式(遠近法投影)を用いるが、他の実施形態では、正射影方式など他の投影方式を採用してもよい。 Therefore, in the present embodiment, in order to relax the hardware requirements of the image processing apparatus, the plane image generation unit 260 changes the image generation parameter of the display model by a single projection method, so that the viewer can appreciate the image. Adopt a configuration that obtains a suitable display effect. Hereinafter, the process of determining the image generation parameter according to the input value will be described with reference to FIGS. Note that, in the embodiment described, the perspective projection method (perspective projection) is used as the projection method, but in other embodiments, another projection method such as an orthogonal projection method may be adopted.

上述したように画像生成パラメータは、投影方式として透視投影を採用する特定の実施形態では、カメラの視点の位置(d)、方向(v)、視野角(Θ)および投影範囲(zNear,zFar)を含む。三次元コンピュータ・グラフィックスでは、典型的には、世界座標系、モデル座標系およびカメラ座標系の3種の座標系が定義される。世界座標系は、絶対的な三次元空間を定義し、世界座標系により定義される三次元空間にカメラおよびオブジェクトが配置される。モデル座標系は、所定のオブジェクトを中心とした座標系である。説明する実施形態では、球体モデルを構築し、この球体モデルを世界座標系の原点に配置する。したがって、世界座標系と、球体モデルのモデル座標系とは、原点が一致し、軸のみが異なり得る。カメラ座標系は、カメラの視点を中心とした視野の方向(v)などを表す。 As described above, the image generation parameters are, in a specific embodiment that employs perspective projection as a projection method, the position (d), the direction (v), the viewing angle (Θ), and the projection range (zNear, zFar) of the viewpoint of the camera. including. Three-dimensional computer graphics typically defines three coordinate systems: a world coordinate system, a model coordinate system, and a camera coordinate system. The world coordinate system defines an absolute three-dimensional space, and cameras and objects are arranged in the three-dimensional space defined by the world coordinate system. The model coordinate system is a coordinate system centered on a predetermined object. In the described embodiment, a sphere model is constructed and this sphere model is placed at the origin of the world coordinate system. Therefore, the world coordinate system and the model coordinate system of the spherical model may have the same origin and different axes. The camera coordinate system represents the direction (v) of the visual field centered on the viewpoint of the camera.

そして、射影部268は、全天球画像が内面に貼り付けられた球体モデルを、カメラの視点から2次元スクリーンに投影し、得られた投影画像を表示画像とする。スクリーンは、カメラ座標の原点を通る平面に配置され、透視投影によりスクリーンに全天球画像が投影される。 Then, the projecting unit 268 projects the spherical model having the omnidirectional image pasted on the inner surface thereof from the viewpoint of the camera onto a two-dimensional screen, and sets the obtained projected image as a display image. The screen is arranged on a plane passing through the origin of camera coordinates, and a spherical image is projected on the screen by perspective projection.

図10は、モデル座標系と、カメラの位置(d)および視野角(Θ)と、その視野内に写り込む画像の範囲を表す画角(Φ)との関係を説明する図である。カメラの視点が球体モデルの中心に位置すると、その視野内に写り込む画像の範囲を表す画角(Φ)と、カメラの視野角(Θ)とは一致する。しかしながら、図10において二重丸で示されているように、カメラの視点の位置(d)が、三次元モデルの中心から離れると、画角(Φ)と、カメラの視野角(Θ)とは異なる値をとることになる。ズームインおよびズームアウトは、画角(Φ)を変更する操作に対応する。説明する実施形態では、ズーム指定値の範囲に応じてカメラの視点の位置(d)および視野角(Θ)のいずれかを変更することで、画角(Φ)の変化を生み出す。 FIG. 10 is a diagram illustrating the relationship between the model coordinate system, the position (d) and the viewing angle (Θ) of the camera, and the angle of view (Φ) that represents the range of the image captured in the field of view. When the viewpoint of the camera is located at the center of the spherical model, the angle of view (Φ) representing the range of the image reflected in the field of view and the angle of view (Θ) of the camera match. However, as indicated by a double circle in FIG. 10, when the position (d) of the viewpoint of the camera departs from the center of the three-dimensional model, the angle of view (Φ) and the viewing angle (Θ) of the camera are Will take different values. Zooming in and zooming out corresponds to an operation of changing the angle of view (Φ). In the described embodiment, a change in the angle of view (Φ) is generated by changing either the position (d) of the viewpoint of the camera or the viewing angle (Θ) according to the range of the designated zoom value.

本実施形態におけるパン、チルトおよびズームの表示範囲の操作に応じた画像生成パラメータの変更については、下記表1にまとめる。 The change of the image generation parameter according to the operation of the pan, tilt and zoom display ranges in the present embodiment is summarized in Table 1 below.

なお、表1では、上記チルトおよびパンによる画像の表示位置の移動は、視野の方向(v)を固定し、世界座標系において球体モデルを回転変換することにより、実現されている。しかしながら、他の実施形態では、球体モデルを世界座標系に対して固定し、カメラの視野の方向(v)を変更することにより、画像表示位置の移動を実現してもよい。 In Table 1, the movement of the display position of the image due to the tilt and pan is realized by fixing the direction (v) of the visual field and rotationally converting the spherical model in the world coordinate system. However, in another embodiment, the movement of the image display position may be realized by fixing the spherical model with respect to the world coordinate system and changing the direction (v) of the visual field of the camera.

以下、図11および図12を参照して、本実施形態におけるズーム指定値に応じた画像生成パラメータの決定処理について、より詳細に説明する。図11および図12は、ズーム指定値に応じて、どのように画像生成パラメータを決定するかを説明する図であり、その際の出力画像および球体モデルの表示される範囲を併せて示す。図11および図12には、A〜Eで示す特定のズーム指定値(z)が与えられた場合の画像生成パラメータの決定方法が示されている。 Hereinafter, with reference to FIGS. 11 and 12, the process of determining the image generation parameter according to the zoom designated value in the present embodiment will be described in more detail. 11 and 12 are diagrams for explaining how to determine the image generation parameter according to the designated zoom value, and also show the display range of the output image and the spherical model at that time. 11 and 12 show a method of determining the image generation parameter when the specific zoom designation values (z) shown by A to E are given.

また、ズーム指定値(z)に応じて決定される画像生成パラメータ、その際の表示倍率および画角(Φ)を下記表2としてまとめて示す。下記表2中、viewWHは、出力画像の表示領域の幅または高さを表し、表示領域が横長の場合は、表示領域の幅となり、表示領域が縦長の場合は、表示領域の高さとなる。下記表2中、imgWHは、画像の幅または高さを表し、表示領域が横長の場合は、画像幅となり、表示領域が縦長の場合は、画像高さとなる。imgDegは、画像の表示範囲の角度を表し、画像幅の場合は、360度、画像高さの場合は、180度となる。 Further, Table 2 below collectively shows the image generation parameters determined according to the designated zoom value (z), the display magnification and the angle of view (Φ) at that time. In Table 2 below, viewWH represents the width or height of the display area of the output image. When the display area is horizontally long, it is the width of the display area, and when the display area is vertically long, it is the height of the display area. In Table 2 below, imgWH represents the width or height of the image. When the display area is horizontally long, it is the image width, and when the display area is vertically long, it is the image height. imgDeg represents the angle of the display range of the image, and is 360 degrees for the image width and 180 degrees for the image height.

本実施形態において、ズーム指定値(z)の範囲は、表2に示したように、A〜Bの範囲、B〜Cの範囲、C〜Dの範囲およびD〜Eの範囲を含む4つの範囲に区分される。ズーム指定値(z)は、表示させたい画角に対応した値であり、説明する実施形態では、最小画角60度から最大画角300度までの範囲でユーザから指定される。 In the present embodiment, the range of the designated zoom value (z) is, as shown in Table 2, four ranges including the range of A to B, the range of B to C, the range of C to D, and the range of D to E. It is divided into ranges. The zoom designation value (z) is a value corresponding to the angle of view to be displayed, and in the embodiment to be described, the zoom designation value (z) is designated by the user in the range from the minimum angle of view 60 degrees to the maximum angle of view 300 degrees.

ズームアウトを考えると、ズーム指定値(z)が、A〜Bの範囲にある場合は、カメラの視野角(Θ)が60度に固定され、カメラ位置(d)が中心から離れて行くことで、図11のAおよび図11のBで示すように、画角(Φ)が広げられる。A〜Bの範囲にある場合のカメラ位置(d)は、図11のAで示す原点0から、図11のBで示す球体モデルの外縁に対応する1まで、表2中の計算式で表されるように画角(Φ)およびズーム指定値(z)に応じた値に決定される。 Considering zoom-out, when the specified zoom value (z) is in the range A to B, the viewing angle (Θ) of the camera is fixed at 60 degrees and the camera position (d) moves away from the center. Then, as shown in A of FIG. 11 and B of FIG. 11, the angle of view (Φ) is widened. The camera position (d) in the range of A to B is expressed by the formula in Table 2 from the origin 0 shown in A of FIG. 11 to 1 corresponding to the outer edge of the spherical model shown in B of FIG. As described above, the value is determined according to the angle of view (Φ) and the designated zoom value (z).

ズーム指定値(z)が、A〜Bより広視野側にあるB〜Cの範囲にある場合は、図11のBおよび図11のCで示すように、カメラ位置(d)が球体モデルの外縁に固定され(d=1)、カメラの視野角(Θ)を広げて行くことで、画角(Φ)が広げられる。カメラの視野角(Θ)は、A〜Bの範囲で固定されていた60度から120度まで、計算式Θ=Φ/2にしたがって増加する。視野内に写り込む画像の範囲を表す画角(Φ)は、A〜Bの範囲およびB〜Cの範囲では、ズーム指定値(z)に一致し、単調増加することになる。 When the designated zoom value (z) is in the range of B to C, which is on the wider visual field side than A to B, the camera position (d) is the spherical model as shown in B of FIG. 11 and C of FIG. The angle of view (Φ) is widened by fixing it to the outer edge (d=1) and widening the viewing angle (Θ) of the camera. The viewing angle (Θ) of the camera increases from 60 degrees, which was fixed in the range A to B, to 120 degrees, according to the calculation formula Θ=Φ/2. The angle of view (Φ), which represents the range of the image reflected in the field of view, coincides with the designated zoom value (z) in the range A to B and the range B to C, and monotonically increases.

ズーム指定値(z)が、B〜Cの範囲より広視野側にあるC〜Dの範囲およびD〜Eの範囲にある場合は、図11のC、図12のDおよび図12のEで示すようになる。すなわち、カメラの視野角(Θ)が120度に固定されたまま、カメラの視点の位置(d)が再び中心から離れる方向に移動されることで、画角(Φ)が広げられる。カメラ視点の位置(d)は、表2に記載された計算式に従い、ズーム指定値(z)に応じて決定される。また、C〜Dの範囲およびD〜Eの範囲では、画角(Φ)は、ズーム指定値(z)とは一致しなくなる。 When the designated zoom value (z) is in the range of C to D and the range of D to E, which are on the side of the wider field of view than the range of B to C, C in FIG. 11, D in FIG. As shown. That is, the angle of view (Φ) is expanded by moving the position (d) of the viewpoint of the camera again away from the center while the viewing angle (θ) of the camera is fixed at 120 degrees. The position (d) of the camera viewpoint is determined according to the zoom designated value (z) according to the calculation formula described in Table 2. Further, in the range of C to D and the range of D to E, the angle of view (Φ) does not match the zoom specified value (z).

図12のDで示された位置に対応する表2中のdmax1は、図12においてDに併せて示したような、表示領域の矩形いっぱいに最大の画角で球体モデルが表示される距離に対応し、特定の実施形態では、下記式(5)で計算することができる。図12のEで示された位置(D)に対応する表2中のdmax2は、図12においてEに併せて示したような、表示領域の矩形内に球体モデルが内接する最大の画角で球体モデルが表示される距離に対応し、特定の実施形態では、下記式(6)で計算される。 Dmax1 in Table 2 corresponding to the position indicated by D in FIG. 12 is the distance at which the spherical model is displayed at the maximum angle of view in the full rectangle of the display area as shown in FIG. Correspondingly, in a particular embodiment, it can be calculated by equation (5) below. Dmax2 in Table 2 corresponding to the position (D) indicated by E in FIG. 12 is the maximum angle of view at which the spherical model is inscribed in the rectangle of the display area as shown in FIG. Corresponding to the distance at which the sphere model is displayed, in a particular embodiment it is calculated by equation (6) below.

上記式(5)および(6)中、viewWおよびviewHは、表示領域の幅および高さを表す。したがって、dmax1およびdmax2は、表示画面の大きさ(幅および高さ、対角の長さ)に依存する値となる。dmax2は、カメラの視点が取りうる最遠位置に対応し、ズーム指定値(z)は、表示領域の大きさに応じて制限されることになる。表2に示した範囲(〜dmax2)にカメラの視点の位置が収まるようにズーム指定値(z)を制限することで、表示画面上にフィットし、または所定の倍率で全天球画像が球形状に表示された状態で、ズームアウトを終了させることができる。これにより、鑑賞者に、表示されている画像が全天球画像であることを視覚的に認識させることができるとともに、違和感のない状態でズームアウトを終了させることができる。 In the above formulas (5) and (6), viewW and viewH represent the width and height of the display area. Therefore, dmax1 and dmax2 are values that depend on the size (width and height, diagonal length) of the display screen. dmax2 corresponds to the farthest position that the viewpoint of the camera can take, and the designated zoom value (z) is limited according to the size of the display area. By limiting the zoom specified value (z) so that the position of the camera viewpoint falls within the range (to dmax2) shown in Table 2, the image fits on the display screen or the spherical image becomes a spherical image at a predetermined magnification. You can end the zoom out with the shape displayed. As a result, the viewer can visually recognize that the displayed image is a celestial sphere image, and the zoom-out can be ended without any discomfort.

また、表2および図11を参照すると明らかなように、上述した各範囲間では、画角(Φ)は、連続しているが、広角側へのズームアウトによって画角(Φ)は、一様に増加していない。すなわち、カメラの視点位置が変更されるC〜D〜Eの範囲のうちの、C〜Dの範囲では、カメラの視点の位置(d)が球体モデルの中心から距離が離れるにつれて、画角(Φ)が増大するが、D〜Eの範囲では、距離が離れるにつれて画角(Φ)が減少して行く。これは、球体モデルの外側の領域が視野内に写り込むことによる。そして、ズーム指定値が240度以上の広視野域において、カメラの視点位置(d)を移動させることで、違和感の少ない表示を行いながら、画角(Φ)を変化させることが可能となる。 Further, as is apparent from Table 2 and FIG. 11, the angle of view (Φ) is continuous between the ranges described above, but the angle of view (Φ) remains constant due to zooming out to the wide angle side. Not increasing. That is, in the range of C to D in the range of C to D to E in which the viewpoint position of the camera is changed, the view angle (angle of view) increases as the position (d) of the viewpoint of the camera becomes farther from the center of the spherical model. Φ) increases, but in the range of D to E, the angle of view (Φ) decreases as the distance increases. This is because the area outside the spherical model is reflected in the visual field. Then, by moving the viewpoint position (d) of the camera in the wide field of view with the specified zoom value of 240 degrees or more, it is possible to change the angle of view (Φ) while displaying with less discomfort.

したがって、ズーム指定値の広角方向への変更を考えると、基本的には、画角(Φ)が広くなって行く方向となる。このとき、カメラの視野角(Θ)の増加が押さえられ、モデル座標系からカメラが遠ざかることによって広角表示時の開放感が表現されるので、画像の歪みが軽減される。また、カメラが遠ざかる動きは、実際に人間が広い範囲を確認しようとする場合の行動に類似した動きであるため、違和感の少ないズームアウトとなると考えられる。そして、画角(Φ)は、D〜Eの範囲では、ズーム指定値が広視野側へ行くにつれ減少して行くが、これにより、鑑賞者は、球体から遠ざかって行くように感じられ、違和感の少ないズームアウトとなる。 Therefore, considering the change of the designated zoom value to the wide angle direction, basically, the angle of view (Φ) becomes wider. At this time, the increase in the viewing angle (Θ) of the camera is suppressed, and the camera is moved away from the model coordinate system, so that a feeling of openness at the time of wide-angle display is expressed, and thus image distortion is reduced. Further, since the movement of the camera away is similar to the behavior when a person actually tries to confirm a wide range, it is considered that the zoom-out is performed with less discomfort. In the range of D to E, the angle of view (Φ) decreases as the designated zoom value goes to the wide field of view side, but this causes the viewer to feel as if he or she is moving away from the sphere, which makes the viewer feel uncomfortable. There will be less zoom out.

なお、上述した説明では、各範囲では、カメラ視点の位置(d)および視野角(Θ)のいずれか一方のみが変更され、他方が固定されるものとして説明した。しかしながらが、他の実施形態では、カメラ視点の位置(d)および視野角(Θ)のいずれか一方を優先的に変更し、他方を比較的小さな変化量で変更する態様も妨げられない。また、上記説明では、ズームアウトする方向に変更される文脈で、画像生成パラメータの決定方法について説明したが、ズームインの際も同様に画像生成パラメータを決定することができる。 In the above description, in each range, only one of the camera viewpoint position (d) and the viewing angle (Θ) is changed and the other is fixed. However, in another embodiment, a mode in which one of the camera viewpoint position (d) and the viewing angle (Θ) is preferentially changed and the other is changed with a relatively small change amount is not hindered. Further, in the above description, the method of determining the image generation parameter has been described in the context of changing to the zoom-out direction, but the image generation parameter can be similarly determined when zooming in.

以下、図13を参照しながら、本実施形態による画像処理装置のハードウェア構成について説明する。図13は、本実施形態による画像処理装置のハードウェア構成を示す図である。本実施形態による画像処理装置は、タブレット端末122といった携帯情報端末として構成されている。図13に示すタブレット端末122は、シングルコアまたはマルチコアのCPU(Central Processing Unit)、GPU、ベースバンドプロセッサおよびメモリコントローラなどがSoC(System on Chip)として統合されたモバイルプロセッサ10と、モバイルプロセッサ10に接続され、CPUなどの作業領域を提供するLPDDR(Low-Power Double DataRate)SDRAMといったメモリ12と、フラッシュメモリ14と、SDカードなどの外部記録媒体スロット16とを含む。 Hereinafter, the hardware configuration of the image processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 13 is a diagram showing the hardware configuration of the image processing apparatus according to the present embodiment. The image processing apparatus according to the present embodiment is configured as a mobile information terminal such as a tablet terminal 122. A tablet terminal 122 shown in FIG. 13 includes a mobile processor 10 in which a single-core or multi-core CPU (Central Processing Unit), a GPU, a baseband processor, a memory controller, and the like are integrated as a SoC (System on Chip), and the mobile processor 10. A memory 12 such as an LPDDR (Low-Power Double Data Rate) SDRAM that is connected and provides a work area such as a CPU, a flash memory 14, and an external recording medium slot 16 such as an SD card are included.

フラッシュメモリ14は、タブレット端末122を制御するためのOS、上述した機能部を実現するための制御プログラム、各種システム情報や各種設定情報、さらに上記全天球画像などを含むユーザデータを格納する。外部記録媒体スロット16には、全天球画像などのユーザデータが格納された記録媒体が装着される。 The flash memory 14 stores an OS for controlling the tablet terminal 122, a control program for realizing the above-described functional units, various system information and various setting information, and user data including the above-mentioned spherical image. A recording medium in which user data such as a spherical image is stored is attached to the external recording medium slot 16.

モバイルプロセッサ10には、さらに、タッチ・スクリーン・コントローラ18およびディスプレイ・インタフェース20を介して、タッチ・スクリーン・センサが搭載されたディスプレイ22と接続されている。ディスプレイ22は、各種設定画面およびアプリケーション画面を表示し、本実施形態においては、全天球画像から生成された出力画像を含む画像ビューワの画面を表示することができる。タブレット端末122は、さらに、モバイルプロセッサ10に接続されたHDMI(登録商標,High-Definition Multimedia Interface)などの映像出力インタフェース24を備え、外部のディスプレイやプロジェクタと接続可能とされている。 The mobile processor 10 is further connected via a touch screen controller 18 and a display interface 20 to a display 22 equipped with a touch screen sensor. The display 22 displays various setting screens and application screens, and in the present embodiment, can display an image viewer screen including an output image generated from a omnidirectional image. The tablet terminal 122 further includes a video output interface 24 such as HDMI (registered trademark, High-Definition Multimedia Interface) connected to the mobile processor 10, and can be connected to an external display or projector.

タブレット端末122は、さらに、CMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサを含むカメラ28を備える。カメラ28は、カメラインタフェース26を介してモバイルプロセッサ10と接続されている。タブレット端末122は、さらに、音声のエンコードおよびデコード処理を行う音声コーデック30と、ヘッドフォンやスピーカの音声を切り替える音声スイッチ32とを備える。 The tablet terminal 122 further includes a camera 28 including an image sensor such as CMOS (Complementary Metal Oxide Semiconductor). The camera 28 is connected to the mobile processor 10 via the camera interface 26. The tablet terminal 122 further includes an audio codec 30 that performs audio encoding and decoding processing, and an audio switch 32 that switches audio of headphones and speakers.

モバイルプロセッサ10には、さらに、無線LANポート34と、Bluetooth(登録商標)などの近距離無線ポート36が接続されており、無線通信により外部の機器と接続可能とされている。説明する実施形態では、タブレット端末122は、無線LANポート34または近距離無線ポート36を介して、外部の全天球撮像装置110と接続されている。タブレット端末122は、電源管理ユニット38を備え、電源管理ユニット38により、タブレット端末122の外部電源およびバッテリの電源管理が行われる。 The mobile processor 10 is further connected to a wireless LAN port 34 and a short-range wireless port 36 such as Bluetooth (registered trademark) so that it can be connected to an external device by wireless communication. In the embodiment described, the tablet terminal 122 is connected to the external omnidirectional imaging device 110 via the wireless LAN port 34 or the short-range wireless port 36. The tablet terminal 122 includes a power management unit 38, and the power management unit 38 manages the external power of the tablet terminal 122 and the power of the battery.

本実施形態によるタブレット端末122は、フラッシュメモリ14から制御プログラムを読み出し、メモリ12が提供する作業空間に展開することにより、モバイルプロセッサ10内に統合されたCPUの制御の下、上述した各機能部および各処理を実現する。その際には、OpenGLなどのグラフィック処理用のAPIを介して、モバイルプロセッサ10内に統合されたGPUの演算機能が呼び出され、上述したテクスチャマッピング処理および射影処理などの画像演算が実行される。 The tablet terminal 122 according to the present embodiment reads the control program from the flash memory 14 and expands it in the work space provided by the memory 12 to control each of the above-described functional units under the control of the CPU integrated in the mobile processor 10. And realize each processing. At that time, the arithmetic function of the GPU integrated in the mobile processor 10 is called via the graphic processing API such as OpenGL, and the image calculation such as the texture mapping processing and the projection processing described above is executed.

以上説明した実施形態によれば、画像表示する際に、広視野領域での表示において、上下左右の端部の被写体が引き伸ばされることによる違和感を低減しつつ高速表示を可能とする、演算能力に対する要件が緩和された画像処理システム、画像処理方法およびプログラムを提供することができる。 According to the embodiment described above, when displaying an image, in a display in a wide field of view, high-speed display is possible while reducing discomfort caused by stretching of subjects at the top, bottom, left, and right edges, and It is possible to provide an image processing system, an image processing method, and a program whose requirements are relaxed.

上述した実施形態によれば、表示モデルが単一の射影方式として構築されるので、制限された画像演算機能を有する画像処理装置であっても、リアルタイムかつスムーズなズーム表示を行うことが可能となる。そして、カメラの視点位置を三次元モデルから遠ざけることでズームアウトを表現しているので、視野角の増大が押さえられ、広がり感を出しながらも、画像の歪みを抑えることが可能となる。 According to the above-described embodiment, since the display model is constructed as a single projection method, even an image processing apparatus having a limited image calculation function can perform smooth zoom display in real time. Become. Then, since the zoom-out is expressed by moving the viewpoint position of the camera away from the three-dimensional model, it is possible to suppress the increase of the viewing angle and to provide the feeling of expanse, while suppressing the distortion of the image.

なお、上記機能部は、アセンブラ、C、C++、C#、Java(登録商標)などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SDカード、MOなど装置可読な記録媒体に格納して、あるいは電気通信回線を通じて頒布することができる。また、上記機能部の一部または全部は、例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラマブル・デバイス(PD)上に実装することができ、あるいはASIC(特定用途向集積)として実装することができ、上記機能部をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(VHSIC(Very High Speed Integrated Circuits) Hardware Description Language)、Verilog−HDLなどにより記述されたデータとして記録媒体により配布することができる。 The functional unit can be realized by a computer-executable program written in a legacy programming language such as assembler, C, C++, C#, Java (registered trademark), or an object-oriented programming language, and can be ROM, EEPROM, EPROM. , Flash memory, flexible disk, CD-ROM, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, Blu-ray disc, SD card, MO, or other device-readable recording medium, or through an electric communication line. It can be distributed. In addition, a part or all of the above-mentioned functional units can be mounted on a programmable device (PD) such as a field programmable gate array (FPGA), or as an ASIC (application specific integration). Circuit configuration data (bit stream data) to be downloaded to the PD in order to implement the above functional unit on the PD, HDL (Hardware Description Language) for generating the circuit configuration data, and VHDL (VHSIC (Very High Speed). Integrated Circuits) Hardware Description Language), Verilog-HDL, and the like can be distributed by a recording medium as data.

これまで本発明の実施形態について説明してきたが、本発明の実施形態は上述した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 Although the embodiments of the present invention have been described so far, the embodiments of the present invention are not limited to the above-described embodiments, and those skilled in the art can conceive of other embodiments, additions, changes, deletions, and the like. The present invention can be modified within the scope of the present invention, and is included in the scope of the present invention as long as the effects and advantages of the present invention are exhibited in any of the aspects.

100…全天球画像表示システム、102…インターネット、104…通信機器、110…全天球撮像装置、120〜124…画像処理装置、130…画像表示サーバ、200…機能ブロック、210…機能ブロック、212…撮像光学系、214…合成処理ブロック、250…機能ブロック、252…入力部、254…出力部、256…全天球画像蓄積部、258…ユーザ入力受付部、260…平面画像生成部、262…画像出力部、264…パラメータ決定部、264…テクスチャマッピング部、266…射影部、300…画像ビューワ画面、310…画像表示領域、312,314…GUI部品、10…モバイルプロセッサ、12…メモリ、14…フラッシュメモリ、16…外部記録媒体スロット、18…タッチ・スクリーン・コントローラ、20…ディスプレイ・インタフェース、22…ディスプレイ、24…外部映像インタフェース、26…カメラインタフェース、28…カメラ、30…音声コーデック、32…音声スイッチ、34…無線LANポート、36…近距離無線ポート、38…電源管理ユニット Reference numeral 100... Global spherical image display system, 102... Internet, 104... Communication equipment, 110... Global spherical imaging device, 120-124... Image processing device, 130... Image display server, 200... Functional block, 210... Functional block, Reference numeral 212... Imaging optical system, 214... Compositing processing block, 250... Functional block, 252... Input section, 254... Output section, 256... Spherical image storage section, 258... User input receiving section, 260... Planar image generating section, 262... Image output unit, 264... Parameter determination unit, 264... Texture mapping unit, 266... Projection unit, 300... Image viewer screen, 310... Image display area, 312, 314... GUI component, 10... Mobile processor, 12... Memory , 14... Flash memory, 16... External recording medium slot, 18... Touch screen controller, 20... Display interface, 22... Display, 24... External video interface, 26... Camera interface, 28... Camera, 30... Audio codec , 32... Voice switch, 34... Wireless LAN port, 36... Short-range wireless port, 38... Power management unit

J. Kopf, et. al、”Capturing and Viewing Gigapixel Images”、ACM Transactions on Graphics (TOG) - Proceedings of ACM SIGGRAPH 2007、Volume 26、Issue 3、July 2007、Article No. 93、ACM New York, NY, USAJ. Kopf, et.al, "Capturing and Viewing Gigapixel Images", ACM Transactions on Graphics (TOG)-Proceedings of ACM SIGGRAPH 2007, Volume 26, Issue 3, July 2007, Article No. 93, ACM New York, NY, USA

Claims (14)

全天球画像を所定の三次元形状に貼り付けた画像を生成し、表示画像としてディスプレイに入力するプロセッサを備え、前記プロセッサは、
前記全天球画像が貼り付けられた所定の三次元形状の内部と外部とを連続して移動可能な視点を設け、
前記表示画像について視野角を変化させる処理と、
前記表示画像について前記視点の位置を変化させる処理と、
を実行するものであり、
前記表示画像を拡大または縮小する場合に、
所定の倍率の範囲において前記視野角を変化させて前記表示画像を生成する処理を行い、
前記所定の倍率の範囲外において前記視点の位置を変化させて前記表示画像を生成する処理を行う
ことを特徴とする装置。
A processor for generating an image in which a spherical image is pasted into a predetermined three-dimensional shape and inputting it to the display as a display image , wherein the processor is
A viewpoint capable of continuously moving inside and outside of a predetermined three-dimensional shape to which the spherical image is pasted is provided,
A process of changing the viewing angle of the display image ,
A process of changing the position of the viewpoint with respect to the display image ,
Is to
When enlarging or reducing the display image,
Performing a process of generating the display image by changing the viewing angle in a range of a predetermined magnification,
A process of generating the display image by changing the position of the viewpoint outside the range of the predetermined magnification is performed.
A device characterized by the above.
前記プロセッサは、
前記表示画像を拡大または縮小する場合に、
前記視野角または前記視点の位置のいずれか一方を優先的に変更することを特徴とする請求項1の装置。
The processor is
When enlarging or reducing the display image,
2. The apparatus according to claim 1, wherein one of the view angle and the position of the viewpoint is changed preferentially.
前記プロセッサは、
全倍率の範囲で画角を連続的に変化させることを特徴とする請求項の装置。
The processor is
The apparatus according to claim 1 , wherein the angle of view is continuously changed in the range of all magnifications.
前記所定の三次元形状は、球体であり、
前記プロセッサは、
前記倍率が所定の倍率より小さい範囲において、球体の画像を生成すること特徴とする請求項の装置。
The predetermined three-dimensional shape is a sphere,
The processor is
The apparatus according to claim 1 , wherein an image of a sphere is generated in a range where the magnification is smaller than a predetermined magnification.
プロセッサを備え、当該プロセッサは、
撮影された全天球画像所定の三次元形状に貼り付けし、指定された視点で平面に投影して得られる平面画像データを生成し、出力部に出力する処理と、
前記視点を前記全天球画像が貼り付けられた所定の三次元形状の内部と外部とを連続して移動させる処理と、
前記視点における視野角を変化させる処理と、
前記視点の位置を変化させる処理と、
を実行するものであり、
前記平面画像を拡大または縮小する場合に、
所定の倍率の範囲において前記視点における視野角を変化させて前記平面画像データを生成する処理を行い、
前記所定の倍率の範囲外において前記視点の位置を変化させて前記平面画像データを生成する処理を行う
ことを特徴とする装置。
A processor, the processor comprising:
A process of pasting the photographed spherical image on a predetermined three-dimensional shape, generating planar image data obtained by projecting on a plane at a specified viewpoint, and outputting to the output unit ,
A process of moving continuously between the inside and the outside of the predetermined three-dimensional shape of the viewpoint the celestial sphere image pasted,
A process of changing the viewing angle at the viewpoint,
A process of changing the position of the viewpoint,
Is intended to run,
When enlarging or reducing the planar image,
Performing a process of generating the planar image data by changing the viewing angle at the viewpoint in a range of a predetermined magnification,
Performing processing of changing the position of the viewpoint outside the range of the predetermined magnification to generate the planar image data
A device characterized by the above.
前記プロセッサは、
前記全天球画像を、前記所定の三次元形状の内面に貼り付けたことを特徴とする、
請求項1または請求項に記載の装置。
The processor is
The spherical image is pasted on the inner surface of the predetermined three-dimensional shape,
The device according to claim 1 or claim 5 .
前記表示画像または前記平面画像の拡大または縮小に対応して、
前記視点の位置は、三次元形状の中心と外部との間で移動させることを特徴とする、請求項1または請求項に記載の装置。
Corresponding to enlargement or reduction of the display image or the planar image,
Position of the viewpoint, and wherein the moving between the center and the outside of the three-dimensional shape, according to claim 1 or claim 5.
プロセッサを備え、当該プロセッサは、
撮影された全天球画像を所定の三次元形状に貼り付けし、指定された視点で平面に投影して得られる平面画像データを生成し、出力部に出力する処理と、
前記視点を前記全天球画像が貼り付けられた所定の三次元形状の内部と外部とを連続して移動させる処理と、
前記視点における視野角を変化させる処理と、
前記視点の位置を変化させる処理と、
を実行するものであり、
前記平面画像を拡大または縮小する場合に、全倍率の範囲で画角を連続的に変化させることを特徴とする装置。
A processor, the processor comprising:
A process of pasting the captured omnidirectional image on a predetermined three-dimensional shape, generating planar image data obtained by projecting on a plane at a specified viewpoint, and outputting to the output unit,
A process of continuously moving the viewpoint inside and outside the predetermined three-dimensional shape to which the spherical image is pasted,
A process of changing the viewing angle at the viewpoint,
A process of changing the position of the viewpoint,
Is to
An apparatus for continuously changing the angle of view in the range of all magnifications when enlarging or reducing the planar image .
前記プロセッサは、
所定の画角の範囲において前記視点における視野角を変化させて前記平面画像データを生成する処理を行い、
前記所定の画角の範囲外において前記視点の位置を変化させて前記平面画像データを生成する処理を行うことを特徴とする請求項の装置。
The processor is
Performing a process of generating the planar image data by changing the viewing angle at the viewpoint in a range of a predetermined angle of view,
9. The apparatus according to claim 8 , wherein a process of changing the position of the viewpoint to generate the planar image data outside the range of the predetermined angle of view is performed.
コンピュータに、
撮影された全天球画像所定の三次元形状に貼り付けし、指定された視点で平面に投影して得られる平面画像データを生成し、出力部に出力する処理、
前記視点を前記全天球画像が貼り付けられた所定の三次元形状の内部と外部とを連続して移動させる処理、
前記視点における視野角を変化させる処理、および
前記視点の位置を変化させる処理
を実行させるものであり
前記平面画像を拡大または縮小する場合に、
所定の倍率の範囲において前記視点における視野角を変化させて前記平面画像データを生成する処理、および
前記所定の倍率の範囲外において前記視点の位置を変化させて前記平面画像データを生成する処理
を実行させるためのプログラム。
On the computer,
A process of pasting the captured omnidirectional image on a predetermined three-dimensional shape, generating planar image data obtained by projecting it on a plane at a specified viewpoint, and outputting it to an output unit ,
Process for continuously moving the inside and outside of the predetermined three-dimensional shape of the viewpoint the celestial sphere image pasted,
Be shall be executed changes make processing the viewing angle, and the change causes processing position of the viewpoint in the viewpoint
When enlarging or reducing the planar image,
A process of generating the planar image data by changing a viewing angle at the viewpoint within a range of a predetermined magnification, and
Processing for changing the position of the viewpoint outside the range of the predetermined magnification to generate the planar image data
Because of the program to the execution.
前記コンピュータに、
前記全天球画像を、前記所定の三次元形状の内面に貼り付ける処理
を実行させるための請求項10に記載のプログラム。
On the computer,
The program according to claim 10 , which executes a process of pasting the spherical image on the inner surface of the predetermined three-dimensional shape.
前記平面画像の拡大または縮小に対応して、
前記視点の位置は、三次元形状の中心と外部との間で移動させることを特徴とする、請求項10に記載のプログラム。
Corresponding to enlargement or reduction of the plane image,
The program according to claim 10 , wherein the position of the viewpoint is moved between the center of the three-dimensional shape and the outside.
コンピュータに、
撮影された全天球画像を所定の三次元形状に貼り付けし、指定された視点で平面に投影して得られる平面画像データを生成し、出力部に出力する処理、
前記視点を前記全天球画像が貼り付けられた所定の三次元形状の内部と外部とを連続して移動させる処理、
前記視点における視野角を変化させる処理、および
前記視点の位置を変化させる処理
を実行させるものであり、
前記平面画像を拡大または縮小する場合に、全倍率の範囲で画角を連続的に変化させるためのプログラム。
On the computer,
A process of pasting the captured omnidirectional image on a predetermined three-dimensional shape, generating planar image data obtained by projecting it on a plane at a specified viewpoint, and outputting it to an output unit,
A process of continuously moving the viewpoint inside and outside the predetermined three-dimensional shape to which the spherical image is pasted,
Processing for changing the viewing angle at the viewpoint, and
Processing for changing the position of the viewpoint
Is executed,
A program for continuously changing the angle of view in the range of all magnifications when enlarging or reducing the planar image .
前記コンピュータに、
前記平面画像を拡大または縮小する場合に、
前記視野角または前記視点の位置のいずれか一方を優先的に変更する処理
を実行させるための請求項10に記載のプログラム。
On the computer,
When enlarging or reducing the planar image,
The program according to claim 10 , which executes a process of preferentially changing one of the view angle and the position of the viewpoint.
JP2018159518A 2018-08-28 2018-08-28 Image processing system, image processing method and program Active JP6705477B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018159518A JP6705477B2 (en) 2018-08-28 2018-08-28 Image processing system, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018159518A JP6705477B2 (en) 2018-08-28 2018-08-28 Image processing system, image processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016222436A Division JP6394682B2 (en) 2016-11-15 2016-11-15 Method and image processing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020035859A Division JP6992829B2 (en) 2020-03-03 2020-03-03 Image processing system, image processing method and program

Publications (3)

Publication Number Publication Date
JP2019003676A JP2019003676A (en) 2019-01-10
JP2019003676A5 JP2019003676A5 (en) 2019-06-13
JP6705477B2 true JP6705477B2 (en) 2020-06-03

Family

ID=65006954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018159518A Active JP6705477B2 (en) 2018-08-28 2018-08-28 Image processing system, image processing method and program

Country Status (1)

Country Link
JP (1) JP6705477B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4355535B2 (en) * 2003-08-07 2009-11-04 株式会社岩根研究所 360 degree image conversion processing device
JP2007233996A (en) * 2006-02-06 2007-09-13 Olympus Imaging Corp Image compositing apparatus, image compositing method, image compositing program and recording medium

Also Published As

Publication number Publication date
JP2019003676A (en) 2019-01-10

Similar Documents

Publication Publication Date Title
JP6044328B2 (en) Image processing system, image processing method, and program
JP5743016B2 (en) Apparatus and method for generating images
US9860448B2 (en) Method and electronic device for stabilizing video
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
JP2015176559A (en) information processing method, information processing apparatus, and program
JP2019012881A (en) Imaging control device and control method of the same
JP4875887B2 (en) Image composition system and image composition method
JP6394682B2 (en) Method and image processing apparatus
US20220230275A1 (en) Imaging system, image processing apparatus, imaging device, and recording medium
JP6992829B2 (en) Image processing system, image processing method and program
JP7424076B2 (en) Image processing device, image processing system, imaging device, image processing method and program
JP6705477B2 (en) Image processing system, image processing method and program
JP7302647B2 (en) Image processing system, image processing method and program
JP6673459B2 (en) Image processing apparatus, image processing system, and program
WO2017159014A1 (en) Image processing device, image processing method and image processing system
WO2008012983A1 (en) Imaging device and imaging system
JP6777208B2 (en) program
TWI704408B (en) Omnidirectional camera apparatus and image mapping/combining method thereof
JP7244661B2 (en) Imaging device and image processing method
JP7219620B2 (en) Delivery image generation method
JP2022084529A (en) Device, system, method and program
JP2023161493A (en) Display system, display method, and display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200303

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200427

R151 Written notification of patent or utility model registration

Ref document number: 6705477

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151