JP2020120254A - Distribution image generation method - Google Patents

Distribution image generation method Download PDF

Info

Publication number
JP2020120254A
JP2020120254A JP2019009451A JP2019009451A JP2020120254A JP 2020120254 A JP2020120254 A JP 2020120254A JP 2019009451 A JP2019009451 A JP 2019009451A JP 2019009451 A JP2019009451 A JP 2019009451A JP 2020120254 A JP2020120254 A JP 2020120254A
Authority
JP
Japan
Prior art keywords
image
angle
distribution
distribution image
generation method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019009451A
Other languages
Japanese (ja)
Other versions
JP7219620B2 (en
Inventor
巧馬 平山
Takuma Hirayama
巧馬 平山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Digital Fabrications Co Ltd
Original Assignee
Digital Fabrications Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital Fabrications Co Ltd filed Critical Digital Fabrications Co Ltd
Priority to JP2019009451A priority Critical patent/JP7219620B2/en
Publication of JP2020120254A publication Critical patent/JP2020120254A/en
Application granted granted Critical
Publication of JP7219620B2 publication Critical patent/JP7219620B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an image free from discomfort for a user viewing the image while suppressing the amount of information when the image is distributed.SOLUTION: A distribution image generation method for generating a distribution image 52 distributed via a network communication line 3 includes: a step (s202) of acquiring a field angle from a distribution destination terminal of the distribution image 52; a step (s203) of acquiring an image generated by capturing at least all directions; and a generation step (s204) of generating a distribution image by extracting pixels from the acquired image. In the generation step, pixels are thinned out and extracted from the acquired image based on a function determined according to the acquired field angle.SELECTED DRAWING: Figure 3

Description

本発明は、配信画像生成方法に関する。 The present invention relates to a distribution image generation method.

カメラによって撮影した画像を、当該カメラから離れた遠隔地において携帯情報端末やパソコンなどのコンピュータで受信し、受信した画像をコンピュータの表示画面に表示させる画像配信システムが知られている。このような、画像配信システムは、例えば、留守中の部屋内を監視するための監視システムとして用いられている。近年では、全天周の画像を生成するカメラを備え、より広い範囲の画像を配信できる画像配信システムが登場している。 There is known an image distribution system in which an image captured by a camera is received by a computer such as a mobile information terminal or a personal computer at a remote place away from the camera, and the received image is displayed on a display screen of the computer. Such an image distribution system is used, for example, as a monitoring system for monitoring the inside of a room that is away. In recent years, an image distribution system that has a camera for generating images of the entire sky and is capable of distributing a wider range of images has appeared.

例えば、特許文献1には、カメラで撮影した全天周の映像を正距円筒図法によってパノラマ展開し、展開したパノラマ画像を配信する映像配信装置が記載されている。当該映像配信装置では、低解像度の全天周画像に対して、ユーザが注視している部分を高精細な画像で重畳して送信することで、ユーザに提供する映像の品質を向上させると共に、映像を配信する際の情報量を抑制することを可能にしている。 For example, Patent Document 1 describes a video distribution device that panoramicly expands a panoramic image captured by a camera by an equidistant cylinder projection method and distributes the expanded panoramic image. In the video distribution device, by superimposing a portion of the user's gaze on a low-resolution omnidirectional image with a high-definition image and transmitting the image, the quality of the video provided to the user is improved, This makes it possible to reduce the amount of information when distributing video.

特開2016−15705号公報JP, 2016-15705, A

しかしながら、高解像度の画像と低解像度の画像を単に重畳するだけでは、解像度の違いに起因する境界が画像に現れるため、当該画像を見るユーザに違和感を与えるおそれがある。 However, simply superimposing the high-resolution image and the low-resolution image on each other may cause a boundary due to the difference in resolution to appear in the image, which may give an uncomfortable feeling to a user who views the image.

本発明は、上記の課題に鑑み、画像を配信する際の情報量を抑制しながらも、当該画像を見るユーザに対して違和感を与えることのない配信画像生成方法を提供することを目的とする。 In view of the above problems, it is an object of the present invention to provide a delivery image generation method that suppresses the amount of information when delivering an image and does not give a feeling of strangeness to a user who views the image. ..

上記目的を達成するため、本発明は、ネットワークを介して配信される配信画像を生成する配信画像生成方法であって、前記配信画像の配信先端末から画角を取得するステップ、少なくとも全方位が撮像されて生成された画像を取得するステップ、前記取得した画像から画素を抽出して配信画像を生成する生成ステップ、を含み、前記生成ステップでは、取得した画角に応じて定まる関数に基づいて前記取得した画像から画素を間引き抽出することを特徴とする。 In order to achieve the above object, the present invention is a distribution image generation method for generating a distribution image distributed via a network, the method comprising: acquiring an angle of view from a distribution destination terminal of the distribution image, at least in all directions. The method includes a step of acquiring a captured image generated and a generation step of generating a distribution image by extracting pixels from the acquired image, wherein the generation step is based on a function determined according to the acquired angle of view. Pixels are thinned out and extracted from the acquired image.

また、前記関数は、前記間引き間隔が前記配信画像の中心から外側になるに従って増大することを特徴とする。 Further, the function is characterized in that the thinning interval increases as the distance from the center of the distribution image to the outside increases.

また、前記関数は、前記画像がマッピングされたとした立体の中心から見たユーザの視線に対する角度と、前記配信画像の中心からの距離の対応を定めるものであり、当該距離が最大のとき前記角度が180度となることを特徴とする。 Further, the function defines the correspondence between the angle with respect to the user's line of sight seen from the center of the solid body to which the image is mapped and the distance from the center of the distribution image, and the angle when the distance is maximum. Is 180 degrees.

また、前記関数は、前記画角内にある前記立体上の画素を前記配信画像に含まれる円状領域の内側に配列し、前記画角外にある前記立体上の画素を前記円状領域の外側に配列するよう定められることを特徴とする。 In addition, the function arranges the pixels on the solid within the angle of view inside a circular area included in the distribution image, and the pixels on the solid outside the angle of view of the circular area. It is characterized in that it is arranged to be arranged outside.

また、前記円状領域は前記配信画像の縁に接するよう設けられることを特徴とする。 Further, the circular area is provided so as to be in contact with an edge of the distribution image.

また、前記関数は、前記距離が前記円状領域の外形を形成する円の半径であるときの前記ユーザの視線に対する角度が前記画角となるよう定められることを特徴とする。 Further, the function is defined such that an angle with respect to a line of sight of the user when the distance is a radius of a circle forming an outer shape of the circular region is the view angle.

本発明によれば、コンピュータに配信される配信画像は、関数に従って当該画像の画質が周縁部分の外側になるに従って漸減するように生成されている。従って、画像を配信する際の情報量を抑制しながらも、当該画像を見るユーザに対して違和感を与えることがない。 According to the present invention, the distribution image to be distributed to the computer is generated such that the image quality of the image gradually decreases according to the function as it goes outside the peripheral portion. Therefore, while suppressing the amount of information when delivering the image, the user who views the image does not feel uncomfortable.

本発明の実施形態に係る画像配信システムの概略図Schematic diagram of an image distribution system according to an embodiment of the present invention 上記画像配信システムのブロック図Block diagram of the image distribution system 上記画像配信システムのフロー図Flow chart of the image distribution system 上記フロー図の生成処理における画像の生成過程を示した図Diagram showing the image generation process in the generation process of the above flow diagram 配信画像と仮想球の対応関係を示した図Diagram showing the correspondence between distribution images and virtual spheres 配信画像における低解像度部分を生成する場合の対応関係を示した図Diagram showing the correspondence relationship when generating the low resolution part in the distribution image 関数の例を示した図Diagram showing example functions

図1に示すように、本実施形態の画像配信システム10は、ネットワーク通信回線3に接続された画像配信装置12と携帯情報端末14により構成されている。これら画像配信装置12と携帯情報端末14は、不図示のシグナリングサーバによって、peer‐to‐peer接続が確立され、相互に通信可能となっている。 As shown in FIG. 1, the image distribution system 10 according to the present embodiment includes an image distribution device 12 and a mobile information terminal 14 connected to a network communication line 3. A peer-to-peer connection is established between the image distribution device 12 and the portable information terminal 14 by a signaling server (not shown), and they can communicate with each other.

画像配信装置12は、ネットワーク通信回線3を通じて画像を配信する装置であって、周りを撮影するためのカメラモジュール16を備えている。カメラモジュール16には、2つのイメージセンサ18,19が設けられている。これらのイメージセンサ18,19は、各々の方形の受光面18a,19aに結像された光の強度に応じた電気信号を出力するものであって、互いに受光面18a,19aが逆向きになるように配されている。また、イメージセンサ18,19各々の受光面18a,19aに収まるように半天周の像(イメージサークル)を結像させる不図示の光学部品(魚眼レンズ)が所定の位置に設けられている。この半天周とは、イメージセンサ18,19の受光面18a,19aを中心にして仮想された半径無限大の半球面である。 The image distribution device 12 is a device that distributes an image through the network communication line 3, and includes a camera module 16 for photographing the surroundings. The camera module 16 is provided with two image sensors 18 and 19. These image sensors 18 and 19 output electric signals according to the intensities of the light formed on the rectangular light receiving surfaces 18a and 19a, respectively, and the light receiving surfaces 18a and 19a are opposite to each other. It is arranged as follows. Further, an optical component (fisheye lens) (not shown) for forming an image of a semi-circumference (image circle) is provided at a predetermined position so as to fit on the light receiving surfaces 18a, 19a of the image sensors 18, 19, respectively. The semi-periphery is a hemisphere with an infinite radius that is virtual about the light receiving surfaces 18a and 19a of the image sensors 18 and 19.

上記のカメラモジュール16には、さらに、アナログ‐デジタル変換器(不図示)を有しており、当該アナログ‐デジタル変換器によって各イメージセンサ18,19から出力されたアナログ信号がデジタル信号へと変換される。このデジタル信号は画像配信装置12のCPU20へと入力され、撮影画像が生成される。これにより、本実施形態では、各イメージセンサ18,19に結像された2つの魚眼画像、すなわち、一方のイメージセンサ18に結像された一方向の半天周の像を含む一の魚眼画像、および他方のイメージセンサ19に結像された他方向の半天周の像を含む他の魚眼画像が生成される。 The camera module 16 further includes an analog-digital converter (not shown), and the analog signal output from each of the image sensors 18 and 19 is converted into a digital signal by the analog-digital converter. To be done. This digital signal is input to the CPU 20 of the image distribution device 12, and a captured image is generated. Accordingly, in the present embodiment, the two fisheye images formed on the image sensors 18 and 19, that is, the one fisheye including the one-direction semi-periphery image formed on one of the image sensors 18. Another fish-eye image including the image and the image of the other half of the sky formed on the other image sensor 19 is generated.

画像配信装置12は、画像配信プログラムが予め記憶されたメモリ22と、ネットワーク通信回線3に接続するための通信モジュール24と、を備えている。画像配信プログラムがCPU20によって実行されることで、CPU20は、図2に示すように、通信モジュール24(図1)を介して携帯情報端末14から後述する画角情報および姿勢情報を受信する受信部26、カメラモジュール16から取得したデジタル信号に基づいて配信画像52(図4)を生成する生成部28、通信モジュール24を介して配信画像52を配信する配信部30として機能する。 The image distribution device 12 includes a memory 22 in which an image distribution program is stored in advance, and a communication module 24 for connecting to the network communication line 3. As the image distribution program is executed by the CPU 20, the CPU 20 receives the angle-of-view information and attitude information described below from the portable information terminal 14 via the communication module 24 (FIG. 1), as shown in FIG. 26, the generation unit 28 that generates the distribution image 52 (FIG. 4) based on the digital signal acquired from the camera module 16, and the distribution unit 30 that distributes the distribution image 52 via the communication module 24.

図1に戻り、携帯情報端末14は、代表的にはスマートホンやタブレットなどの端末であって、CPU32やメモリ34に加えて、ユーザからの入力を受け付ける入力部(不図示)として機能するタッチパネル36、ユーザに対して情報を表示する表示部38(図2)として機能する液晶ディスプレイ40、ネットワーク通信回線3に接続するための通信モジュール42、及び携帯情報端末14の姿勢を検出するための角速度センサー44を備えている。 Returning to FIG. 1, the portable information terminal 14 is typically a terminal such as a smartphone or a tablet, and in addition to the CPU 32 and the memory 34, a touch panel that functions as an input unit (not shown) that receives an input from a user. 36, a liquid crystal display 40 functioning as a display unit 38 (FIG. 2) for displaying information to the user, a communication module 42 for connecting to the network communication line 3, and an angular velocity for detecting the attitude of the mobile information terminal 14. The sensor 44 is provided.

携帯情報端末14のメモリ34には、画像配信装置12から取得した配信画像52を液晶ディスプレイ40に表示させるアプリケーションが予め記憶されており、CPU32が当該アプリケーションを実行することで、図2に示すように、後述の画角情報および姿勢情報を画像配信装置12に送信する送信部46、画像配信装置12から配信画像52を受信する受信部48、受信した配信画像52を展開する展開部50、及び展開された画像を液晶ディスプレイ40に表示する表示部38として機能する。 An application for displaying the distribution image 52 acquired from the image distribution device 12 on the liquid crystal display 40 is stored in advance in the memory 34 of the mobile information terminal 14, and the CPU 32 executes the application, as shown in FIG. In addition, a transmitting unit 46 that transmits angle-of-view information and posture information described below to the image distribution device 12, a receiving unit 48 that receives the distribution image 52 from the image distribution device 12, a developing unit 50 that expands the received distribution image 52, and The display unit 38 functions to display the developed image on the liquid crystal display 40.

以下、図3に基づいて、本実施形態における画像の配信フローを説明する。 The image delivery flow in this embodiment will be described below with reference to FIG.

携帯情報端末14においてアプリケーションが実行されると、携帯情報端末14では画像配信装置12とpeer‐to‐Peer接続を行うための接続処理(s101)が実行される。 When the application is executed in the mobile information terminal 14, the mobile information terminal 14 executes a connection process (s101) for establishing a peer-to-Peer connection with the image distribution device 12.

携帯情報端末14は、接続処理(s101)によって画像配信装置12との通信が確立すると、画角情報及び姿勢情報を取得する取得処理(s102)を実行する。姿勢情報は、ユーザによって操作されている携帯情報端末14の姿勢を指標する情報であり、代表的には、角速度センサー44から出力される信号に基づいて決定されるロール角(α)、ピッチ角(β)、及びヨー角(γ)を含む。画角情報は、携帯情報端末14の液晶ディスプレイ40に、ユーザが注目する部分として表示させるために、撮影画像から抽出する範囲を指標する情報であり、タッチパネル36に対するユーザによる拡大・縮小表示操作に基づいて決定される。 When the communication with the image distribution device 12 is established by the connection process (s101), the portable information terminal 14 executes the acquisition process (s102) for acquiring the angle-of-view information and the posture information. The posture information is information indicating the posture of the portable information terminal 14 operated by the user, and typically, the roll angle (α) and the pitch angle determined based on the signal output from the angular velocity sensor 44. (Β) and yaw angle (γ). The angle-of-view information is information that indicates a range to be extracted from the captured image on the liquid crystal display 40 of the mobile information terminal 14 as a portion to be noticed by the user, and is used for the user's enlargement/reduction display operation on the touch panel 36. It is decided based on.

取得処理(s102)が実行されると、携帯情報端末14は、画像の配信を要求するリクエスト処理(s103)を実行する。リクエスト処理(s103)では画角情報と姿勢情報が画像配信装置12に送信される。 When the acquisition process (s102) is executed, the portable information terminal 14 executes a request process (s103) for requesting image distribution. In the request process (s103), the angle-of-view information and the posture information are transmitted to the image delivery device 12.

画像配信装置12では、電源が投入されて、接続処理(s201)が実行されると、携帯情報端末14から送信された画角情報と姿勢情報を受信する受信処理(s202)が実行される。 In the image distribution device 12, when the power is turned on and the connection processing (s201) is executed, the reception processing (s202) for receiving the angle-of-view information and the attitude information transmitted from the mobile information terminal 14 is executed.

画像配信装置12は、画角情報及び姿勢情報を受信すると撮影処理(s203)を実行する。撮影処理(s203)は、イメージセンサ18,19を中心とした2方向の半天周を撮影する処理であって、CPU20が、イメージセンサ18,19およびアナログ‐デジタル変換器を制御して、アナログ‐デジタル変換器から入力されたデジタル信号に基づいて2つの撮影画像を生成する。当該撮影処理(s203)により生成された各撮影画像は魚眼画像である。具体的には、矩形の画像領域を備えており、当該領域内にイメージセンサ18,19の受光面18a、19aに結像された半天周の画像を含む円形の半天周エリアと、当該半天周エリアの周り(四隅)に生成された空(黒色)の情報が配列されている。 When the image distribution device 12 receives the angle-of-view information and the posture information, the image distribution device 12 executes the photographing process (s203). The image capturing process (s203) is a process of capturing an image of a semi-periphery in two directions centering on the image sensors 18 and 19, and the CPU 20 controls the image sensors 18 and 19 and the analog-digital converter to perform analog- Two captured images are generated based on the digital signal input from the digital converter. Each captured image generated by the capturing process (s203) is a fisheye image. Specifically, it has a rectangular image area, and a circular semi-peripheral area including a semi-peripheral image formed on the light-receiving surfaces 18a, 19a of the image sensors 18, 19 in the area, and the semi-peripheral area. Information of the sky (black) generated around the area (four corners) is arranged.

画像配信装置12は、撮影処理(s203)を実行すると、配信画像52(図4(b))を生成する生成処理(s204)を実行する。配信画像52は、携帯情報端末14において展開されて表示される画像54(図4(a))の元となる画像であって、画角情報や姿勢情報に基づいて、撮影画像から画素を部分的に抽出することで生成される。配信画像52が生成されると、画像配信装置12は配信処理(s206)を実行して、当該配信画像52を携帯情報端末14に対して配信する。 When the image distribution device 12 executes the shooting process (s203), the image distribution device 12 executes the generation process (s204) for generating the distribution image 52 (FIG. 4B). The distribution image 52 is an image that is a source of the image 54 (FIG. 4A) that is developed and displayed on the mobile information terminal 14, and the pixels are partially extracted from the captured image based on the angle-of-view information and the posture information. It is generated by extracting it selectively. When the distribution image 52 is generated, the image distribution device 12 executes the distribution process (s206) and distributes the distribution image 52 to the mobile information terminal 14.

携帯情報端末14では、画像配信装置12からの配信画像52を受信する受信処理(s104)が実行される。当該処理により、配信画像52を受信すると、携帯情報端末14は、当該配信画像52を画像54へと展開する展開処理(s105)を実行する。展開処理(s105)を実行すると、携帯情報端末14は、画像54を液晶ディスプレイ40に表示させる表示処理(s106)を実行する。当該表示処理(s106)の後は、ユーザが携帯情報端末14の姿勢を変える度に、上記の処理(s102)〜(s106)が携帯情報端末14で実行され、処理(s202)〜(s206)が画像配信装置12で実行される。 The mobile information terminal 14 executes a reception process (s104) for receiving the distribution image 52 from the image distribution device 12. When the distribution image 52 is received by the processing, the portable information terminal 14 executes the expansion processing (s105) for expanding the distribution image 52 into the image 54. When the expansion process (s105) is executed, the portable information terminal 14 executes the display process (s106) for displaying the image 54 on the liquid crystal display 40. After the display process (s106), each time the user changes the attitude of the mobile information terminal 14, the above processes (s102) to (s106) are executed by the mobile information terminal 14, and the processes (s202) to (s206). Is executed by the image distribution device 12.

ここで、携帯情報端末14において展開され、表示される画像54は、図4(a)に示すように、画像の周縁部分がその内側(中央)部分に比べて低画質となるよう構成されている。言い換えれば、画像54においてユーザが注視する内側部分が周縁部分よりも高画質となるように構成されている。 Here, as shown in FIG. 4A, the image 54 developed and displayed on the portable information terminal 14 is configured such that the peripheral portion of the image has a lower image quality than the inner (center) portion thereof. There is. In other words, the inner portion of the image 54 that is viewed by the user has a higher image quality than the peripheral portion.

このような画像54の元となる配信画像52は、図4(b)に示すように、矩形の画像であり上記高画質に表示される部分が、配信画像52の中心を基点として当該画像の4辺(各縁)に内接する円(内接円)内に広がっており、上記低画質となる部分が、当該円の外周から配信画像52の4隅にかけて広がっている。このような配信画像52の各画素は、CPU20による所定の演算によって撮影画像から抽出され配列されるものである。本実施形態では、配信画像52中の各画素に対応する画素を、2つの撮影画像が仮想的にマッピングされた球体(以下、仮想球56という)から、画角情報と姿勢情報に基づいて抽出するよう演算を行なっている。 As shown in FIG. 4B, the distribution image 52 that is the source of such an image 54 is a rectangular image, and the portion displayed with the high image quality is based on the center of the distribution image 52. It spreads within a circle (inscribed circle) inscribed on four sides (each edge), and the above-mentioned low image quality portion spreads from the outer circumference of the circle to the four corners of the distribution image 52. Each pixel of such a distribution image 52 is extracted from the photographed image and arranged by a predetermined calculation by the CPU 20. In the present embodiment, a pixel corresponding to each pixel in the distribution image 52 is extracted from a sphere in which two captured images are virtually mapped (hereinafter referred to as a virtual sphere 56) based on angle-of-view information and posture information. Is calculated so that

具体的には、図4(c)に示すように、配信画像52の各画素に対応する仮想球56面上の第1座標が対応式によって、画角情報に応じて算出され(第1算出ステップ)、当該第1座標に姿勢情報を含む回転式を適用して第2座標が算出され(第2算出ステップ)、図4(d)に示すように、当該第2座標に位置している画素情報が抽出される。
なお、説明の便宜上、配信画像52の座標は、図5(b)に示すように、その中心を原点とするXY直交座標によって示し、配信画像52の横方向(X軸)は−1≦X≦1の値をとり、縦方向(Y軸)は−1≦Y≦1の値をとるものとする。また、仮想球56の座標は、図5(a)に示すように、その中心を原点とするXYZ直交座標によって示し、仮想球56の半径rは1とする。
Specifically, as shown in FIG. 4C, the first coordinate on the surface of the virtual sphere 56 corresponding to each pixel of the distribution image 52 is calculated according to the angle of view information by the correspondence equation (first calculation). Step 2), the second coordinate is calculated by applying the rotation formula including the posture information to the first coordinate (second calculating step), and the second coordinate is located at the second coordinate as shown in FIG. 4D. Pixel information is extracted.
For convenience of explanation, the coordinates of the distribution image 52 are shown by XY orthogonal coordinates with the center as the origin, as shown in FIG. 5B, and the horizontal direction (X axis) of the distribution image 52 is −1≦X. It takes a value of ≦1 and a value of −1≦Y≦1 in the vertical direction (Y axis). Further, the coordinates of the phantom sphere 56 are indicated by XYZ orthogonal coordinates whose origin is the center thereof, as shown in FIG. 5A, and the radius r of the phantom sphere 56 is 1.

上記の第1算出ステップは、画角情報に応じて定まる関数に基づいて撮影画像から画素を間引き抽出するための第1座標を算出するステップであって、配信画像52の各画素に対応する仮想球56の球面座標(r,θ,φ)を関数に基づいて算出する球面座標算出ステップ、及び当該算出した球面座標に対応する直交座標(x,y,z)を算出する直交座標算出ステップを含む。 The above-described first calculation step is a step of calculating the first coordinates for thinning and extracting pixels from the captured image based on a function that is determined according to the angle-of-view information, and the virtual coordinates corresponding to each pixel of the distribution image 52. A spherical coordinate calculation step of calculating spherical coordinates (r, θ, φ) of the sphere 56 based on a function, and an orthogonal coordinate calculation step of calculating orthogonal coordinates (x, y, z) corresponding to the calculated spherical coordinates. Including.

配信画像の点Pを例に球面座標算出ステップを説明する。当該点Pに対応する仮想球56上の点P´の球面座標は(r,θp´,φp´)で表されるが、当該角度θp´(仮想球56におけるZ軸に対する角度)と、角度φp´(X軸に対する角度)は次のように求められる。なお、上記の通り仮想球56の半径rは1である。 The spherical coordinate calculation step will be described by taking the point P of the distribution image as an example. The spherical coordinates of the point P′ on the phantom sphere 56 corresponding to the point P are represented by (r, θ p ′ , φ p ′ ), and the angle θ p ′ (angle with respect to the Z axis of the phantom sphere 56). And the angle φ p ′ (angle with respect to the X-axis) is obtained as follows. The radius r of the phantom sphere 56 is 1 as described above.

角度θp´は、配信画像52のXY直交座標における原点から点Pまでの距離Pを、画角情報に対応する関数f(r)に入力することで求められる。当該距離Pについては、点Pの座標値(P,P)に基づいて、次の対応式により求められる。 The angle θ p ′ is obtained by inputting the distance P r from the origin to the point P in the XY orthogonal coordinates of the distribution image 52 to the function f(r) corresponding to the angle-of-view information. The distance P r is obtained by the following correspondence formula based on the coordinate value (P x , P y ) of the point P.

Figure 2020120254
Figure 2020120254

関数f(r)は、図7に示すように、距離rと角度θの関係を定めたものであり、複数の画角情報ごとに定められている。例えば、画角情報が30°の場合には、図7(a)に示されるように、r=1の場合にθが30°になるように関数f(r)が定められており、当該関数に対して、上記数1において求められた距離Pが代入されて点Pに対応する角度θP´が求められる。また、画角情報が90°の場合には、図7(b)に示されるようにr=1の場合にθが90°になるように関数が定められており、当該関数に対して上記数1において求められた距離Pが代入されて点Pに対応する角度θP´が求められる。すなわち、各関数は、配信画像52における高画素部分と低画素部分の境界が画角情報に対応するように定められている。当該関数は、図7(c)に示されるように1次関数であっても構わない。 As shown in FIG. 7, the function f(r) defines the relationship between the distance r and the angle θ, and is defined for each of a plurality of pieces of view angle information. For example, when the angle of view information is 30°, the function f(r) is determined so that θ becomes 30° when r=1 as shown in FIG. 7A. for the function, the angle theta P'is obtained which corresponds to the distance P r assignment has been the point P determined in Equation 1. Further, when the angle-of-view information is 90°, the function is determined so that θ becomes 90° when r=1 as shown in FIG. 7B. By substituting the distance P r found in the equation 1, the angle θ P ′ corresponding to the point P is found. That is, each function is defined so that the boundary between the high pixel portion and the low pixel portion in the distribution image 52 corresponds to the view angle information. The function may be a linear function as shown in FIG.

角度φp´は、配信画像52のXY直交座標におけるφと同一であり、当該φは点Pの座標(P,P)に基づいて、以下の対応式により求められる。 The angle φ p ′ is the same as φ p in the XY orthogonal coordinates of the distribution image 52, and the φ p is obtained by the following correspondence formula based on the coordinates (P x , P y ) of the point P.

Figure 2020120254
Figure 2020120254

ここで、図6に示すように、低画質部分を構成している画素、例えば円周C上にある画素に対して、上記の対応式(数2)と同様に角度φを求めた場合、破線で示された弧(破線弧)上に位置する画素が考慮されず、一点鎖線で示された弧に対応する画素のみが考慮される偏った画素情報の抽出となってしまう。そこで、本実施形態では、円周に対する破線弧の比率に基づいて、抽出すべき画素を選択している。具体的には、破線部分を含めた円周C上の点を均等に一点鎖線上に配列することで、偏りの少ない画素情報の抽出を実現しつつ配信画像52の情報量の低減を実現している。そのため、例えば円周C上の画素Qには画素Q´に対応する画素情報が抽出されることとなる。このような均等配列を実現するための対応式は次の式になる。 Here, as shown in FIG. 6, when the angle φ is obtained for the pixels forming the low image quality portion, for example, the pixels on the circumference C, as in the above correspondence equation (Equation 2), Pixel information that is biased is extracted in which pixels located on the arc indicated by the broken line (broken arc) are not considered, and only pixels corresponding to the arc indicated by the alternate long and short dash line are considered. Therefore, in this embodiment, the pixels to be extracted are selected based on the ratio of the broken line arc to the circumference. Specifically, by uniformly arranging the points on the circumference C including the broken line portion on the alternate long and short dash line, it is possible to reduce the information amount of the distribution image 52 while realizing the extraction of pixel information with less deviation. ing. Therefore, for example, the pixel information corresponding to the pixel Q′ is extracted for the pixel Q on the circumference C. The corresponding equation for realizing such an even array is the following equation.

Figure 2020120254
Figure 2020120254

ここで、φiは、円周Cに対する破線弧の比率(割合)を求めるための角度である。 Here, φ i is an angle for obtaining the ratio of the broken line arc to the circumference C.

上記のようにして、配信画像52の各画素に対する球面座標(1,θ,φ)が求められると、直交座標算出ステップにおいて、次の変換式により各画素に対する第1座標(x,y,z)が求められる。 When the spherical coordinates (1, θ, φ) for each pixel of the distribution image 52 are obtained as described above, the first coordinate (x 1 , y 1 for each pixel is calculated by the following conversion formula in the Cartesian coordinate calculation step. , Z 1 ) is required.

Figure 2020120254
Figure 2020120254
Figure 2020120254
Figure 2020120254
Figure 2020120254
Figure 2020120254

次いで、第2算出ステップが実行される。第2算出ステップでは、各第1座標に対して、姿勢情報を含む回転式を適用して第2座標(x,y,z)が求められる。 Then, the second calculation step is executed. In the second calculation step, for each first coordinate, a second coordinate (x 2, y 2, z 2) is obtained by applying the rotary including orientation information.

Figure 2020120254
Figure 2020120254

上記第2算出ステップにより、仮想球56における抽出すべき画素が特定されることとなる。具体的には、第1算出ステップにおいて求められた座標図4(c)に示すように、第2座標が求められると、当該座標に位置する画素情報が抽出され、抽出された画素情報が対応する配信画像52の各画素に割り当てられる。このようにして、高画質部分となる内接円内には画角に応じた仮想球56上の画素が魚眼画像状に抽出され、低画質部分となる内接円外には画角外となる仮想球56上の画素が間引き抽出された配信画像52が生成されることとなっている。 By the second calculation step, the pixels to be extracted in the phantom sphere 56 are specified. Specifically, as shown in the coordinate diagram 4(c) obtained in the first calculation step, when the second coordinate is obtained, the pixel information located at the coordinate is extracted, and the extracted pixel information corresponds to the extracted pixel information. Assigned to each pixel of the distribution image 52. In this way, the pixels on the virtual sphere 56 corresponding to the angle of view are extracted in the shape of a fisheye image within the inscribed circle that is the high-quality portion, and outside the angle of view outside the inscribed circle that is the low-quality portion. The distribution image 52 is generated by thinning and extracting the pixels on the virtual sphere 56.

なお、上記第1算出ステップにおいて算出された座標は、第2算出ステップにおいて、姿勢情報に応じてシフトされることとなっている。従って、第1算出ステップにおいて求めた角度θはz軸に対する角度として算出されたが、最終的には、図4(d)に示されるように、仮想球56の中心から姿勢情報に対応して伸びる半直線に対する角度を指標することとなる。ここで、当該姿勢情報に対応して伸びる半直線は、仮想球56の中心から見たユーザの視線に対応するものである。従って、角度θは撮影画像がマッピングされた仮想球56の中心から見たユーザの視線に対する角度を指標するものであり、関数f(r)は当該角度と、配信画像の中心からの距離の対応を定めたものとなる。 The coordinates calculated in the first calculation step are to be shifted according to the posture information in the second calculation step. Therefore, the angle θ obtained in the first calculation step is calculated as an angle with respect to the z-axis, but finally, as shown in FIG. 4D, the angle θ corresponds to the posture information from the center of the virtual sphere 56. The angle with respect to the extending half line will be used as an index. Here, the half line extending corresponding to the posture information corresponds to the line of sight of the user seen from the center of the virtual sphere 56. Therefore, the angle θ indicates the angle with respect to the user's line of sight viewed from the center of the virtual sphere 56 onto which the captured image is mapped, and the function f(r) corresponds to the angle and the distance from the center of the distribution image. Will be determined.

また、図7(a)や図7(b)に示すように、画角情報に応じて定まる関数f(r)は、rの値が大きくなるに従ってθの増加度が増すように定められている。すなわち、仮想球56において抽出すべき画素の間隔(間引き間隔)が配信画像の中心から外側になるに従って増大するよう、関数f(r)が定められている。 Further, as shown in FIGS. 7A and 7B, the function f(r) determined according to the angle-of-view information is determined so that the increasing degree of θ increases as the value of r increases. There is. That is, the function f(r) is determined so that the interval (thinning interval) of the pixels to be extracted in the virtual sphere 56 increases from the center of the distribution image to the outside.

上記配信画像52を受信した携帯情報端末14では、配信画像52を画像54へと展開する展開処理(s105)が実行される。当該処理では、先ず、配信画像52に基づいて展開用画像が生成される。展開用画像の中央には配信画像52の高画質部分の画素がそのまま配列され、当該高画質部分の周りには配信画像52の低画質部分の画素が配列される。ここで当該低画質部分の各画素については、そのまま配列するのではなく、上記の数式4を用いてφQ´の位置を特定し、特定した位置に画素を配置するこのとき、φQ´を含む円周C上には連続して画素が配列されないため、各画素間を補間する補間処理が行われる。当該補間処理は特に限定されないが、例えば同一円周上にある画素と画素の間にそれぞれと近似した画素情報を配列する。 The portable information terminal 14 that has received the distribution image 52 executes the expansion process (s105) for expanding the distribution image 52 into the image 54. In the process, first, a development image is generated based on the distribution image 52. Pixels in the high image quality portion of the distribution image 52 are arranged in the center of the developed image, and pixels in the low image quality portion of the distribution image 52 are arranged around the high image quality portion. Wherein for each pixel of the low-quality portion is not directly arranged to locate and phi Q'using Equation 4 above, this time of pixels arranged in a specified position, the phi Q' Since the pixels are not continuously arranged on the circumference C including the interpolation, an interpolation process for interpolating between the pixels is performed. The interpolation process is not particularly limited, but, for example, pixel information approximate to each pixel is arranged between pixels on the same circumference.

上記の補間処理が実行されると、公知のパノラマ展開手法を用いて展開用画像が展開され画像54が生成されることとなる。 When the above interpolation processing is executed, the development image is developed by using a known panoramic development method, and the image 54 is generated.

本実施形態の画像配信システム10によると、画像配信装置12から携帯情報端末14へと配信される配信画像52は、画像54に展開したときに最もユーザが注目する部分が高画質に生成され、その周りの着目され難い部分が低画質に圧縮されて生成されている。このように、画像の情報量を低減することで、通信の高速化を実現しつつ、ユーザには高画質な画像を提供することができる。なお、画像54における低画質部分は、ユーザが携帯情報端末14の姿勢を変えた後、新たな配信画像52を受信して新たな画像54が展開されるまでの間、当該姿勢を変更した分だけ液晶ディスプレイ40に表示されることとなる。 According to the image distribution system 10 of the present embodiment, in the distribution image 52 distributed from the image distribution device 12 to the mobile information terminal 14, the part most noticed by the user when expanded to the image 54 is generated with high image quality. The surrounding portion that is difficult to be noticed is generated by being compressed to a low image quality. As described above, by reducing the amount of image information, it is possible to provide a high-quality image to the user while realizing high-speed communication. It should be noted that the low image quality portion of the image 54 is the amount of change in the posture until the user receives the new distribution image 52 and the new image 54 is developed after the user changes the posture of the mobile information terminal 14. Only will be displayed on the liquid crystal display 40.

また、配信画像52は、携帯情報端末14によって画像54として展開されたときに、当該画像の画質が周縁部分の外側になるに従って漸減するように生成されている。従って、画像を配信する際の情報量を抑制しながらも、当該画像を見るユーザに対して違和感を与えることがない。 Further, the distribution image 52 is generated such that when it is developed as the image 54 by the portable information terminal 14, the image quality of the image gradually decreases as it goes outside the peripheral portion. Therefore, while suppressing the amount of information when delivering the image, the user who views the image does not feel uncomfortable.

以上、本願発明に係る配信画像生成方法を実施形態に基づいて説明してきたが、本発明は、上記した形態に限らないことは勿論であり、例えば、以下のような形態で実施されても構わない。 Although the distribution image generation method according to the present invention has been described above based on the embodiment, the present invention is not limited to the above-described mode, and may be carried out in the following modes, for example. Absent.

<変形例>
(1)上記の実施形態の球面座標算出ステップでは、球面座標の角度θを求める際に、画角情報に対応付けて予め定められた関数(図7)を用いたが、当該関数は予め定められたものに限られず、取得した画角情報に基づいて関数を生成しても良い。例えば、一次関数や二次関数を用いる場合には、画角情報に対応する係数を決定し、関数を生成すればよい。また、指数関数を用いる場合には、画角情報に対応する底を決定し、関数を生成すればよい。なお、これら係数や底を決定するために、これら係数や底の値と画角情報の対応のみを予め定めておいてもよい。
<Modification>
(1) In the spherical coordinate calculation step of the above-described embodiment, a predetermined function (FIG. 7) associated with the angle-of-view information is used when the angle θ of the spherical coordinates is obtained. However, the function may be generated based on the acquired view angle information. For example, when a linear function or a quadratic function is used, the coefficient corresponding to the view angle information may be determined and the function may be generated. Further, when the exponential function is used, it suffices to determine the base corresponding to the view angle information and generate the function. In order to determine the coefficient and the bottom, only the correspondence between the value of the coefficient and the bottom and the view angle information may be determined in advance.

すなわち、関数は、画角情報が指標する画角内にある仮想球56上の画素を配信画像の中心を基点とする円(内接円)の内側に配列し、当該画角外にある仮想球56上の画素を円の外側に配列するよう定められる。この時、当該関数は、距離(r)が円の半径(上記実施形態では1)の値をとる場合に、角度θが画角情報となるよう定められる。このような関数は、距離(r)が0の場合に角度θが0となる点(原点)、距離(r)が最大値(配信画像の中心から配信画像の角までの距離)の場合に角度θが180となる点、かつ、距離(r)が円の半径の場合に角度θが画角となる点を通るよう定められたベジェ曲線やスプライン曲線が代表例として挙げられる。 That is, the function arranges the pixels on the virtual sphere 56 within the view angle indicated by the view angle information inside the circle (inscribed circle) with the center of the distribution image as the base point, and arranges the pixels outside the view angle. The pixels on the sphere 56 are defined to be arranged outside the circle. At this time, the function is determined so that the angle θ becomes the angle-of-view information when the distance (r) takes the value of the radius of the circle (1 in the above embodiment). Such a function is used when the angle θ is 0 (origin) when the distance (r) is 0, and when the distance (r) is the maximum value (distance from the center of the distribution image to the corner of the distribution image). Typical examples are a Bezier curve and a spline curve that are defined so as to pass through a point where the angle θ is 180 and a point where the angle θ is the angle of view when the distance (r) is the radius of the circle.

(2)画像配信システム10が有する携帯情報端末14は1つに限られず、複数であってもよい。また、携帯情報端末14に限られず、デスクトップ型やノート型のパソコンであってもよい。すなわち、画像配信装置12から配信画像52を受信し、画像54を表示するのはコンピュータであればよい。なお、パソコンを用いる場合には、例えば、Peer−to−Peer通信可能なブラウザを介して画像配信システム10と情報(画角情報や配信画像52)を送受信することができる。また、画角情報を入力する入力手段として、携帯情報端末14では角速度センサー44を用いたが、マウスを用いた画面操作により画角情報を入力しても良い。姿勢情報は、マウスによって指定されたブラウザの画像表示部内における位置座標に基づいて、仮想的な姿勢が求められたものである。また、画角情報は、マウスホイールの回転操作に基づいて求められる。 (2) The mobile information terminal 14 included in the image distribution system 10 is not limited to one, and may be plural. Further, the personal computer is not limited to the portable information terminal 14, and may be a desktop type or notebook type personal computer. That is, it is only necessary that the computer receives the distribution image 52 from the image distribution device 12 and displays the image 54. When a personal computer is used, for example, information (angle-of-view information and distribution image 52) can be transmitted/received to/from the image distribution system 10 via a browser capable of Peer-to-Peer communication. Although the angular velocity sensor 44 is used in the portable information terminal 14 as the input unit for inputting the angle-of-view information, the angle-of-view information may be input by a screen operation using a mouse. The posture information is obtained by calculating a virtual posture based on the position coordinates in the image display unit of the browser designated by the mouse. The angle of view information is obtained based on the rotation operation of the mouse wheel.

(3)上記の実施形態では、画像配信装置12は、全天周を撮影するカメラモジュール16を備えているが、当該カメラモジュールは半天周を撮影する一のイメージセンサ18のみを備えても構わない。このようなカメラモジュールを有する画像配信装置は、例えば、室内の天井などに取り付けられ、室内を撮影し、当該室内の様子を配信画像52として送信する装置として用いられる。そして、当該配信画像52を生成する際には、撮影画像が仮想球52の下側にマッピングされ上記の第1座標算出ステップおよび第2座標算出ステップが実行される。 (3) In the above embodiment, the image distribution device 12 includes the camera module 16 that captures the entire sky, but the camera module may include only one image sensor 18 that captures the semi-circumference. Absent. The image distribution device having such a camera module is attached to, for example, a ceiling in a room, used as a device for photographing the room and transmitting the state of the room as a distribution image 52. Then, when generating the distribution image 52, the captured image is mapped to the lower side of the virtual sphere 52, and the first coordinate calculating step and the second coordinate calculating step described above are executed.

(4)また、上記の実施形態では、各イメージセンサ18,19により生成される撮影画像は半天周の画像であったが、少なくとも全方位を含む全方位画像であれば良い。ここで、全方位画像とは、東西南北のすべて方位を撮像した画像、換言すれば、ある点を基点とし、当該基点の周囲(水平方向に360度)を撮影した画像である。このような全方位画像は、イメージセンサ18から出力された撮影画像の中心部分を除いた画像であっても良いし、撮影画角が90度のカメラモジュールを東西南北に4つ配置し、これらのカメラモジュールから得た撮影画像を仮想球の水平方向に並べてマッピングしても良い。 (4) Further, in the above-described embodiment, the captured image generated by each of the image sensors 18 and 19 is a semi-perimeter image, but it may be an omnidirectional image including at least all azimuths. Here, the omnidirectional image is an image in which all directions in north, south, east, west, and west are imaged, in other words, an image in which a certain point is set as a base point and the periphery of the base point (360 degrees in the horizontal direction) is taken. Such an omnidirectional image may be an image obtained by removing the central portion of the photographed image output from the image sensor 18, or four camera modules having a photographing angle of view of 90 degrees are arranged in north, south, east, west, and The captured images obtained from the camera module may be arranged in the horizontal direction of the virtual sphere and mapped.

(5)上記の実施形態では、カメラモジュール16によって生成された撮影画像が仮想球56にマッピングされていたが、当該態様に限定されず、カメラモジュールによって撮影された撮影画像が、仮想キューブにマッピングされても構わない。当該態様においては、生成処理において、配信画像52上の位置と仮想キューブ上の位置の対応関係を定めた所定の対応式に基づいて第1座標が求められ、当該第1座標に所定の回転式を適用することで第2座標が求められる。これにより、配信画像52の各画素に対して、仮想キューブにおける画素情報が抽出されることとなる。また、同様に、撮影画像が仮想円筒にマッピングされても構わない。 (5) In the above embodiment, the captured image generated by the camera module 16 is mapped to the virtual sphere 56, but the present invention is not limited to this mode, and the captured image captured by the camera module is mapped to the virtual cube. It doesn't matter. In the aspect, in the generation process, the first coordinate is obtained based on a predetermined correspondence equation that defines a correspondence relation between the position on the distribution image 52 and the position on the virtual cube, and the predetermined rotation formula is used for the first coordinate. The second coordinate is obtained by applying As a result, the pixel information in the virtual cube is extracted for each pixel of the distribution image 52. Similarly, the captured image may be mapped to the virtual cylinder.

(6)上記の実施形態や変形例では、撮影画像が仮想球56や仮想キューブなどにマッピングされた場合を例に説明したが、当該態様には限られず、撮影画像が仮想球や仮想キューブなどにマッピングされることを想定して、所定の計算式に基づいてメモリ22に画素情報が展開されても構わない。当該態様においては、配信画像52の各画素について、上記の対応式に基づいて第1座標が求め、上記の回転式に基づいて第2座標を求め、当該第2座標に対応するメモリ番地から画素情報を抽出する。 (6) In the above embodiments and modifications, the case where the captured image is mapped to the virtual sphere 56, the virtual cube, or the like has been described as an example. However, the present invention is not limited to this mode, and the captured image is the virtual sphere, the virtual cube, or the like. The pixel information may be expanded in the memory 22 on the basis of a predetermined calculation formula on the assumption that the pixel information is mapped to. In this aspect, for each pixel of the distribution image 52, the first coordinate is obtained based on the above correspondence equation, the second coordinate is obtained based on the above rotation equation, and the pixel is read from the memory address corresponding to the second coordinate. Extract information.

本願発明は、その趣旨を逸脱しない範囲で当業者の知識に基づいて種々なる改良、修正、又は変形を加えた態様でも実施できる。また、同一の作用又は効果が生じる範囲内で、何れかの発明特定事項を他の技術に置換した形態で実施しても良い。 The invention of the present application can be implemented in a mode in which various improvements, modifications, or variations are added based on the knowledge of those skilled in the art without departing from the spirit of the invention. Further, within the scope of producing the same action or effect, any of the matters specifying the invention may be replaced with another technique.

3 … ネットワーク通信回線
10 … 画像配信システム
12 … 画像配信装置
14 … 携帯情報端末(コンピュータ)
16 … カメラモジュール
28 … 生成部
30 … 配信部
38 … 表示部
48 … 受信部
50 … 展開部
52 … 配信画像
54 … 画像

3... Network communication line 10... Image distribution system 12... Image distribution device 14... Portable information terminal (computer)
16... Camera module 28... Generation part 30... Delivery part 38... Display part 48... Receiving part 50... Development part 52... Delivery image 54... Image

Claims (6)

ネットワークを介して配信される配信画像を生成する配信画像生成方法であって、
前記配信画像の配信先端末から画角を取得するステップ、
少なくとも全方位が撮像されて生成された画像を取得するステップ、
前記取得した画像から画素を抽出して配信画像を生成する生成ステップ、
を含み、
前記生成ステップでは、取得した画角に応じて定まる関数に基づいて前記取得した画像から画素を間引き抽出することを特徴とする、配信画像生成方法。
A distribution image generation method for generating a distribution image distributed via a network,
Obtaining an angle of view from a delivery destination terminal of the delivery image,
Acquiring an image generated by imaging at least all directions,
A generation step of generating a distribution image by extracting pixels from the acquired image,
Including
In the generating step, pixels are decimated and extracted from the acquired image based on a function that is determined according to the acquired angle of view.
前記関数は、前記間引き間隔が前記配信画像の中心から外側になるに従って増大することを特徴とする、請求項1に記載の配信画像生成方法。 The distribution image generation method according to claim 1, wherein the function increases as the thinning interval increases from the center of the distribution image to the outside. 前記関数は、前記画像がマッピングされたとした立体の中心から見たユーザの視線に対する角度と、前記配信画像の中心からの距離の対応を定めるものであり、当該距離が最大のとき前記角度が180度となることを特徴とする、請求項2または請求項2に記載の配信画像生成方法。 The function defines a correspondence between an angle with respect to the line of sight of the user as viewed from the center of the solid to which the image is mapped and a distance from the center of the distribution image. When the distance is maximum, the angle is 180. The distribution image generation method according to claim 2 or claim 2, wherein the distribution image generation method is performed. 前記関数は、前記画角内にある前記立体上の画素を前記配信画像に含まれる円状領域の内側に配列し、前記画角外にある前記立体上の画素を前記円状領域の外側に配列するよう定められることを特徴とする、請求項3に記載の配信画像生成方法。 The function arranges the three-dimensional pixels within the angle of view inside a circular area included in the distribution image, and the three-dimensional pixels outside the angle of view outside the circular area. The distribution image generation method according to claim 3, wherein the distribution image generation method is determined to be arranged. 前記円状領域は前記配信画像の縁に接するよう設けられることを特徴とする請求項4に記載の配信画像生成方法。 The distribution image generation method according to claim 4, wherein the circular area is provided so as to contact an edge of the distribution image. 前記関数は、前記距離が前記円状領域の外形を形成する円の半径であるときの前記ユーザの視線に対する角度が前記画角となるよう定められることを特徴とする請求項5または請求項5に記載の配信画像生成方法。 The function is defined such that an angle with respect to the line of sight of the user when the distance is a radius of a circle forming the outer shape of the circular region is the angle of view. The distribution image generation method described in.
JP2019009451A 2019-01-23 2019-01-23 Delivery image generation method Active JP7219620B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019009451A JP7219620B2 (en) 2019-01-23 2019-01-23 Delivery image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019009451A JP7219620B2 (en) 2019-01-23 2019-01-23 Delivery image generation method

Publications (2)

Publication Number Publication Date
JP2020120254A true JP2020120254A (en) 2020-08-06
JP7219620B2 JP7219620B2 (en) 2023-02-08

Family

ID=71892236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019009451A Active JP7219620B2 (en) 2019-01-23 2019-01-23 Delivery image generation method

Country Status (1)

Country Link
JP (1) JP7219620B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006148767A (en) * 2004-11-24 2006-06-08 Canon Inc Video image distribution system, video image distributing apparatus, video image receiving apparatus, communication method for video image distributing apparatus, display method of video image receiving apparatus, program, and storage medium
JP2010219872A (en) * 2009-03-17 2010-09-30 Panasonic Corp Camera apparatus, display, system and method for processing image
JP2016015705A (en) * 2014-06-10 2016-01-28 日本電信電話株式会社 Video distribution apparatus and picture reproducing apparatus
WO2018004936A1 (en) * 2016-06-30 2018-01-04 Sony Interactive Entertainment Inc. Apparatus and method for providing and displaying content
JP2019521388A (en) * 2016-06-30 2019-07-25 株式会社ソニー・インタラクティブエンタテインメント Apparatus and method for providing and displaying content

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006148767A (en) * 2004-11-24 2006-06-08 Canon Inc Video image distribution system, video image distributing apparatus, video image receiving apparatus, communication method for video image distributing apparatus, display method of video image receiving apparatus, program, and storage medium
JP2010219872A (en) * 2009-03-17 2010-09-30 Panasonic Corp Camera apparatus, display, system and method for processing image
JP2016015705A (en) * 2014-06-10 2016-01-28 日本電信電話株式会社 Video distribution apparatus and picture reproducing apparatus
WO2018004936A1 (en) * 2016-06-30 2018-01-04 Sony Interactive Entertainment Inc. Apparatus and method for providing and displaying content
JP2019521388A (en) * 2016-06-30 2019-07-25 株式会社ソニー・インタラクティブエンタテインメント Apparatus and method for providing and displaying content

Also Published As

Publication number Publication date
JP7219620B2 (en) 2023-02-08

Similar Documents

Publication Publication Date Title
US10594941B2 (en) Method and device of image processing and camera
CN106803884B (en) Image processing apparatus
US10593014B2 (en) Image processing apparatus, image processing system, image capturing system, image processing method
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
US10855916B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP6398472B2 (en) Image display system, image display apparatus, image display method, and program
JP2019057903A (en) Image processing apparatus, photographing system, image processing method, and program
US20190289206A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2019057264A (en) Image processing apparatus, photographing system, image processing method, and program
JP2019164782A (en) Image processing apparatus, image capturing system, image processing method, and program
CN111226255A (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US20220116581A1 (en) Information processing apparatus, information processing method, and program
JP2018110384A (en) Image processing apparatus, imaging system, image processing method and program
JP3054146B1 (en) Panoramic image device
CN110786017B (en) Distributed image generation method
JP2019080174A (en) Image processing apparatus, imaging system, communication system, image processing method, and program
JP2018206205A (en) Fisheye image correction method, fisheye image correction program and fisheye image correction device
JP7219620B2 (en) Delivery image generation method
JP2019185757A (en) Image processing device, imaging system, image processing method, and program
CN114567742A (en) Panoramic video transmission method and device and storage medium
JP2018109971A (en) Image processing device, image processing system, photographing system, image processing method, and program
JP6610741B2 (en) Image display system, image display apparatus, image display method, and program
JP6879350B2 (en) Image display systems, image display devices, image display methods, and programs
US11928775B2 (en) Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image
JP2019087984A (en) Information processing apparatus, imaging system, program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230127

R150 Certificate of patent or registration of utility model

Ref document number: 7219620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150