JP2013255171A - Image distribution apparatus and image display apparatus - Google Patents

Image distribution apparatus and image display apparatus Download PDF

Info

Publication number
JP2013255171A
JP2013255171A JP2012130863A JP2012130863A JP2013255171A JP 2013255171 A JP2013255171 A JP 2013255171A JP 2012130863 A JP2012130863 A JP 2012130863A JP 2012130863 A JP2012130863 A JP 2012130863A JP 2013255171 A JP2013255171 A JP 2013255171A
Authority
JP
Japan
Prior art keywords
image data
image
composite image
user
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012130863A
Other languages
Japanese (ja)
Inventor
Junya Masaki
淳也 正木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012130863A priority Critical patent/JP2013255171A/en
Priority to US13/908,101 priority patent/US20130329068A1/en
Publication of JP2013255171A publication Critical patent/JP2013255171A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which, when image data obtained by a user's instruction of refocus processing is image data unsuitable for the imaging scene, refocus processing is required again.SOLUTION: Composite image data which is given a user evaluation value, generated from multi-viewpoint image data captured from a plurality of viewpoint positions, and focused on a predetermined region is transmitted from an image distribution apparatus to an image display apparatus.

Description

本発明は、複数の視点位置から取得された情報に基づき画像データを処理する画像配信装置及び画像表示装置に関するものである。   The present invention relates to an image distribution apparatus and an image display apparatus that process image data based on information acquired from a plurality of viewpoint positions.

従来、撮像装置を用いて撮像した情報に基づき、撮像後に撮像画像を確認する場合、いわゆる再生モードにおいて撮像画像を表示させ、確認する方法が知られている。   2. Description of the Related Art Conventionally, a method for displaying and confirming a captured image in a so-called playback mode is known when confirming a captured image after imaging based on information captured using an imaging apparatus.

また、近年、「Light Field Photography」と呼ばれる手法を用いた撮像装置が提案されている(たとえば非特許文献1、特許文献1)。この撮像装置は、撮像レンズと、マイクロレンズアレイと、撮像素子と、画像処理部と、から構成され、撮像素子から得られる撮像画像データが、受光面における光の強度分布に加えてその光の進行方向の情報も含むようになっている。そして画像処理部において、複数の視点や方向からの観察画像を再構築できるようになっている。   In recent years, an imaging apparatus using a technique called “Light Field Photography” has been proposed (for example, Non-Patent Document 1 and Patent Document 1). This imaging device is composed of an imaging lens, a microlens array, an imaging device, and an image processing unit, and the captured image data obtained from the imaging device is used in addition to the light intensity distribution on the light receiving surface. It also includes information on the direction of travel. In the image processing unit, observation images from a plurality of viewpoints and directions can be reconstructed.

複数の視点から撮像された画像から、画像位置合わせ及び画像合成処理により、仮想フォーカス距離に撮像後のピント調整処理(以降、リフォーカスと呼ぶ)を行う技術がある(たとえば特許文献2)。また、撮像後にリフォーカスが可能な撮像装置(以降、ライトフィールドカメラと呼ぶ)が開発されている。   There is a technique for performing focus adjustment processing (hereinafter referred to as refocusing) after imaging at a virtual focus distance from images captured from a plurality of viewpoints by image alignment and image synthesis processing (for example, Patent Document 2). In addition, an imaging device (hereinafter referred to as a light field camera) capable of refocusing after imaging has been developed.

従来のライトフィールドカメラは再生モード時にタッチパネル式のディスプレイ表示画面においてピントを合わせたい場所をタップすることでリフォーカスを行い、ピントを変更した合成画像をディスプレイ表示するものである。   The conventional light field camera performs refocusing by tapping a place where the focus is desired on the touch panel display display screen in the playback mode, and displays the composite image with the focus changed on the display.

特開2010−183316号公報JP 2010-183316 A 特開2011−22796号公報JP 2011-22796 A

R. Ng, M. Levoy, M.Bredif, G. Duval, M. Horowitz, P. Hanrahan: "Light Field Photography with a Hand-Held Plenoptic Camera", Stanford Tech Report CTSR 2005-02(2005)R. Ng, M. Levoy, M. Bredif, G. Duval, M. Horowitz, P. Hanrahan: "Light Field Photography with a Hand-Held Plenoptic Camera", Stanford Tech Report CTSR 2005-02 (2005)

リフォーカスされた合成画像を示す画像データの生成する際、例えば特許文献2の方法では、中間視点画像を推定処理によって生成する必要があり膨大な計算コストがかかる。そのため、ユーザーがリフォーカス処理を指示して得られた画像データがその撮像シーンに適していない画像データである場合、再度のリフォーカス処理が必要になり、さらに計算コストが生じることになる。   When generating image data indicating a refocused composite image, for example, in the method of Patent Document 2, it is necessary to generate an intermediate viewpoint image by estimation processing, which requires enormous calculation costs. Therefore, when the image data obtained by the user instructing the refocus processing is image data that is not suitable for the imaging scene, the refocus processing is necessary again, and the calculation cost is further increased.

本発明にかかる画像配信装置は、ユーザー評価値が付与された、複数の視点位置から撮像された多視点画像データから生成され所定の領域に合焦している合成画像データを取得する取得手段と、前記取得した合成画像データを送信する送信手段とを備えることを特徴とする。   An image distribution apparatus according to the present invention includes an acquisition unit that acquires composite image data generated from multi-viewpoint image data captured from a plurality of viewpoint positions, to which user evaluation values are assigned, and focused on a predetermined area. And transmitting means for transmitting the acquired composite image data.

本発明によれば、ネットワーク上の視聴者からのフィードバックにより、撮像シーンに適したリフォーカス画像を表示することができ、ユーザーの利便性を高めることができる。   According to the present invention, it is possible to display a refocus image suitable for an imaging scene by feedback from a viewer on the network, and to improve user convenience.

本発明の実施例1に係るシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure which concerns on Example 1 of this invention. 本発明の実施例1に係る多眼カメラ全体のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the whole multiview camera which concerns on Example 1 of this invention. 本発明の実施例1に係るクラウドサーバーの構成の一例を示す図である。It is a figure which shows an example of a structure of the cloud server which concerns on Example 1 of this invention. 本発明の実施例1に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on Example 1 of this invention. 本発明の実施例1に係る視聴者からのフィードバックがない時の画像とGUIとの表示例を示す図である。It is a figure which shows the example of a display of an image and GUI when there is no feedback from the viewer which concerns on Example 1 of this invention. 本発明の実施例1に係る視聴者からのフィードバックが有る時の画像とGUIとの表示例を示す図である。It is a figure which shows the example of a display of an image and GUI when there exists a feedback from the viewer which concerns on Example 1 of this invention. 本発明の実施例1に係る表示端末のハードウェア構成の一例を示すブロック図。The block diagram which shows an example of the hardware constitutions of the display terminal which concerns on Example 1 of this invention. 本発明の実施例1における表示端末の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the display terminal in Example 1 of this invention. 本発明の実施例2に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on Example 2 of this invention. 本発明の実施例2に係る視聴者からのフィードバックが有る時の画像とGUIとの表示例を示す図である。It is a figure which shows the example of a display of an image when there exists a feedback from the viewer based on Example 2 of this invention, and GUI. 本発明の実施例1および2に係る表示端末側の表示画像の一例を示す図である。It is a figure which shows an example of the display image by the side of the display terminal which concerns on Example 1 and 2 of this invention. 本発明の実施例3に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on Example 3 of this invention.

以下、図面を用いて本発明の実施例について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、画像再生システムのシステム接続構成例を示すブロック図である。   FIG. 1 is a block diagram illustrating a system connection configuration example of an image reproduction system.

多眼カメラ101は、複数の視点位置から取得された情報に基づく画像データを撮像して多視点画像データを得る撮像装置(システム)である。   The multi-view camera 101 is an image capturing apparatus (system) that captures image data based on information acquired from a plurality of viewpoint positions to obtain multi-view image data.

無線ルータ102は、多眼カメラ101と無線通信にて接続しネットワークとの間を中継通信する為の装置である。ここでは、無線ルータとして説明するが、有線接続でのルータを接続する構成でもよい。   The wireless router 102 is a device for connecting to the multi-view camera 101 by wireless communication and performing relay communication with the network. Here, although it is described as a wireless router, it may be configured to connect a router with a wired connection.

ネットワーク103は、無線ルータ102とクラウドサーバー104や、別の機器と通信接続する為のネットワークである。   The network 103 is a network for communication connection with the wireless router 102, the cloud server 104, and another device.

クラウドサーバー104は、多眼カメラ101で撮像された多視点画像データの保存と、その多視点画像データに対応した各種パラメータの保存と、ネットワーク103越しに接続された各種機器と連携して画像処理を実行する装置である。クラウドサーバーの処理動作の詳細は別途後述する。   The cloud server 104 stores multi-view image data captured by the multi-view camera 101, stores various parameters corresponding to the multi-view image data, and performs image processing in cooperation with various devices connected via the network 103. Is a device for executing Details of the processing operation of the cloud server will be described later.

表示端末A105は、クラウドサーバー104上に保存された画像データを閲覧表示する為の表示端末である。本実施例上は、パーソナルコンピュータである(以下PCとして説明する)。また、ディスプレイの表示解像度はWXGAサイズ(1280×800)とする。   The display terminal A 105 is a display terminal for browsing and displaying the image data stored on the cloud server 104. In this embodiment, it is a personal computer (hereinafter described as a PC). The display resolution is set to WXGA size (1280 × 800).

表示端末B106は、表示端末A105と同様に、クラウドサーバー104上に保存された画像データを閲覧表示する為の表示端末である。本実施例上は、高解像度の大画面テレビ等を示しており、フルハイビジョンサイズ(1920×1080)(以下このサイズをFULL_HDとして説明する)の解像度のディスプレイを有する表示端末とする。   The display terminal B106 is a display terminal for browsing and displaying the image data stored on the cloud server 104, like the display terminal A105. In the present embodiment, a large-screen television or the like with high resolution is shown, and a display terminal having a display with a resolution of full high-definition size (1920 × 1080) (hereinafter, this size will be described as FULL_HD).

表示端末C107は、表示端末A105及び表示端末B106と同様に、クラウドサーバー104上に保存された画像データを閲覧表示する為の表示端末である。本実施例上この表示端末は、高解像度ではない携帯表示端末とする。ここでは、解像度をWVGAサイズ(854×480)として説明する。   The display terminal C107 is a display terminal for browsing and displaying the image data stored on the cloud server 104, like the display terminal A105 and the display terminal B106. In the present embodiment, this display terminal is a portable display terminal that does not have high resolution. Here, the description will be made assuming that the resolution is WVGA size (854 × 480).

なお、各表示端末は1例であり、また、各表示端末の解像度についてもここで記載している解像度以外の解像度に対応した表示の解像度でもよい。   Each display terminal is an example, and the resolution of each display terminal may be a display resolution corresponding to a resolution other than the resolution described here.

図2は、多眼カメラ101内部のハード構成ブロックの一例を示す図である。多眼カメラ撮像部201は、相互に独立した光学系と撮像素子とを持つ相互に独立した複数のカメラの集合体である。多眼カメラ撮像部201は、撮像素子の制御部等を含み、複数の撮像素子からの出力データの集合を多視点画像データとして出力する。   FIG. 2 is a diagram illustrating an example of a hardware configuration block inside the multi-lens camera 101. The multi-camera imaging unit 201 is an aggregate of a plurality of mutually independent cameras having mutually independent optical systems and imaging elements. The multi-view camera imaging unit 201 includes an image sensor control unit and the like, and outputs a set of output data from a plurality of image sensors as multi-viewpoint image data.

RAM202は、多眼カメラ撮像部201で撮像した多視点画像データの一時記憶や生成したリフォーカス画像データの一時記憶、およびその他演算途中のデータなどの一時記憶に使用する為のメモリである。FlashROM207は、不揮発メモリであり、過去にユーザーが選択した画像(種別と位置)や操作に関する履歴を累積、記憶する。外部メモリ209は、SDカードなどの外部メモリである。また、外部メモリ209は不揮発メモリであり、電源を切っても画像データは保存される。外部メモリ209には、多眼カメラ撮像部201で撮像した多視点画像データが、画像ファイルとして保存される。また外部メモリ209は、処理中の画像データを一時画像ファイルとして一時的に保存する領域としても利用される。   The RAM 202 is a memory used for temporary storage of multi-viewpoint image data captured by the multi-view camera imaging unit 201, temporary storage of generated refocus image data, and other temporary data during calculation. The flash ROM 207 is a non-volatile memory, and accumulates and stores history relating to images (type and position) and operations selected by the user in the past. The external memory 209 is an external memory such as an SD card. The external memory 209 is a non-volatile memory, and image data is saved even when the power is turned off. In the external memory 209, multi-viewpoint image data captured by the multi-view camera imaging unit 201 is stored as an image file. The external memory 209 is also used as an area for temporarily storing image data being processed as a temporary image file.

メモリ制御部210は、いわゆるバスシステムと、バスシステムに接続されるメモリやデバイスの制御部から構成され、例えば、RAM202、FlashROM207、外部メモリ209の各メモリに対するデータの読み書きを制御する。   The memory control unit 210 includes a so-called bus system and a control unit for a memory and a device connected to the bus system. For example, the memory control unit 210 controls reading / writing of data from / to each memory of the RAM 202, the Flash ROM 207, and the external memory 209.

ユーザーI/F(インターフェース)206は、機器の操作や、ユーザーがリフォーカス表示を希望する画像又は領域を選択したり、又は撮像済み画像の表示に係わるモード選択を行う為のI/F(インターフェース)である。具体的には、ディスプレイ205上に設置されるタッチパネルや、レリーズボタン、操作ダイアルなどユーザーI/Fに対応する。   A user I / F (interface) 206 is an I / F (interface) for operating a device, selecting an image or region that the user desires to refocus, or selecting a mode related to displaying a captured image. ). Specifically, it corresponds to a user I / F such as a touch panel installed on the display 205, a release button, and an operation dial.

全体制御部(CPU)208は、機器全体の制御や、FlashROM207に記憶されている履歴情報から最も頻度の高い領域を選択し、リフォーカス演算部203へ指示するなどの演算制御を行う。   The overall control unit (CPU) 208 performs overall control of the device and calculation control such as selecting the most frequent area from the history information stored in the Flash ROM 207 and instructing the refocus calculation unit 203.

リフォーカス演算部203は、全体制御部208の指示に従って、多視点画像データからリフォーカス画像データを生成する。ここで、多視点画像データからリフォーカス画像データを生成する概要を説明する。ライトフィールドフォトグラフィでは、多視点画像データから、空間中の複数の位置について、それぞれの位置を通過する光線の方向と強度(ライトフィールド、以下、「LF」という。)を計算する。そして、得られたLFの情報を用いて、仮想の光学系を通過して仮想のセンサに結像した場合の画像を計算する。このような仮想の光学系やセンサを適宜設定する事で、所定の対象に合焦した合成画像データであるリフォーカス画像データを生成することが可能となる。なお、リフォーカス処理は本実施例の主眼ではなく、上述した手法以外の手法を用いても良い。生成されたリフォーカス画像データは、RAM202や、外部メモリ209などへ格納される。   The refocus calculation unit 203 generates refocus image data from the multi-viewpoint image data in accordance with an instruction from the overall control unit 208. Here, an outline of generating refocus image data from multi-viewpoint image data will be described. In light field photography, the direction and intensity of light passing through each position (light field, hereinafter referred to as “LF”) is calculated from multiple viewpoint image data for a plurality of positions in space. Then, using the obtained LF information, an image when passing through the virtual optical system and forming an image on the virtual sensor is calculated. By appropriately setting such virtual optical systems and sensors, it is possible to generate refocus image data that is composite image data focused on a predetermined target. Note that the refocus processing is not the main focus of the present embodiment, and a method other than the method described above may be used. The generated refocus image data is stored in the RAM 202, the external memory 209, or the like.

グラフィックプロセッサ204は、リフォーカス演算部203で生成されたリフォーカス画像データをディスプレイ205に表示する機能を具備している。   The graphic processor 204 has a function of displaying the refocus image data generated by the refocus calculation unit 203 on the display 205.

ネットワークI/F211は、機器外とネットワーク接続を行い、ネットワーク上の外部機器との間でデータ転送を行う。本実施例では、ネットワークI/F211は外部のクラウドサーバーに対して多視点画像データを含む画像ファイルを送信する。また、多眼カメラにおいてリフォーカス済の画像データを生成済みである場合にはそのデータをクラウドサーバー104に対して送信してもよい。   The network I / F 211 performs network connection with the outside of the device, and performs data transfer with the external device on the network. In this embodiment, the network I / F 211 transmits an image file including multi-viewpoint image data to an external cloud server. Further, when refocused image data has been generated in the multi-lens camera, the data may be transmitted to the cloud server 104.

画像解析部212は、画像データ中の被写体の領域を検出し、領域毎に識別コードを割り当てる。画像解析部212は、検出した被写体の領域情報と識別コードとをRAM202に記憶する。本実施例の被写体とは、前景にあたる人や動物だけでなく、背景に含まれる風景部分も含むものとする。被写体の検出は、例えば、いくつかの顕著な特徴(2つの目、口、鼻など)とその特徴間の固有の幾何学的位置関係とを利用することで実施できる。あるいは、被写体の検出は、顔の対称的特徴、顔色の特徴、テンプレート・マッチング、ニューラル・ネットワークなどを利用することによっても実施できる。背景の検出は、例えば前述の方法で画像内の人物や動物の顔を検出し、その位置やサイズを算出する。この算出結果に基づいて画像中の人物を含む被写体領域と、それ以外の背景領域とに画像を区分することができる。例えば、被写体領域を矩形と仮定すると、領域情報の形式は、左上と右下の座標で示される。また、被写体の識別対象は、人(又は顔)、動物、風景の三種類としているが、これに限定されず、さらに細かい分類をすることも可能である。なお、被写体の検出および識別方法は、本実施例の主眼ではなく、上述した手法以外の手法を用いても良い。画像解析部212での被写体検出および識別機能は、画像撮像後、直ちに実施され、その結果をクラウドサーバーに送信してもよい。
なお、多視点画像データは、撮像素子から得られたRAW画像データであってもよいし、デモザイキング処理、ホワイトバランス処理、ガンマ処理、及びノイズ低減処理などの現像処理が施された現像後画像データであってもよい。また、本実施例では多眼カメラ撮像部201を用いる例を説明したが、多視点画像データは複数の視点位置からのデータであればよく、例えばマイクロレンズアレイを用いて得られる撮像データを用いてもよい。
The image analysis unit 212 detects a subject area in the image data and assigns an identification code to each area. The image analysis unit 212 stores the detected subject area information and identification code in the RAM 202. The subject in the present embodiment includes not only a person or animal in the foreground but also a landscape portion included in the background. The detection of the subject can be performed, for example, by utilizing some prominent features (two eyes, mouth, nose, etc.) and the inherent geometric positional relationship between the features. Alternatively, the detection of the subject can be performed by using a symmetrical feature of the face, a feature of the face color, template matching, a neural network, or the like. For the detection of the background, for example, the face of a person or animal in the image is detected by the method described above, and the position and size are calculated. Based on this calculation result, the image can be divided into a subject region including a person in the image and a background region other than that. For example, assuming that the subject area is a rectangle, the format of the area information is indicated by upper left and lower right coordinates. In addition, the subject identification target is three types, that is, a person (or face), an animal, and a landscape. However, the subject identification target is not limited to this, and finer classification is also possible. Note that the subject detection and identification method is not the main focus of the present embodiment, and methods other than those described above may be used. The subject detection and identification function in the image analysis unit 212 may be performed immediately after the image is captured, and the result may be transmitted to the cloud server.
The multi-viewpoint image data may be RAW image data obtained from an image sensor, or a developed image that has been subjected to development processing such as demosaicing processing, white balance processing, gamma processing, and noise reduction processing. It may be data. In this embodiment, the example using the multi-view camera imaging unit 201 has been described. However, the multi-viewpoint image data may be data from a plurality of viewpoint positions, for example, using image data obtained using a microlens array. May be.

次に、クラウドサーバー104内の構成例を示すブロック図である図3について説明する。   Next, FIG. 3 which is a block diagram illustrating an example of the configuration in the cloud server 104 will be described.

図3は、クラウドサーバー装置内の構成例を示すブロック図である。本実施例において、クラウドサーバーは画像配信装置ということができる。   FIG. 3 is a block diagram illustrating a configuration example in the cloud server device. In this embodiment, the cloud server can be referred to as an image distribution device.

ネットワーク通信部301は、ネットワーク103に接続された機器とクラウドサーバーとを通信する。またネットワーク通信部301は、ネットワークを介して閲覧可能なように画像データを公開する。ネットワーク通信部301は、物理的な接続形態に限定はなく、有線接続、無線接続の場合もあるため、プロトコル的に接続可能であれば、接続形態にこだわるものではない。   The network communication unit 301 communicates a device connected to the network 103 with the cloud server. Further, the network communication unit 301 publishes image data so that it can be browsed via the network. The network communication unit 301 is not limited to a physical connection form, and may be wired connection or wireless connection. Therefore, the network communication unit 301 is not particular about the connection form as long as it can be connected in a protocol manner.

データ記憶部302は、ネットワーク通信部301経由で、多眼カメラ101で撮像された多視点画像データを記憶する。また、クラウドサーバー内で処理された結果の画像データと各種情報を記憶する。クラウドサーバー内での処理する内容及び、各種情報については、別途後述する。   The data storage unit 302 stores multi-viewpoint image data captured by the multi-view camera 101 via the network communication unit 301. In addition, image data and various information obtained as a result of processing in the cloud server are stored. The contents to be processed in the cloud server and various information will be described later.

リフォーカス演算部303は、データ記憶部302に蓄積された多視点画像データからリフォーカス演算処理を行い、リフォーカス画像データを生成する。リフォーカス演算部303はリフォーカス演算部203と同様の処理を行う。   The refocus calculation unit 303 performs refocus calculation processing from the multi-viewpoint image data stored in the data storage unit 302, and generates refocus image data. The refocus calculation unit 303 performs the same processing as the refocus calculation unit 203.

UI制御部304は、ネットワークを介して接続されている画像表示端末に対して、UI(ユーザーインターフェースであり以下UIとして説明する)操作を出来るよう制御する。また、ユーザーからの操作指示に応じてクラウドサーバー機器内を制御する。   The UI control unit 304 controls the image display terminal connected via the network so that a UI (user interface, which will be described as a UI hereinafter) operation can be performed. In addition, the cloud server device is controlled in accordance with an operation instruction from the user.

ユーザー評価値蓄積部305は、UI制御部304の結果に応じて、ユーザーの操作を評価値として蓄積する。ユーザー評価値については後述する。   The user evaluation value storage unit 305 stores user operations as evaluation values according to the result of the UI control unit 304. The user evaluation value will be described later.

解像度変換部306は、ネットワークを介して接続されている各種画像表示端末及び、カメラに搭載されているディスプレイの解像度に合わせて、データ記憶部302に記憶されている画像データの解像度を変換処理する。   The resolution conversion unit 306 converts the resolution of the image data stored in the data storage unit 302 in accordance with the resolutions of the various image display terminals connected via the network and the display mounted on the camera. .

全体制御部(CPU)307は、クラウドサーバー機器内の全体を制御する。バスインターフェース308は、クラウドサーバー機器内の各ブロックを排他的に切り替えながら動作させる為のバスインターフェースである。表示部309は、クラウドサーバーを直接操作する際の操作表示用の表示部である。   The overall control unit (CPU) 307 controls the entire cloud server device. The bus interface 308 is a bus interface for operating while switching each block in the cloud server device exclusively. The display unit 309 is a display unit for operation display when directly operating the cloud server.

上記構成において、多眼カメラ101で撮像された多視点画像データが、クラウドサーバー104上のデータ記憶部302に記憶されている。また、この多視点画像データを表示端末に閲覧表示させるにあたって、所定のIDコード情報及び多視点画像データのサムネイル画像もデータ記憶部302に記憶されている状態である。IDコードとは、例えばユーザーIDのことであり、画像再生を要求するユーザーが管理者であるか否かを判定するために用いられる。詳細については後述する。なお、多眼カメラ101で撮像された多視点画像データのクラウドサーバーへのアップロード方法については公知技術である為、ここでは特に言及しない。   In the above configuration, the multi-viewpoint image data captured by the multiview camera 101 is stored in the data storage unit 302 on the cloud server 104. In addition, when the multi-view image data is browsed and displayed on the display terminal, predetermined ID code information and thumbnail images of the multi-view image data are also stored in the data storage unit 302. The ID code is, for example, a user ID, and is used to determine whether or not a user who requests image reproduction is an administrator. Details will be described later. Note that a method for uploading multi-viewpoint image data captured by the multi-view camera 101 to a cloud server is a known technique, and is not particularly described here.

次に本実施例の特徴を、図4のフローチャートを用いて説明する。図4は、クラウドサーバー104のフローチャートである。図4に示す処理は、例えば全体制御部307がデータ記憶部302に記憶されているプログラムを実行することによって実施される。   Next, features of the present embodiment will be described with reference to the flowchart of FIG. FIG. 4 is a flowchart of the cloud server 104. The process shown in FIG. 4 is implemented, for example, when the overall control unit 307 executes a program stored in the data storage unit 302.

シーケンスをスタート後、ステップS401では、図1の各表示端末A105,B106,C107のいずれかより、多眼カメラ101で撮像された多視点画像データを再生表示する為の要求コマンドの受信の有無を判定する。ネットワーク通信部301を介して、画像再生の為の要求コマンドが無い場合は、そのまま、このルーチンで待機状態となる。ネットワーク通信部301を介して、画像再生の為の要求コマンドを受信した場合は、ステップS402へ進む。   After starting the sequence, in step S401, whether or not a request command for reproducing and displaying the multi-viewpoint image data captured by the multi-view camera 101 is received from any of the display terminals A105, B106, and C107 in FIG. judge. If there is no request command for image reproduction via the network communication unit 301, the routine enters a standby state as it is. If a request command for image reproduction is received via the network communication unit 301, the process proceeds to step S402.

ステップS402では、ネットワーク103を介して、ユーザーのIDコードを受信する。ステップS403では、ステップS402で受信したIDコードが、ステップS401で再生要求があった画像データを撮像した管理者のIDコードと一致するか否かを判定する。先に説明したように、管理者のIDコードは、例えば予めデータ記憶部302に保存されている。判定した結果、画像の管理者である場合は、ステップS404へ進む。画像の管理者ではないと判定した場合は、ステップS410へ進む。   In step S <b> 402, the user ID code is received via the network 103. In step S403, it is determined whether or not the ID code received in step S402 matches the ID code of the administrator who captured the image data requested to be played in step S401. As described above, the administrator's ID code is stored in advance in the data storage unit 302, for example. If it is determined that the user is an image manager, the process advances to step S404. If it is determined that the user is not an image manager, the process proceeds to step S410.

ステップS404では、画像管理者用の所望のリフォーカス演算済の推奨画像データが存在するか否かを判定する。推奨画像データとは、ユーザー評価値が関連付けられたリフォーカス演算済み画像データのことである。詳細は後述する。リフォーカス演算済の推奨画像データが存在する場合は、ステップS406へ進む。リフォーカス演算済の推奨画像データが存在しない場合は、ステップS405へ進む。ステップS405では、表示すべき推奨画像データが存在しないことを通知して、処理を終了する。   In step S404, it is determined whether there is any desired refocused recommended image data for the image manager. The recommended image data is image data that has been refocused and associated with a user evaluation value. Details will be described later. If there is recommended image data that has been refocused, the process proceeds to step S406. If there is no recommended image data that has been refocused, the process proceeds to step S405. In step S405, it is notified that there is no recommended image data to be displayed, and the process ends.

ステップS406では、全体制御部307がリフォーカス演算済の推奨画像データを選択し、データ記憶部302に記憶されている推奨画像データを読み出す。ステップS407では、ステップS406で読み出されたリフォーカス演算済の推奨画像データを、ネットワーク通信部301を介して要求元に通信する。   In step S <b> 406, the overall control unit 307 selects the recommended image data that has been refocused, and reads the recommended image data stored in the data storage unit 302. In step S407, the recommended image data subjected to the refocus operation read in step S406 is communicated to the request source via the network communication unit 301.

一方、ステップS410では、画像の管理者ではないと判定された場合、データ記憶部302よりサムネイル画像データを読み出し、要求元の表示端末に送信する。ステップS410では、複数のシーンに対応する複数のサムネイル画像データを送信することができる。   On the other hand, if it is determined in step S410 that the user is not an image manager, the thumbnail image data is read from the data storage unit 302 and transmitted to the requesting display terminal. In step S410, a plurality of thumbnail image data corresponding to a plurality of scenes can be transmitted.

ステップS411では、全体制御部307は、サムネイル表示された画像に関して、以前に他のユーザーにより、すでに任意の画像位置に対してリフォーカス演算された画像データが保存されているか否かを判定する。この判定は、例えばサムネイル表示された画像データに関連付けられたリフォーカス画像データがデータ記憶部302にあるか否かに基づいて行われる。すでにリフォーカス済の画像データが保存されている場合は、ステップS412へ進む。まだリフォーカス済の画像データが保存されていない場合(すなわち、初めて操作される場合)は、ステップS420へ進む。   In step S <b> 411, the overall control unit 307 determines whether or not image data that has been refocused with respect to an arbitrary image position by another user has been stored for the thumbnail-displayed image. This determination is performed based on, for example, whether or not the refocus image data associated with the image data displayed as thumbnails is in the data storage unit 302. If refocused image data has already been saved, the process proceeds to step S412. If the refocused image data has not been saved yet (that is, when it is operated for the first time), the process proceeds to step S420.

ステップS420では、全体制御部307は、表示端末に対してサムネイル画像を表示させている状態から、ユーザー操作により視聴したい撮像シーンの選択操作がなされたか否かを判定する。撮像シーンは、任意の時点において多眼カメラ101で撮像された多視点画像データが示す画像のシーンのことである。例えば、時間または地点を変更して多眼カメラ101で撮像された多視点画像データは、それぞれ異なる撮像シーンを有することになる。撮像シーン選択操作がされた場合、ステップS421へ進む。撮像シーン選択操作がされていない場合、ステップS411へ戻る。   In step S420, the overall control unit 307 determines whether or not an operation for selecting an imaging scene to be viewed has been performed by a user operation from a state in which the thumbnail image is displayed on the display terminal. An imaging scene is an image scene indicated by multi-viewpoint image data captured by the multi-view camera 101 at an arbitrary time point. For example, multi-viewpoint image data captured by the multi-view camera 101 at different times or points will have different capturing scenes. If an imaging scene selection operation has been performed, the process proceeds to step S421. If the imaging scene selection operation has not been performed, the process returns to step S411.

ステップS421では、データ記憶部302から選択された撮像シーンの多視点画像データを読み出す。次にステップS422で、ステップS421で読み出された多視点画像データを使って、予め設定されているデフォルトの位置のフォーカスを合わせたリフォーカス画像データを生成する。   In step S421, the multi-viewpoint image data of the selected scene is read from the data storage unit 302. In step S422, refocus image data in which the focus at a preset default position is adjusted is generated using the multi-viewpoint image data read in step S421.

次に、ステップS411でリフォーカス演算された画像データが保存されていると判定された場合の処理を説明する。ステップS412では、全体制御部307はサムネイル画像の内、どのリフォーカス位置に対応したリフォーカス済画像を表示させるかに関するユーザーからの操作が有ったか否かを判定する。この判定は例えば、ネットワーク通信部301が、ステップS401で画像の再生要求をした表示端末からの操作コマンドの受信に応じて判定する。ステップS411は、サムネイル画像がユーザーから選択された場合、その選択されたサムネイル画像に対応するリフォーカス済の画像データを表示させる操作があったと判定する。既にサムネイル画像が選択されているとき、当該サムネイル画像に関連するリフォーカス済の画像データをユーザーが選択した場合に、ユーザーからの操作があったと判定する。操作が有った場合、ステップS413へ進む。操作が無い場合、ステップS420へ進む。   Next, a process in a case where it is determined that the refocused image data is stored in step S411 will be described. In step S412, the overall control unit 307 determines whether or not there is an operation from the user regarding which refocused image corresponding to which refocus position is to be displayed among the thumbnail images. For example, the network communication unit 301 makes this determination in response to reception of an operation command from the display terminal that requested the image reproduction in step S401. In step S411, when a thumbnail image is selected by the user, it is determined that there has been an operation of displaying refocused image data corresponding to the selected thumbnail image. When a thumbnail image has already been selected, when the user selects refocused image data related to the thumbnail image, it is determined that there has been an operation from the user. If there is an operation, the process proceeds to step S413. If there is no operation, the process proceeds to step S420.

ステップS413では、全体制御部307はステップS412で選択操作された、サムネイル画像に対応するリフォーカス済の画像データを、データ記憶部302から読み出す。なお、ステップS411でサムネイル画像が選択された場合には、次のように処理を行っても良い。すなわち、選択されたサムネイル画像(撮像シーン)に対応する複数のリフォーカス済の画像データがある場合、後述するように評価値の高いリフォーカス済の画像データをメインウィンドウに表示するために読み出すことができる。   In step S413, the overall control unit 307 reads out the refocused image data corresponding to the thumbnail image selected and operated in step S412 from the data storage unit 302. If a thumbnail image is selected in step S411, the following process may be performed. That is, when there are a plurality of refocused image data corresponding to the selected thumbnail image (imaging scene), the refocused image data with a high evaluation value is read for display on the main window as will be described later. Can do.

ステップS414では、全体制御部307は、ステップS413で読み出したリフォーカス済の画像データがロックされたリフォーカス済画像であるか否かを判定する。すなわち、当該リフォーカス済の画像データが、すでにステップS402で受信したユーザーIDで識別される視聴者による評価が終了し、再度の評価のためのUI操作をさせない為にロックされた画像データであるか否かを判定する。例えば、画像IDとユーザーIDと評価の有無とを関連付けたテーブルを参照するなどにより、係る判定が行われる。まだUI操作をロックされていない画像の場合は、ステップS415へ進む。すでにUI操作をロックされた画像の場合は、ステップS444へ進む。   In step S414, the overall control unit 307 determines whether or not the refocused image data read in step S413 is a locked refocused image. That is, the refocused image data is image data locked so that the evaluation by the viewer identified by the user ID already received in step S402 is completed and the UI operation for the evaluation is not performed again. It is determined whether or not. For example, such a determination is performed by referring to a table in which the image ID, the user ID, and the evaluation presence / absence are associated. If the image has not been locked for UI operation, the process advances to step S415. If the UI operation is already locked, the process proceeds to step S444.

ステップS415では、このステップに遷移するまでに生成されているリフォーカス画像データに、UI制御部304がUIとして操作ボタンの表示を重畳する。この重畳される操作ボタンは、ユーザー評価値を付与するためのボタンである。ステップS416では、全体制御部307は、ステップS415で操作ボタンが重畳された画像データをステップS401で画像再生を要求した表示端末に対して送信する。   In step S415, the UI control unit 304 superimposes the operation button display as a UI on the refocus image data generated until the transition to this step. This operation button to be superimposed is a button for assigning a user evaluation value. In step S416, the overall control unit 307 transmits the image data on which the operation button is superimposed in step S415 to the display terminal that requested the image reproduction in step S401.

ステップS417では、ステップS416で送信したUI操作ボタンを重畳された画像をユーザーが閲覧している状態で、現状表示端末上に表示されているリフォーカス位置とは異なる任意の位置をユーザーがリフォーカス位置として設定したか否かを判定する。例えば、ネットワーク通信部301が、ステップS401で画像の再生要求をした表示端末からのリフォーカス位置の変更要求を受信した場合、リフォーカス位置の任意設定がされたと判定する。現在の表示画像に対応したリフォーカス位置以外をリフォーカス位置として任意に設定された場合、ステップS430へ進む。そのままリフォーカス位置の任意の設定がされない場合は、ステップS440へ進む。   In step S417, in a state where the user is browsing the image on which the UI operation button transmitted in step S416 is superimposed, the user refocuses an arbitrary position different from the refocus position displayed on the current display terminal. It is determined whether or not the position is set. For example, when the network communication unit 301 receives a refocus position change request from the display terminal that requested the image reproduction in step S401, it is determined that the refocus position is arbitrarily set. If a position other than the refocus position corresponding to the current display image is arbitrarily set as the refocus position, the process proceeds to step S430. If the refocus position is not arbitrarily set, the process proceeds to step S440.

ステップS430では、全体制御部307は過去に現在視聴しているユーザーとは異なる、不特定多数のユーザーから操作された位置と同じ位置に対応するリフォーカス済の画像データがデータ記憶部302に保存されているか否かを判定する。過去にリフォーカス位置として操作された画像データが保存されている場合は、ステップS413へ戻る。保存されていない場合は、ステップS431へ進む。   In step S430, the overall control unit 307 stores, in the data storage unit 302, refocused image data corresponding to the same position operated by an unspecified number of users, which is different from the user currently viewing in the past. It is determined whether or not it has been done. If image data that has been operated as a refocus position in the past is stored, the process returns to step S413. If not saved, the process proceeds to step S431.

ステップS431では、全体制御部307は、データ記憶部302から同じ撮像シーンの多視点画像データを読み出す。ステップS432では、リフォーカス演算部303がステップS431で読み出された多視点画像データのリフォーカス演算処理を行う。ステップS432では、ステップS417で設定された位置にフォーカスを合わせる処理が行われる。ステップS433では、全体制御部307は、ステップS432で得られたリフォーカス演算処理結果に基づいてリフォーカス位置の異なる画像データを生成する。そして、上述のステップS415へ処理を移行する。   In step S431, the overall control unit 307 reads multi-viewpoint image data of the same shooting scene from the data storage unit 302. In step S432, the refocus calculation unit 303 performs a refocus calculation process on the multi-viewpoint image data read in step S431. In step S432, a process for focusing on the position set in step S417 is performed. In step S433, the overall control unit 307 generates image data with different refocus positions based on the refocus calculation processing result obtained in step S432. Then, the process proceeds to step S415 described above.

一方、ステップS417でリフォーカス位置の任意設定がされていないと判定した場合、ステップS440では、ステップS415にて重畳したUIボタンに対して、画像再生を要求した表示端末からアクション操作がなされたか否かを判定する。例えば、ネットワーク通信部301が、ステップS401で画像の再生要求をした表示端末からのUIボタンに対する入力コマンドを受信した場合、アクション操作がなされたと判定する。アクション操作は、例えばステップS401で画像の再生要求をした表示端末からのユーザー評価値の更新要求のことである。アクション操作がなされた場合は、ステップS441へ進む。アクション操作が無かった場合は、ステップS444へ進む。   On the other hand, if it is determined in step S417 that the refocus position is not arbitrarily set, in step S440, whether or not an action operation has been performed from the display terminal that requested image reproduction on the UI button superimposed in step S415. Determine whether. For example, when the network communication unit 301 receives an input command for the UI button from the display terminal that requested the image reproduction in step S401, it is determined that an action operation has been performed. The action operation is, for example, a user evaluation value update request from the display terminal that has requested the image reproduction in step S401. If an action operation has been performed, the process proceeds to step S441. If there is no action operation, the process proceeds to step S444.

ステップS441では、全体制御部307は、ステップS440で操作されたリフォーカス済み画像に対してユーザー評価値を1ポイント足す。ユーザー評価値は、現在閲覧されている撮像シーンの中での推奨度合を表すものである。ステップS442では、全体制御部307は現在表示している画像の画像データをデータ記憶部302に保存する。なお、過去に同じ位置でリフォーカスされ、同一のリフォーカス済み画像データがデータ記憶部302に存在する場合は、保存処理はしない。これは、ステップS413のステップでリフォーカス済の画像データが読み出されたか否かで処理を変更することができる。   In step S441, the overall control unit 307 adds one point to the user evaluation value for the refocused image operated in step S440. The user evaluation value represents a recommended degree in the currently viewed imaging scene. In step S442, the overall control unit 307 stores the image data of the currently displayed image in the data storage unit 302. Note that if the same refocused image data exists in the data storage unit 302 in the past, the storage process is not performed. This process can be changed depending on whether or not the refocused image data is read in step S413.

ステップS443では、全体制御部307は、画像データに重畳していたUIボタンを操作出来ないようロックする。また、UIボタンの表示をコントラストが薄くなるように重畳画像データを更新する。すなわち、全体制御部307は、ユーザー評価値が更新された画像データに対する再度の更新を禁止したロック画像データを生成して、送信する。ステップS444では、全体制御部307はユーザーが視聴を終了したか否かを判定する。視聴終了時は、処理を終了する。視聴を継続する時は、ステップS412へ戻る。   In step S443, the overall control unit 307 locks the UI button superimposed on the image data so that it cannot be operated. Also, the superimposed image data is updated so that the UI button display has a low contrast. That is, the overall control unit 307 generates and transmits lock image data that prohibits re-updating of the image data with the updated user evaluation value. In step S444, the overall control unit 307 determines whether the user has finished viewing. When viewing ends, the process ends. When continuing viewing, the process returns to step S412.

図4のシステム制御フローチャートの順に処理を実行した際に、各表示端末から視聴表示される画像及び、操作内容の例を以下に説明する。   An example of an image that is viewed and displayed from each display terminal and operation contents when processing is executed in the order of the system control flowchart of FIG. 4 will be described below.

まず、画像閲覧希望の不特定多数の人の内、図1の表示端末A105であるところのPCがクラウドサーバー104にアクセスする。この時の表示端末A105上の画面表示内容を図5と図6を使って説明する。   First, among the unspecified number of people who want to view images, the PC that is the display terminal A 105 in FIG. 1 accesses the cloud server 104. The screen display contents on display terminal A 105 at this time will be described with reference to FIGS.

<不特定多数からのユーザー操作がまだなされていない初期状態の表示例>
図5は、不特定多数からのユーザー操作がまだなされていない初期状態の表示例である。まず、表示端末A105には、図5(a)の画面表示がなされ、ユーザーID入力画面が出てくる。表示端末A105からユーザーIDが入力されると、次の画面へ移行する。ここまでの流れが、図4のステップS401〜ステップS403のNOのフローに遷移するまでを示している。
<Display example of the initial state in which user operations from an unspecified number have not yet been made>
FIG. 5 is a display example of an initial state in which user operations from an unspecified number have not yet been performed. First, the screen of FIG. 5A is displayed on the display terminal A105, and a user ID input screen appears. When the user ID is input from the display terminal A105, the next screen is displayed. The flow up to this point shows the transition to the NO flow in steps S401 to S403 in FIG.

次に、図5(b)表示として、複数の撮像シーン502,503,504の内容が一目でわかるように、サムネイル画像を表示する。これは、図4のステップS410に相当する。   Next, as the display of FIG. 5B, thumbnail images are displayed so that the contents of the plurality of imaging scenes 502, 503, and 504 can be seen at a glance. This corresponds to step S410 in FIG.

次に、ユーザーが撮像シーン502の画像を見たい場合、撮像シーン502のサムネイル画像を表示端末AX1605でクリック操作することで、図5(c)の画面に移行する。ここでは、表示端末をPCとして説明しているので、クリック操作と記載しているが、この限りではない。表示端末に対する操作は、タッチパネル式でのタップ操作や赤外線リモコン等による選択操作でも構わない。以降の説明中でのクリック操作についても同様である。   Next, when the user wants to view the image of the imaging scene 502, the thumbnail image of the imaging scene 502 is clicked on the display terminal AX1605, whereby the screen shown in FIG. Here, since the display terminal is described as a PC, it is described as a click operation, but this is not restrictive. The operation on the display terminal may be a touch operation tap operation or a selection operation using an infrared remote controller. The same applies to the click operation in the following description.

図5(c)は、予め設定しているリフォーカス用のパラメータにより決定されたリフォーカス位置に合わせたリフォーカス済み画像データを生成し、UI操作ボタン505を重畳し表示端末A105に表示している画面である。ここでのデフォルト画像は、様々な方法を使用し最初の画像を表示させることができる。例えば、ステップS402で受信したIDによって特定されるユーザーの過去の操作履歴を参照して、その操作履歴に適したリフォーカス画像データを表示することができる。具体的には、そのユーザーが過去に人物にフォーカスを合わせた画像を多く視聴している場合には、多視点画像データの中で人物と特定される領域にフォーカスを合わせたリフォーカス済の画像データを生成して表示させることができる。また、人物モード、背景モードなど、再生時のモード設定がユーザーによってされている場合には、そのモードに応じた領域にフォーカスを合わせたリフォーカス済の画像データを生成して表示させることができる。また、他の手法でフォーカス位置を決定した画像データを生成して表示させてもよい。ここまでの流れが、図4のステップS420(YES)〜ステップS416までの処理フローに対応している。   In FIG. 5C, refocused image data is generated in accordance with a refocus position determined by a preset refocus parameter, and a UI operation button 505 is superimposed and displayed on the display terminal A105. It is a screen. The default image here can display the first image using various methods. For example, it is possible to display the refocus image data suitable for the operation history by referring to the past operation history of the user specified by the ID received in step S402. Specifically, if the user has viewed many images that have focused on a person in the past, the refocused image that focuses on the area identified as the person in the multi-viewpoint image data Data can be generated and displayed. In addition, when the mode setting at the time of reproduction such as portrait mode or background mode is set by the user, it is possible to generate and display refocused image data in which an area corresponding to the mode is focused. . Further, image data with the focus position determined by another method may be generated and displayed. The flow so far corresponds to the processing flow from step S420 (YES) to step S416 in FIG.

次に、図5(c)とは別のリフォーカス位置を任意に指定したい場合、例として506の丸のポイントをクリックすると、初めて他の条件でリフォーカス処理をすることになる。全体制御部307とリフォーカス演算部303は、このシーンに対応した多視点画像データから、506の丸のポイントに対応するリフォーカス演算を行い、再度リフォーカス画像データを生成する。図5(c)の場合には、図5(d)に示す画像のように、人に焦点が合った画像を示すリフォーカス済み画像データを生成する。ここまでの流れが、図4のステップS430(NO)〜ステップS433を経由してステップS416までの処理フローに対応している。   Next, when it is desired to arbitrarily specify a refocus position different from that shown in FIG. 5C, for example, when a point 506 is clicked, refocus processing is performed under other conditions for the first time. The overall control unit 307 and the refocus calculation unit 303 perform refocus calculation corresponding to the round point 506 from the multi-viewpoint image data corresponding to this scene, and generate refocus image data again. In the case of FIG. 5C, refocused image data indicating an image focused on a person like the image shown in FIG. 5D is generated. The flow so far corresponds to the processing flow from step S430 (NO) to step S433 in FIG. 4 to step S416.

画像を視聴しているユーザーが、この画像を良いと感じた時に、図5(d)の画像上の505のUI操作ボタンをクリックする。全体制御部307は、UI操作ボタンをクリックを検知することで、この撮像シーンのユーザー評価値蓄積部305に蓄積されるユーザー評価値のポイントを1加算し、この画像データが保存される。そして、図5(e)の画面が表示され、UIボタンを非表示とする。本例では、同一の撮像シーンに対して、同一のユーザーIDでログインした人は、同一のリフォーカス済み画像及び異なる位置にフォーカスを合わせた別のリフォーカス画像に対しても、再度のUI操作による画像保存と評価ポイント加算は出来なくなる。ここまでの流れがステップS440(YES)〜ステップS443の処理フローに対応している。   When the user viewing the image feels that the image is good, the user clicks the UI operation button 505 on the image in FIG. The overall control unit 307 detects the click of the UI operation button, thereby adding 1 to the point of the user evaluation value accumulated in the user evaluation value accumulation unit 305 of this imaging scene, and this image data is stored. Then, the screen of FIG. 5E is displayed, and the UI button is hidden. In this example, a person who logs in with the same user ID for the same imaging scene also performs the UI operation again for the same refocused image and another refocus image focused on a different position. Image storage and evaluation points cannot be added. The flow up to this point corresponds to the processing flow from step S440 (YES) to step S443.

<不特定多数のユーザー操作によるリフォーカス済み画像データが、すでに存在している時の表示例>
図6は、不特定多数のユーザー操作によるリフォーカス済み画像データが、すでに存在している時の表示例である。まず、図6(a)の画面表示に係る内容は、図5(a)の説明と同一である。
<Display example when refocused image data by an unspecified number of user operations already exists>
FIG. 6 shows a display example when refocused image data by a large number of unspecified user operations already exists. First, the contents related to the screen display in FIG. 6A are the same as those in FIG. 5A.

次に、図6(b)表示として、複数の撮像シーン502,503,504の内容が一目でわかるように、サムネイル画像を表示する。ここでは、すでに推奨画像としてのリフォーカス済の画像データが存在するので、撮像シーン502のサムネイル画像の下に、601に示すように、「推奨画像有り」と表示する。次に、撮像シーン502の画像が見たい場合、撮像シーン502のサムネイル画像をクリック操作することで、図6(f)の画面に移行する。   Next, as a display of FIG. 6B, thumbnail images are displayed so that the contents of the plurality of imaging scenes 502, 503, and 504 can be seen at a glance. Here, since there is already refocused image data as a recommended image, “recommended image exists” is displayed below the thumbnail image of the imaging scene 502 as indicated by 601. Next, when the user wants to view the image of the imaging scene 502, the user clicks on the thumbnail image of the imaging scene 502 to shift to the screen shown in FIG.

本例では、以前にリフォーカス生成操作がなされユーザー評価値ポイントの蓄積結果による推奨画像の順位が決定されている。図6(f)では、その推奨画像の内、一番ユーザー評価値ポイントの多いリフォーカス済の画像データを読み出し、UI操作ボタン505を重畳して表示する。これは、図6の画面610に相当する。また、画面610の右横に表示しているサムネイル画像は、ポイントの多い順に並べて表示している。サムネイル画像507は、ポイント100でTOP画像の610と同一のリフォーカス済画像のサムネイル画像である。サムネイル画像602は、ポイント70で2番目に多いサムネイル画像である。サムネイル画像603は、ポイント30で3番名に多いサムネイル画像である。ここの流れが、ステップS411(YES)→ステップS412(YES)〜ステップS414(NO)〜ステップS416までの処理フローに対応している。   In this example, a refocus generation operation has been performed previously, and the order of recommended images based on the accumulation result of user evaluation value points is determined. In FIG. 6F, the refocused image data having the most user evaluation value points among the recommended images is read, and the UI operation button 505 is superimposed and displayed. This corresponds to the screen 610 in FIG. The thumbnail images displayed on the right side of the screen 610 are displayed side by side in descending order of points. The thumbnail image 507 is a thumbnail image of the refocused image that is the same as the TOP image 610 at the point 100. The thumbnail image 602 is the second most thumbnail image at the point 70. A thumbnail image 603 is a thumbnail image having the third largest number of points 30. This flow corresponds to the processing flow from step S411 (YES) to step S412 (YES) to step S414 (NO) to step S416.

ここで、視聴しているユーザーが2番目にポイントが多いサムネイル画像602を選択した場合を示したものが図6(g)である。また、視聴しているユーザーが図6(f)の画面を触ることによって、すでに評価値ポイントが有るリフォーカス済み画像ではない、新たなリフォーカス済み画像を表示している時の例は、図6(h)である。この画像に対して良い画像と感じ、UI操作ボタン505をUI操作ボタンをクリックすることで、新たな撮像シーンのポイントを1つ加算したユーザー評価値と、図6(i)に表している画像605とが保存される。そして図6(i)の画面が表示され、UIボタンを非表示とすると同時に保存した画像605のサムネイル画像604が追加表示される。この流れが、ステップS417(YES)〜ステップS430(YES)〜ステップS417(YES)〜ステップS443である。   Here, FIG. 6G shows a case where the viewing user selects the thumbnail image 602 with the second highest point. Also, an example in which a user who is viewing is displaying a new refocused image that is not a refocused image already having an evaluation value point by touching the screen of FIG. 6 (h). When the user feels that this image is good and clicks the UI operation button 505, the user evaluation value obtained by adding one point of a new imaging scene and the image shown in FIG. 6 (i) 605 is saved. Then, the screen of FIG. 6I is displayed, and the thumbnail button 604 of the saved image 605 is additionally displayed at the same time as the UI button is not displayed. This flow is from step S417 (YES) to step S430 (YES) to step S417 (YES) to step S443.

なお、一度、UI操作ボタン505をクリックされた画像は、同じ視聴者からは、再度UI操作ボタンがクリック出来ないようになる。但し、別のリフォーカス済画像を表示させ、まだUI操作ボタンをクリックされていない画像に対しても、良いと感じた画像であれば、UI操作ボタンの表示を重畳表示することができる。そして、UI操作ボタンにクリック操作をされた際に、別のリフォーカス済画像に対してもユーザー評価値のポイントを1加算するように動作することができる。   Note that once the UI operation button 505 is clicked, the same viewer cannot click the UI operation button again. However, if another refocused image is displayed and an image that has been felt good for an image for which the UI operation button has not yet been clicked, the display of the UI operation button can be displayed in a superimposed manner. When the UI operation button is clicked, the user evaluation value point can be added to another refocused image by one.

<画像管理者が推奨画像を表示する場合の例>
図1の表示端末C107のように、解像度があまり高くない表示端末から画像管理者が画像を見る際は、閲覧する為のIDコードを受信した直後からすぐに、対象の撮像シーンに対応した画像データを全画面表示する。全体制御部307は具体的には、不特定多数の閲覧者が良い画像と感じたユーザー評価値ポイントの一番多い画像を推奨画像として表示するよう画像データを送信する。これは図4のステップS403(YES)〜ステップS404(YES)〜ステップS407の処理フローである。例えば図11(j)の画像を全画面表示の画像データとしてデータ送信する。又、図11(k)に示す評価ポイントの2番目の画像、図11(l)に示す3番目の画像、図11(m)に示す4番目の画像を、これらの順番で表示端末側へ順次送信する。表示端末側では受信した順序で画像が表示される。
<Example when recommended image is displayed by image manager>
When the image manager views an image from a display terminal with a resolution that is not so high, such as the display terminal C107 in FIG. 1, an image corresponding to the target imaging scene immediately after receiving the ID code for viewing. Display data in full screen. Specifically, the overall control unit 307 transmits image data so as to display an image having the largest number of user evaluation value points that an unspecified number of viewers feel good as a recommended image. This is a processing flow from step S403 (YES) to step S404 (YES) to step S407 in FIG. For example, the image of FIG. 11 (j) is transmitted as image data for full screen display. Also, the second image of the evaluation points shown in FIG. 11 (k), the third image shown in FIG. 11 (l), and the fourth image shown in FIG. 11 (m) are displayed in this order to the display terminal side. Send sequentially. Images are displayed in the order received on the display terminal side.

表示形態として、図1のPC105やFULL_HD表示端末106等の高解像度の表示で閲覧する際は、図5や図6を使って説明したような推奨画像とサムネイル画像をユーザー評価値の順に同時に表示させることができる。なお、ユーザー評価値順に対応した推奨画像を表示させる方法については、この限りではない。   As a display form, when browsing with a high-resolution display such as the PC 105 or the FULL_HD display terminal 106 of FIG. 1, the recommended image and the thumbnail image described with reference to FIGS. 5 and 6 are simultaneously displayed in the order of the user evaluation values. Can be made. Note that the method for displaying the recommended images corresponding to the order of the user evaluation values is not limited to this.

次に、表示端末側の処理を説明する。図7は、表示端末側のブロックの一例を示す図である。全体制御部708が表示端末を制御する。全体制御部708は、ユーザーI/F706からの操作指示を受けると、ネットワークI/F711を介してクラウドサーバーに情報を送信する。また、ネットワークI/F711を介してクラウドサーバーからの画像データを受信する。全体制御部708はグラフィックプロセッサ704を介して受信した画像データをディスプレイ705に表示する。   Next, processing on the display terminal side will be described. FIG. 7 is a diagram illustrating an example of a block on the display terminal side. The overall control unit 708 controls the display terminal. Upon receiving an operation instruction from the user I / F 706, the overall control unit 708 transmits information to the cloud server via the network I / F 711. In addition, image data from the cloud server is received via the network I / F 711. The overall control unit 708 displays the image data received via the graphic processor 704 on the display 705.

図8は表示端末側のフローチャートの一例を示す図である。図8に示す処理は、例えばRAM702などに記憶されたプログラムを全体制御部708が実行することによって実現される。   FIG. 8 is a diagram showing an example of a flowchart on the display terminal side. The processing shown in FIG. 8 is realized by the overall control unit 708 executing a program stored in the RAM 702, for example.

ステップS801では、全体制御部708は再生モードに移行する。次に、ステップS802で全体制御部708は画像の再生要求と共にユーザーのIDコードをクラウドサーバーに送信する(第1の送信処理)。次に、全体制御部708はクラウドサーバーからサムネイル画像を示す画像データを受信する。   In step S801, the overall control unit 708 transitions to the playback mode. Next, in step S802, the overall control unit 708 transmits the user ID code to the cloud server together with the image reproduction request (first transmission process). Next, the overall control unit 708 receives image data indicating a thumbnail image from the cloud server.

ステップS804では、全体制御部708は、操作コマンドをクラウドサーバーに
送信する。この操作コマンドには、例えば撮像シーンを選択するコマンドや、任意のリフォーカス済の画像データを選択するコマンドなどが含まれる。
In step S804, the overall control unit 708 transmits an operation command to the cloud server. This operation command includes, for example, a command for selecting an imaging scene and a command for selecting arbitrary refocused image data.

ステップS805では、全体制御部708はリフォーカス済の画像データを受信し、ディスプレイに表示する。ステップS806では、全体制御部708はユーザーからユーザーI/F706を介したリフォーカス位置の変更指示が入力されたかを判定する。リフォーカス位置の変更指示が入力されたと判定した場合には、その変更指示をクラウドサーバーに送信し、ステップS805に戻る。リフォーカス位置の変更指示が入力されないと判定した場合、ステップS807に進む。   In step S805, the overall control unit 708 receives the refocused image data and displays it on the display. In step S806, the overall control unit 708 determines whether a refocus position change instruction is input from the user via the user I / F 706. If it is determined that a refocus position change instruction has been input, the change instruction is transmitted to the cloud server, and the process returns to step S805. If it is determined that no refocus position change instruction is input, the process advances to step S807.

ステップS808では、全体制御部708はユーザーからユーザーI/F706を介したUIボタン操作があったかを判定する。すなわち、ユーザーがステップS805で受信したリフォーカス済の画像データに対する評価に関する操作入力があったかを判定する。UIボタン操作があった場合、当該操作指示をクラウドサーバーに送信する(第2の送信処理)。そして、ステップS808でUIロック済の画像データを受信する。UIボタン操作がなかった場合、ステップS808はスキップする。   In step S808, the overall control unit 708 determines whether the user has operated a UI button via the user I / F 706. That is, it is determined whether or not there has been an operation input related to evaluation on the refocused image data received by the user in step S805. When there is a UI button operation, the operation instruction is transmitted to the cloud server (second transmission process). In step S808, the UI-locked image data is received. If there is no UI button operation, step S808 is skipped.

ステップS809では、全体制御部708は再生モードでの視聴が終了したかを判定する。終了していない場合、ステップS804に戻って処理が行われる。   In step S809, the overall control unit 708 determines whether viewing in the playback mode has ended. If not completed, the process returns to step S804 to perform the process.

以上、述べた様な構成により、本実施例においては表示機器内に特別な機能を設けることなく、世の中の写真好きな人の意見を取り入れた、その撮像シーンに適したリフォーカス済み画像データを生成することが可能となる。このため、不必要なリフォーカス演算処理を省略することができ、ユーザーの利便性を高める効果がある。   With the configuration as described above, in this embodiment, refocused image data suitable for the imaging scene, which incorporates the opinions of people who like photography, is provided without any special function in the display device. Can be generated. For this reason, unnecessary refocusing calculation processing can be omitted, and there is an effect of improving user convenience.

また、他人の意見を取り入れた画像を視聴することができるため、撮像者の意図とは異なる予想外の画像データを得ることも可能となる。   In addition, since an image incorporating the opinions of others can be viewed, it is possible to obtain unexpected image data that is different from the photographer's intention.

なお、本実施例ではリフォーカス処理を例に挙げて説明したが、画像処理は、リフォーカスに限定されない。例えば、選択した領域にハイパスフィルタを施すための、領域選択処理に用いていてもよい。   In this embodiment, the refocus process is described as an example, but the image process is not limited to the refocus. For example, you may use for the area | region selection process for applying a high-pass filter to the selected area | region.

また、本例では評価値を加算する例のみについて説明したが、リフォーカス済の画像データが悪い画像であるとユーザーが判断した場合には、評価値を減らすことができるように構成してもよい。すなわち、図5で「GOOD」と記載している図形に「BAD」という図形を併記し、「BAD」が選択された場合には評価値を減らしてもよい。このように、評価値を更新する処理を採用してもよい。   In this example, only the example of adding the evaluation value has been described. However, when the user determines that the refocused image data is a bad image, the evaluation value may be reduced. Good. That is, the graphic “BAD” may be written together with the graphic “GOOD” in FIG. 5, and the evaluation value may be reduced when “BAD” is selected. In this way, a process for updating the evaluation value may be employed.

また、本実施例ではクラウドサーバーを単体の装置として扱ったが、クラウドサーバーで行われる各処理が複数のサーバーで分散処理される構成であってもよい。   Further, in this embodiment, the cloud server is handled as a single device, but each process performed in the cloud server may be distributedly processed by a plurality of servers.

実施例1では、不特定多数の視聴者から良い画像と感じた時の画像に対する評価値が同一の値で構成されていた。実施例2では、特定の視聴者に対しては、評価値の重み付けを変更することで、気に入った視聴者に対しては、評価値を高く設定するように構成する例を説明する。逆にあまり気に入らない視聴者に対しては、評価値を低く設定するように構成することができる。   In the first embodiment, the evaluation value for the image when it is felt as a good image by an unspecified number of viewers is configured with the same value. In the second embodiment, an example will be described in which the evaluation value weighting is changed for a specific viewer, and the evaluation value is set higher for a favorite viewer. Conversely, for viewers who do not like it very much, the evaluation value can be set low.

本実施例の処理について、図9のフローチャートにて以下に、説明する。図9は、図4のフローチャートに対して、ステップS901とステップS902を追加したのみで、他のステップの処理内容については、実施例1にて説明した内容と同様である。   The processing of this embodiment will be described below with reference to the flowchart of FIG. FIG. 9 is the same as the contents described in the first embodiment with respect to the processing contents of the other steps except that steps S901 and S902 are added to the flowchart of FIG.

ステップS901では、全体制御部307は、ステップS401で再生画像を要求しているユーザーが特定ユーザーであるか否かをステップS402で入力されたIDコードから判定する。ステップS402で特定IDコードでログインされたと判定された場合は、ステップS902へ進む。特定IDコードではないと判定された場合は、ステップS441へ進む。   In step S901, the overall control unit 307 determines from the ID code input in step S402 whether or not the user requesting the reproduction image in step S401 is a specific user. If it is determined in step S402 that the user has logged in with the specific ID code, the process proceeds to step S902. If it is determined that it is not the specific ID code, the process proceeds to step S441.

ステップS902では、図3の全体制御部307が、ユーザー評価値蓄積部305を制御することで、ステップS402で入力されたIDコードに対応した評価値の重み付けを変更可能し、評価値を決定する。例えば、1クリックあたりのポイントが、
ユーザーA:200ポイント
ユーザーB:100ポイント
ユーザーC:0.5ポイント
不特定多数一般ユーザー:1ポイント
と設定することができる。
In step S902, the overall control unit 307 in FIG. 3 controls the user evaluation value storage unit 305, thereby changing the weighting of the evaluation value corresponding to the ID code input in step S402 and determining the evaluation value. . For example, the point per click is
User A: 200 points User B: 100 points User C: 0.5 points Unspecified number of general users: 1 point can be set.

<不特定多数のユーザー操作によるリフォーカス画像が、すでに存在している時の表示例>
次に、図10を用いて特定のユーザーに対して評価値の重み付けを変更した場合の表示例を説明する。まず、図10(a)の画面表示に係る内容は、図5(a)の説明と同一である。次に、図10(b)表示として、複数の撮像シーン502,503,504のの内容が一目でわかるように、サムネイル画像を表示する。ここでは、すでに推奨画像としてのリフォーカス生成画像が存在するので、サムネイル画像502の下に601に示すように、「推奨画像有り」と表示する。次に、502の画像が見たい場合、サムネイル画像502をクリック操作することで、図10(f)の画面に移行する。
<Display example when a refocus image by an unspecified number of user operations already exists>
Next, a display example when the weighting of the evaluation value is changed for a specific user will be described with reference to FIG. First, the contents relating to the screen display of FIG. 10A are the same as the description of FIG. Next, as the display of FIG. 10B, thumbnail images are displayed so that the contents of the plurality of imaging scenes 502, 503, and 504 can be seen at a glance. Here, since a refocus generation image as a recommended image already exists, “recommended image exists” is displayed below the thumbnail image 502 as indicated by 601. Next, when the user wants to view the image 502, clicking the thumbnail image 502 shifts to the screen shown in FIG.

図10(f)の画面は、以前にリフォーカス生成操作がなされユーザー評価値ポイントの蓄積結果による推奨画像の順位が決定され、決定された順位に従った表示がされている。すなわち、ユーザー評価値ポイントの多い順位が一番のリフォーカス画像を読み出し、UI操作ボタン505を重畳し表示する。その右横に表示しているサムネイル画像は、ポイントの多い順に並べて表示している。サムネイル画像507は、ポイント100でTOP画像のサムネイル画像である。サムネイル画像602は、ポイント70で2番目に多いサムネイル画像である。サムネイル画像603は、ポイント30で3番目に多いサムネイル画像である。ここの流れが、ステップS411(YES)→ステップS412(YES)〜ステップS416までの処理フローに対応している。   In the screen of FIG. 10F, the refocus generation operation has been performed previously, the order of the recommended images based on the accumulation result of the user evaluation value points is determined, and the display according to the determined order is displayed. That is, the refocus image with the highest ranking of user evaluation value points is read and the UI operation button 505 is superimposed and displayed. The thumbnail images displayed on the right side are displayed side by side in descending order of points. A thumbnail image 507 is a thumbnail image of the TOP image at point 100. The thumbnail image 602 is the second most thumbnail image at the point 70. The thumbnail image 603 is the third most thumbnail image at the point 30. This flow corresponds to the processing flow from step S411 (YES) to step S412 (YES) to step S416.

ここで、特定視聴者で視聴しているユーザーAが図10(f)の領域1001の丸を表示している画面を触った時、すでに評価値ポイントが有るリフォーカス画像ではない、新たなリフォーカス画像を表示している時の例は、図10(n)である。この画像に対して良い画像と感じ、UI操作ボタン505をクリックされた時は、新たな撮像シーンのユーザー評価値のポイントを200加算し、図10(i)に表している画像1003が保存される。   Here, when the user A who is viewing as a specific viewer touches the screen displaying the circle in the area 1001 in FIG. 10F, it is not a refocus image that already has an evaluation value point, but a new refocus image. An example when the focus image is displayed is shown in FIG. When the user feels that this image is good and the user clicks the UI operation button 505, the user evaluation value point of the new imaging scene is added by 200, and the image 1003 shown in FIG. 10 (i) is saved. The

次に、図10(i)の画面が表示され、UIボタンを非表示とすると同時に1002のサムネイル画像が一番先頭に追加表示される。   Next, the screen of FIG. 10I is displayed, and the UI button is not displayed, and at the same time, a thumbnail image of 1002 is additionally displayed at the top.

同様にユーザーBからの操作時は、ポイントを100加算し、ユーザーCからの操作の時は、ポイントを0.5加算する。ポイント加算した結果の評価値の内、ポイントの高い順にサムネイル画像を並べて表示する。   Similarly, 100 points are added when an operation is performed from the user B, and 0.5 points are added when an operation is performed from the user C. Thumbnail images are arranged and displayed in descending order of the evaluation values obtained as a result of the point addition.

<画像管理者が推奨画像を表示する場合の例>
画像管理者が画像を見る際は、閲覧する為のIDコードを受信した直後からすぐに、対象の撮像シーンに対応した画像を全画面表示する。表示させる画像は、先に説明したように、不特定多数の閲覧者が良い画像と感じたユーザー評価値ポイントの一番多い画像を推奨画像として即表示するよう画像データを送信する。
<Example when recommended image is displayed by image manager>
When the image manager views the image, the image corresponding to the target imaging scene is displayed in full screen immediately after receiving the ID code for viewing. As described above, the image data to be displayed is transmitted so that an image having the largest number of user evaluation value points that an unspecified number of viewers feel good is immediately displayed as a recommended image.

本実施例では、図11(m)が1番目の推奨画像となり、全画面表示としてデータ送信する。又、評価ポイントの2番目の画像が図11(j)、3番目の画像が図11(k)、4番目の画像が図11(l)の順番に対応して画像を表示端末側へ送信する。   In this embodiment, FIG. 11 (m) is the first recommended image, and data is transmitted as a full screen display. In addition, the second image of the evaluation points corresponds to the order of FIG. 11 (j), the third image is FIG. 11 (k), and the fourth image is FIG. 11 (l). To do.

以上、述べた様な構成により、表示機器内に特別な機能を必要とせず、特定の視聴者(例えばプロカメラマン等)の意見を最重要として取り入れた、そのシーンに最適な画像を生成することが可能となる為、簡易な構成でユーザーの利便性を高める効果がある。   With the configuration as described above, no special function is required in the display device, and the most suitable image for the scene that incorporates the opinions of a specific viewer (such as a professional photographer) is most important. Therefore, there is an effect of improving user convenience with a simple configuration.

実施例3は、画像管理者が画像再生要求をした場合に、送信先の端末の解像度情報を取得し、送信先の解像度に適合するように解像度変換を行う例を説明する。   In the third embodiment, when an image manager makes an image reproduction request, an example in which resolution information of a transmission destination terminal is acquired and resolution conversion is performed so as to match the transmission destination resolution will be described.

図12は、実施例3のクラウドサーバー装置のシステムフローチャートである。図12は、実施例2で説明した図9のシステムフローチャートに対して、ステップS1201とステップS1202とを追加したのみである。他のステップの処理内容については、特記事項が無い限り、実施例1及び、実施例2にて説明した内容と同様とすることができる。   FIG. 12 is a system flowchart of the cloud server device according to the third embodiment. FIG. 12 only adds step S1201 and step S1202 to the system flowchart of FIG. 9 described in the second embodiment. The processing contents of the other steps can be the same as the contents described in the first embodiment and the second embodiment unless there is a special note.

ステップS1201では、図1の各表示端末105、106、107からのアクセスにより、表示端末から要求された解像度情報を取得する。表示端末A105からのアクセスの場合は、WXGAサイズ(1280×800)である。表示端末B106からのアクセスの場合は、FULL_HDサイズ(1920×1080)である。表示端末C107からのアクセスの場合は、WVGAサイズ(854×480)である。これらの解像度情報は、予めクラウドサーバーのデータ記憶部302に記憶されているものとする。   In step S1201, the resolution information requested from the display terminal is acquired by access from each of the display terminals 105, 106, and 107 in FIG. In the case of access from the display terminal A105, the size is WXGA (1280 × 800). In the case of access from the display terminal B106, the size is FULL_HD size (1920 × 1080). In the case of access from the display terminal C107, the size is WVGA (854 × 480). It is assumed that these pieces of resolution information are stored in advance in the data storage unit 302 of the cloud server.

ステップS1202では、ステップS1201で取得した解像度情報に合わせて、図3の解像度変換部306にて、推奨画像データを解像度変換する。図12のステップS407では、ステップS1202にて解像度変換後の推奨画像データを送信する。   In step S1202, the resolution conversion unit 306 in FIG. 3 converts the resolution of the recommended image data in accordance with the resolution information acquired in step S1201. In step S407 in FIG. 12, the recommended image data after resolution conversion in step S1202 is transmitted.

以上、述べた様な構成により、画像管理者が、どの表示端末からそのシーンに最適な推奨画像を閲覧表示させても、表示機器内に特別な機能を必要とせず、簡易な構成でユーザーの利便性を高める効果がある。   With the configuration as described above, the image manager can browse and display the recommended image most suitable for the scene from any display terminal, and no special function is required in the display device. There is an effect of improving convenience.

<その他の実施例>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other examples>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (12)

ユーザー評価値が付与された、複数の視点位置から撮像された多視点画像データから生成され所定の領域に合焦している合成画像データを取得する取得手段と、
前記取得した合成画像データを送信する送信手段と
を備えることを特徴とする画像配信装置。
Acquisition means for acquiring composite image data generated from multi-viewpoint image data captured from a plurality of viewpoint positions, to which user evaluation values are assigned, and focused on a predetermined area;
An image distribution apparatus comprising: transmission means for transmitting the acquired composite image data.
前記送信した合成画像データに対する前記ユーザー評価値の更新要求を受信する受信手段と、
前記送信した合成画像データに関連付けて記憶されているユーザー評価値を前記更新要求に応じて更新する更新手段と
をさらに備えることを特徴とする請求項1に記載の画像配信装置。
Receiving means for receiving an update request for the user evaluation value for the transmitted composite image data;
The image distribution apparatus according to claim 1, further comprising an update unit that updates a user evaluation value stored in association with the transmitted composite image data in response to the update request.
前記更新手段は、前記更新要求をしたユーザーに応じて更新する値を変更することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the update unit changes a value to be updated according to a user who has made the update request. 前記送信手段は、前記更新手段による更新があった場合、当該合成画像データに対する再度の更新を禁止したロック画像データを前記更新要求の要求元に送信することを特徴とする請求項2または3に記載の画像配信装置。   4. The transmission device according to claim 2, wherein, when there is an update by the update device, the transmission device transmits lock image data in which renewal of the composite image data is prohibited to the request source of the update request. 5. The image delivery apparatus described. 前記送信した合成画像データの任意の領域が指定された場合、当該指定された領域に合焦している合成画像データが記憶されているか判定する判定手段と、
前記判定手段で合成画像データが記憶されていると判定された場合、該記憶されている合成画像データを前記送信手段で送信させ、
前記判定手段で合成画像データが記憶されていないと判定された場合、該指定された領域に合焦している合成画像データを生成させて前記送信手段に送信させる、制御手段と
をさらに備えることを特徴とする請求項1から4のいずれかに記載の画像配信装置。
When an arbitrary area of the transmitted composite image data is designated, a determination unit that determines whether composite image data focused on the designated area is stored;
When it is determined that the composite image data is stored by the determination means, the stored composite image data is transmitted by the transmission means,
And a control unit that generates composite image data focused on the designated area and transmits the composite image data to the transmission unit when the determination unit determines that the composite image data is not stored. The image distribution apparatus according to claim 1, wherein:
前記取得手段で同じ撮像シーンに関連付けられた複数の合成画像データを取得した場合、前記送信手段は、高いユーザー評価値が付与された合成画像データから順次送信することを特徴とする請求項1から5のいずれかに記載の画像配信装置。   The transmission unit sequentially transmits the composite image data to which a high user evaluation value is given when a plurality of composite image data associated with the same imaging scene is acquired by the acquisition unit. 6. The image delivery apparatus according to any one of 5 above. 送信先の解像度に適合するように前記合成画像データを変換する変換手段をさらに備え、
前記送信手段は、前記変換後の合成画像データを送信することを特徴とする請求項1から6のいずれかに記載の画像配信装置。
Further comprising conversion means for converting the composite image data so as to conform to the resolution of the transmission destination;
The image delivery apparatus according to claim 1, wherein the transmission unit transmits the converted composite image data.
画像データの再生要求を送信する第1の送信手段と、
前記再生要求に応じて、複数の視点位置から撮像された多視点画像データから生成され所定の領域に合焦している合成画像データを受信する受信手段と、
前記受信した合成画像データにユーザー評価値を付与する要求を送信する第2の送信手段と
を備えることを特徴とする画像表示装置。
First transmission means for transmitting a reproduction request for image data;
Receiving means for receiving composite image data generated from multi-viewpoint image data captured from a plurality of viewpoint positions and focused on a predetermined area in response to the reproduction request;
An image display apparatus comprising: a second transmission unit configured to transmit a request for assigning a user evaluation value to the received composite image data.
ユーザー評価値が付与された、複数の視点位置から撮像された多視点画像データから生成され所定の領域に合焦している合成画像データを取得する取得ステップと、
前記取得した合成画像データを送信する送信ステップと
を備えることを特徴とする画像配信方法。
An acquisition step of acquiring composite image data generated from multi-viewpoint image data captured from a plurality of viewpoint positions, to which user evaluation values are assigned, and focused on a predetermined area;
And a transmitting step of transmitting the acquired composite image data.
画像データの再生要求を送信する第1の送信ステップと、
前記再生要求に応じて、複数の視点位置から撮像された多視点画像データから生成され所定の領域に合焦している合成画像データを受信する受信ステップと、
前記受信した合成画像データにユーザー評価値を付与する要求を送信する第2の送信ステップと
を備えることを特徴とする画像表示方法。
A first transmission step of transmitting a reproduction request for image data;
In response to the reproduction request, a reception step of receiving composite image data generated from multi-viewpoint image data captured from a plurality of viewpoint positions and focused on a predetermined area;
A second transmission step of transmitting a request for assigning a user evaluation value to the received composite image data.
コンピュータを請求項1から7のいずれかに記載の画像配信装置として機能させるためのプログラム。   The program for functioning a computer as an image delivery apparatus in any one of Claim 1 to 7. コンピュータを請求項8に記載の画像表示装置として機能させるためのプログラム。   A program for causing a computer to function as the image display device according to claim 8.
JP2012130863A 2012-06-08 2012-06-08 Image distribution apparatus and image display apparatus Pending JP2013255171A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012130863A JP2013255171A (en) 2012-06-08 2012-06-08 Image distribution apparatus and image display apparatus
US13/908,101 US20130329068A1 (en) 2012-06-08 2013-06-03 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012130863A JP2013255171A (en) 2012-06-08 2012-06-08 Image distribution apparatus and image display apparatus

Publications (1)

Publication Number Publication Date
JP2013255171A true JP2013255171A (en) 2013-12-19

Family

ID=49952325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012130863A Pending JP2013255171A (en) 2012-06-08 2012-06-08 Image distribution apparatus and image display apparatus

Country Status (1)

Country Link
JP (1) JP2013255171A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016522949A (en) * 2014-04-29 2016-08-04 小米科技有限責任公司Xiaomi Inc. PHOTO SYNCHRONIZATION METHOD, DEVICE, PROGRAM, AND RECORDING MEDIUM
JP2018018137A (en) * 2016-07-25 2018-02-01 富士フイルム株式会社 Image processor, image processing method, program and recording medium
JP2019053738A (en) * 2018-10-10 2019-04-04 キヤノン株式会社 Image processing apparatus, image processing system, image processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016522949A (en) * 2014-04-29 2016-08-04 小米科技有限責任公司Xiaomi Inc. PHOTO SYNCHRONIZATION METHOD, DEVICE, PROGRAM, AND RECORDING MEDIUM
JP2018018137A (en) * 2016-07-25 2018-02-01 富士フイルム株式会社 Image processor, image processing method, program and recording medium
JP2019053738A (en) * 2018-10-10 2019-04-04 キヤノン株式会社 Image processing apparatus, image processing system, image processing method, and program

Similar Documents

Publication Publication Date Title
JP6805861B2 (en) Image processing equipment, image processing system, image processing method and program
US20210099669A1 (en) Image capturing apparatus, communication system, data distribution method, and non-transitory recording medium
CN113064684B (en) Virtual reality equipment and VR scene screen capturing method
US11743590B2 (en) Communication terminal, image communication system, and method for displaying image
US20220070412A1 (en) Communication terminal, image communication system, method of displaying image, and recording medium
US10382728B2 (en) External device control method, imaging device control method, imaging system control method, external device, imaging device, and imaging system
JP7469884B2 (en) Image processing device, control method thereof, program, and storage medium
JP6729680B2 (en) Service providing system, service transfer system, service providing method, and program
JP2013255171A (en) Image distribution apparatus and image display apparatus
CN100438577C (en) Camera system
CN107295247B (en) Image recording apparatus and control method thereof
US20190028558A1 (en) Service providing system, service delivery system, service providing method, and non-transitory recording medium
CN109074327B (en) Service providing system, service delivery system, service providing method, and program
JP2023140922A (en) Display terminal, information processing system, communication system, display method, information processing method, communication method, and program
JP2023121636A (en) Information processing system, communication system, image sharing method, and program
JP2012222618A (en) Display control apparatus and display control method
CN108885653B (en) Service providing system, service delivery system, service providing method, and program
JP6735566B2 (en) Image management apparatus, image reproduction apparatus and control method thereof, program, and storage medium
US20230308622A1 (en) Display terminal, displaying method, and recording medium
JP7472556B2 (en) Imaging device, communication system, and content transmission method
US20230326001A1 (en) Display terminal, display method, and recording medium
JP7130976B2 (en) Display information creation device, imaging system and program
JP2021132254A (en) Control device, and control method and program thereof
JP2023184430A (en) Display terminal, communication system, display method, communication method, and program
CN114283055A (en) Virtual reality equipment and picture display method