WO2023190193A1 - 表示制御装置、画像ファイル管理装置、表示制御方法、及び表示制御プログラム - Google Patents

表示制御装置、画像ファイル管理装置、表示制御方法、及び表示制御プログラム Download PDF

Info

Publication number
WO2023190193A1
WO2023190193A1 PCT/JP2023/011896 JP2023011896W WO2023190193A1 WO 2023190193 A1 WO2023190193 A1 WO 2023190193A1 JP 2023011896 W JP2023011896 W JP 2023011896W WO 2023190193 A1 WO2023190193 A1 WO 2023190193A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
display control
control device
processor
image
Prior art date
Application number
PCT/JP2023/011896
Other languages
English (en)
French (fr)
Inventor
雄大 阿部
哲郎 芦田
智大 島田
森人 二関
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2023190193A1 publication Critical patent/WO2023190193A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • Patent Document 1 discloses an imaging device that is movably installed, and includes an input unit that receives input of user information for identifying a user who performs imaging using the imaging device, and an input unit that receives image data acquired by imaging.
  • an image capturing device including an image capturing device communication means that associates with user information and transmits it to the outside; an image server that stores image data acquired by the image capturing device in association with the user information of the user who captured the image;
  • An imaging system is described that includes a communication device that receives the image data from the imaging device and transmits the image data to the image server.
  • a display control program acquires a plurality of image data, acquires area information that is information of an area related to the image data, and obtains a set of the image data to which the same area information corresponds. Selecting first image data from the image data group based on a first criterion, and displaying at least one image data of the image data group as second image data on a display based on the first image data. This causes the processor to execute the control steps.
  • FIG. 2 is a schematic diagram showing an example of the acquired image file group 50.
  • the rectangles included in the acquired image file group 50 indicate image data 51 included in each image file of the acquired image file group 50.
  • the processor 43 detects a feature point such as a pattern, character, or object representing the characteristics of the area AR1 from one image data 51 shown in FIG. It is determined that the area is the area AR1, and the image data 51 is associated with area information that specifies the area AR1.
  • the processor 43 detects a feature point representing the feature of the area AR2 from the image data 51, the processor 43 determines that the area where the image data 51 was captured is the area AR2, and , and area information specifying area AR2.
  • the processor 43 detects a feature point representing the characteristics of the area AR3 from the image data 51, the processor 43 determines that the area where the image data 51 was captured is the area AR3, and , and area information specifying area AR3. The processor 43 performs such association processing on all image data 51 included in the acquired image file group 50.
  • the area information related to the image data 51 can also be acquired by a method other than analyzing the image data 51. For example, if area information is included in the attached information of the image file, the processor 43 may acquire the area information from the image file and determine in which area the image data 51 was captured. . Note that in this case, since the image data and area information have already been correlated, the mapping process is not necessary. Further, if the attached information of the image file includes location information, the processor 43 determines the area where the image data 51 was captured based on this location information, and provides area information that specifies the determined area. may be associated with the image data 51. Alternatively, the area information may be acquired by analyzing the image data 51 only for image files whose attached information does not include area information and position information.
  • area information cannot be acquired by either method, for example, additional information indicating that area information is unknown may be added to the image file so that it can be distinguished from a group of image files for which area information has been acquired.
  • additional information indicating that area information is unknown may be added to the image file so that it can be distinguished from a group of image files for which area information has been acquired.
  • input of area information may be accepted from the user.
  • the acquired image file group 50A is generated by associating area information with each image data 51 of the acquired image file group 50 shown in FIG. 2.
  • FIG. 3 is a schematic diagram showing an example of classifying the acquired image file group 50A.
  • the acquired image file group 50A corresponds to the image file group g1, which is a set of image files including image data 51 to which area information specifying area AR1 corresponds, and area information specifying area AR2.
  • the image files are classified into an image file group g2, which is a set of image files including image data 51, and an image file group g3, which is a set of image files including image data 51 to which area information specifying area AR3 corresponds.
  • the processor 43 executes a selection process of selecting image data (hereinafter also referred to as third image data) based on a second criterion from the image data included in each image file group obtained by the classification process. Specifically, the processor 43 selects the image data 51 that satisfies the second criterion as the third image data from among the image data 51 of the image file group g1 shown in FIG. Obtain group G1. Further, the processor 43 selects the image data 51 that satisfies the second criterion as the third image data from among the image data 51 of the image file group g2 shown in FIG. obtain. Further, the processor 43 selects the image data 51 that satisfies the second criterion as the third image data among the image data 51 of the image file group g3 shown in FIG. obtain.
  • FIG. 4 is a diagram showing an example of image file groups G1, G2, and G3 generated by the selection process. Among the image data included in the acquired image file group 50A shown in FIG. ing.
  • the processor 43 selects an image file including the image data 51 that satisfies the second criterion from the acquired image file group 50, and classifies the selected plurality of image files based on the area information, as shown in FIG. Image file groups G1, G2, and G3 may be generated.
  • the "control for displaying image data on the display 44" performed by the processor 43 also includes control for displaying image data on the display 44 via a relay device.
  • control to output the image data to the relay device is also included in the “control to display image data on the display 44” performed by the processor 43.
  • the processor 43 converts the image data of the image file group corresponding to the selected area image into Control is performed to display in the first area 44A.
  • FIG. 5 shows an example in which two area images can be selected at the same time. Then, the image data of the image file group corresponding to the selected one area image is displayed in the first area 44A, and the image data of the image file group corresponding to the other selected area image is displayed in the second area 44B. Control the display.
  • the processor 43 selects at least one image data from the image file group G1 based on the imaging time of the image data G1c. For example, among the image data of the image file group G1, the processor 43 selects image data G1e, which is image data captured at a first time before the imaging time of the image data G1c, and image data G1e, which is image data captured at a first time before the imaging time of the image data G1c, and Image data G1f, which is image data captured at the second time, is selected as the second image data.
  • the processor 43 may select only one of the image data G1e and the image data G1f as the second image data.
  • some of the processing executed by the processor 43 may be executed by the processor of the image storage server 3.
  • the processor of the image storage server 3 may perform at least one of the selection process and the classification process.
  • the processor of the image storage server 3 and the processor 43 constitute a processor of the display control device or the image file management device.
  • the display control device selects third image data (each image data 51 in FIG. 4) from the plurality of image data based on a second criterion,
  • the image data group is a set of the third image data (image file group G1) to which the same area information corresponds.
  • the display control device includes video data (video data MV),
  • the processor selects third image data (each image data 51 in FIG. 4) from the plurality of image data based on a second criterion,
  • the image data group is a set of the third image data (image file group G1) to which the same area information corresponds, Furthermore, the processor When the third image data (image data MV1 in the example of FIG. 9) constituting the video data is selected as the first image data, the image data included in the video data (image data MV1 in the example of FIG. 9) is selected as the first image data.
  • MV3, MV6) as the second image data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

新規な表示制御装置、画像ファイル管理装置、表示制御方法、及び表示制御プログラムを提供する。 プロセッサは、複数の画像データを取得し、上記画像データに関連するエリアの情報であるエリア情報を取得し、同じ上記エリア情報が対応する上記画像データの集合である画像ファイル群G1から、第1基準に基づいて第1画像データ(G1c)を選択し、上記第1画像データに基づいて、上記画像データ群のうちの少なくとも1つの画像データ(G1e、G1f)を第2画像データとしてディスプレイ(44)に表示する制御を行う。

Description

表示制御装置、画像ファイル管理装置、表示制御方法、及び表示制御プログラム
 本発明は、表示制御装置、画像ファイル管理装置、表示制御方法、及び表示制御プログラムに関する。
 特許文献1には、移動可能に設置される撮像装置であって、上記撮像装置を用いて撮像を行うユーザを特定するユーザ情報の入力を受け付ける入力手段と、撮像により取得された画像データを上記ユーザ情報と関連付けて外部に送信する撮像装置通信手段とを備えた撮像装置と、上記撮像装置により取得された画像データを、撮像を行ったユーザの上記ユーザ情報と関連付けて保管する画像サーバと、上記撮像装置から上記画像データを受信するとともに、上記画像データを上記画像サーバに送信する通信装置と、を備える撮像システムが記載されている。
 特許文献2には、自分撮りシステムが記載されている。このシステムでは、ネットワークカメラが画像情報を送信し、ビーコンがビーコン情報を送信し、携帯端末がビーコン情報を受信し、ビーコン情報の受信状況に基づき、そのビーコン情報に対応するトラッキングデータを生成し、生成されたトラッキングデータを送信し、サーバが、ネットワークカメラより送信された画像情報及び携帯端末より送信されたトラッキングデータを受信し、その画像情報及びトラッキングデータに基づき、その画像情報の画像から被写体の出入の日時に関連する部分の画像を特定している。
 特許文献3には、被写体を撮像する撮像部と、撮像が行われた撮像場所に関する撮像場所情報を取得する撮像場所情報取得部と、撮像部が撮像した画像と、撮像場所情報取得部が取得した撮像場所情報とを対応付けて格納するデータ格納部と、ユーザから地域の指定を受け付ける地域受付部と、データ格納部に格納されている撮像場所情報を参照して、地域受付部が受け付けた地域内で撮像された画像をデータ格納部から読み出して出力する地域内画像出力部とを備える撮像装置が記載されている。
日本国特開2004-289436号公報 日本国特開2019-114952号公報 日本国特開2002-281418号公報
 本発明の目的は、新規な表示制御装置、画像ファイル管理装置、表示制御方法、及び表示制御プログラムを提供することにある。
 本発明の一態様の表示制御装置は、プロセッサと、メモリと、を備え、上記プロセッサは、複数の画像データを取得し、上記画像データに関連するエリアの情報であるエリア情報を取得し、同じ上記エリア情報が対応する上記画像データの集合である画像データ群から、第1基準に基づいて第1画像データを選択し、上記第1画像データに基づいて、上記画像データ群のうちの少なくとも1つの画像データを第2画像データとしてディスプレイに表示する制御を行うものである。
 本発明の一態様の表示制御装置は、プロセッサと、メモリと、を備え、上記プロセッサは、複数の画像データを取得し、上記複数の画像データのうちの第1画像データをディスプレイに表示する制御を行い、上記第1画像データに含まれる被写体の状態に基づいて、上記複数の画像データから少なくとも1つの画像データを第2画像データとして上記ディスプレイに表示する制御を行うものである。
 本発明の一態様の画像ファイル管理装置は、プロセッサと、メモリと、を備え、上記プロセッサは、複数の画像ファイルを取得し、上記画像ファイルに関連するエリアの情報であるエリア情報を取得し、複数の上記画像ファイルを上記エリア情報に基づいて分類する制御を行うものである。
 本発明の一態様の表示制御方法は、複数の画像データを取得し、上記画像データに関連するエリアの情報であるエリア情報を取得し、同じ上記エリア情報が対応する上記画像データの集合である画像データ群から、第1基準に基づいて第1画像データを選択し、上記第1画像データに基づいて、上記画像データ群のうちの少なくとも1つの画像データを第2画像データとしてディスプレイに表示する制御を行うものである。
 本発明の一態様の表示制御プログラムは、複数の画像データを取得し、上記画像データに関連するエリアの情報であるエリア情報を取得し、同じ上記エリア情報が対応する上記画像データの集合である画像データ群から、第1基準に基づいて第1画像データを選択し、上記第1画像データに基づいて、上記画像データ群のうちの少なくとも1つの画像データを第2画像データとしてディスプレイに表示する制御を行うステップを、プロセッサに実行させるものである。
 本発明によれば、表示制御装置、画像ファイル管理装置、表示制御方法、及び表示制御プログラムを提供することができる。
本発明の表示制御装置又は画像ファイル管理装置の一実施形態である表示制御装置40を含む画像管理システム100の概略構成を示す図である。 取得画像ファイル群50の一例を示す模式図である。 取得画像ファイル群50を分類した例を示す模式図である。 選択処理によって生成された画像ファイル群G1、G2、G3の例を示す図である。 ディスプレイ44の表示領域44Rを模式的に示す図である。 ディスプレイ44の表示例を示す模式図である。 ディスプレイ44の表示例を示す模式図である。 選択処理によって生成された画像ファイル群G1、G2、G3の変形例を示す図である。 ディスプレイ44の表示例を示す模式図である。
 図1は、本発明の表示制御装置又は画像ファイル管理装置の一実施形態である表示制御装置40を含む画像管理システム100の概略構成を示す図である。画像管理システム100は、1つ又は複数の撮像装置1(図1の例では、撮像装置1a、撮像装置1b、及び撮像装置1cの3つ)と、インターネット又はLAN(Local Area Network)等のネットワーク2と、画像保管サーバ3と、画像閲覧装置4と、を備える。撮像装置1は、例えば、遊戯施設、テーマパーク、結婚式場等のイベント会場、又はスタジオ等の施設に配置される。3つの撮像装置1は、施設における異なる位置に配置され、その施設を利用するユーザ等を異なる方向から撮像するように構成される。
 図1の例では、3つの撮像装置1が遊戯施設200に設置されている。遊戯施設200には、管理者によって、第1の遊戯を行うためのエリアAR1と、第2の遊戯を行うためのエリアAR2と、第3の遊戯を行うためのエリアAR3とが設定されている。撮像装置1は、これら3つのエリアのそれぞれに対応して設置されている。撮像装置1aは、エリアAR1にいる人物又は動物等の被写体を撮像可能に配置されている。撮像装置1bは、エリアAR2にいる人物又は動物等の被写体を撮像可能に配置されている。撮像装置1cは、エリアAR3にいる人物又は動物等の被写体を撮像可能に配置されている。なお、撮像装置1は、1つのエリアに対して配置や撮像方向を変えて複数設けても良い。
 撮像装置1は、撮像素子と、この撮像素子で被写体を撮像して得られる撮像画像信号を処理して画像データを生成する画像処理回路と、ネットワーク2に接続可能な通信インタフェースと、を含む。撮像装置1は、例えば、デジタルカメラ又はスマートフォン等で構成される。撮像装置1により生成される画像データのことを、撮像装置1が撮像した画像データとも記載する。撮像装置1は、生成した画像データと、その画像データに付属する付属情報とを含む画像ファイルを、ネットワーク2を介して、画像保管サーバ3に送信する。画像データの付属情報には、その画像データの生成時刻(撮像時刻と同義)と、その画像データを生成した撮像装置1の識別情報とが含まれる。この付属情報には、撮像装置1が撮像しているエリアの情報、又は、撮像装置1の位置情報(緯度及び経度等の情報)が含まれていてもよい。撮像装置1は、図示省略の制御装置の制御にしたがって、撮像を自動的に且つ連続して実行、または、撮像を自動的に且つ所定間隔で実行する。したがって、画像保管サーバ3には大量の画像データが逐次アップロードされる。
 なお、撮像装置1は、静止画撮影を行って静止画の画像データを生成する場合と、動画撮影を行って静止画の画像データの集合である動画データを生成する場合とがある。つまり、画像ファイルには、静止画の画像データ及び付属情報が含まれる場合と、動画データ及び付属情報が含まれる場合とがある。
 画像保管サーバ3は、プロセッサと、ネットワーク2に接続可能な通信インタフェースと、SSD(Solid State Drive)又はHDD(Hard Disk Drive)等の記憶装置と、を備える。この記憶装置は、ネットワーク2に接続されたネットワークストレージ装置であってもよい。画像保管サーバ3のプロセッサは、撮像装置1から送信されてきた画像ファイルを取得し、取得した画像ファイルを記憶装置に記憶する。
 画像閲覧装置4は、画像保管サーバ3の記憶装置に記憶された全ての画像ファイルの一部又は全部を閲覧するための装置である。画像閲覧装置4は、液晶表示パネル又は有機EL(electro-luminescence)表示パネル等のディスプレイ44と、画像ファイルに含まれる画像データをディスプレイ44に表示する制御を行う表示制御装置40と、を備える。画像データを表示するとは、その画像データに基づく画像を表示することを意味する。
 ディスプレイ44は、タッチパネル付きのものであり、表示領域に対してユーザが各種の操作を指等で行うことが可能である。なお、ディスプレイ44は、タッチパネル付きのものではなくてもよい。この場合には、表示制御装置40と接続されるマウス等の操作デバイスを用いて、ディスプレイ44に対して操作を行えるようにすればよい。
 表示制御装置40は、ネットワーク2に接続するための通信インタフェース41と、RAM(Random Access Memory)及びROM(Read Only Memory)を含むメモリ42と、プロセッサ43と、を備える。
 画像保管サーバ3のプロセッサ及び表示制御装置40のプロセッサ43は、それぞれ、ソフトウエア(表示制御プログラムを含むプログラム)を実行して各種機能を果たす汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、又は、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等である。また、画像保管サーバ3のプロセッサ及び表示制御装置40のプロセッサ43は、それぞれ、1つのプロセッサで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。画像保管サーバ3のプロセッサ及び表示制御装置40のプロセッサ43のハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 次に、表示制御装置40のプロセッサ43が行う処理について説明する。
 プロセッサ43は、所定時間が経過する毎に、又は、画像保管サーバ3の記憶装置に新たに記憶された画像ファイルの数が所定値となった場合等の特定のタイミングで、画像保管サーバ3の記憶装置に記憶された画像ファイルのうち、未取得の画像ファイルを、ネットワーク2を介して取得する。
(エリア対応付け処理)
 プロセッサ43は、画像保管サーバ3から取得済みの全ての画像ファイル(以下、取得画像ファイル群50と記載)に基づいて、各画像ファイルに含まれる画像データに関連するエリアの情報であるエリア情報を取得する。画像データに関連するエリアの情報とは、その画像データを生成(撮像)した撮像装置1が撮像対象としているエリアを特定する情報である。プロセッサ43は、各画像ファイルの画像データに関連するエリア情報を取得すると、その画像データにそのエリア情報を対応付ける処理を行う。
 図2は、取得画像ファイル群50の一例を示す模式図である。取得画像ファイル群50に含まれる矩形は、取得画像ファイル群50の各画像ファイルに含まれる画像データ51を示している。例えば、プロセッサ43は、図2に示す1つの画像データ51から、エリアAR1の特徴を表す模様、文字、又は物体等の特徴点を検出した場合には、その画像データ51が撮像されたエリアがエリアAR1であると判定し、その画像データ51に、エリアAR1を特定するエリア情報を対応付ける。同様に、プロセッサ43は、画像データ51から、エリアAR2の特徴を表す特徴点を検出した場合には、その画像データ51が撮像されたエリアがエリアAR2であると判定し、その画像データ51に、エリアAR2を特定するエリア情報を対応付ける。同様に、プロセッサ43は、画像データ51から、エリアAR3の特徴を表す特徴点を検出した場合には、その画像データ51が撮像されたエリアがエリアAR3であると判定し、その画像データ51に、エリアAR3を特定するエリア情報を対応付ける。プロセッサ43は、このような対応付けの処理を、取得画像ファイル群50に含まれるすべての画像データ51について行う。
 なお、画像データ51に関連するエリア情報の取得は、画像データ51を解析する以外の方法によって行うこともできる。例えば、画像ファイルの付属情報にエリア情報が含まれている場合には、プロセッサ43は、画像ファイルからエリア情報を取得して、画像データ51がどのエリアで撮像されたものかを判定すればよい。なお、この場合には、既に画像データとエリア情報の対応付けがなされているため、対応付けの処理は不要である。また、画像ファイルの付属情報に位置情報が含まれている場合には、プロセッサ43は、この位置情報に基づいて、画像データ51が撮像されたエリアを判定し、判定したエリアを特定するエリア情報をその画像データ51に対応付ければよい。また、画像ファイルの付属情報にエリア情報及び位置情報が含まれていない画像ファイルのみ画像データ51を解析してエリア情報を取得してもよい。いずれの方法でもエリア情報を取得できない場合は、例えば、エリア情報が不明という付属情報を画像ファイルに付与し、エリア情報が取得できた画像ファイル群と区別できるようにしてもよい。エリア情報が不明な取得画像ファイル群に対して、ユーザからエリア情報の入力を受け付けても良い。以下では、図2に示す取得画像ファイル群50の各画像データ51に対してエリア情報が対応付けられることで、取得画像ファイル群50Aが生成されたものとする。
(分類処理)
 プロセッサ43は、取得画像ファイル群50Aを、そこに含まれる各画像データに対応付けられたエリア情報に基づいて分類する分類処理を実行する。図3は、取得画像ファイル群50Aを分類した例を示す模式図である。図3の例では、取得画像ファイル群50Aが、エリアAR1を特定するエリア情報が対応する画像データ51を含む画像ファイルの集合である画像ファイル群g1と、エリアAR2を特定するエリア情報が対応する画像データ51を含む画像ファイルの集合である画像ファイル群g2と、エリアAR3を特定するエリア情報が対応する画像データ51を含む画像ファイルの集合である画像ファイル群g3と、に分類されている。
(選択処理)
 プロセッサ43は、分類処理で得た各画像ファイル群に含まれる画像データから、第2基準に基づいて画像データ(以下、第3画像データとも記載)を選択する選択処理を実行する。具体的には、プロセッサ43は、図3に示す画像ファイル群g1の画像データ51のうち、第2基準を満たす画像データ51を第3画像データとして選択し、選択した画像データ51を含む画像ファイル群G1を得る。また、プロセッサ43は、図3に示す画像ファイル群g2の画像データ51のうち、第2基準を満たす画像データ51を第3画像データとして選択し、選択した画像データ51を含む画像ファイル群G2を得る。また、プロセッサ43は、図3に示す画像ファイル群g3の画像データ51のうち、第2基準を満たす画像データ51を第3画像データとして選択し、選択した画像データ51を含む画像ファイル群G3を得る。
 図4は、選択処理によって生成された画像ファイル群G1、G2、G3の例を示す図である。図4に示す取得画像ファイル群50Aに含まれる画像データのうち、破線の矩形で示すもの(画像データ51x)は、第2基準を満たしておらず、プロセッサ43によって選択されなかった画像データを示している。
 図4では、画像ファイル群G1に含まれる9つの画像データ51が、画像データG1a~画像データG1iとして示されている。また、画像ファイル群G2に含まれる3つの画像データ51が、画像データG2a~画像データG2cとして示されている。また、画像ファイル群G3に含まれる5つの画像データ51が、画像データG3a~画像データG3eとして示されている。
 なお、選択処理と分類処理は、どちらを先に実行してもよい。つまり、プロセッサ43は、取得画像ファイル群50から第2基準を満たす画像データ51を含む画像ファイルを選択し、その選択した複数の画像ファイルをエリア情報に基づいて分類することで、図4に示す画像ファイル群G1、G2、G3を生成してもよい。
 第2基準は、画像データの画質に関する要件であり、具体的には画質が画質閾値以上であること、という要件である。第2基準は、画質に関する要件に限らず、画像データに人物又は動物が含まれていること、又は、画像閲覧装置4のユーザにより選択された画像データであること、等の要件であってもよい。画質が画質閾値以上であるとは、例えば、画像データの評価をスコアとして導出し、そのスコアがスコア閾値以上であることを言う。画像データのスコアは、例えば、明るさ、色彩、及びコントラスト等の評価値、画像データに含まれる人物又は動物の鮮鋭度の評価値、画像データに含まれる人物又は動物の眼が開いているか否かによって決まる評価値、画像データに含まれる人物又は動物の位置又は大きさが既定条件を満たしているか否かによって決まる評価値、画像データに含まれる人物又は動物等の表情(笑顔の度合い)によって決まる評価値、及び、画像データに含まれる人物又は動物の顔の向きが既定条件を満たしているか否かによって決まる評価値等に基づいて導出される。例えば、これら複数の評価値を加算した値をスコアとすればよい。これら複数の評価値のうちの1つをそのままスコアとしてもよい。また、人工知能によって第2基準の要件を判断してもよい。以降の要件についても同様に人工知能によって判断してもよい。
(表示処理)
 プロセッサ43は、図4に示すいずれかの画像ファイル群から、第1基準に基づいて画像データ(以下、第1画像データとも記載)を選択し、その第1画像データをディスプレイ44に表示する制御を行う。第1基準は、ユーザから指定された画像データであるという要件、最も画質が高い画像データであるという要件、ランダムに決められる画像データであるという要件、特定被写体が含まれる画像データであるという要件、又は、撮像時刻が最も古い画像データであるという要件等である。なお、ディスプレイ44と、表示制御装置40とは、別体であってもよい。また、ディスプレイ44と、表示制御装置40との間に中継装置等があってもよい。プロセッサ43が行う「ディスプレイ44に画像データを表示する制御」には、中継装置を介してディスプレイ44に画像データを表示するための制御も含まれる。例えば、中継装置がディスプレイ44に画像データを表示する制御をするために、中継装置に画像データを出力する制御もプロセッサ43が行う「ディスプレイ44に画像データを表示する制御」に含まれる。
 更に、プロセッサ43は、選択した第1画像データが属する画像ファイル群の中から、その第1画像データに基づいて少なくとも1つの画像データを第2画像データとして選択し、その第2画像データをディスプレイ44に表示する制御を行う。以下において、ディスプレイ44に表示された画像データを選択するとは、その画像データ又はこの画像データを含む画像ファイルを選択することを意味する。
 図5は、ディスプレイ44の表示領域44Rを模式的に示す図である。表示領域44Rは、方向Xを長手方向とし、方向Xに交差(図5の例では直交)する方向Yを短手方向とする矩形状となっている。表示領域44Rには、方向Yに延び且つ方向Xの一端側に配置された第1領域44Aと、方向Yに延び且つ方向Xの他端側に配置された第2領域44Bと、第1領域44A及び第2領域44Bの間に配置された第3領域44C、第4領域44D、及び第5領域44Eと、が設定されている。
 プロセッサ43は、図4に示す各画像ファイル群に対応するエリア情報を示すエリア画像を第5領域44Eに表示する制御を行う。図5の例では、画像ファイル群G1に対応するエリア情報を示すエリア画像441と、画像ファイル群G2に対応するエリア情報を示すエリア画像442と、画像ファイル群G3に対応するエリア情報を示すエリア画像443とが、第5領域44Eに表示されている。
 プロセッサ43は、第5領域44Eに表示されたエリア画像441、エリア画像442、及びエリア画像443のいずれかが選択されると、その選択されたエリア画像に対応する画像ファイル群の画像データを、第1領域44Aに表示する制御を行う。図5は、2つのエリア画像を同時に選択可能な例を示しており、プロセッサ43は、第5領域44Eに表示されたエリア画像441、エリア画像442、及びエリア画像443のうちの2つが選択されると、選択された一方のエリア画像に対応する画像ファイル群の画像データを第1領域44Aに表示し、選択された他方のエリア画像に対応する画像ファイル群の画像データを第2領域44Bに表示する制御を行う。
 図6は、図5に示す状態から、エリア画像441とエリア画像442が選択された場合の表示例を示している。図6に示す例では、第1領域44Aに、画像ファイル群G1に含まれる9つの画像データ51の一部(画像データG1a、画像データG1b、画像データG1c、画像データG1d、及び画像データG1e)が表示されている。また、第2領域44Bに、画像ファイル群G2に含まれる3つの画像データ51(画像データG2a、画像データG2b、画像データG2cと記載)が表示されている。図6の例では、第1領域44Aにおいて、画像ファイル群G1の全ての画像データが一度に表示されていないが、このような場合には、スクロール表示によって画像ファイル群G1の全ての画像データが表示できるようにすればよい。
 図7は、図6の状態から、ユーザ操作により、第1領域44Aに表示されている画像データのいずれか1つ(ここでは画像データG1cとする)が選択された場合の表示例を示している。プロセッサ43は、ユーザ操作によって画像データG1cが選択されると、その画像データG1cを第1画像データとして選択する。なお、プロセッサ43は、ユーザ操作によらずに、第1領域44Aに表示させている画像ファイル群G1の画像データのうち、撮像時刻が最も古いもの、画質が最も高いもの、又はランダムに決定したもの等を第1画像データとして選択してもよい。
 プロセッサ43は、画像データG1cを第1画像データとして選択すると、画像データG1cを第3領域44Cと第4領域44Dに表示する制御を行う。プロセッサ43は、更に、この画像データG1cまたは画像データG1cの付属情報に基づいて、画像ファイル群G1の中から画像データG1eと画像データG1fを第2画像データとして選択し、これらを第4領域44Dに表示する制御を行う。
 具体的には、プロセッサ43は、画像データG1cの撮像時刻に基づいて、画像ファイル群G1の中から少なくとも1つの画像データを選択する。例えば、プロセッサ43は、画像ファイル群G1の画像データのうち、画像データG1cの撮像時刻よりも前の第1時刻で撮像された画像データである画像データG1eと、この第1時刻よりも前の第2時刻で撮像された画像データである画像データG1fと、を第2画像データとして選択する。プロセッサ43は、画像データG1eと画像データG1fの一方だけを第2画像データとして選択してもよい。
 また、プロセッサ43は、画像データG1eと画像データG1fのいずれかの代わりに、画像データG1cの撮像時刻よりも後の時刻で撮像された画像データである画像データG1bを第2画像データとして選択して第4領域44Dに表示する制御を行ってもよい。また、プロセッサ43は、画像データG1e及び画像データG1fの代わりに、画像データG1cの撮像時刻よりも後の時刻で撮像された画像データである画像データG1bを第2画像データとして選択して第4領域44Dに表示する制御を行ってもよい。
 図7に示したように、第4領域44Dに表示する画像データは、撮像時刻にしたがった並びで表示させることが好ましい。すなわち、第4領域44Dに表示する画像データは、選択された画像の組み合わせに応じて並び順が異なることが好ましい。なお、プロセッサ43は、第4領域44Dに画像データG1c(=第1画像データ)を表示する制御を行っているが、これは必須ではなく、省略してもよい。つまり、第4領域44Dには第2画像データのみが表示される形態であってもよい。また、第4領域44Dに表示される第2画像データは、3つ以上であってもよい。
 このように、プロセッサ43は、画像ファイル群G1の画像データのうち、画像データG1c(=第1画像データ)の撮像時刻よりも前の第1時刻で撮像された画像データと、画像データG1cの撮像時刻よりも後の時刻で撮像された画像データである画像データとの少なくとも一方、を第2画像データとして選択する。
 なお、プロセッサ43は、画像ファイル群G1の画像データのうち、画像データG1c(=第1画像データ)の撮像時刻を含む時間帯よりも前の時間帯で撮像された画像データと、画像データG1cの撮像時刻を含む時間帯よりも後の時間帯で撮像された画像データである画像データとの少なくとも一方、を第2画像データとして選択してもよい。
 図7に示したように、第4領域44Dに表示される画像データの表示サイズは、第3領域44Cに表示される画像データの表示サイズよりも小さいことが好ましい。また、第1領域44Aと第2領域44Bに表示される画像データの表示サイズは、第3領域44Cに表示される画像データの表示サイズよりも小さいことが好ましい。図7に示す状態で、例えば、画像データG1eが選択された場合には、プロセッサ43は、第3領域44Cに表示する画像データを、画像データG1cから画像データG1eに変更することが好ましい。
<画像閲覧装置4の主たる効果>
 画像閲覧装置4によれば、ユーザは、例えば、表示された画像ファイル群G1の画像データの中から気になる画像データを選択する操作を行うだけで、選択した画像データを大きな表示サイズで第3領域44Cにて確認できると共に、選択した画像データの撮像時刻の前又は後、或いは、前後のタイミング且つ同一のエリアで撮像された画像データを、第4領域44Dにて確認することができる。これにより、気になった画像データだけなく、その画像データと時間的に関連性のある画像データを容易に確認できるようになり、同一のエリアで撮像された画像データが大量に存在する場合でも、所望の画像データを容易に抽出できるようになる。また、第3領域44Cだけでなく、第4領域44Dにも第1画像データ(画像データG1c)が表示されることで、第3領域44Cに表示させる画像データを第1画像データと第2画像データの間で切り替える場合でも、第1画像データと第2画像データの関連性を第4領域44Dにて常に把握でき、利便性を向上させることができる。
<画像ファイル群G1からの第2画像データの選択方法の第一変形例>
 プロセッサ43は、画像ファイル群G1の画像データの中から、第1画像データの撮像時刻を含む日とは異なる日に撮像された画像データを第2画像データとして選択してもよい。
 例えば、プロセッサ43は、第1画像データの撮像時刻を含む日とは異なる日に撮像された画像データのうち、その第1画像データに含まれる人物と同じ人物を含む画像データ、及び/又は、その第1画像データと類似する構図の画像データ等を第2画像データとして選択する。例えば、撮像装置1が同じエリアを撮影するように固定されていれば、異なる日に同じ人物が同じような位置に存在すれば第1画像データと類似する構図の画像データを取得することができる。このようにすることで、ユーザが気になった第1画像データに対し、同じ環境で過去に撮像され且つ同じ人物又は構図を含む第2画像データを第4領域44Dに表示させることができる。これにより、例えば、第1画像データに子供が含まれる場合に、第1画像データと第2画像データとの比較によって、その子供の成長度合い等を容易に確認可能となる。例えば、遊戯施設200の特定の設備に対しての子供の取り組みの違いを確認可能となる。
<画像ファイル群G1からの第2画像データの選択方法の第二変形例>
 プロセッサ43は、画像ファイル群G1の画像データの中から、第1画像データに含まれる被写体に基づいて第2画像データを選択してもよい。「被写体に基づいて第2画像データを選択する」とは、被写体の状態に基づいて第2画像データを選択することを含む。
 具体的には、プロセッサ43は、第1画像データに含まれる被写体のうちの人物の状態に基づいて、第2画像データを選択してもよい。例えば、第1画像データが、両足を地面から離した状態の人物を含むものである場合を想定する。この場合には、プロセッサ43は、両足が地面から離れる直前の状態にある上記人物を含む画像データと、両足が地面に着地した直後の状態にある上記人物を含む画像データと、の少なくとも一方を第2画像データとして選択する。このようにすることで、ユーザは、第1画像データの選択操作を行うだけで、第1画像データに含まれる人物の状態に関連した第2画像データを確認でき、画像データの選択の補助とすることができる。
 プロセッサ43は、第1画像データに含まれる被写体のうちの人物以外の物の状態に基づいて、第2画像データを選択してもよい。例えば、第1画像データが、地面から離れた状態のスケートボード又はスノーボード等のスポーツ器具を含むものである場合を想定する。この場合には、プロセッサ43は、地面から離れる直前の状態にある上記スポーツ器具を含む画像データと、地面に着地した直後の状態にある上記スポーツ器具を含む画像データと、の少なくとも一方を第2画像データとして選択する。このようにすることで、ユーザは、第1画像データの選択操作を行うだけで、第1画像データに含まれる物の状態に関連した第2画像データを確認でき、画像データの選択の補助とすることができる。
<画像ファイル群G1からの第2画像データの選択方法の第三変形例>
 前述した「被写体に基づいて第2画像データを選択する」とは、被写体に関する数値に基づいて第2画像データを選択することを含む。被写体に関する数値とは、第1画像データに含まれる被写体の数、又は、第1画像データに含まれる被写体の種類の数を含む。
 具体的には、プロセッサ43は、画像ファイル群G1の画像データの中から、第1画像データに含まれる被写体の数と同じ数の被写体を含む画像データを第2画像データとして選択する。このようにすることで、ユーザは、特別な操作を行うことなく、第1画像データと被写体の数が同じ第2画像データを確認でき、画像データの選択の補助とすることができる。なお、プロセッサ43は、画像ファイル群G1の画像データの中から、第1画像データに含まれる被写体の種類の数と同じ数の種類の被写体を含む画像データを第2画像データとして選択してもよい。このようにすることでも、ユーザは、第1画像データの選択操作を行うだけで、第1画像データと被写体の種類数が同じ第2画像データを確認でき、画像データの選択の補助とすることができる。
 プロセッサ43は、画像ファイル群G1の画像データの中から、第1画像データに含まれる被写体の数と異なる数の被写体を含む画像データを第2画像データとして選択してもよい。同様に、プロセッサ43は、画像ファイル群G1の画像データの中から、第1画像データに含まれる被写体の種類の数と異なる数の種類の被写体を含む画像データを第2画像データとして選択してもよい。このようにすることで、ユーザは、第1画像データの選択操作を行うだけで、第1画像データとは被写体の数や種類が異なる第2画像データを確認でき、画像データの選択の補助とすることができる。
 第三変形例において、プロセッサ43が、画像ファイル群G1の画像データの中から、第1画像データに含まれる被写体の数と同じ数の被写体を含む画像データを第2画像データとして選択する場合を想定する。この場合、画像ファイル群G1の画像データの中に、第1画像データに含まれる被写体の数と同じ数の被写体を含む画像データが存在しない状況もあり得る。このように、第2画像データの候補が存在しない場合、プロセッサ43は、第2画像データの候補となる画像を取得するための処理を行っても良い。例えば、プロセッサ43は、第1画像データに含まれる被写体の数と同じ数の被写体を含む画像データが撮像されるように、第1画像データを撮像した撮像装置1の設定(焦点距離、及び撮影方向)を変更する制御を行ってもよい。例えば、プロセッサ43は、ネットワーク2を介して、撮像装置1を制御する制御装置に指令を出し、この指令に応じて、制御装置が撮像装置1の設定を変更する。この構成によれば、第2画像データの候補が存在しない場合であっても、撮像装置1の設定の変更によってその候補を得ることができ、ユーザによる画像データの選択の補助とすることができる。
 同様に、プロセッサ43が、画像ファイル群G1の画像データの中から、第1画像データに含まれる被写体の数と異なる数の被写体を含む画像データを第2画像データとして選択する場合を想定する。この場合、画像ファイル群G1の画像データの中に、第1画像データに含まれる被写体の数と異なる数の被写体を含む画像データが存在しない状況もあり得る。このような状況であった場合、プロセッサ43は、第1画像データに含まれる被写体の数と異なる数の被写体を含む画像データが撮像されるように、第1画像データを撮像した撮像装置1の設定(焦点距離、及び撮影方向)を変更する制御を行ってもよい。
 同様に、プロセッサ43が、画像ファイル群G1の画像データの中から、第1画像データに含まれる被写体の種類の数と同じ数の種類の被写体を含む画像データを第2画像データとして選択する場合を想定する。この場合、画像ファイル群G1の画像データの中に、第1画像データに含まれる被写体の種類の数と同じ数の種類の被写体を含む画像データが存在しない状況もあり得る。このような状況であった場合、プロセッサ43は、第1画像データに含まれる被写体の種類の数と同じ数の種類の被写体を含む画像データが撮像されるように、第1画像データを撮像した撮像装置1の設定(焦点距離、及び撮影方向)を変更する制御を行ってもよい。
 同様に、プロセッサ43が、画像ファイル群G1の画像データの中から、第1画像データに含まれる被写体の種類の数と異なる数の種類の被写体を含む画像データを第2画像データとして選択する場合を想定する。この場合、画像ファイル群G1の画像データの中に、第1画像データに含まれる被写体の種類の数と異なる数の種類の被写体を含む画像データが存在しない状況もあり得る。このような状況であった場合、プロセッサ43は、第1画像データに含まれる被写体の種類の数と異なる数の種類の被写体を含む画像データが撮像されるように、第1画像データを撮像した撮像装置1の設定(焦点距離、及び撮影方向)を変更する制御を行ってもよい。
<画像ファイル群G1からの第2画像データの選択方法の第四変形例>
 前述した「被写体に基づいて第2画像データを選択する」とは、被写体の位置に基づいて第2画像データを選択することを含む。
 具体的には、プロセッサは、画像ファイル群G1の画像データの中から、第1画像データに含まれる被写体とは被写体の位置(換言すると構図)が異なる画像データを第2画像データとして選択してもよい。例えば、第1画像データに含まれる被写体の位置が、第1画像データの中央である場合を想定する。この場合、プロセッサ43は、この被写体を含み且つこの被写体の位置が第1画像データの右端にある画像データと、この被写体を含み且つこの被写体の位置が第1画像データの左端にある画像データとを、第2画像データとして選択する。このようにすることで、ユーザが選択した第1画像データに含まれる被写体を、異なる構図でとらえた第2画像データをディスプレイ44に表示できるため、ユーザによる画像データの選択の補助とすることができる。
<画像ファイル群G1からの第2画像データの選択方法の第五変形例>
 プロセッサ43は、画像ファイル群G1の画像データの中から、第1画像データを撮像した撮像装置1に基づいて、第2画像データを選択してもよい。
 例えば、エリアAR1を撮像する撮像装置1aとして、3つの撮像装置1aが存在する場合を想定する。この場合、プロセッサ43は、画像ファイル群G1の画像データの中から、第1画像データを撮像した撮像装置1aとは別の撮像装置1aにより撮像された画像データを第2画像データとして選択する。
 例えば、滑り台を子供が滑り降りるシーンを3台の撮像装置1aで撮像している場合を想定する。3台の撮像装置1aには、滑り台における最高の位置(最も高い位置)に子供がいる状態を撮像可能な第一撮像装置と、滑り台における中間の位置に子供がいる状態を撮像可能な第二撮像装置と、滑り台における最低の位置(最も低い位置)に子供がいる状態を撮像可能な第三撮像装置と、が含まれるものとする。そして、プロセッサ43は、第1画像データが、第二撮像装置によって撮像されたものであれば、第一撮像装置によって撮像された画像データと、第三撮像装置によって撮像された画像データを第2画像データとして選択する。このようにすることで、子供が滑り台を降りる一連の動作を、第1画像データと第2画像データによって確認できるようになる。また、子供が滑り台を滑る前、滑っている途中、滑った後、等のように、人物などが何かを行う前、最中、後、を撮影できるように複数の撮像装置を配置し、それらの一連の画像を第1画像データ及び第2画像データとして選択してもよい。
<その他の変形例>
 図8は、選択処理によって生成された画像ファイル群G1、G2、G3の変形例を示す図である。図8は、画像ファイル群G1のうちの画像データG1cが動画データMVに変更された点を除いては、図4と同じである。動画データMVは、画像データMV1~MV8を含む複数の画像データの集合である。画像データMV1~MV8は、符号の数字が小さいものほど、撮像時刻が古いことを意味する。
 プロセッサ43は、この動画データMVを第1領域44Aに表示する場合には、この動画データMVを構成する複数の画像データから代表的なもの(例えば撮像時刻が最も古いもの等)を抽出して表示する制御を行う。
 例えば図9に示すように、プロセッサ43は、動画データMVの代表として画像データMV1を第1領域44Aに表示する制御を行う。この状態で、画像データMV1がユーザにより選択された場合には、プロセッサ43は、画像データMV1を第1画像データとして選択し、この画像データMV1を含む動画データMVを構成する画像データの中から、第2画像データを選択する。ここでの第2画像データの選択方法は、例えば、第1画像データの撮像時刻に基づいて選択する方法を採用してもよいし、第1画像データに含まれる被写体に基づいて選択する方法を採用してもよい。図9では、画像データMV3と画像データMV6が第2画像データとして選択された例を示している。プロセッサ43は、画像データMV1を第1画像データとして選択し、画像データMV3と画像データMV6をそれぞれ第2画像データとして選択した場合には、動画データMVを、画像データMV1から画像データMV2までの画像データで構成される第1動画データと、画像データMV3から画像データMV5までの画像データで構成される第2動画データと、画像データMV6から画像データMV8までの画像データで構成される第3動画データとの3つに分割して管理する。
 図9に示す状態にて、プロセッサ43は、第3領域44C又は第4領域44Dに表示された画像データMV1に対する動画の再生操作(例えば画像データMV1のクリック)を検出すると、第3領域44Cにて動画データMVを最初(撮像時刻の最も古い画像データ)から再生する制御を行う。動画データの再生は、その動画データを構成する画像データを撮像時刻の古いものから順に表示することを言う。プロセッサ43は、第4領域44Dに表示された画像データMV3に対する動画の再生操作を検出すると、動画データMVのうちの画像データMV3の撮像時刻以降の部分を第3領域44Cにて再生する制御を行う。プロセッサ43は、第4領域44Dに表示された画像データMV6に対する動画の再生操作を検出すると、動画データMVのうちの画像データMV6の撮像時刻以降の部分を第3領域44Cにて再生する制御を行う。
 このように、プロセッサ43は、動画データMVの一部を第1画像データとして選択した場合には、その動画データMVに含まれる画像データから第2画像データを選択する。このため、ユーザは、動画データを全て再生せずとも、その動画データに含まれる画像データを確認でき、画像データの閲覧性を高めることができる。また、プロセッサ43は、同じ動画データMVの異なる時間帯に対応する動画(最初から再生される動画、画像データMV3の撮像時刻以降を再生する動画、画像データMV6の撮像時刻以降を再生する動画)を再生可能に制御する。これにより、例えば長い時間の動画であっても、その内容を効率的に閲覧可能となる。なお、動画データの再生は第4領域44D内で行ってもよい。例えば、マウス等の操作によりカーソルが第4領域44D内の画像データMV1に重畳された場合に、カーソルが重畳された画像データMV1が動画として再生されてもよい。同様に第4領域44D内の画像データMV3及び画像データMV6もカーソルが重畳された場合に動画として再生されてもよい。この場合、第1画像データ及び第2画像データから再生される動画の時間帯が完全に分離していてもよい。図9の例では、例えば、画像データMV1から再生される動画はMV1からMV2までの動画であり、画像データMV3から再生される動画はMV3からMV5までの動画であり、画像データMV6から再生される動画はMV6からMV8までの動画であってもよい。このようにすれば、第4領域44D内の画像データMV1から画像データMV6に順にカーソルを動かすだけで重複無く動画データMVを閲覧することができる。
 図4に示す例では、画像ファイル群G1と、画像ファイル群G2と、画像ファイル群G3のそれぞれに含まれる画像データの数が異なっている。プロセッサ43は、これら各画像ファイル群に含まれる画像データの数の差が閾値以下(理想的にはゼロ、つまり、各画像ファイル群に含まれる画像データの数が同一)となるように制御を行ってもよい。
 例えば、プロセッサ43は、図3に示した各画像ファイル群g1、g2、g3から画像ファイル群G1、G2、G3を得るために用いる第2基準を、画像ファイル群g1、g2、g3毎に変更することで、画像ファイル群G1、G2、G3に含まれる画像データの数の差が閾値以下となるようにする。または、第2基準は変更せずに、画像ファイル群G1、G2、G3に含まれる画像データの数の差が閾値以下となるように、撮像装置1a、1b、1cの設定を変更する。
 このようにすることで、図7に示す第1領域44Aと第2領域44Bに表示可能な画像データの数をほぼ一致させることができ、遊戯施設200のエリア毎に偏りなく、画像データを閲覧可能にすることができる。
 上述してきた画像管理システム100において、プロセッサ43が実行する一部の処理を、画像保管サーバ3のプロセッサが実行するようにしてもよい。例えば、選択処理と分類処理の少なくとも一方を画像保管サーバ3のプロセッサが行うようにしてもよい。この場合、画像保管サーバ3のプロセッサとプロセッサ43とによって、表示制御装置又は画像ファイル管理装置のプロセッサが構成される。
 以上説明してきたように、本明細書には少なくとも以下の事項が記載されている。なお、括弧内には、上記した実施形態において対応する構成要素等を示しているが、これに限定されるものではない。
(1)
 プロセッサ(プロセッサ43)と、メモリ(メモリ42)と、を備え、
 上記プロセッサは、
 複数の画像データ(取得画像ファイル群50)を取得し、
 上記画像データに関連するエリアの情報であるエリア情報を取得し、
 同じ上記エリア情報が対応する上記画像データの集合である画像データ群(画像ファイル群G1)から、第1基準に基づいて第1画像データ(図7の例では画像データG1c)を選択し、
 上記第1画像データに基づいて、上記画像データ群のうちの少なくとも1つの画像データ(図7の例では画像データG1e、G1f)を第2画像データとしてディスプレイ(ディスプレイ44)に表示する制御を行う、表示制御装置。
(2)
 (1)に記載の表示制御装置であって、
 上記プロセッサは、上記複数の画像データから第2基準に基づいて第3画像データ(図4の各画像データ51)を選択し、
 上記画像データ群は、同じ上記エリア情報が対応する上記第3画像データの集合(画像ファイル群G1)である、表示制御装置。
(3)
 (1)又は(2)に記載の表示制御装置であって、
 上記プロセッサは、上記第1画像データの撮像時刻に基づいて、上記第2画像データを選択する、表示制御装置。
(4)
 (1)から(3)のいずれかに記載の表示制御装置であって、
 上記プロセッサは、上記第1画像データの撮像時刻よりも前に撮像された上記画像データと、上記第1画像データの撮像時刻よりも後に撮像された上記画像データとの少なくとも一方を、上記第2画像データとして選択する、表示制御装置。
(5)
 (4)に記載の表示制御装置であって、
 上記プロセッサは、上記第1画像データの撮像時刻よりも前の第1時刻で撮像された上記画像データと、上記第1時刻よりも前の第2時刻で撮像された上記画像データを、上記第2画像データとして選択する、表示制御装置。
(6)
 (1)から(3)のいずれかに記載の表示制御装置であって、
 上記プロセッサは、上記第1画像データの撮像時刻を含む日とは異なる日に撮像された上記画像データを上記第2画像データとして選択する、表示制御装置。
(7)
 (1)又は(2)に記載の表示制御装置であって、
 上記プロセッサは、上記第1画像データに含まれる被写体に基づいて、上記第2画像データを選択する、表示制御装置。
(8)
 (1)、(2)、又は(7)に記載の表示制御装置であって、
 上記プロセッサは、上記第1画像データに含まれる被写体の状態に基づいて、上記第2画像データを選択する、表示制御装置。
(9)
 (1)、(2)、(7)、又は(8)に記載の表示制御装置であって、
 上記プロセッサは、上記第1画像データに含まれる被写体のうちの人物の状態に基づいて、上記第2画像データを選択する、表示制御装置。
(10)
 (1)、(2)、(7)、又は(8)に記載の表示制御装置であって、
 上記プロセッサは、上記第1画像データに含まれる被写体のうちの人物以外の物の状態に基づいて、上記第2画像データを選択する、表示制御装置。
(11)
 (1)、(2)、又は(7)に記載の表示制御装置であって、
 上記プロセッサは、上記第1画像データに含まれる被写体に関する数値に基づいて、上記第2画像データを選択する、表示制御装置。
(12)
 (1)、(2)、(7)、又は(11)に記載の表示制御装置であって、
 上記プロセッサは、上記第1画像データに含まれる被写体の数と同じ数の被写体を含む上記画像データを上記第2画像データとして選択する、表示制御装置。
(13)
 (1)、(2)、(7)、又は(11)に記載の表示制御装置であって、
 上記プロセッサは、上記第1画像データに含まれる被写体の数と異なる数の被写体を含む上記画像データを上記第2画像データとして選択する、表示制御装置。
(14)
 (11)から(13)のいずれかに記載の表示制御装置であって、
 上記複数の画像データは、撮像装置(撮像装置1)によって生成されるものであり、
 上記プロセッサは、上記第1画像データに含まれる被写体の数に基づいて、その数に基づく数の被写体を含む画像データを上記撮像装置に生成させる制御を行う、表示制御装置。
(15)
 (1)、(2)、又は(7)に記載の表示制御装置であって、
 上記プロセッサは、上記第1画像データに含まれる被写体の位置に基づいて、上記第2画像データを選択する、表示制御装置。
(16)
 (1)、(2)、(7)、又は(15)に記載の表示制御装置であって、
 上記プロセッサは、上記第1画像データに含まれる被写体とは上記被写体の位置が異なる上記画像データを上記第2画像データとして選択する、表示制御装置。
(17)
 (1)又は(2)に記載の表示制御装置であって、
 上記複数の画像データは、複数の撮像装置(撮像装置1)によって生成されるものであり、
 上記プロセッサは、上記第1画像データを撮像した撮像装置に基づいて、上記第2画像データを選択する、表示制御装置。
(18)
 (17)に記載の表示制御装置であって、
 上記プロセッサは、上記第1画像データを撮像した撮像装置とは別の撮像装置により撮像された上記画像データを上記第2画像データとして選択する、表示制御装置。
(19)
 (1)から(18)のいずれかに記載の表示制御装置であって、
 上記複数の画像データは動画データ(動画データMV)を含み、
 上記プロセッサは、上記複数の画像データから第2基準に基づいて第3画像データ(図4の各画像データ51)を選択し、
 上記画像データ群は、同じ上記エリア情報が対応する上記第3画像データの集合(画像ファイル群G1)であり、
 更に、上記プロセッサは、
 上記動画データを構成する上記第3画像データ(図9の例では画像データMV1)を上記第1画像データとして選択した場合には、その動画データに含まれる画像データ(図9の例では画像データMV3、MV6)を上記第2画像データとして選択する、表示制御装置。
(20)
 (19)に記載の表示制御装置であって、
 上記プロセッサは、上記第1画像データを含む動画データと、上記第2画像データを含む動画データを再生する制御を行う、表示制御装置。
(21)
 (20)に記載の表示制御装置であって、
 上記プロセッサは、上記第2画像データが選択された場合には、上記動画データのうちの上記第2画像データの撮像時刻以降を再生し、上記第1画像データが選択された場合には、上記動画データを最初から再生する制御を行う、表示制御装置。
(22)
 (1)から(21)のいずれかに記載の表示制御装置であって、
 上記プロセッサは、上記複数の画像データから第2基準に基づいて第3画像データ(図4の各画像データ51)を選択し、
 上記画像データ群は、同じ上記エリア情報が対応する上記第3画像データの集合(画像ファイル群G1、G2、G3)であり、
 上記プロセッサは、
 異なる上記エリア情報が対応する複数の上記画像データ群のいずれかに含まれる上記第1画像データ(図7の第3領域44Cに表示された画像データG1c)と上記第2画像データ(図7の第4領域44Dに表示された画像データG1e、G1f)と上記第3画像データ(図7の第1領域44Aに表示された画像データ)を上記ディスプレイに表示させる制御を行い、
 上記画像データ群毎に上記ディスプレイに表示させる上記第3画像データの数の差を閾値以下とする制御を行う、表示制御装置。
(23)
 (1)から(21)のいずれかに記載の表示制御装置であって、
 上記プロセッサは、上記複数の画像データから第2基準に基づいて第3画像データ(図4の各画像データ51)を選択し、
 上記画像データ群は、同じ上記エリア情報が対応する上記第3画像データの集合(画像ファイル群G1、G2、G3)であり、
 上記プロセッサは、
 第1のエリア情報に対応する上記画像データ群(画像ファイル群G1)に含まれる上記第3画像データの数と、第2のエリア情報に対応する上記画像データ群(画像ファイル群G2)に含まれる上記第3画像データの数との差を閾値以下にする制御を行う、表示制御装置。
(24)
 (23)に記載の表示制御装置であって、
 上記プロセッサは、
 上記第1のエリア情報に対応する上記画像データ(画像ファイル群g1)から第3基準(第2基準)に基づき上記第3画像データを選択し、
 上記第2のエリア情報に対応する上記画像データ群(画像ファイル群g2)から第4基準(第2基準)に基づき上記第3画像データを選択し、
 上記第3基準と上記第4基準の一方又は両方を変更することにより、上記差を閾値以下にする制御を行う、表示制御装置。
(25)
 (1)から(24)のいずれかに記載の表示制御装置であって、
 上記プロセッサは、
 上記第1画像データを上記ディスプレイに表示させる制御を行う、表示制御装置。
(26)
 プロセッサ(プロセッサ43)と、メモリ(メモリ42)と、を備え、
 上記プロセッサは、
 複数の画像データ(取得画像ファイル群50)を取得し、
 上記複数の画像データのうちの第1画像データ(図7の画像データG1c)をディスプレイ(ディスプレイ44)に表示する制御を行い、
 上記第1画像データに含まれる被写体の状態に基づいて、上記複数の画像データから少なくとも1つの画像データ(図7の画像データG1e、G1f)を第2画像データとして上記ディスプレイに表示する制御を行う、表示制御装置。
(27)
 プロセッサ(プロセッサ43)と、メモリ(メモリ42)と、を備え、
 上記プロセッサは、
 複数の画像ファイル(取得画像ファイル群50)を取得し、
 上記画像ファイルに関連するエリアの情報であるエリア情報を取得し、
 複数の上記画像ファイルを上記エリア情報に基づいて分類(画像ファイル群g1、g2、g3に分類)する制御を行う、画像ファイル管理装置。
(28)
 複数の画像データ(取得画像ファイル群50)を取得し、
 上記画像データに関連するエリアの情報であるエリア情報を取得し、
 同じ上記エリア情報が対応する上記画像データの集合である画像データ群(画像ファイル群G1)から、第1基準に基づいて第1画像データ(図7の画像データG1c)を選択し、
 上記第1画像データに基づいて、上記画像データ群のうちの少なくとも1つの画像データ(図7の画像データG1e、G1f)を第2画像データとしてディスプレイ(ディスプレイ44)に表示する制御を行う、表示制御方法。
(29)
 複数の画像データ(取得画像ファイル群50)を取得し、
 上記画像データに関連するエリアの情報であるエリア情報を取得し、
 同じ上記エリア情報が対応する上記画像データの集合である画像データ群(画像ファイル群G1)から、第1基準に基づいて第1画像データ(図7の画像データG1c)を選択し、
 上記第1画像データに基づいて、上記画像データ群のうちの少なくとも1つの画像データ(図7の画像データG1e、G1f)を第2画像データとしてディスプレイ(ディスプレイ44)に表示する制御を行うステップを、プロセッサ(プロセッサ43)に実行させる表示制御プログラム。
 以上、各種の実施の形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。
 なお、本出願は、2022年3月31日出願の日本特許出願(特願2022-059048)に基づくものであり、その内容は本出願の中に参照として援用される。
200 遊戯施設
AR1,AR2,AR3 エリア
100 画像管理システム
1a,1b,1c,1 撮像装置
2 ネットワーク
3 画像保管サーバ
4 画像閲覧装置
40 表示制御装置
41 通信インタフェース
42 メモリ
43 プロセッサ
44A 第1領域
44B 第2領域
44C 第3領域
44D 第4領域
44E 第5領域
44R 表示領域
44 ディスプレイ
50A,50 取得画像ファイル群
g1,g2,g3 画像ファイル群
G1,G2,G3 画像ファイル群
51、51x 画像データ
G1a-G1i 画像データ
G2a-G2c 画像データ
G3a-G3e 画像データ
MV1-MV8 画像データ
MV 動画データ
441,442,443 エリア画像
 
 

Claims (29)

  1.  プロセッサと、メモリと、を備え、
     前記プロセッサは、
     複数の画像データを取得し、
     前記画像データに関連するエリアの情報であるエリア情報を取得し、
     同じ前記エリア情報が対応する前記画像データの集合である画像データ群から、第1基準に基づいて第1画像データを選択し、
     前記第1画像データに基づいて、前記画像データ群のうちの少なくとも1つの画像データを第2画像データとしてディスプレイに表示する制御を行う、表示制御装置。
  2.  請求項1に記載の表示制御装置であって、
     前記プロセッサは、前記複数の画像データから第2基準に基づいて第3画像データを選択し、
     前記画像データ群は、同じ前記エリア情報が対応する前記第3画像データの集合である、表示制御装置。
  3.  請求項1又は2に記載の表示制御装置であって、
     前記プロセッサは、前記第1画像データの撮像時刻に基づいて、前記第2画像データを選択する、表示制御装置。
  4.  請求項1から3のいずれか1項に記載の表示制御装置であって、
     前記プロセッサは、前記第1画像データの撮像時刻よりも前に撮像された前記画像データと、前記第1画像データの撮像時刻よりも後に撮像された前記画像データとの少なくとも一方を、前記第2画像データとして選択する、表示制御装置。
  5.  請求項4に記載の表示制御装置であって、
     前記プロセッサは、前記第1画像データの撮像時刻よりも前の第1時刻で撮像された前記画像データと、前記第1時刻よりも前の第2時刻で撮像された前記画像データを、前記第2画像データとして選択する、表示制御装置。
  6.  請求項1から3のいずれか1項に記載の表示制御装置であって、
     前記プロセッサは、前記第1画像データの撮像時刻を含む日とは異なる日に撮像された前記画像データを前記第2画像データとして選択する、表示制御装置。
  7.  請求項1又は2に記載の表示制御装置であって、
     前記プロセッサは、前記第1画像データに含まれる被写体に基づいて、前記第2画像データを選択する、表示制御装置。
  8.  請求項1、2、又は7に記載の表示制御装置であって、
     前記プロセッサは、前記第1画像データに含まれる被写体の状態に基づいて、前記第2画像データを選択する、表示制御装置。
  9.  請求項1、2、7、又は8に記載の表示制御装置であって、
     前記プロセッサは、前記第1画像データに含まれる被写体のうちの人物の状態に基づいて、前記第2画像データを選択する、表示制御装置。
  10.  請求項1、2、7、又は8に記載の表示制御装置であって、
     前記プロセッサは、前記第1画像データに含まれる被写体のうちの人物以外の物の状態に基づいて、前記第2画像データを選択する、表示制御装置。
  11.  請求項1、2、又は7に記載の表示制御装置であって、
     前記プロセッサは、前記第1画像データに含まれる被写体に関する数値に基づいて、前記第2画像データを選択する、表示制御装置。
  12.  請求項1、2、7、又は11に記載の表示制御装置であって、
     前記プロセッサは、前記第1画像データに含まれる被写体の数と同じ数の被写体を含む前記画像データを前記第2画像データとして選択する、表示制御装置。
  13.  請求項1、2、7、又は11に記載の表示制御装置であって、
     前記プロセッサは、前記第1画像データに含まれる被写体の数と異なる数の被写体を含む前記画像データを前記第2画像データとして選択する、表示制御装置。
  14.  請求項11から13のいずれか1項に記載の表示制御装置であって、
     前記複数の画像データは、撮像装置によって生成されるものであり、
     前記プロセッサは、前記第1画像データに含まれる被写体の数に基づいて、当該数に基づく数の被写体を含む画像データを前記撮像装置に生成させる制御を行う、表示制御装置。
  15.  請求項1、2、又は7に記載の表示制御装置であって、
     前記プロセッサは、前記第1画像データに含まれる被写体の位置に基づいて、前記第2画像データを選択する、表示制御装置。
  16.  請求項1、2、7、又は15に記載の表示制御装置であって、
     前記プロセッサは、前記第1画像データに含まれる被写体とは前記被写体の位置が異なる前記画像データを前記第2画像データとして選択する、表示制御装置。
  17.  請求項1又は2に記載の表示制御装置であって、
     前記複数の画像データは、複数の撮像装置によって生成されるものであり、
     前記プロセッサは、前記第1画像データを撮像した撮像装置に基づいて、前記第2画像データを選択する、表示制御装置。
  18.  請求項17に記載の表示制御装置であって、
     前記プロセッサは、前記第1画像データを撮像した撮像装置とは別の撮像装置により撮像された前記画像データを前記第2画像データとして選択する、表示制御装置。
  19.  請求項1から18のいずれか1項に記載の表示制御装置であって、
     前記複数の画像データは動画データを含み、
     前記プロセッサは、前記複数の画像データから第2基準に基づいて第3画像データを選択し、
     前記画像データ群は、同じ前記エリア情報が対応する前記第3画像データの集合であり、
     更に、前記プロセッサは、
     前記動画データを構成する前記第3画像データを前記第1画像データとして選択した場合には、当該動画データに含まれる画像データを前記第2画像データとして選択する、表示制御装置。
  20.  請求項19に記載の表示制御装置であって、
     前記プロセッサは、前記第1画像データを含む動画データと、前記第2画像データを含む動画データを再生する制御を行う、表示制御装置。
  21.  請求項20に記載の表示制御装置であって、
     前記プロセッサは、前記第2画像データが選択された場合には、前記動画データのうちの前記第2画像データの撮像時刻以降を再生し、前記第1画像データが選択された場合には、前記動画データを最初から再生する制御を行う、表示制御装置。
  22.  請求項1から21のいずれか1項に記載の表示制御装置であって、
     前記プロセッサは、前記複数の画像データから第2基準に基づいて第3画像データを選択し、
     前記画像データ群は、同じ前記エリア情報が対応する前記第3画像データの集合であり、
     前記プロセッサは、
     異なる前記エリア情報が対応する複数の前記画像データ群のいずれかに含まれる前記第1画像データと前記第2画像データと前記第3画像データを前記ディスプレイに表示させる制御を行い、
     前記画像データ群毎に前記ディスプレイに表示させる前記第3画像データの数の差を閾値以下とする制御を行う、表示制御装置。
  23.  請求項1から21のいずれか1項に記載の表示制御装置であって、
     前記プロセッサは、前記複数の画像データから第2基準に基づいて第3画像データを選択し、
     前記画像データ群は、同じ前記エリア情報が対応する前記第3画像データの集合であり、
     前記プロセッサは、
     第1のエリア情報に対応する前記画像データ群に含まれる前記第3画像データの数と、第2のエリア情報に対応する前記画像データ群に含まれる前記第3画像データの数との差を閾値以下にする制御を行う、表示制御装置。
  24.  請求項23に記載の表示制御装置であって、
     前記プロセッサは、
     前記第1のエリア情報に対応する前記画像データから第3基準に基づき前記第3画像データを選択し、
     前記第2のエリア情報に対応する前記画像データ群から第4基準に基づき前記第3画像データを選択し、
     前記第3基準と前記第4基準の一方又は両方を変更することにより、前記差を閾値以下にする制御を行う、表示制御装置。
  25.  請求項1から24のいずれか1項に記載の表示制御装置であって、
     前記プロセッサは、
     前記第1画像データを前記ディスプレイに表示させる制御を行う、表示制御装置。
  26.  プロセッサと、メモリと、を備え、
     前記プロセッサは、
     複数の画像データを取得し、
     前記複数の画像データのうちの第1画像データをディスプレイに表示する制御を行い、
     前記第1画像データに含まれる被写体の状態に基づいて、前記複数の画像データから少なくとも1つの画像データを第2画像データとして前記ディスプレイに表示する制御を行う、表示制御装置。
  27.  プロセッサと、メモリと、を備え、
     前記プロセッサは、
     複数の画像ファイルを取得し、
     前記画像ファイルに関連するエリアの情報であるエリア情報を取得し、
     複数の前記画像ファイルを前記エリア情報に基づいて分類する制御を行う、画像ファイル管理装置。
  28.  複数の画像データを取得し、
     前記画像データに関連するエリアの情報であるエリア情報を取得し、
     同じ前記エリア情報が対応する前記画像データの集合である画像データ群から、第1基準に基づいて第1画像データを選択し、
     前記第1画像データに基づいて、前記画像データ群のうちの少なくとも1つの画像データを第2画像データとしてディスプレイに表示する制御を行う、表示制御方法。
  29.  複数の画像データを取得し、
     前記画像データに関連するエリアの情報であるエリア情報を取得し、
     同じ前記エリア情報が対応する前記画像データの集合である画像データ群から、第1基準に基づいて第1画像データを選択し、
     前記第1画像データに基づいて、前記画像データ群のうちの少なくとも1つの画像データを第2画像データとしてディスプレイに表示する制御を行うステップを、プロセッサに実行させる表示制御プログラム。
     
     
PCT/JP2023/011896 2022-03-31 2023-03-24 表示制御装置、画像ファイル管理装置、表示制御方法、及び表示制御プログラム WO2023190193A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022059048 2022-03-31
JP2022-059048 2022-03-31

Publications (1)

Publication Number Publication Date
WO2023190193A1 true WO2023190193A1 (ja) 2023-10-05

Family

ID=88201442

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/011896 WO2023190193A1 (ja) 2022-03-31 2023-03-24 表示制御装置、画像ファイル管理装置、表示制御方法、及び表示制御プログラム

Country Status (1)

Country Link
WO (1) WO2023190193A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010212932A (ja) * 2009-03-10 2010-09-24 Nikon Corp 画像表示装置
JP2011054075A (ja) * 2009-09-04 2011-03-17 Olympus Imaging Corp 画像制御装置およびプログラム
JP2017010251A (ja) * 2015-06-22 2017-01-12 富士フイルム株式会社 画像抽出装置、画像抽出方法、プログラムおよび記録媒体
US20170026528A1 (en) * 2015-07-21 2017-01-26 Samsung Electronics Co., Ltd. Display apparatus and control method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010212932A (ja) * 2009-03-10 2010-09-24 Nikon Corp 画像表示装置
JP2011054075A (ja) * 2009-09-04 2011-03-17 Olympus Imaging Corp 画像制御装置およびプログラム
JP2017010251A (ja) * 2015-06-22 2017-01-12 富士フイルム株式会社 画像抽出装置、画像抽出方法、プログラムおよび記録媒体
US20170026528A1 (en) * 2015-07-21 2017-01-26 Samsung Electronics Co., Ltd. Display apparatus and control method thereof

Similar Documents

Publication Publication Date Title
JP6599436B2 (ja) ユーザ選択可能な新規ビューを生成するためのシステムおよび方法
US10410677B2 (en) Content management system, management content generating method, management content play back method, and recording medium
US9654844B2 (en) Methods and apparatus for content interaction
JP2020043584A (ja) 複数のメディアストリームの処理
CN111357296B (zh) 影像分发装置、影像分发系统、影像分发方法及存储介质
CN106375674A (zh) 寻找和使用与相邻静态图像相关的视频部分的方法和装置
JP5917635B2 (ja) コンテンツ管理システム、管理コンテンツ生成方法、管理コンテンツ再生方法、プログラムおよび記録媒体
US10124235B2 (en) Athletic training method and system for remote video playback
JPWO2013005266A1 (ja) プレゼンテーションコンテンツ生成装置、プレゼンテーションコンテンツ生成方法、プレゼンテーションコンテンツ生成プログラム、及び集積回路
WO2009126176A1 (en) Method and apparatus for tactile perception of digital images
DE102020124815A1 (de) System und vorrichtung für benutzergesteuerte virtuelle kamera für volumetrisches video
US20210126955A1 (en) Communication terminal, communication system, method for sharing data, and non-transitory recording medium
JP2017169140A (ja) 生成装置、生成方法、及び生成プログラム
JP2007249434A (ja) アルバム作成システム、アルバム作成方法、及びプログラム
JP7202935B2 (ja) 注目度算出装置、注目度算出方法、および注目度算出プログラム
WO2023190193A1 (ja) 表示制御装置、画像ファイル管理装置、表示制御方法、及び表示制御プログラム
JP6566799B2 (ja) 提供装置、提供方法、及びプログラム
US20220417598A1 (en) Image processing device, operation method of image processing device, and operation program of image processing device
WO2020137994A1 (ja) 映像配信装置、映像配信システム、映像配信方法及び映像配信プログラム
CN110008364B (zh) 图像处理方法、装置和系统
US20200092484A1 (en) Image display control apparatus, image display control method, program, and recording medium
JP2020035086A (ja) 情報処理システム、情報処理装置およびプログラム
EP4342554A1 (en) Image processing system, image processing method, and computer program
WO2022065018A1 (ja) スライドショー生成方法、プログラム、及び、スライドショー生成装置
US20220159177A1 (en) Imaging system, server, communication terminal, imaging method, program, and recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23780203

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2024512379

Country of ref document: JP

Kind code of ref document: A