JP2019200642A - Image collection generation program, information processor, and image collection generation method - Google Patents

Image collection generation program, information processor, and image collection generation method Download PDF

Info

Publication number
JP2019200642A
JP2019200642A JP2018095313A JP2018095313A JP2019200642A JP 2019200642 A JP2019200642 A JP 2019200642A JP 2018095313 A JP2018095313 A JP 2018095313A JP 2018095313 A JP2018095313 A JP 2018095313A JP 2019200642 A JP2019200642 A JP 2019200642A
Authority
JP
Japan
Prior art keywords
captured image
image data
captured
image collection
collection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018095313A
Other languages
Japanese (ja)
Inventor
紗也香 諏訪
Sayaka Suwa
紗也香 諏訪
浩樹 二階
Hiroki Nikai
浩樹 二階
卓志 安達
Takushi Adachi
卓志 安達
和秀 山嵜
Kazuhide Yamazaki
和秀 山嵜
友和 大熊
Tomokazu Okuma
友和 大熊
教数 塩月
Kyota Shiotsuki
教数 塩月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018095313A priority Critical patent/JP2019200642A/en
Publication of JP2019200642A publication Critical patent/JP2019200642A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To efficiently generate image collection in an image collection generation system.SOLUTION: For a plurality of events belonging to photographed image data recordable in image collection, weight setting is received, the candidate photographed image data recordable in the image collection is extracted from the photographed image data respectively corresponding to the plurality of events according to the weight received, and image collection in which the extracted photographed image data is recorded is generated.SELECTED DRAWING: Figure 4

Description

本発明は、画像集生成プログラム、情報処理装置、及び画像集生成方法に関する。   The present invention relates to an image collection generation program, an information processing apparatus, and an image collection generation method.

クラブ活動等のコミュニティにおいては、様々なイベントの際に撮像されたメンバ(参加者)の撮像画像(例えば、写真)を用いて画像集(アルバムともいう)を作成する場合があり、このような画像集の作成を支援するシステムが開発されている。   In a community such as club activities, an image collection (also called an album) may be created using captured images (eg, photographs) of members (participants) captured at various events. Systems that support the creation of image collections have been developed.

特開2018−7018号公報Japanese Patent Laid-Open No. 2018-7018 特開2007−96379号公報JP 2007-96379 A 特開2013−161394号公報JP 2013-161394 A 特開2015−60257号公報Japanese Patent Laying-Open No. 2015-60257 特開2001−297090号公報JP 2001-297090 A

このような従来の画像集生成システムにおいては、重要なイベントを網羅することや、各メンバの写っている写真の枚数を平等にすることが困難であり、このような作業を手動で行なっても、多大なる労力や時間を要するという課題がある。   In such a conventional image collection generation system, it is difficult to cover important events and equalize the number of photographs taken by each member. There is a problem that it takes a lot of labor and time.

1つの側面では、効率的な画像集の生成を目的とする。   In one aspect, the object is to generate an efficient image collection.

この画像集生成プログラムは、画像集に収録可能な撮像画像データが属する複数のイベントについて、重みづけの設定を受け付け、受け付けた前記重みづけに応じて、複数の前記イベントのそれぞれに属する撮像画像データの中から前記画像集に収録する候補の撮像画像データを抽出し、抽出した前記撮像画像データを収録した画像集を生成する。   The image collection generating program accepts weighting settings for a plurality of events to which captured image data that can be recorded in the image collection belongs, and the captured image data belonging to each of the plurality of events according to the received weighting. The candidate captured image data to be recorded in the image collection is extracted from the image collection, and an image collection in which the extracted captured image data is recorded is generated.

一実施形態によれば、効率的に画像集を生成することができる。   According to one embodiment, an image collection can be generated efficiently.

実施形態の一例としての画像集生成システムのハードウェア構成を例示する図である。It is a figure which illustrates the hardware constitutions of the image collection production | generation system as an example of embodiment. 実施形態の一例としての画像集生成システムにおける情報処理装置のハードウェア構成を例示する図である。It is a figure which illustrates the hardware constitutions of the information processing apparatus in the image collection production | generation system as an example of embodiment. 実施形態の一例としての画像集生成システムにおけるクライアント端末のハードウェア構成を例示する図である。It is a figure which illustrates the hardware constitutions of the client terminal in the image collection production | generation system as an example of embodiment. 実施形態の一例としての画像集生成システムにおける画像集作成の概要を例示する図である。It is a figure which illustrates the outline | summary of the image collection creation in the image collection production | generation system as an example of embodiment. 実施形態の一例としての画像集生成システムにおけるクライアント端末上での画面を例示する図である。It is a figure which illustrates the screen on the client terminal in the image collection production | generation system as an example of embodiment. 実施形態の一例としての画像集生成システムにおける情報処理装置の機能構成を例示する図である。It is a figure which illustrates the function structure of the information processing apparatus in the image collection production | generation system as an example of embodiment. 実施形態の一例としての画像集生成システムにおける人物情報を例示する図である。It is a figure which illustrates the person information in the image collection production | generation system as an example of embodiment. 実施形態の一例としての画像集生成システムにおけるメンバ情報を例示する図である。It is a figure which illustrates member information in an image collection production system as an example of an embodiment. 実施形態の一例としての画像集生成システムにおけるイベント情報を例示する図である。It is a figure which illustrates the event information in the image collection production | generation system as an example of embodiment. 実施形態の一例としての画像集生成システムにおける写真判定処理を例示する図である。It is a figure which illustrates the photograph determination processing in the image collection production | generation system as an example of embodiment. 実施形態の一例としての画像集生成システムにおける写真判定処理結果を例示する図である。It is a figure which illustrates the photograph determination processing result in the image collection production | generation system as an example of embodiment. 実施形態の一例としての画像集生成システムにおける画像集生成処理を例示する図である。It is a figure which illustrates the image collection production | generation process in the image collection production | generation system as an example of embodiment.

以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示あり、以下に明示しない種々の変形や技術の適用を排除する意図等はない。例えば、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。なお、以下の実施形態で用いる図面において、同一符号を付した部分は、特に断らない限り、同一若しくは同様の部分を表す。   Embodiments of the present invention will be described below with reference to the drawings. However, the embodiments described below are merely examples, and are not intended to exclude various modifications and technical applications that are not explicitly described below. For example, the present embodiment can be implemented with various modifications without departing from the spirit of the present embodiment. Note that, in the drawings used in the following embodiments, portions denoted by the same reference numerals represent the same or similar portions unless otherwise specified.

〔1〕一実施形態
〔1−1〕一実施形態に係る画像集生成システムのハードウェア構成例
図1は、実施形態の一例としての画像集生成システム1のハードウェア構成を例示する図である。
[1] One Embodiment [1-1] Hardware Configuration Example of Image Collection Generating System According to One Embodiment FIG. 1 is a diagram illustrating a hardware configuration of an image collection generating system 1 as an example of an embodiment. .

この図1に示すように、画像集生成システム1は、情報処理装置10と、クライアントによって利用される1つ以上のクライアント端末20−1,20−2,20−3,・・・,20−n(nは整数)とを備える。以下、クライアント端末を示す符号としては、複数のクライアント端末のうち1つを特定する必要があるときには符号20−1,20−2,20−3,・・・,20−nを用いるが、任意のクライアント端末を指すときには符号20を用いる。情報処理装置10と、クライアント端末20とは、インターネット等のネットワーク90を介して接続される。   As shown in FIG. 1, the image collection generating system 1 includes an information processing apparatus 10 and one or more client terminals 20-1, 20-2, 20-3,. n (n is an integer). Hereinafter, as codes indicating client terminals, codes 20-1, 20-2, 20-3,..., 20-n are used when one of a plurality of client terminals needs to be specified. Reference numeral 20 is used when referring to the client terminal. The information processing apparatus 10 and the client terminal 20 are connected via a network 90 such as the Internet.

また、情報処理装置10は、例えば、ネットワーク90を介して、図示しない管理者の管理端末や後述する画像集の編集者が所有する端末と通信することができる。   Further, the information processing apparatus 10 can communicate with, for example, a management terminal of an administrator (not shown) or a terminal owned by an image collection editor (described later) via the network 90.

なお、図1には、画像集生成システム1が、1つの情報処理装置10を備えることを図示したが、複数の情報処理装置10を備えてよい。   1 illustrates that the image collection generating system 1 includes one information processing apparatus 10, but may include a plurality of information processing apparatuses 10.

〔1−2〕一実施形態に係る画像集生成システムにおける情報処理装置のハードウェア構成例
図2は、実施形態の一例としての情報処理装置10のハードウェア構成を例示する図である。
[1-2] Hardware Configuration Example of Information Processing Device in Image Collection Generating System According to One Embodiment FIG. 2 is a diagram illustrating a hardware configuration of the information processing device 10 as an example of the embodiment.

この図2に示すように、情報処理装置10は、例えば、サーバ機能を有するコンピュータであり、CPU(Central Processing Unit)11、記憶部12、メモリ13、IF(Interface)部14、入力部15、及び、出力部16を備えてよい。   As shown in FIG. 2, the information processing apparatus 10 is, for example, a computer having a server function, and includes a CPU (Central Processing Unit) 11, a storage unit 12, a memory 13, an IF (Interface) unit 14, an input unit 15, And the output part 16 may be provided.

また、この情報処理装置10は、サーバ機能を有し、インターネット等のネットワーク90を介して、複数のクライアント端末20と接続される。   The information processing apparatus 10 has a server function and is connected to a plurality of client terminals 20 via a network 90 such as the Internet.

CPU11は、後述する記憶部12等に格納されるOS(Operating System)やプログラムを実行し、例えば、後述する画像集を作成すべく情報処理装置10を制御する。本実施形態では、CPU11は、後述する生成プログラム91を実行する。   The CPU 11 executes an OS (Operating System) or a program stored in a storage unit 12 or the like described later, and controls the information processing apparatus 10 to create an image collection described later, for example. In the present embodiment, the CPU 11 executes a generation program 91 described later.

記憶部12は、種々のデータやプログラム等を格納するハードウェアの一例である。例えば、記憶部12は、情報処理装置10の二次記憶装置として使用されてよく、OSやファームウェア、アプリケーション等のプログラム、及び、各種データが格納されてよい。記憶部12としては、例えば、HDD(Hard Disk Drive)等の磁気ディスク装置の他、SSD(Solid State Drive)やSCM(Storage Class Memory) 等の半導体記憶装置が挙げられる。また、記憶部12は、情報処理装置10の各種機能の全部若しくは一部を実現するプログラムを格納してもよい。   The storage unit 12 is an example of hardware that stores various data, programs, and the like. For example, the storage unit 12 may be used as a secondary storage device of the information processing apparatus 10, and may store an OS, firmware, a program such as an application, and various data. Examples of the storage unit 12 include a semiconductor storage device such as an SSD (Solid State Drive) or an SCM (Storage Class Memory) in addition to a magnetic disk device such as an HDD (Hard Disk Drive). The storage unit 12 may store a program that realizes all or some of the various functions of the information processing apparatus 10.

メモリ13は、種々のデータやプログラムを格納するハードウェアの一例である。メモリ13としては、RAM(Random Access Memory)等の揮発性メモリや、フラッシュメモリ、SCM、ROM(Read Only Memory)等の不揮発性メモリが挙げられる。   The memory 13 is an example of hardware that stores various data and programs. Examples of the memory 13 include a volatile memory such as a RAM (Random Access Memory), and a nonvolatile memory such as a flash memory, an SCM, and a ROM (Read Only Memory).

IF部14は、ネットワーク90を介して、クライアント端末20との間の接続及び通信の制御等を行なう通信インタフェースの一例である。例えば、IF部14としては、イーサネット(登録商標)、光通信(例えばFibre Channel)等に準拠したアダプタが挙げられる。なお、情報処理装置10は、図示しない管理者の管理端末等との間の接続及び通信の制御等を行なう通信インタフェースをそなえてもよく、当該通信インタフェースを用いて、ネットワーク90から生成プログラム91をダウンロードしてもよい。   The IF unit 14 is an example of a communication interface that performs connection control and communication control with the client terminal 20 via the network 90. For example, examples of the IF unit 14 include an adapter compliant with Ethernet (registered trademark), optical communication (for example, Fiber Channel), and the like. The information processing apparatus 10 may have a communication interface for controlling connection and communication with a management terminal (not shown) of an administrator, and the generation program 91 is downloaded from the network 90 using the communication interface. You may download it.

入力部15は、例えば、マウス、キーボード、タッチパネル、操作ボタン等の入力装置の少なくともいずれか一つを含んでよい。   The input unit 15 may include at least one of input devices such as a mouse, a keyboard, a touch panel, and operation buttons, for example.

出力部16は、例えば、ディスプレイや、プロジェクタ、スピーカ、プリンタ等の出力装置の少なくともいずれか一つを含んでよい。   The output unit 16 may include at least one of output devices such as a display, a projector, a speaker, and a printer, for example.

〔1−3〕一実施形態に係る画像集生成システムにおけるクライアント端末のハードウェア構成例
図3は、実施形態の一例としてのクライアント端末20のハードウェア構成を例示する図である。
[1-3] Hardware Configuration Example of Client Terminal in Image Collection Generation System According to One Embodiment FIG. 3 is a diagram illustrating a hardware configuration of a client terminal 20 as an example of the embodiment.

この図3示すように、クライアント端末20は、CPU21、記憶部22、メモリ23、IF部24、入力部25、出力部26、及び、撮像部27を備えてもよい。   As illustrated in FIG. 3, the client terminal 20 may include a CPU 21, a storage unit 22, a memory 23, an IF unit 24, an input unit 25, an output unit 26, and an imaging unit 27.

また、このクライアント端末20は、インターネット等のネットワーク90を介して、情報処理装置10、及び、複数のクライアント端末20と接続される。   The client terminal 20 is connected to the information processing apparatus 10 and a plurality of client terminals 20 via a network 90 such as the Internet.

CPU21は、後述する記憶部22等に格納されるOSやプログラムを実行する。本実施形態では、CPU21は、後述するアップロードプログラム92を実行する。   The CPU 21 executes an OS and a program stored in a storage unit 22 and the like which will be described later. In the present embodiment, the CPU 21 executes an upload program 92 described later.

記憶部22は、種々のデータやプログラム等を格納するハードウェアの一例である。この記憶部22は、撮像画像93を備え、例えば、後述する撮像部27によって撮像された撮像画像を格納してもよい。   The storage unit 22 is an example of hardware that stores various data, programs, and the like. The storage unit 22 includes a captured image 93, and may store a captured image captured by an imaging unit 27 described later, for example.

この記憶部22は、例えば、クライアント端末20の二次記憶装置として使用されてよく、OSやファームウェア、アプリケーション、アップロードプログラム92、及び、撮像画像93等が格納されてよい。また、記憶部22としては、例えば、HDD等の磁気ディスク装置の他、SSDやSCM等の半導体記憶装置が挙げられる。また、記憶部22は、クライアント端末20の各種機能の全部若しくは一部を実現するプログラムを格納してもよい。   For example, the storage unit 22 may be used as a secondary storage device of the client terminal 20, and may store an OS, firmware, an application, an upload program 92, a captured image 93, and the like. Examples of the storage unit 22 include a semiconductor storage device such as an SSD or SCM in addition to a magnetic disk device such as an HDD. The storage unit 22 may store a program that realizes all or some of the various functions of the client terminal 20.

記憶部22に格納されるアップロードプログラム92は、記憶部22に格納される撮像画像93を、例えば、ネットワーク90を介して、情報処理装置10の記憶部12の撮像画像群44(図6参照)にアップロードする。このアップロードプログラム92は、後述する通信インタフェースを用いて、ネットワーク90を介して記憶部22にダウンロードされてもよい。   The upload program 92 stored in the storage unit 22 converts the captured image 93 stored in the storage unit 22 into, for example, the captured image group 44 of the storage unit 12 of the information processing apparatus 10 via the network 90 (see FIG. 6). Upload to. The upload program 92 may be downloaded to the storage unit 22 via the network 90 using a communication interface described later.

メモリ23は、種々のデータやプログラムを格納するハードウェアの一例である。メモリ23としては、RAM等の揮発性メモリや、フラッシュメモリ、SCM、ROM等の不揮発性メモリが挙げられる。   The memory 23 is an example of hardware that stores various data and programs. Examples of the memory 23 include volatile memories such as RAM, and nonvolatile memories such as flash memory, SCM, and ROM.

IF部24は、ネットワーク90を介して、情報処理装置10及びクライアント端末20との間の接続及び通信の制御等を行なう通信インタフェースの一例である。例えば、IF部24としては、イーサネット(登録商標)、光通信(例えばFibre Channel)等に準拠したアダプタが挙げられる。なお、クライアント端末20は、図示しない管理者の管理端末等との間の接続及び通信の制御等を行なう通信インタフェースをそなえてもよい。   The IF unit 24 is an example of a communication interface that controls connection and communication between the information processing apparatus 10 and the client terminal 20 via the network 90. For example, examples of the IF unit 24 include an adapter compliant with Ethernet (registered trademark), optical communication (for example, Fiber Channel), and the like. Note that the client terminal 20 may include a communication interface that controls connection and communication with a management terminal (not shown) of an administrator.

入力部25は、例えば、マウス、キーボード、タッチパネル、操作ボタン等の入力装置の少なくともいずれか一つを含んでよい。   The input unit 25 may include at least one of input devices such as a mouse, a keyboard, a touch panel, and operation buttons, for example.

出力部26は、例えば、ディスプレイや、プロジェクタ、スピーカ、プリンタ等の出力装置の少なくともいずれか一つを含んでよい。   The output unit 26 may include at least one of output devices such as a display, a projector, a speaker, and a printer, for example.

撮像部27は、例えば、レンズ、イメージセンサ、信号処理デバイス等の部品を備え、画像撮像機能を用いて写真等の撮像画像を取得する。また、撮像部27によって撮像された撮像画像は、記憶部22に格納される。記憶部22に格納された撮像画像を符号93で示す。   The imaging unit 27 includes, for example, components such as a lens, an image sensor, and a signal processing device, and acquires a captured image such as a photograph using an image imaging function. The captured image captured by the imaging unit 27 is stored in the storage unit 22. The captured image stored in the storage unit 22 is denoted by reference numeral 93.

なお、上述の如く構成されたクライアント端末20としては、PC(Personal Computer)、タブレット、PDA(Personal Digital Assistant)、カメラ、又は、携帯電話等のコンピュータが挙げられる。   The client terminal 20 configured as described above may be a computer such as a PC (Personal Computer), a tablet, a PDA (Personal Digital Assistant), a camera, or a mobile phone.

〔1−4〕一実施形態に係る画像集生成システムにおける画像集作成の概要
上述の如く構成された実施形態の一例として、画像集生成システム1における画像集作成の概要について、図4,図5を用いて説明する。
[1-4] Outline of Image Collection Creation in Image Collection Generation System According to One Embodiment As an example of the embodiment configured as described above, an outline of image collection creation in the image collection generation system 1 will be described with reference to FIGS. Will be described.

図4は、複数の参加者を管理する画像集生成システム1における画像集作成の概要を示す図である。   FIG. 4 is a diagram showing an outline of image collection creation in the image collection generation system 1 that manages a plurality of participants.

図5は、実施形態の一例としての画像集生成システム1におけるクライアント端末20上での画面を例示する図である。   FIG. 5 is a diagram illustrating a screen on the client terminal 20 in the image collection generating system 1 as an example of the embodiment.

図4に示すように、コミュニティとして、例えば、スポーツクラブ(チーム)に所属する子供達の保護者等の関係者は、クライアント端末20の撮像部27を用い、当該スポーツクラブに所属する選手(例えば、関係者の子供達)を様々なイベントにおいて撮像する。撮像画像には、例えば、練習試合や各種大会等の試合シーン(シーンについては後述する)や、例えば、練習中、食事中、移動中等の上記試合以外のシーン(その他シーン)において撮像したものが含まれる。   As shown in FIG. 4, as a community, for example, an official such as a guardian of children belonging to a sports club (team) uses an imaging unit 27 of the client terminal 20 and a player belonging to the sports club (for example, , Related children) at various events. The captured images include, for example, images taken in game scenes such as practice games and various tournaments (scenes will be described later) and scenes other than the above games (other scenes) such as during practice, eating, and moving. included.

また、関係者によって撮像される撮像画像には、写真だけでなく動画も含まれるものとしてもよい。本実施形態においては、撮像画像が写真である場合を例示して説明する。   In addition, captured images captured by the parties may include not only photographs but also moving images. In the present embodiment, a case where the captured image is a photograph will be described as an example.

そして、上述の関係者は、撮像画像を、例えば、アップロードプログラム92を用いることにより、ネットワーク90を介して情報処理装置10の記憶部12にアップロードすることにより、当該コミュニティに撮像画像を提供する(図4の矢印P1参照)。また、関係者は、図示しないカメラ等の撮像装置を用いて撮像した撮像画像を情報処理装置10の記憶部12にアップロードしてもよい。   Then, the above-mentioned parties provide the captured image to the community by uploading the captured image to the storage unit 12 of the information processing apparatus 10 via the network 90 by using, for example, the upload program 92 ( (See arrow P1 in FIG. 4). Further, the related person may upload a captured image captured using an imaging device such as a camera (not shown) to the storage unit 12 of the information processing device 10.

この情報処理装置10は、クラウドサービス上のサーバであってもよいし、コミュニティに所属する選手や関係者からしかアクセスすることのできない専用サーバであってもよい。したがって、この情報処理装置10の記憶部12の撮像画像群44は、当該コミュニティ専用の撮像画像を格納する場所であるともいえる。   The information processing apparatus 10 may be a server on a cloud service, or may be a dedicated server that can be accessed only by players and related parties belonging to the community. Therefore, it can be said that the captured image group 44 of the storage unit 12 of the information processing apparatus 10 is a place for storing captured images dedicated to the community.

本実施形態においては、特定のコミュニティに所属する複数の人物のうち、特定の人物、及び、特定のイベントを対象として画像集(画像データ集)を作成するものとする。すなわち、撮像画像は、画像集に収録可能な撮像画像データであり、特定のイベントに属する撮像画像が抽出されることになる。   In the present embodiment, an image collection (image data collection) is created for a specific person and a specific event among a plurality of persons belonging to a specific community. That is, the captured image is captured image data that can be recorded in an image collection, and a captured image belonging to a specific event is extracted.

この特定の人物は、画像集の対象者ともいい、また、この特定のイベントは画像集の対象イベントともいう。後述するが、このような画像集の対象者や対象イベントの選択(指定)は、編集者等によって行なわれるものとする(図5の矢印B1参照)。なお、画像集の編集者は、例えば、上記関係者のうちの1以上により構成されてもよい。   This specific person is also called a target person of the image book, and this specific event is also called a target event of the picture book. As will be described later, the selection (designation) of the target person or target event of such an image collection is performed by an editor or the like (see arrow B1 in FIG. 5). Note that the editor of the image collection may be composed of, for example, one or more of the above parties.

また、本実施形態において作成される画像集には、当該コミュニティに所属する人物の関係者によって撮像された撮像画像の中から、特定の人物が含まれている撮像画像が、特定のイベント毎に抽出されて掲載(収録)される。なお、特定の人物を網羅すべく、これら特定の人物について抽出される撮像画像の枚数は、イベント毎に、(ほぼ)同一になるものとすることが望ましい。また、撮像画像の枚数は、撮像画像の数ともいう。   In addition, in the image collection created in the present embodiment, a captured image including a specific person among captured images captured by persons related to a person belonging to the community is displayed for each specific event. Extracted and posted (recorded). In order to cover specific persons, it is desirable that the number of captured images extracted for these specific persons be (almost) the same for each event. The number of captured images is also referred to as the number of captured images.

また、本実施形態において、撮像画像は種々のイベントにおいて撮像されたものであり、例えば、重要性を示す重み(重みづけ)の値が大きいイベントほど、多くの枚数を抽出するものとする。   In the present embodiment, captured images are captured at various events. For example, an event with a larger weight (weighting) value indicating importance is extracted as a larger number.

以上のようにして、本実施形態においては、重要なイベントを網羅し、且つ、特定の選手を網羅した画像集を生成する。   As described above, in this embodiment, an image collection that covers important events and covers a specific player is generated.

〔1−5〕一実施形態に係る画像集生成システムにおける情報処理装置の機能構成例
図6は、図2に示す実施形態の一例としての画像集生成システム1における情報処理装置10の機能構成を例示する図である。
[1-5] Functional Configuration Example of Information Processing Device in Image Collection Generation System According to One Embodiment FIG. 6 shows a functional configuration of the information processing device 10 in the image collection generation system 1 as an example of the embodiment shown in FIG. It is a figure illustrated.

この図6に示すように、情報処理装置10は、例示的に、抽出条件決定部31、撮像画像判定部32、及び、撮像画像抽出部33を備えてよい。   As illustrated in FIG. 6, the information processing apparatus 10 may include an extraction condition determination unit 31, a captured image determination unit 32, and a captured image extraction unit 33 exemplarily.

抽出条件決定部31は、人物目安枚数とイベント目安枚数とを決定する。人物目安枚数とは、1人の人物あたり抽出される(割り当てられる)撮像画像の枚数である。この人物目安枚数を、目安撮像画像データ数ともいう。また、イベント目安枚数とは、1つのイベントあたり抽出される撮像画像の枚数である。   The extraction condition determination unit 31 determines a person guide number and an event guide number. The estimated number of persons is the number of captured images extracted (assigned) per person. This approximate number of persons is also referred to as the approximate number of captured image data. Also, the event guide number is the number of captured images extracted per event.

なお、この抽出条件決定部31が、人物目安枚数とイベント目安枚数とを決定するにあたり、事前に、図示しない管理者や当該画像集の編集者(編集者等ともいう)によって、撮像期間と撮像画像抽出枚数とが指定されるものとする(図5の矢印B2,B3参照)。   Note that the extraction condition determination unit 31 determines an imaging period and an imaging in advance by an administrator (not shown) or an editor (also referred to as an editor) of the image collection before determining the person guide number and the event guide number. It is assumed that the number of extracted images is designated (see arrows B2 and B3 in FIG. 5).

この撮像期間とは、画像集に掲載する対象(候補)となる撮像画像が撮像された期間であり、本画像集生成システムにおいて生成される画像集には、この撮像期間として指定された期間に撮像された撮像画像が抽出されて当該画像集に掲載されるものとする。また、撮像画像抽出枚数とは、画像集に掲載される撮像画像の枚数(撮像画像データの数)であり、この枚数は、当該コミュニティに所属する人物の関係者により撮像された全撮像画像のうち、画像集に掲載すべく抽出される撮像画像の枚数に相当する。   The imaging period is a period in which a captured image that is a target (candidate) to be posted in the image collection is captured. The image collection generated by the image collection generation system includes a period designated as the imaging period. It is assumed that the captured image is extracted and published in the image collection. The number of picked-up images is the number of picked-up images (number of picked-up image data) posted in the image book, and this number is the number of picked-up images of all picked-up images picked up by persons related to the person belonging to the community. Of these, the number corresponds to the number of picked-up images extracted for posting in the image collection.

また、上述のように、編集者等により、事前に画像集に掲載される人物が選択(指定)されるものとする。抽出条件決定部31は、編集者等により指定された人物毎に抽出(選択)される撮像画像の枚数、すなわち、人物目安枚数を決定する。   Further, as described above, it is assumed that a person to be published in the image collection is selected (designated) in advance by an editor or the like. The extraction condition determination unit 31 determines the number of captured images to be extracted (selected) for each person designated by the editor or the like, that is, the person reference number.

また、事前に、編集者等により、各イベントの重みが決定される、すなわち、各イベントについて重みづけが設定されるものとする。抽出条件決定部31は、この決定された各イベントの重みと、上記指定された撮像画像抽出枚数とを受け付け、これらの情報に基づき、イベント毎に抽出する撮像画像の枚数、すなわち、イベント目安枚数を決定する。   In addition, the weight of each event is determined in advance by an editor or the like, that is, the weight is set for each event. The extraction condition determination unit 31 receives the determined weight of each event and the specified number of extracted captured images, and based on these pieces of information, the number of captured images to be extracted for each event, that is, the event guide number To decide.

次に、撮像画像判定部32は、各撮像画像について、後述する、各撮像画像が撮像されたときのイベント、シーン、及び、撮像画像に含まれる人物を判定する。   Next, the captured image determination unit 32 determines, for each captured image, an event, a scene, and a person included in the captured image, which will be described later, when each captured image is captured.

撮像画像抽出部33は、撮像画像の抽出処理を行なう処理順番を決定し、所定のイベント毎に、対象者がそれぞれ被写体として含まれる撮像画像を抽出する。   The captured image extraction unit 33 determines a processing order in which the captured image extraction process is performed, and extracts captured images each containing a subject as a subject for each predetermined event.

また、図6に示すように、記憶部12は、人物情報41、メンバ情報42、イベント情報43、及び、撮像画像群44を備えてよい。   As illustrated in FIG. 6, the storage unit 12 may include person information 41, member information 42, event information 43, and a captured image group 44.

なお、これらのうち、人物情報41、メンバ情報42、及び、イベント情報43は、例えば、編集者等によって予め定義されるものとするが、運用中に適宜変更されてもよい。以下に、記憶部12に格納される各情報について説明する。   Of these, the person information 41, the member information 42, and the event information 43 are defined in advance by an editor or the like, for example, but may be changed as appropriate during operation. Below, each information stored in the memory | storage part 12 is demonstrated.

まず、人物情報41は、各コミュニティに所属する人物に関する情報を管理するものであり、本実施形態では、選手情報を管理するものである。この人物情報41について、図7を用いて説明する。   First, the person information 41 manages information related to persons belonging to each community. In the present embodiment, the person information 41 manages player information. The person information 41 will be described with reference to FIG.

図7は、本画像集生成システム1において、スポーツクラブに所属する人物として、選手に関する人物情報41を例示する図である。本実施形態では、図7に示すように、人物情報41をテーブル形式で表現しているが、人物情報41に格納される情報の表現形式はテーブルに限られるものではなく、種々変形して実施することができる。   FIG. 7 is a diagram illustrating person information 41 regarding players as persons belonging to a sports club in the image collection generating system 1. In this embodiment, as shown in FIG. 7, the person information 41 is expressed in a table format, but the expression format of the information stored in the person information 41 is not limited to a table, and various modifications are made. can do.

この図7に例示する人物情報41は、“選手名”、“学年”、“入部日”、及び、“顔画像”の各フィールドを備える。   The person information 41 illustrated in FIG. 7 includes fields of “player name”, “school year”, “date of entry”, and “face image”.

まず、人物情報41のフィールド“選手名”は、選手の氏名を格納するものである。例えば、図7に示すように、この人物情報41のフィールドには「山田 太朗」が格納される。   First, the field “player name” of the person information 41 stores the name of the player. For example, as shown in FIG. 7, “Taro Yamada” is stored in the field of the person information 41.

人物情報41のフィールド“学年”は、選手の所属する学年を格納するものである。例えば、図7に示すように、“選手名”が「山田 太朗」である選手が所属する学年として、フィールド“学年”には「6年生」が格納される。   The field “school year” of the person information 41 stores the school year to which the player belongs. For example, as shown in FIG. 7, “sixth grade” is stored in the field “grade” as the grade to which the player whose “player name” is “Taro Yamada” belongs.

人物情報41のフィールド“入部日”は、選手が当該スポーツクラブに所属(入部)した日付を格納するものであり、例えば、“年”,“月”,“日”を“/”(スラッシュ)で区切ることにより明示した日付を格納する。例えば、図7に示すように、“選手名”が「山田 太朗」である選手が入部した日付が2014年5月11日である場合、フィールド“入部日”には、「2014/5/11」が格納される。   The field “entrance date” of the person information 41 stores the date that the player belonged to (joins) the sport club. For example, “year”, “month”, and “day” are replaced with “/” (slash). Store the date clearly specified by separating with. For example, as shown in FIG. 7, when the date of entry of a player whose “player name” is “Taro Yamada” is May 11, 2014, “2014/5/11” Is stored.

人物情報41のフィールド“顔画像”は、選手の顔画像の情報として、例えば、当該顔画像へのリンクを格納するものである。本実施形態において、例えば、選手の顔を撮像した顔画像が記憶部12に格納される場合、人物情報41のフィールド“顔画像”には、記憶部12に格納される選手の顔画像へのリンクが格納される。   The field “face image” of the person information 41 stores, for example, a link to the face image as information on the player's face image. In the present embodiment, for example, when a face image obtained by imaging a player's face is stored in the storage unit 12, the field “face image” of the person information 41 is stored in the face image of the player stored in the storage unit 12. A link is stored.

次に、情報処理装置10の記憶部12に備えられるメンバ情報42について説明する。このメンバ情報42は、本画像集生成システム1において、各イベントに関連する参加者に関する情報を管理するものである。このメンバ情報42について、図8を用いて説明する。   Next, the member information 42 provided in the storage unit 12 of the information processing apparatus 10 will be described. The member information 42 is used to manage information related to participants related to each event in the image collection generation system 1. The member information 42 will be described with reference to FIG.

図8に例示するメンバ情報42は、本画像集生成システム1において、図4に例示するスポーツクラブが参戦した試合と、当該試合に出場した選手との対応付けを例示する図である。本実施形態では、図8に示すように、メンバ情報42をテーブル形式で表現しているが、メンバ情報42に格納される情報の表現形式はテーブルに限られるものではなく、種々変形して実施することができる。   The member information 42 illustrated in FIG. 8 is a diagram illustrating the association between the game in which the sports club illustrated in FIG. 4 participates and the player who participated in the game in the image collection generating system 1. In this embodiment, as shown in FIG. 8, the member information 42 is expressed in a table format. However, the expression format of the information stored in the member information 42 is not limited to the table, and various modifications are made. can do.

この図8に示すメンバ情報42は、“イベント名”、“選手名”、及び、“背番号”の各フィールドを備える。   The member information 42 shown in FIG. 8 includes fields of “event name”, “player name”, and “back number”.

このメンバ情報42のフィールド“イベント名”は、イベントの名称を格納するものである。本実施形態では、イベントとして、スポーツクラブが参戦した試合の名称がフィールド“イベント名”に格納される。ここでは、「県大会予選1回戦」のイベントに出場した選手を図8に例示する。   The field “event name” of the member information 42 stores the name of the event. In the present embodiment, the name of the game in which the sports club participated is stored in the field “event name” as an event. Here, FIG. 8 illustrates the players who participated in the “prefectural tournament qualifying round 1” event.

メンバ情報42のフィールド“選手名”は、当該イベントに参加(出場)した人物の氏名を格納するものである。図8には、“イベント名”が「県大会予選1回戦」であるイベントに出場した選手の氏名を例示する。   The field “player name” of the member information 42 stores the name of the person who participated (participated in) the event. FIG. 8 illustrates the names of players who participated in an event whose “event name” is “prefectural tournament qualifying round 1”.

メンバ情報42のフィールド“背番号”は、当該イベントに参加(出場)した“選手名”の備える背番号を格納するものである。図8に示す例では、例えば、“イベント名”が「県大会予選1回戦」であるイベントに出場した選手のうち、“選手名”が「和田 俊夫」である選手が備える“背番号”として、メンバ情報42のフィールド“背番号”には「10」が格納される(図8の矢印P9参照)。   The field “number” of the member information 42 stores the number provided by the “player name” who participated (participated in) the event. In the example shown in FIG. 8, for example, among the players who participated in the event whose “event name” is “prefectural tournament qualifying round 1”, the “number” provided by the player whose “player name” is “Toshio Wada” “10” is stored in the field “number” of the member information 42 (see arrow P9 in FIG. 8).

次に、情報処理装置10の記憶部12に備えられるイベント情報43について説明する。このイベント情報43は、本画像集生成システム1におけるイベントに関する情報を管理するものである。このイベント情報43について、図9を用いて説明する。   Next, the event information 43 provided in the storage unit 12 of the information processing apparatus 10 will be described. The event information 43 manages information related to events in the image collection generating system 1. The event information 43 will be described with reference to FIG.

図9に例示するイベント情報43は、本画像集生成システム1において、図4に例示するスポーツクラブが参戦した試合のスケジュールを格納するものである。本実施形態では、図9に示すように、イベント情報43をテーブル形式で表現しているが、イベント情報43に格納される情報の表現形式はテーブルに限られるものではなく、種々変形して実施することができる。   The event information 43 illustrated in FIG. 9 stores the schedule of the game in which the sports club illustrated in FIG. 4 participates in the image collection generation system 1. In this embodiment, as shown in FIG. 9, the event information 43 is expressed in a table format. However, the expression format of information stored in the event information 43 is not limited to a table, and various modifications are made. can do.

この図9に示すイベント情報43は、“日付又は曜日”、“時間”、“イベント名”、“場所”、及び、“重み”の各フィールドを備える。   The event information 43 shown in FIG. 9 includes fields of “date or day of the week”, “time”, “event name”, “location”, and “weight”.

このイベント情報43のフィールド“日付又は曜日”は、イベントが開催された日付として、例えば、“年”,“月”,“日”を“/”(スラッシュ)で区切ることにより明示した日付を格納したり、曜日を示す情報を格納する。本実施形態では、図9に例示するように、フィールド“日付又は曜日”には、例えば、「日」や「2016/1/15」が格納される。   In the field “date or day of the week” of the event information 43, for example, the date specified by separating the “year”, “month”, and “day” with “/” (slash) is stored as the date of the event. Or store information indicating the day of the week. In this embodiment, as illustrated in FIG. 9, for example, “day” or “2016/1/15” is stored in the field “date or day of the week”.

イベント情報43のフィールド“時間”は、イベントが開催された時間や時間帯を格納する。本実施形態では、図9に例示するように、フィールド“日付又は曜日”には、例えば、「14:40〜17:30」や「9:00〜」が格納される。   The field “time” of the event information 43 stores the time and time zone when the event was held. In the present embodiment, as illustrated in FIG. 9, for example, “14:40 to 17:30” or “9:00 to” is stored in the field “date or day of the week”.

イベント情報43のフィールド“イベント名”は、イベントの名称が格納される。このイベント情報43のフィールド“イベント名”は、既述のメンバ情報42(図8)のフィールド“イベント名”と同様であるため、ここでは説明を省略する。   The field “event name” of the event information 43 stores the name of the event. Since the field “event name” of the event information 43 is the same as the field “event name” of the member information 42 (FIG. 8) described above, description thereof is omitted here.

イベント情報43のフィールド“重み”は、各イベントに対応する重要度等の重みを格納する。この重みは、編集者等によって決定されてもよい。また、本実施例においては、このフィールド“重み”には、0以上の整数が格納されるものとしたが、これ89に限定されるものではない。本実施形態では、図9に例示するように、例えば、“イベント名”が「県大会予選」であるイベントの重みとして、フィールド“重み”には、「6」が格納される(図9の矢印P2参照)。   The field “weight” of the event information 43 stores a weight such as importance corresponding to each event. This weight may be determined by an editor or the like. In this embodiment, an integer greater than or equal to 0 is stored in the field “weight”, but the field “weight” is not limited to this. In the present embodiment, as illustrated in FIG. 9, for example, “6” is stored in the field “weight” as the weight of the event whose “event name” is “prefectural tournament qualifying” (FIG. 9). (See arrow P2).

また、情報処理装置10の記憶部12に備えられる撮像画像群44は、例えば、コミュニティに所属する人物の関係者がクライアント端末20を用いて撮像した撮像画像を格納するものである。上述の如く、これらの撮像画像は、関係者がアップロードプログラム92を用いて、例えば、当該クライアント端末20の記憶部22から、ネットワーク90を介して、情報処理装置10の記憶部12にアップロードしたものである。   Moreover, the captured image group 44 provided in the storage unit 12 of the information processing apparatus 10 stores, for example, captured images captured by a person who belongs to a community using the client terminal 20. As described above, these captured images are uploaded by the parties using the upload program 92, for example, from the storage unit 22 of the client terminal 20 to the storage unit 12 of the information processing apparatus 10 via the network 90. It is.

〔1−6〕一実施形態に係る画像集生成システムの情報処理装置における写真判定処理
上述の如く構成された実施形態の一例として、画像集生成システム1の情報処理装置10による写真判定を、図11を用い、図10に示すフローチャート(ステップT1〜T3)に従って説明する。
[1-6] Photo Determination Processing in Information Processing Device of Image Collection Generation System According to One Embodiment As an example of the embodiment configured as described above, photo determination by the information processing device 10 of the image collection generation system 1 is illustrated in FIG. 11 will be described according to the flowchart (steps T1 to T3) shown in FIG.

この図10は、一実施形態に係る情報処理装置10における写真判定処理を説明するためのフローチャートである。   FIG. 10 is a flowchart for explaining photo determination processing in the information processing apparatus 10 according to an embodiment.

この図11は、一実施形態に係る情報処理装置10における写真判定処理を施した結果を例示する図である。図11に含まれる10枚の四角形状の画像(人物を含む)は、撮像画像を例示したものである。   FIG. 11 is a diagram illustrating the result of performing the photo determination process in the information processing apparatus 10 according to the embodiment. The ten rectangular images (including a person) included in FIG. 11 are examples of captured images.

図10,図11を用いて、図4,図7〜図9に例示するスポーツクラブに所属する特定の選手を対象として画像集を作成する場合を例にとり、画像集作成に必要な前処理としての、情報処理装置10における写真判定処理について説明する。   Using FIG. 10 and FIG. 11 as an example of creating an image book for a specific player belonging to the sports club illustrated in FIG. 4 and FIG. 7 to FIG. The photo determination process in the information processing apparatus 10 will be described.

なお、上述の如く、関係者は、図3に例示するクライアント端末20を用いて選手を撮像するが、これまでに撮像された撮像画像93は、ネットワーク90を介して、情報処理装置10の記憶部12の撮像画像群44に格納(アップロード)されているものとする。   As described above, the related person images the player using the client terminal 20 illustrated in FIG. 3, but the captured image 93 captured so far is stored in the information processing apparatus 10 via the network 90. Assume that it is stored (uploaded) in the captured image group 44 of the unit 12.

この図10に示すステップT1において、情報処理装置10の撮像画像判定部32は、情報処理装置10の記憶部12の撮像画像群44に格納されている撮像画像毎に、当該撮像が撮像された際のイベントを判定する。すなわち、撮像画像判定部32は、記憶部12の撮像画像群44に格納されている各撮像画像が、図9に例示するイベントのうち、いずれのイベントで撮像されたものであるのかを判定する。   In step T1 illustrated in FIG. 10, the captured image determination unit 32 of the information processing device 10 captures the captured image for each captured image stored in the captured image group 44 of the storage unit 12 of the information processing device 10. Determine the event. That is, the captured image determination unit 32 determines which of the events illustrated in FIG. 9 each captured image stored in the captured image group 44 of the storage unit 12 is captured. .

具体的に、撮像画像判定部32は、撮像画像毎に、当該撮像画像が備えるプロファイル等に含まれる撮像日時を抽出する。そして、撮像画像判定部32は、図9に示すイベント情報43に基づき、抽出した撮像日時が、いずれのイベントが開催されている日付又は曜日、及び、時間に含まれるかを判定する。   Specifically, the captured image determination unit 32 extracts, for each captured image, an imaging date and time included in a profile or the like included in the captured image. Then, the captured image determination unit 32 determines, based on the event information 43 shown in FIG. 9, whether the extracted imaging date / time is included in the date or day of the week and the time when the event is held.

例えば、撮像画像判定部32が撮像画像から抽出した撮像日時が、2016年1月16日11:00である場合、撮像画像判定部32は、当該撮像画像が「県大会予選」において撮像されたものであると判定する(図9に示す矢印P2参照)。   For example, when the captured date and time extracted from the captured image by the captured image determination unit 32 is 16:00 on January 16, 2016, the captured image determination unit 32 captures the captured image in the “prefectural convention qualifying”. It is determined that it is a thing (see arrow P2 shown in FIG. 9).

また、ステップT1において、撮像画像判定部32は、位置情報を示す座標情報に基づきイベントを判定してもよい。この位置情報を示す座標情報も、撮像画像が備えるプロファイル等に含まれる。この位置情報を示す座標情報に基づくイベント判定は、撮像画像の撮像日時に基づくイベント判定と併せて行なってもよいし、撮像画像の撮像日時に基づくイベント判定に代えて行なってもよい。   In step T1, the captured image determination unit 32 may determine an event based on coordinate information indicating position information. The coordinate information indicating the position information is also included in the profile and the like included in the captured image. The event determination based on the coordinate information indicating the position information may be performed together with the event determination based on the imaging date / time of the captured image, or may be performed instead of the event determination based on the imaging date / time of the captured image.

撮像画像判定部32がステップT1におけるイベント判定処理を行なった結果、図11に例示する撮像画像は、各撮像日時に基づき3つのイベント(「入部式」,「県大会予選」,「遠征」)のいずれかで撮像されたかが判定される(図11の矢印P3〜P5参照)。   As a result of the event determination processing in step T1 performed by the captured image determination unit 32, the captured image illustrated in FIG. 11 has three events (“entrance type”, “prefectural tournament qualifying”, “expedition”) based on each imaging date and time. (See arrows P3 to P5 in FIG. 11).

続くステップT2において、撮像画像判定部32は、情報処理装置10の記憶部12の撮像画像群44に格納されている撮像画像毎に、当該撮像が撮像されたシーンを判定する。シーンとは、撮像された状況を表し、本実施形態においては、シーンが試合であるのか、又は、試合以外であるのかが判定される。すなわち、撮像画像判定部32は、記憶部12の撮像画像群44に格納されている各撮像画像について、当該画像が試合のシーン(試合シーン)であるのか、又は、試合以外のシーン(その他シーン)であるのかを判定する。   In subsequent step T <b> 2, the captured image determination unit 32 determines, for each captured image stored in the captured image group 44 of the storage unit 12 of the information processing apparatus 10, the scene in which the captured image is captured. A scene represents a captured situation. In this embodiment, it is determined whether the scene is a game or a game other than a game. That is, for each captured image stored in the captured image group 44 of the storage unit 12, the captured image determination unit 32 determines whether the image is a game scene (game scene) or a scene other than the game (other scenes). ).

具体的に、撮像画像判定部32は、撮像画像毎に、当該撮像画像に含まれる背景(例えば、グランドの色)に基づきシーンを判定するものとする。また、撮像画像判定部32は、例えば、撮像画像に含まれる選手の着衣画像を検出し、この検出結果に基づき、シーンを判定する。例えば、検出された着衣画像がユニフォーム画像である場合には、当該ユニフォーム画像に含まれるユニフォームが試合時に着用されるものであるか、試合以外の場面で着用されるものであるかに基づき、シーンを判定する。また、その他、シーンを判定するための公知の手法を適宜組み合わせてもよい。   Specifically, the captured image determination unit 32 determines a scene for each captured image based on a background (for example, a ground color) included in the captured image. The captured image determination unit 32 detects, for example, a player's clothing image included in the captured image, and determines a scene based on the detection result. For example, when the detected clothing image is a uniform image, the scene is based on whether the uniform included in the uniform image is worn at the time of a game or worn at a scene other than the game. Determine. In addition, known methods for determining a scene may be appropriately combined.

この撮像画像判定部32が、このステップT2におけるシーン判定処理を行なった結果、図11に例示する撮像画像は、試合シーンであるのか、又は、その他シーンであるのかが判定される(図11の矢印P6,P7参照)。   As a result of the scene determination processing in step T2 performed by the captured image determination unit 32, it is determined whether the captured image illustrated in FIG. 11 is a game scene or another scene (FIG. 11). (See arrows P6 and P7).

続くステップT3において、撮像画像判定部32は、情報処理装置10の記憶部12の撮像画像群44に格納されている撮像画像毎に、当該撮像画像に含まれる人物(撮像された人物)を判定する。図11の例では、当該撮像画像に含まれる人物として選手を判定する。   In subsequent step T <b> 3, the captured image determination unit 32 determines, for each captured image stored in the captured image group 44 of the storage unit 12 of the information processing apparatus 10, a person (captured person) included in the captured image. To do. In the example of FIG. 11, a player is determined as a person included in the captured image.

具体的に、撮像画像判定部32は、撮像画像毎に、当該撮像画像に含まれる背番号を抽出する。そして、撮像画像判定部32は、図8に例示するメンバ情報42に格納される“背番号”の情報に基づき、抽出した背番号がいずれの選手のものであるかを判定する。この画像から番号を抽出するための手法は公知であるため、その説明は省略する。   Specifically, the captured image determination unit 32 extracts a spine number included in the captured image for each captured image. Then, the captured image determination unit 32 determines which player the extracted back number belongs to based on the information of “back number” stored in the member information 42 illustrated in FIG. Since a method for extracting a number from this image is known, the description thereof is omitted.

このステップT3において、例えば、図11の矢印P8,P9に示す撮像画像において、撮像画像判定部32は、当該撮像画像に含まれる背番号「10」を抽出する。そして、撮像画像判定部32は、図8に示すメンバ情報42を参照し、背番号が「10」である選手が「和田 俊夫」であることから、図11の矢印P8,P9に示す撮像画像に含まれる選手は、「和田 俊夫」であると判定する。   In step T3, for example, in the captured image indicated by arrows P8 and P9 in FIG. 11, the captured image determination unit 32 extracts the number “10” included in the captured image. Then, the captured image determination unit 32 refers to the member information 42 shown in FIG. 8 and the player whose back number is “10” is “Toshio Wada”. Therefore, the captured images shown by arrows P8 and P9 in FIG. The player included in is determined to be “Toshio Wada”.

また、撮像画像判定部32は、撮像画像毎に、当該撮像画像に含まれる顔(の画像)に基づき、選手を判定してもよい。その場合、撮像画像判定部32は、各撮像画像に含まれる顔の画像を抽出し、この抽出した顔の画像と、図7に示す人物情報41の“顔画像”のリンク先に格納される顔の画像とを比較して、当該撮像画像に含まれる選手を判定する(図11の矢印P10参照)。このような顔画像に基づき撮像画像に含まれる人物を判定するための手法は公知であるため、その説明は省略する。この顔画像に基づく人物判定は、背番号に基づく人物判定と併せて行なってもよいし、背番号に基づく人物判定に代えて行なってもよい。   Moreover, the captured image determination unit 32 may determine a player for each captured image based on the face (image) included in the captured image. In that case, the captured image determination unit 32 extracts a face image included in each captured image, and stores the extracted face image and a link destination of the “face image” of the person information 41 illustrated in FIG. 7. A player included in the captured image is determined by comparing the face image (see arrow P10 in FIG. 11). Since a technique for determining a person included in a captured image based on such a face image is known, the description thereof is omitted. The person determination based on the face image may be performed together with the person determination based on the spine number, or may be performed instead of the person determination based on the spine number.

このようにして、ステップT3において抽出された撮像画像(撮像画像データ群)は、当該撮像画像に含まれる人物の情報(選手情報)と関連づけられる。   In this way, the captured image (captured image data group) extracted in step T3 is associated with the information of the person (player information) included in the captured image.

以上のステップT1〜T3の処理を経て、撮像画像判定部32は、各撮像画像に対して、いずれのイベント及びシーンで撮像されたものであるか、また、各撮像画像にはいずれの選手が含まれるものであるかを判定(分類)することができる。そして、このようなステップT1〜T3に示す前処理を経て判定(分類)された撮像画像を用いて、後述する処理を経て各選手の写真を抽出する。   Through the processes of steps T1 to T3 described above, the captured image determination unit 32 determines which event and scene are captured for each captured image, and which player is included in each captured image. It can be determined (classified) whether it is included. And the photograph of each player is extracted through the process mentioned later using the captured image determined (classified) through the preprocessing shown in steps T1 to T3.

〔1−7〕一実施形態に係る画像集生成システムの情報処理装置における画像集生成処理
上述の如く構成された実施形態の一例として、画像集生成システム1の情報処理装置10による画像集生成処理を、図5,図11を用いて、図12に示すフローチャート(ステップS1〜S10)に従って説明する。
[1-7] Image Collection Generation Processing in Information Processing Device of Image Collection Generation System According to One Embodiment As an example of the embodiment configured as described above, image collection generation processing by information processing device 10 of image collection generation system 1 Is described according to the flowchart (steps S1 to S10) shown in FIG.

この図12は、一実施形態に係る情報処理装置10における処理を説明するためのフローチャートである。   FIG. 12 is a flowchart for explaining processing in the information processing apparatus 10 according to the embodiment.

図12を用いて、図4,図7〜図11に例示するスポーツクラブに所属する特定の選手を対象として画像集を作成する場合を例にとり、情報処理装置10における処理を説明する。   The processing in the information processing apparatus 10 will be described using FIG. 12 as an example in which an image collection is created for a specific player belonging to the sports club illustrated in FIGS. 4 and 7 to 11.

なお、上述の如く、選手の関係者は、図3に例示するクライアント端末20を用いて選手を撮像するが、これまでに撮像された撮像画像93は、ネットワーク90を介して、情報処理装置10の記憶部12の撮像画像群44に格納されているものとする。   Note that, as described above, the players involved image the players using the client terminal 20 illustrated in FIG. 3, but the captured image 93 captured so far is transmitted via the network 90 to the information processing apparatus 10. Are stored in the captured image group 44 of the storage unit 12.

この図12に示すステップS1において、情報処理装置10の抽出条件決定部31は、人物目安枚数とイベント目安枚数とを決定する。具体的には、抽出条件決定部31は、事前に、編集者等によって指定された撮像期間、撮像画像抽出枚数、及び、対象者に基づき、人物目安枚数を決定する。   In step S1 shown in FIG. 12, the extraction condition determination unit 31 of the information processing apparatus 10 determines the person guide number and the event guide number. Specifically, the extraction condition determination unit 31 determines the estimated number of persons based on the imaging period, the number of captured images extracted, and the target person specified in advance by an editor or the like.

例えば、関係者によって撮像された選手の全撮像画像が1,000枚であったとする(図5に示す矢印B4参照)。そして、画像集の編集者等により指定された撮像期間が2016年度であり(図5に示す矢印B2参照)、撮像画像抽出枚数が50枚であったとする(図5に示す矢印B3参照)。また、画像集の編集者等により、画像集の対象者となる選手が「山田 太朗」,「井口 雄一」と指定されたとする(図5に示す矢印B1参照)。   For example, it is assumed that the total number of captured images of the players captured by the parties concerned is 1,000 (see arrow B4 shown in FIG. 5). Assume that the imaging period designated by the editor of the image collection is 2016 (see arrow B2 shown in FIG. 5) and the number of extracted captured images is 50 (see arrow B3 shown in FIG. 5). Further, it is assumed that the player who is the subject of the image collection is designated as “Taro Yamada” or “Yuichi Iguchi” by the editor of the image collection (see arrow B1 shown in FIG. 5).

まず、抽出条件決定部31は、編集者等により指定された撮像期間に基づき、記憶部12の撮像画像群44に格納される全撮像画像1,000枚のうち、撮像された日時が2016年度である撮像画像を抽出する。この抽出方法は公知であるため、その説明は省略する。   First, based on the imaging period designated by the editor or the like, the extraction condition determination unit 31 sets the date and time when the imaged date was taken out of all 1,000 captured images stored in the captured image group 44 of the storage unit 12 in FY2016. The captured image is extracted. Since this extraction method is known, the description thereof is omitted.

抽出条件決定部31は、撮像画像抽出枚数(50枚)と、画像集の対象者(選手数)が上記2名であるという情報とから、撮像画像抽出枚数(50枚)を画像集の対象者数(2名)で除算することにより、人物目安枚数が25枚であると算出する。これは、全撮像画像のうち、「山田 太朗」,「井口 雄一」の両選手について、それぞれ、25枚の撮像画像を抽出することを意味する。これは、本実施形態においては、画像集の対象者の各々について、同一枚数の撮像画像を抽出するためである。   The extraction condition determination unit 31 determines the number of picked-up images (50) from the number of picked-up images (50) and the information that the target person (number of players) of the image collection is the above two people. By dividing by the number of persons (2 persons), the estimated number of persons is calculated to be 25. This means that 25 captured images are extracted for each of “Taro Yamada” and “Yuichi Iguchi” among all captured images. This is because, in the present embodiment, the same number of captured images is extracted for each subject of the image collection.

なお、本実施形態において、対象者の各々に対して抽出される画像には、必ず、対象者が含まれる(写っている)ものとする。   In the present embodiment, it is assumed that the target person is always included in the image extracted for each target person.

続くステップS2において、抽出条件決定部31は、イベント毎にイベント目安枚数を決定する。具体的には、抽出条件決定部31は、画像集の編集者等によって設定された、各イベントの重みに基づき、以下の式(1)を用いて各イベントのイベント目安枚数を決定する。   In subsequent step S2, the extraction condition determination unit 31 determines the event guide number for each event. Specifically, the extraction condition determination unit 31 determines the event standard number of each event using the following formula (1) based on the weight of each event set by the editor of the image collection.

イベント目安枚数[枚]=撮像画像抽出枚数[枚]×(当該イベントの重み/全重み) (1)     Estimated number of events [sheets] = number of captured image extractions [sheets] x (weight of event / total weight) (1)

上記式(1)において、全重みとは、各イベントに付与される重みの合計である。すなわち、上記式(1)を用いることにより、抽出条件決定部31は、重みに応じた数量バランスに応じて、複数のイベントのそれぞれに属する撮像画像の中から該当する撮像画像を抽出する。   In the above formula (1), the total weight is the sum of the weights given to each event. That is, by using the above formula (1), the extraction condition determination unit 31 extracts a corresponding captured image from captured images belonging to each of a plurality of events according to the quantity balance according to the weight.

例えば、開催されたイベントのうち、「入部式」,「県大会予選」,「遠征」の各イベントを対象として撮像画像を抽出する場合に、各イベントに付与された重みが、それぞれ、「4」,「6」,「3」と設定されているものとする。このような場合、上記式(1)に基づき、「入部式」のイベント目安枚数は、50(枚)×(4/(4+6+3))=15(枚)(なお、下1桁以下は四捨五入)と算出される。同様にして、「県大会予選」のイベント目安枚数は23枚、「遠征」のイベント目安枚数は12枚と、それぞれ算出される。   For example, among the events that are held, when a captured image is extracted for each event of “entrance type”, “prefectural tournament qualifying”, and “expedition”, the weight given to each event is “4”, respectively. ”,“ 6 ”, and“ 3 ”. In such a case, based on the above formula (1), the target number of events for the “entrance type” is 50 (sheets) × (4 / (4 + 6 + 3)) = 15 (sheets) (note that the last digit is rounded off) Is calculated. Similarly, the event guide number for “prefectural tournament qualifying” is calculated as 23, and the event guide number for “expedition” is calculated as 12, respectively.

上述のようにして算出されたイベント目安枚数とは、イベント毎に抽出される撮像画像の枚数であるから、画像集の対象者となる両選手「山田 太朗」,「井口 雄一」の撮像画像を含む。上述の如く、本実施形態においては、各対象者について抽出される撮像画像の枚数は、イベント毎に、(ほぼ)同一になることが望ましい。したがって、例えば、「入部式」の撮像画像の場合、イベント目安枚数が15枚であることから、イベント目安枚数(15枚)を対象者数(選手数;2名)で除算(按分)することにより求められた値(7.5枚)が、対象者一人あたりの撮像画像の枚数となる。   Since the estimated number of events calculated as described above is the number of captured images extracted for each event, the captured images of both players “Taro Yamada” and “Yuichi Iguchi” who are the subjects of the image collection are used. Including. As described above, in the present embodiment, it is desirable that the number of captured images extracted for each target person be (almost) the same for each event. Therefore, for example, in the case of an “entrance type” captured image, the event target number is 15, so the event target number (15) is divided (apportioned) by the number of subjects (number of players; 2 players). The value obtained by (7.5) is the number of captured images per target person.

続くステップS3において、撮像画像抽出部33は、図10のステップT2に示すシーン判定処理の結果を受け(図10及び図12の矢印Q2参照)、全撮像画像1,000枚のうち、撮像画像判定部32によって試合シーンであると判定された撮像画像を抽出する。すなわち、撮像画像抽出部33は、試合シーンの撮像画像(所定のユニフォーム画像が検出される撮像画像)を、その他シーンの撮像画像(所定のユニフォーム画像が検出されない撮像画像)よりも優先して選択する。   In subsequent step S3, the captured image extraction unit 33 receives the result of the scene determination process shown in step T2 of FIG. 10 (see arrow Q2 in FIGS. 10 and 12), and among the 1,000 captured images, the captured image. A captured image that is determined to be a game scene by the determination unit 32 is extracted. That is, the captured image extraction unit 33 selects a captured image of a game scene (a captured image in which a predetermined uniform image is detected) in preference to a captured image of another scene (a captured image in which a predetermined uniform image is not detected). To do.

そして、撮像画像抽出部33は、図10のステップT3に示す人物判定処理の結果を受け(図10及び図12の矢印Q3参照)、上記抽出した撮像画像のうち、対象者がそれぞれ被写体として含まれる撮像画像を抽出し、その枚数を算出する。すなわち、図10のステップT3において、「山田 太朗」と「井口 雄一」とに対応づけられた撮像画像(撮像画像データ群)をそれぞれ抽出し、その枚数を算出する。例えば、全撮像画像1,000枚のうち、試合シーンであり、且つ、対象者のうち、「山田 太朗」が含まれていると判定された撮像画像が250枚であったとする。同様に、全撮像画像1,000枚のうち、試合シーンであり、且つ、対象者のうち、「井口 雄一」が含まれていると判定された撮像画像が50枚であったとする。   The captured image extraction unit 33 receives the result of the person determination process shown in step T3 in FIG. 10 (see the arrow Q3 in FIGS. 10 and 12), and the target person is included as a subject in the extracted captured images. The captured image to be extracted is extracted, and the number of images is calculated. That is, in step T3 in FIG. 10, the captured images (captured image data group) associated with “Taro Yamada” and “Yuichi Iguchi” are extracted, and the number of images is calculated. For example, it is assumed that among all 1,000 captured images, there are 250 captured images determined to be a game scene and to include “Taro Yamada” among subjects. Similarly, it is assumed that among all 1,000 captured images, there are 50 captured images that are determined to be a game scene and that include “Yuichi Iguchi” among the subjects.

このステップS3による処理は、例えば、図5に例示するクライアント端末20上での画面において、“写真を抽出”というボタンを押下することにより開始されるものとしてもよい(図5の矢印B5参照)。   The processing in step S3 may be started, for example, by pressing a “extract photo” button on the screen on the client terminal 20 illustrated in FIG. 5 (see arrow B5 in FIG. 5). .

続くステップS4において、撮像画像抽出部33は、撮像画像の抽出処理を行なう処理順番を決定する。すなわち、撮像画像抽出部33は、ステップS3において算出した試合シーンの撮像画像の枚数が少ない選手について先に撮像画像の抽出処理を行なうような処理順番を決定する。   In subsequent step S <b> 4, the captured image extraction unit 33 determines the processing order for performing the captured image extraction process. That is, the captured image extraction unit 33 determines a processing order in which the captured image extraction process is performed first for a player with a small number of captured images of the game scene calculated in step S3.

上述した例では、撮像画像抽出部33は、先に「井口 雄一」(試合シーンの撮像画像枚数:50枚)について撮像画像の抽出処理を行い、次に「山田 太朗」(試合シーンの撮像画像枚数:250枚)について撮像画像の抽出処理を行なう処理順番を決定する。   In the example described above, the captured image extraction unit 33 first performs captured image extraction processing on “Yuichi Iguchi” (number of captured images of the match scene: 50), and then “Taro Yamada” (captured image of the match scene). The number of picked-up image extraction processing is determined for the number of sheets: 250).

続くステップS5において、撮像画像抽出部33は、撮像画像の抽出処理を行なっていない人物の有無を判定する。撮像画像の抽出処理を行なっていない人物がいる場合(ステップS5におけるYesルート)、処理がステップS6に進む。一方、撮像画像の抽出処理を行なっていない人物がいない場合(ステップS5におけるNoルート)、処理がステップS7に進む。   In subsequent step S <b> 5, the captured image extraction unit 33 determines whether there is a person who has not performed extraction processing of the captured image. If there is a person who has not performed the captured image extraction process (Yes route in step S5), the process proceeds to step S6. On the other hand, when there is no person who has not performed the captured image extraction process (No route in step S5), the process proceeds to step S7.

ステップS6では、重みの大きい順番に、イベント毎の撮像画像を抽出する処理を行なう。すなわち、ステップS6において、重みの大きさに基づき、「県大会予選」(重み:「6」)、「入部式」(重み:「4」)、「遠征」(重み:「3」)の順番に撮像画像を抽出する。このステップS6では、図10のステップT1に示すイベント判定処理の結果を受け(図10及び図12の矢印Q1参照)、イベント毎に撮像画像を抽出する。   In step S6, processing for extracting captured images for each event is performed in descending order of weight. That is, in step S6, the order of “prefectural tournament qualifying” (weight: “6”), “entrance type” (weight: “4”), “expedition” (weight: “3”) based on the size of the weight. A captured image is extracted. In step S6, the result of the event determination process shown in step T1 in FIG. 10 is received (see arrow Q1 in FIGS. 10 and 12), and a captured image is extracted for each event.

上述した例では、撮像画像抽出部33は、「井口 雄一」から先に、ステップS6に示す撮像画像の抽出処理を行なう。具体的に、撮像画像抽出部33は、ステップS3で抽出した、「井口 雄一」が含まれていると判定された試合シーンの撮像画像(50枚)のうち、「県大会予選」(重み:「6」)に撮像されたものを抽出する。この抽出において、撮像画像抽出部33は、図10に示すステップT1に示すイベント判定処理において、撮像画像判定部32によって「県大会予選」の撮像画像であると判定されたものを抽出する。   In the example described above, the captured image extraction unit 33 performs the captured image extraction process shown in step S6 before “Yuichi Iguchi”. Specifically, the captured image extraction unit 33 extracts “prefectural tournament qualifying” (weight: of the captured images (50 images) of the game scene determined to include “Yuichi Iguchi” extracted in step S3). “6”) extracts the imaged image. In this extraction, the captured image extraction unit 33 extracts the image determined by the captured image determination unit 32 as the captured image of “prefectural tournament qualifying” in the event determination process shown in step T1 shown in FIG.

次に、撮像画像抽出部33は、同様に、「井口 雄一」が含まれていると判定された試合シーンの撮像画像(50枚)のうち、「入部式」(重み:「4」)に撮像されたものを抽出する。そして、撮像画像抽出部33は、「井口 雄一」が含まれていると判定された試合シーンの撮像画像(50枚)のうち、「遠征」(重み:「3」)に撮像されたものを抽出する。   Next, the captured image extraction unit 33 similarly applies the “entry type” (weight: “4”) out of the captured images (50 images) of the game scene determined to include “Yuichi Iguchi”. Extract what was imaged. The captured image extraction unit 33 then captures images captured in the “expedition” (weight: “3”) among the captured images (50) of the game scene determined to include “Yuichi Iguchi”. Extract.

このようにステップS6に示す処理を経て、「入部式」,「県大会予選」,「遠征」の各イベント時に撮像された「井口 雄一」の撮像画像が抽出される。そして、処理がステップS5に戻る。   In this way, through the processing shown in step S6, a captured image of “Yuichi Iguchi” captured at each event of “Iribe type”, “Prefectural tournament qualifying”, and “Expedition” is extracted. Then, the process returns to step S5.

本実施形態では、ステップS5において、撮像画像の抽出処理を行なっていない人物として「山田 太朗」がいるので、ステップS5に示すYesルートを進み、「山田 太朗」についてステップS6に示す撮像画像の抽出処理を行なう。ステップS6にて、「山田 太朗」について撮像画像の抽出処理が終了すると、処理がステップS5に戻る。この例では、対象者すべてについて撮像画像の抽出処理を行なったことになり、ステップS5に示すNoルートを経て、処理がステップS7に進む。   In this embodiment, since “Taro Yamada” is the person who has not performed the extraction process of the captured image in step S5, the Yes route shown in step S5 is followed, and the extracted captured image shown in step S6 for “Taro Yamada” is displayed. Perform processing. In step S6, when the captured image extraction process for “Taro Yamada” ends, the process returns to step S5. In this example, the picked-up image extraction process is performed for all the target persons, and the process proceeds to step S7 via the No route shown in step S5.

ステップS7において、撮像画像抽出部33は、対象者のうち、人物目安枚数に満たない選手の有無を判定する。人物目安枚数に満たない選手がいる場合(ステップS7におけるYesルート)、処理がステップS8に進む。一方、人物目安枚数に満たない選手がいない場合(ステップS7におけるNoルート)、処理がステップS9に進む。   In step S <b> 7, the captured image extraction unit 33 determines whether or not there is a player who is less than the target number of persons among the target persons. When there is a player who does not satisfy the estimated number of persons (Yes route in step S7), the process proceeds to step S8. On the other hand, when there is no player who does not satisfy the estimated number of persons (No route in step S7), the process proceeds to step S9.

ステップS8において、撮像画像抽出部33は、人物目安枚数に満たない選手について、その他シーンから、人物目安枚数に満たない枚数分だけ、当該選手が被写体として含まれる撮像画像を抽出する。その他シーンの撮像画像について、撮像画像抽出部33は、図10のステップT2に示すシーン判定処理の結果を用いるものとする(図10及び図12の矢印Q2’参照)。   In step S <b> 8, the captured image extraction unit 33 extracts captured images in which the player is included as a subject from the other scenes for the number of players that is less than the estimated number of people for the players that are less than the estimated number of people. For the captured image of the other scene, the captured image extraction unit 33 uses the result of the scene determination process shown in step T2 of FIG. 10 (see arrow Q2 'in FIGS. 10 and 12).

例えば、上述のステップS6(撮像画像抽出処理)において、例えば、「井口 雄一」に関し、撮像画像抽出部33によって、「入部式」の撮像画像が5枚、「県大会予選」の撮像画像が8枚、「遠征」の撮像画像が8枚の計21枚の撮像画像が抽出されたとする。また、「山田 太朗」に関し、撮像画像抽出部33によって、「入部式」の撮像画像が13枚、「県大会予選」の撮像画像が6枚、「遠征」の撮像画像が6枚の計25枚の撮像画像が抽出されたとする。   For example, in the above-described step S6 (captured image extraction process), for example, regarding “Yuichi Iguchi”, the captured image extraction unit 33 generates five “entrance type” captured images and 8 “prefectural tournament qualifying” captured images. Assume that a total of 21 captured images are extracted, that is, eight captured images of “expedition”. In addition, regarding “Taro Yamada”, the captured image extraction unit 33 has 13 images of “Iribe-style”, 6 images of “prefectural tournament qualifying”, and 6 images of “expedition”. Assume that one captured image is extracted.

この例では、ステップS7において、撮像画像抽出部33は、人物目安枚数に満たない選手の有無を判定した結果、「井口 雄一」について人物目安枚数に満たないと判定する。そこで、撮像画像抽出部33は、「井口 雄一」について、人物目安枚数に満たない枚数である4枚分だけ、その他シーンから、「井口 雄一」が被写体として含まれる撮像画像を抽出する。   In this example, in step S <b> 7, the captured image extraction unit 33 determines whether or not there is a player that does not meet the person guide number, and determines that “Yuichi Iguchi” does not reach the person guide number. Therefore, the captured image extraction unit 33 extracts a captured image including “Yuichi Iguchi” as a subject from other scenes for “Yuichi Iguchi”, which is a number that is less than the estimated number of people.

このようにして、撮像画像抽出部33は、各対象者について、人物目安枚数分の撮像画像を抽出できる。   In this manner, the captured image extraction unit 33 can extract captured images for the target number of persons for each target person.

続くステップS9において、撮像画像抽出部33は、上述したステップS1〜S9に示す所定のアルゴリズムに従った選択処理を経て得られた選択(抽出)結果を評価する。具体的に、撮像画像抽出部33は、各対象者について抽出された撮像画像のうち、試合シーンの撮像画像の枚数(試合シーンに対応する撮像画像の枚数)の占める割合(%)を算出することにより、評価結果を求める。   In subsequent step S9, the captured image extraction unit 33 evaluates the selection (extraction) result obtained through the selection process according to the predetermined algorithm shown in steps S1 to S9 described above. Specifically, the captured image extraction unit 33 calculates the ratio (%) of the captured image extracted for each target person to the number of captured images of the game scene (the number of captured images corresponding to the game scene). Thus, the evaluation result is obtained.

上記例の場合、「山田 太朗」について抽出された全撮像画像(25枚)のうち、すべてが試合シーンの撮像画像(25枚)であるので、「山田 太朗」に関する評価結果は100%となる。一方、「井口 雄一」について抽出された全撮像画像(25枚)のうち、21枚だけが試合シーンの撮像画像であるので、試合シーンの撮像画像の枚数(21枚)を全撮像画像(25枚)で割ることにより算出された値(0.84)に基づき評価結果は84%となる。   In the case of the above example, since all the captured images (25) extracted for “Taro Yamada” are captured images (25) of the game scene, the evaluation result regarding “Taro Yamada” is 100%. . On the other hand, out of all the captured images (25 images) extracted for “Yuichi Iguchi”, only 21 images are the captured images of the game scene, so the number of captured images of the game scene (21 images) is the total captured image (25 images). The evaluation result is 84% based on the value (0.84) calculated by dividing by (sheet).

なお、本実施形態では、抽出された撮像画像のうち、試合シーンの撮像画像の枚数の占める割合を評価結果として算出したが、抽出された撮像画像のうち、所定のイベントに対応する撮像画像の枚数の占める割合を評価結果として算出してもよい。また、抽出された撮像画像のうち、所定のスポーツクラブ(チーム,組織)の選手毎の被写体として含まれる撮像画像の枚数の占める割合を評価結果として算出してもよい。   In the present embodiment, the ratio of the number of captured images of the game scene in the extracted captured images is calculated as an evaluation result. However, among the extracted captured images, the captured image corresponding to a predetermined event is calculated. The ratio of the number of sheets may be calculated as the evaluation result. Further, the ratio of the number of captured images included as subjects for each player of a predetermined sports club (team, organization) in the extracted captured images may be calculated as an evaluation result.

続くステップS10では、撮像画像抽出部33は、上述したステップS1〜S8に示す所定のアルゴリズムに従った抽出処理を経て得られた抽出結果を、例えば、編集者等のクライアント端末20に送信する。そして、クライアント端末20側では、例えば、図5の符号B6に示すような表示を行なうことにより、編集者等に抽出結果を通知する。   In subsequent step S10, the captured image extraction unit 33 transmits the extraction result obtained through the extraction process according to the predetermined algorithm shown in steps S1 to S8 described above to the client terminal 20 such as an editor. Then, on the client terminal 20 side, for example, the extraction result is notified to the editor or the like by performing a display as indicated by reference numeral B6 in FIG.

また、ステップS10において、撮像画像抽出部33は、上記ステップS9において求められた評価結果を、例えば、編集者等のクライアント端末20に送信する。そして、クライアント端末20側では、例えば、図5の符号B6に示すような表示を行なうことにより、編集者等に評価結果を通知する。   In step S10, the captured image extraction unit 33 transmits the evaluation result obtained in step S9 to the client terminal 20 such as an editor. Then, on the client terminal 20 side, for example, an evaluation result is notified to the editor or the like by performing a display as shown by reference numeral B6 in FIG.

また、例えば、クライアント端末20における、図5の符号B6に示すような表示画面上で、編集者等がイベントに対応する数字(撮像枚数)をマウス等でクリックすると、該当する撮像写真をビューアで表示してもよい。その場合、例えば、編集者等が、図5の矢印P11に示す「13」をマウス等でクリックすると、「山田 太朗」について抽出された「入部式」の撮像画像がビューアで表示されるものとする。   Further, for example, when an editor or the like clicks a number (number of captured images) corresponding to an event with a mouse or the like on the display screen as shown by reference numeral B6 in FIG. It may be displayed. In this case, for example, when the editor or the like clicks “13” indicated by the arrow P11 in FIG. 5 with a mouse or the like, the “Iribe type” captured image extracted for “Taro Yamada” is displayed in the viewer. To do.

本実施形態では、上述の如く、抽出された撮像画像のうち試合シーンの撮像画像の枚数の占める割合を評価結果として算出し、クライアント端末20上に表示するものとしたが、上述の他の評価結果も算出し、いずれか一つ、又は、複数の評価結果を表示してもよい。   In the present embodiment, as described above, the ratio of the number of captured images of the game scene in the extracted captured images is calculated as an evaluation result and displayed on the client terminal 20. A result may also be calculated, and any one or a plurality of evaluation results may be displayed.

また、ステップS10において、撮像画像抽出部33は、上述したステップS1〜S8の処理を経て抽出した撮像画像(画像データ集に収録する候補の撮像画像データ)を掲載した画像集を生成し、処理が終了する。   In step S10, the captured image extraction unit 33 generates an image collection on which the captured images (candidate captured image data to be recorded in the image data collection) extracted through the processing in steps S1 to S8 described above are generated and processed. Ends.

〔1−8〕効果
上述のように、本画像集生成システム1では、各撮影画像についてイベントや人物を判定することにより、特定のイベントや人物を網羅した画像集を効率的に生成することを可能とする。また、本画像集生成システム1では、各イベントに対して設定された重みに基づき撮像画像の枚数を算定することにより、大きな重みが設定された重要なイベントほど多くの撮像画像を掲載した画像集を生成することができる。
[1-8] Effects As described above, the image collection generation system 1 efficiently generates an image collection that covers a specific event or person by determining an event or person for each captured image. Make it possible. Further, in the image collection generating system 1, by calculating the number of captured images based on the weight set for each event, an image collection in which a large number of captured images are posted for important events set with a large weight. Can be generated.

そして、本画像集生成システム1では、人物目安枚数に満たない人物がいる場合、試合以外のシーンにおいて撮像された撮像画像から当該人物が被写体として含まれるものを抽出するため、画像集の対象者に対して平等な枚数の撮像画像を抽出することができる。   Then, in the present image collection generation system 1, when there is a person who is less than the approximate number of persons, the person included in the image collection is extracted from the captured image captured in a scene other than the game, including the person as a subject. As a result, it is possible to extract the same number of captured images.

〔2〕その他
そして、開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成および各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
[2] Others The disclosed technique is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present embodiment. Each structure and each process of this embodiment can be selected as needed, or may be combined suitably.

上述した実施形態では、特定のコミュニティに所属する複数の人物のうち、特定の人物を対象として画像集を作成するものとしたが、当該コミュニティに所属するすべての人物を対象として画像集を作成するものとしてもよい。また、上述した実施形態では、特定のイベントを対象として画像集を作成するものとしたが、当該コミュニティにおいて開催されたすべてのイベントを対象として画像集を作成するものとしてもよい。   In the embodiment described above, an image collection is created for a specific person among a plurality of persons belonging to a specific community. However, an image collection is created for all persons belonging to the community. It may be a thing. In the above-described embodiment, the image collection is created for a specific event. However, the image collection may be created for all events held in the community.

上述した実施形態では、コミュニティといてスポーツクラブを例示したが、これに限定されない。また、人物として選手、関係者として保護者を例示したが、これに限定されない。   In the embodiment described above, the sports club is exemplified as the community, but is not limited thereto. Moreover, although the player was illustrated as a person and the protector was illustrated as a related person, it is not limited to this.

上述した実施形態において、ステップS1〜S10の処理を経て画像集を作成するが、クライアント端末20上に表示される評価結果や抽出結果に応じて、編集者等が再編集を可能なものとしてもよい。その場合、撮像画像抽出枚数を変更したり、各イベントに対して設定する重みを変更することにより、再編集を容易化する。   In the above-described embodiment, the image collection is created through the processing of steps S1 to S10. However, the editor or the like can be re-edited according to the evaluation result or the extraction result displayed on the client terminal 20. Good. In that case, re-editing is facilitated by changing the number of captured image extractions or changing the weight set for each event.

〔3〕付記
以上の実施形態に関し、さらに以下の付記を開示する。
[3] Supplementary Notes Regarding the above embodiment, the following supplementary notes are further disclosed.

(付記1)
画像集に収録可能な撮像画像データが属する複数のイベントについて、重みづけの設定を受け付け、
受け付けた前記重みづけに応じて、複数の前記イベントのそれぞれに属する撮像画像データの中から前記画像集に収録する候補の撮像画像データを抽出し、
抽出した前記撮像画像データを収録した画像集を生成する、
処理をコンピュータに実行させることを特徴とする画像集生成プログラム。
(Appendix 1)
Accepts weighting settings for multiple events to which captured image data that can be recorded in an image collection belongs,
In accordance with the weighting received, candidate captured image data to be recorded in the image collection is extracted from captured image data belonging to each of the plurality of events,
Generating an image collection containing the extracted captured image data;
An image collection generating program that causes a computer to execute processing.

(付記2)
画像集に収録する撮像画像データの数に関する設定を受け付け、
人物情報を記憶する記憶部を参照して人物数を特定し、
受け付けた前記撮像画像データの数と、特定した前記人物数とに基づいて各人物に割り当てる目安撮像画像データ数を算出し、
算出した前記目安撮像画像データ数に近づくように、前記撮像画像データに含まれる前記人物情報と関連づけられた複数の前記撮像画像データから、前記画像集に収録する候補の撮像画像データを抽出する、
処理をコンピュータに実行させることを特徴とする画像集生成プログラム。
(Appendix 2)
Accept settings for the number of captured image data to be recorded in the image collection,
Identify the number of people by referring to the storage unit that stores the person information,
Based on the number of the captured image data received and the specified number of persons, calculate the estimated number of captured image data to be assigned to each person,
Extracting candidate captured image data to be recorded in the image collection from a plurality of the captured image data associated with the person information included in the captured image data so as to approach the calculated number of estimated captured image data.
An image collection generating program that causes a computer to execute processing.

(付記3)
複数の撮像画像データの中から所定の着衣画像が検出される撮像画像データを特定し、
複数の前記撮像画像データから画像集に含める対象の撮像画像データを抽出する際に、前記所定の着衣画像が検出される撮像画像データを、前記所定の着衣画像が検出されない撮像画像データよりも優先して抽出する、
処理をコンピュータに実行させることを特徴とする画像集生成プログラム。
(Appendix 3)
Identify captured image data from which a predetermined clothing image is detected from a plurality of captured image data,
When extracting the captured image data to be included in the image collection from the plurality of captured image data, the captured image data from which the predetermined clothing image is detected has priority over the captured image data from which the predetermined clothing image is not detected. To extract,
An image collection generating program that causes a computer to execute processing.

(付記4)
複数の撮像画像データの中から、画像集に収録する候補として一以上の撮像画像データを所定のアルゴリズムに従って抽出し、
抽出した前記一以上の撮像画像データについて、所定のシーンに対応する撮像画像データの数、所定のイベントに対応する撮像画像データの数、所定の組織の人物がそれぞれ被写体として含まれる撮像画像データの数のいずれか一つ又は複数についての情報を出力する、
処理をコンピュータに実行させることを特徴とする画像集生成プログラム。
(Appendix 4)
From one or more captured image data, one or more captured image data is extracted according to a predetermined algorithm as a candidate to be recorded in the image collection,
For the one or more extracted captured image data, the number of captured image data corresponding to a predetermined scene, the number of captured image data corresponding to a predetermined event, and captured image data including a person of a predetermined tissue as a subject, respectively. Output information about one or more of the numbers,
An image collection generating program that causes a computer to execute processing.

(付記5)
複数の前記撮像画像データの中から所定の人物が検出される撮像画像データを特定し、
複数の前記撮像画像データから前記画像集に含める対象の撮像画像データを抽出する際に、前記所定の人物が検出される撮像画像データを抽出し、
抽出した前記撮像画像データを、前記所定の人物毎に分類して出力する、
処理を前記コンピュータに実行させることを特徴とする、付記1〜付記4のいずれか一項に記載の画像集生成プログラム。
(Appendix 5)
Identifying captured image data in which a predetermined person is detected from a plurality of the captured image data,
When extracting captured image data to be included in the image collection from a plurality of the captured image data, extract captured image data from which the predetermined person is detected;
The extracted captured image data is classified and output for each predetermined person.
The image collection generating program according to any one of Supplementary Note 1 to Supplementary Note 4, which causes the computer to execute processing.

(付記6)
前記画像集に収録可能な撮像画像データが撮像された日時に関する設定を受け付け、
受け付けた前記日時に応じて、前記画像集に収録する候補の撮像画像データを抽出する、
処理を前記コンピュータに実行させることを特徴とする、付記1〜付記5のいずれか一項に記載の画像集生成プログラム。
(Appendix 6)
Accepts settings relating to the date and time when captured image data that can be recorded in the image collection was captured;
According to the received date and time, extract candidate captured image data to be recorded in the image collection,
The image collection generating program according to any one of Supplementary Note 1 to Supplementary Note 5, which causes the computer to execute processing.

(付記7)
算出した前記目安撮像画像データ数以上となるように、前記撮像画像データに含まれる人物情報と関連づけられた複数の前記撮像画像データから、前記画像集に収録する候補の撮像画像データを前記人物毎に抽出する、
処理を前記コンピュータに実行させることを特徴とする、付記2に記載の画像集生成プログラム。
(Appendix 7)
For each person, candidate imaged image data to be recorded in the image collection is selected from the plurality of imaged image data associated with the person information included in the imaged image data so as to be equal to or greater than the calculated number of estimated imaged image data. To extract,
The image collection generating program according to appendix 2, characterized by causing the computer to execute processing.

(付記8)
前記画像集に収録可能な撮像画像データには動画が含まれる、
ことを特徴とする、付記1〜付記7のいずれか一項に記載の画像集生成プログラム。
(Appendix 8)
The captured image data that can be recorded in the image collection includes a moving image,
The image collection generating program according to any one of Supplementary Note 1 to Supplementary Note 7, wherein:

(付記9)
画像集に収録可能な撮像画像データが属する複数のイベントについて、重みづけの設定を受け付ける受信部と、
受け付けた前記重みづけに応じて、複数の前記イベントのそれぞれに属する撮像画像データの中から前記画像集に収録する候補の撮像画像データを抽出し、抽出した前記撮像画像データを収録した画像集を生成する生成部とを、備える、
ことを特徴とする情報処理装置。
(Appendix 9)
A receiving unit that receives weighting settings for a plurality of events to which captured image data that can be recorded in an image collection belongs;
According to the received weighting, candidate captured image data to be recorded in the image collection is extracted from the captured image data belonging to each of the plurality of events, and an image collection in which the extracted captured image data is recorded is extracted. A generating unit for generating,
An information processing apparatus characterized by that.

(付記10)
画像集に収録可能な撮像画像データが属する複数のイベントについて、重みづけの設定を受け付け、
受け付けた前記重みづけに応じて、複数の前記イベントのそれぞれに属する撮像画像データの中から前記画像集に収録する候補の撮像画像データを抽出し、
抽出した前記撮像画像データを収録した画像集を生成する、
ことを特徴とする画像集生成方法。
(Appendix 10)
Accepts weighting settings for multiple events to which captured image data that can be recorded in an image collection belongs,
In accordance with the weighting received, candidate captured image data to be recorded in the image collection is extracted from captured image data belonging to each of the plurality of events,
Generating an image collection containing the extracted captured image data;
An image collection generating method characterized by the above.

(付記11)
複数の撮像画像データを抽出する条件の入力を受け付け、
複数の前記撮像画像データが撮像された日時、複数の前記撮像画像データが撮像された位置情報の少なくともいずれかと対応付けて記憶する記憶部を参照して、前記条件を満たす日時又は位置情報と対応付けられた撮像画像データを抽出して、抽出した前記撮像画像データが撮像されたイベントを特定し、
抽出した前記撮像画像データに含まれる背景領域から前記イベントにおけるシーンの種別を特定し、
抽出した前記撮像画像データを、特定した前記シーンの種別毎に分類して出力する、
処理をコンピュータに実行させることを特徴とする抽出プログラム。
(Appendix 11)
Accepts input of conditions for extracting multiple captured image data,
Corresponds to the date and time or position information satisfying the condition by referring to a storage unit that stores and associates with at least one of the date and time when the plurality of captured image data are captured and the position information where the plurality of captured image data is captured The attached captured image data is extracted, the event in which the extracted captured image data is captured is identified,
Identify the type of scene in the event from the background area included in the extracted captured image data,
The extracted captured image data is classified and output for each identified scene type,
An extraction program that causes a computer to execute processing.

1 画像集生成システム
10 情報処理装置
11 CPU
12 記憶部
13 メモリ
14 IF部
15 入力部
16 出力部
20 クライアント端末
21 CPU
22 記憶部
23 メモリ
24 IF部
25 入力部
26 出力部
27 撮像部
31 抽出条件決定部(受信部)
32 撮像画像判定部
33 撮像画像抽出部(生成部)
41 人物情報
42 メンバ情報
43 イベント情報
44 撮像画像群
90 ネットワーク
91 生成プログラム
92 アップロードプログラム
93 撮像画像
DESCRIPTION OF SYMBOLS 1 Image collection generation system 10 Information processing apparatus 11 CPU
DESCRIPTION OF SYMBOLS 12 Memory | storage part 13 Memory 14 IF part 15 Input part 16 Output part 20 Client terminal 21 CPU
22 storage unit 23 memory 24 IF unit 25 input unit 26 output unit 27 imaging unit 31 extraction condition determination unit (reception unit)
32 Captured Image Determination Unit 33 Captured Image Extraction Unit (Generation Unit)
41 Person information 42 Member information 43 Event information 44 Captured image group 90 Network 91 Generation program 92 Upload program 93 Captured image

Claims (10)

画像集に収録可能な撮像画像データが属する複数のイベントについて、重みづけの設定を受け付け、
受け付けた前記重みづけに応じて、複数の前記イベントのそれぞれに属する撮像画像データの中から前記画像集に収録する候補の撮像画像データを抽出し、
抽出した前記撮像画像データを収録した画像集を生成する、
処理をコンピュータに実行させることを特徴とする画像集生成プログラム。
Accepts weighting settings for multiple events to which captured image data that can be recorded in an image collection belongs,
In accordance with the weighting received, candidate captured image data to be recorded in the image collection is extracted from captured image data belonging to each of the plurality of events,
Generating an image collection containing the extracted captured image data;
An image collection generating program that causes a computer to execute processing.
画像集に収録する撮像画像データの数に関する設定を受け付け、
人物情報を記憶する記憶部を参照して人物数を特定し、
受け付けた前記撮像画像データの数と、特定した前記人物数とに基づいて各人物に割り当てる目安撮像画像データ数を算出し、
算出した前記目安撮像画像データ数に近づくように、前記撮像画像データに含まれる前記人物情報と関連づけられた複数の前記撮像画像データから、前記画像集に収録する候補の撮像画像データを抽出する、
処理をコンピュータに実行させることを特徴とする画像集生成プログラム。
Accept settings for the number of captured image data to be recorded in the image collection,
Identify the number of people by referring to the storage unit that stores the person information,
Based on the number of the captured image data received and the specified number of persons, calculate the estimated number of captured image data to be assigned to each person,
Extracting candidate captured image data to be recorded in the image collection from a plurality of the captured image data associated with the person information included in the captured image data so as to approach the calculated number of estimated captured image data.
An image collection generating program that causes a computer to execute processing.
複数の撮像画像データの中から所定の着衣画像が検出される撮像画像データを特定し、
複数の前記撮像画像データから画像集に含める対象の撮像画像データを抽出する際に、前記所定の着衣画像が検出される撮像画像データを、前記所定の着衣画像が検出されない撮像画像データよりも優先して抽出する、
処理をコンピュータに実行させることを特徴とする画像集生成プログラム。
Identify captured image data from which a predetermined clothing image is detected from a plurality of captured image data,
When extracting the captured image data to be included in the image collection from the plurality of captured image data, the captured image data from which the predetermined clothing image is detected has priority over the captured image data from which the predetermined clothing image is not detected. To extract,
An image collection generating program that causes a computer to execute processing.
複数の撮像画像データの中から、画像集に収録する候補として一以上の撮像画像データを所定のアルゴリズムに従って抽出し、
抽出した前記一以上の撮像画像データについて、所定のシーンに対応する撮像画像データの数、所定のイベントに対応する撮像画像データの数、所定の組織の人物がそれぞれ被写体として含まれる撮像画像データの数のいずれか一つ又は複数についての情報を出力する、
処理をコンピュータに実行させることを特徴とする画像集生成プログラム。
From one or more captured image data, one or more captured image data is extracted according to a predetermined algorithm as a candidate to be recorded in the image collection,
For the one or more extracted captured image data, the number of captured image data corresponding to a predetermined scene, the number of captured image data corresponding to a predetermined event, and captured image data including a person of a predetermined tissue as a subject, respectively. Output information about one or more of the numbers,
An image collection generating program that causes a computer to execute processing.
複数の前記撮像画像データの中から所定の人物が検出される撮像画像データを特定し、
複数の前記撮像画像データから前記画像集に含める対象の撮像画像データを抽出する際に、前記所定の人物が検出される撮像画像データを抽出し、
抽出した前記撮像画像データを、前記所定の人物毎に分類して出力する、
処理を前記コンピュータに実行させることを特徴とする、請求項1〜請求項4のいずれか一項に記載の画像集生成プログラム。
Identifying captured image data in which a predetermined person is detected from a plurality of the captured image data,
When extracting captured image data to be included in the image collection from a plurality of the captured image data, extract captured image data from which the predetermined person is detected;
The extracted captured image data is classified and output for each predetermined person.
The image collection generating program according to any one of claims 1 to 4, wherein the computer causes the computer to execute processing.
前記画像集に収録可能な撮像画像データが撮像された日時に関する設定を受け付け、
受け付けた前記日時に応じて、前記画像集に収録する候補の撮像画像データを抽出する、
処理を前記コンピュータに実行させることを特徴とする、請求項1〜請求項5のいずれか一項に記載の画像集生成プログラム。
Accepts settings relating to the date and time when captured image data that can be recorded in the image collection was captured;
According to the received date and time, extract candidate captured image data to be recorded in the image collection,
The image collection generating program according to claim 1, wherein the computer causes the computer to execute processing.
算出した前記目安撮像画像データ数以上となるように、前記撮像画像データに含まれる人物情報と関連づけられた複数の前記撮像画像データから、前記画像集に収録する候補の撮像画像データを前記人物毎に抽出する、
処理を前記コンピュータに実行させることを特徴とする、請求項2に記載の画像集生成プログラム。
For each person, candidate imaged image data to be recorded in the image collection is selected from the plurality of imaged image data associated with the person information included in the imaged image data so as to be equal to or greater than the calculated number of estimated imaged image data. To extract,
The image collection generating program according to claim 2, wherein the computer causes the computer to execute processing.
前記画像集に収録可能な撮像画像データには動画が含まれる、
ことを特徴とする、請求項1〜請求項7のいずれか一項に記載の画像集生成プログラム。
The captured image data that can be recorded in the image collection includes a moving image,
The image collection generating program according to any one of claims 1 to 7, wherein
画像集に収録可能な撮像画像データが属する複数のイベントについて、重みづけの設定を受け付ける受信部と、
受け付けた前記重みづけに応じて、複数の前記イベントのそれぞれに属する撮像画像データの中から前記画像集に収録する候補の撮像画像データを抽出し、抽出した前記撮像画像データを収録した画像集を生成する生成部とを、備える、
ことを特徴とする情報処理装置。
A receiving unit that receives weighting settings for a plurality of events to which captured image data that can be recorded in an image collection belongs;
According to the received weighting, candidate captured image data to be recorded in the image collection is extracted from the captured image data belonging to each of the plurality of events, and an image collection in which the extracted captured image data is recorded is extracted. A generating unit for generating,
An information processing apparatus characterized by that.
画像集に収録可能な撮像画像データが属する複数のイベントについて、重みづけの設定を受け付け、
受け付けた前記重みづけに応じて、複数の前記イベントのそれぞれに属する撮像画像データの中から前記画像集に収録する候補の撮像画像データを抽出し、
抽出した前記撮像画像データを収録した画像集を生成する、
ことを特徴とする画像集生成方法。



Accepts weighting settings for multiple events to which captured image data that can be recorded in an image collection belongs,
In accordance with the weighting received, candidate captured image data to be recorded in the image collection is extracted from captured image data belonging to each of the plurality of events,
Generating an image collection containing the extracted captured image data;
An image collection generating method characterized by the above.



JP2018095313A 2018-05-17 2018-05-17 Image collection generation program, information processor, and image collection generation method Pending JP2019200642A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018095313A JP2019200642A (en) 2018-05-17 2018-05-17 Image collection generation program, information processor, and image collection generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018095313A JP2019200642A (en) 2018-05-17 2018-05-17 Image collection generation program, information processor, and image collection generation method

Publications (1)

Publication Number Publication Date
JP2019200642A true JP2019200642A (en) 2019-11-21

Family

ID=68612512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018095313A Pending JP2019200642A (en) 2018-05-17 2018-05-17 Image collection generation program, information processor, and image collection generation method

Country Status (1)

Country Link
JP (1) JP2019200642A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196167A1 (en) * 2021-03-19 2022-09-22 ソニーグループ株式会社 Information processing device, information processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196167A1 (en) * 2021-03-19 2022-09-22 ソニーグループ株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
CN101425133B (en) Human image retrieval system
US9338311B2 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
US20160179846A1 (en) Method, system, and computer readable medium for grouping and providing collected image content
JP7111632B2 (en) Image candidate determination device, image candidate determination method, program for controlling image candidate determination device, and recording medium storing the program
US8810688B2 (en) Information processing apparatus and information processing method
JP2017531950A (en) Method and apparatus for constructing a shooting template database and providing shooting recommendation information
JP5667069B2 (en) Content management apparatus, content management method, content management program, and integrated circuit
CN102333177B (en) Photographing support system, photographing support method, server and photographing apparatus
US20170019590A1 (en) Imaging apparatus, information processing apparatus, image photographing assist system and image photographing assist method
US8593557B2 (en) Shooting assist method, program product, recording medium, shooting device, and shooting system
JP2011155385A (en) Electronic device, content transmission method, and program
JP2023001178A (en) Image candidate determination device, image candidate determination method, program for controlling image candidate determination device, and storage medium in which the program is stored
JP2015128259A (en) Image processing device, photographing device, photographing system, image processing method, and computer program
JP7099925B2 (en) Image processing equipment, image processing methods, programs and recording media
KR20180058380A (en) Method and apparatus for photographing based on recommended composition
JP6410427B2 (en) Information processing apparatus, information processing method, and program
JP2017037412A (en) Image processing device, control method and program thereof
JP2019200642A (en) Image collection generation program, information processor, and image collection generation method
JP2014182650A (en) Image sharing device, method for controlling image sharing device and program
US20220417598A1 (en) Image processing device, operation method of image processing device, and operation program of image processing device
JP2017068331A (en) Image processing device, image processing method, program and recording medium
JP2009205322A (en) Image display apparatus, image display method and image display program
CN110866148A (en) Information processing system, information processing apparatus, and storage medium
JP2017184021A (en) Content providing device and content providing program
JP2010074437A (en) Method, device and program for adding annotation, and computer readable recording medium

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190607