DE112021001101T5 - Datenverarbeitungsvorrichtung, Datenverarbeitungsverfahren und Programm - Google Patents

Datenverarbeitungsvorrichtung, Datenverarbeitungsverfahren und Programm Download PDF

Info

Publication number
DE112021001101T5
DE112021001101T5 DE112021001101.4T DE112021001101T DE112021001101T5 DE 112021001101 T5 DE112021001101 T5 DE 112021001101T5 DE 112021001101 T DE112021001101 T DE 112021001101T DE 112021001101 T5 DE112021001101 T5 DE 112021001101T5
Authority
DE
Germany
Prior art keywords
image
images
information
extraction
personal terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021001101.4T
Other languages
English (en)
Inventor
Shigeo Sugimori
Yuki Murata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of DE112021001101T5 publication Critical patent/DE112021001101T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Eine Datenverarbeitungsvorrichtung führt einen Steuerprozess, der eine Anwenderschnittstelle bereitstellt, die eine Festlegungsoperation zum Festlegen einer Extraktionsbedingung für eine Bildgruppe von Bildern, die bei einem Ereignis im Zusammenhang mit einer Eheschließung aufgenommen wurden, ermöglicht, und einen Extraktionsprozess, der ein Bild aus der Bildgruppe gemäß der festgelegten Extraktionsbedingung extrahiert, aus.

Description

  • [Technisches Gebiet]
  • Die vorliegende Technologie bezieht sich auf eine Datenverarbeitungsvorrichtung, ein Datenverarbeitungsverfahren und ein Programm, und insbesondere auf eine Technologie, die zum Erzeugen einer Bildsammlung eines Ereignisses im Zusammenhang mit einer Eheschließung geeignet ist.
  • [Hintergrund der Technik]
  • Beispielsweise gibt es einen Dienst, in dem ein Bilderalbum als eine Bildsammlung von durch einen Fotografen bei einem Ereignis in Zusammenhang mit einer Eheschließung wie z. B. einer Hochzeitszeremonie, einem Hochzeitsempfang und einer Hochzeitsfeier aufgenommenen Bildern erzeugt wird und das erzeugte Bilderalbum den Teilnehmern oder dergleichen zur Verfügung gestellt wird.
  • In diesem Fall importiert der Fotograf oder dergleichen durch eine Bildaufnahmevorrichtung aufgenommene Bilder in einem Personalcomputer, ein Smartphone oder dergleichen nach dem Ende des Ereignisses und bearbeitet die Bilder unter Verwendung einer Bearbeitungs-Software oder dergleichen, um eine Bildsammlung zu erzeugen. Es wird angenommen, dass danach diese Bildsammlung unter Verwendung sozialer Medien (SNS: soziale Netzdienste), eines Cloud-Dienstes, einer E-Mail, einer Nachrichtenübermittlungsanwendung oder dergleichen bereitgestellt wird.
  • Die nachstehend identifizierte PTL 1 beschreibt eine Technologie, die durch eine Kamera aufgenommene Bilder auf ein Smartphone oder dergleichen überträgt, um die Bilder zu teilen.
  • [Entgegenhaltungsliste]
  • [Patentliteratur]
  • [PTL 1] Japanisches Patent Offenlegungs-Nr. 2016-81173
  • [Zusammenfassung]
  • [Technische Aufgabe]
  • Indessen kommt es häufig vor, dass sich die Teilnehmer auf das Empfangen der Bildsammlung des Ereignisses freuen und hoffen, die Bildsammlung des Ereignisses so bald wie möglich nach dem Ende des Ereignisses bewundern zu können.
  • Beispielsweise ist es wahrscheinlich, dass ein Brautpaar und die Teilnehmer größere Emotionen erleben, falls die aufgenommenen Bilder unmittelbar nach dem Ende der Hochzeitszeremonie oder des Hochzeitsempfangs, wenn noch angenehme Erinnerungen vorhanden sind, bewundert werden können.
  • In einem Fall jedoch, in dem eine große Menge von Bildern während der Hochzeitszeremonie aufgenommen worden wird, ist es beispielsweise mühsam und auch für die Betrachter nicht geeignet, diese Bilder einfach der Reihe nach zu betrachten.
  • Dementsprechend kann eine Bildsammlung unter Verwendung von Bildern, die aus einer großen Menge von Bildern ausgewählt und bearbeitet sind, erzeugt werden, und es kann betroffenen Personen ermöglicht werden, die erzeugte Bildsammlung zu betrachten. In diesem Fall ist es jedoch auch für eine Person, die die Bildsammlung erzeugt, wie z. B. einen Fotografen, mühsam, aus der großen Menge der Bilder zu bestimmen und auszuwählen, welche Bilder in die Bildsammlung aufgenommen werden sollen.
  • Es ist daher eine Aufgabe der vorliegenden Offenbarung, eine Datenverarbeitungsfunktion bereitzustellen, die einen Erzeuger bei der Erzeugung einer solchen Art von Bildsammlung unterstützt.
  • [Lösung der Aufgabe]
  • Eine Datenverarbeitungsvorrichtung gemäß der vorliegenden Technologie weist eine Anwenderschnittstellensteuereinheit, die eine Steuerung zum Bereitstellen einer Anwenderschnittstelle ausführt, die eine Festlegungsoperation zum Festlegen einer Extraktionsbedingung für eine Bildgruppe von Bildern, die bei einem Ereignis im Zusammenhang mit einer Hochzeit aufgenommen wurden, ermöglicht, und eine Extraktionsverarbeitungseinheit, die ein Bild aus der Bildgruppe gemäß der festgelegten Extraktionsbedingung extrahiert, auf.
  • Das Ereignis im Zusammenhang mit der Eheschließung ist beispielsweise eine Hochzeitszeremonie, ein Hochzeitsempfang, eine Hochzeitsfeier, eine Verlobungszeremonie, ein Treffen, eine Eheanbahnung oder dergleichen und bezieht sich auf ein Ereignis, an dem mehrere Personen, die ein Brautpaar enthalten, teilnehmen.
  • Es ist eine derartige Vorrichtung bereitgestellt, die es dem Anwender ermöglicht, die Extraktionsbedingungen für die Bildgruppe, die aus mehreren während eines solchen Ereignisses einer solchen Art aufgenommenen Bildern besteht, festzulegen und ein Bildextraktionsergebnis zu erhalten.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie kann die Anwenderschnittstellensteuereinheit eine Steuerung zum Anzeigen des durch die Extraktionsverarbeitungseinheit extrahierten Bildes und Bereitstellen einer Anwenderschnittstelle, die eine Eingabeoperation zum Eingeben von jedem der Bilder zugeordneten Bewertungsinformationen ermöglicht, ausführen.
  • Beispielsweise wird eine Liste der Bilder, die eine vorbestimmte Bedingung erfüllen, angezeigt, und der Anwender kann für jedes der Bilder auf irgendeine Weise Bewertungsinformationen einstellen.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie kann die Extraktionsverarbeitungseinheit ein Bild, das die festgelegte Extraktionsbedingung erfüllt, unter Bezugnahme auf Analyseergebnisdaten von Bildinhalten der jeweiligen in der Bildgruppe enthaltenen Bilder extrahieren.
  • Informationen, die den Bildinhalt angeben, werden für jedes der Bilder durch einen Bildanalyseprozess erhalten. Es wird für jedes der Bilder bestimmt, ob diese Informationen, die das Analyseergebnis angeben, die Extraktionsbedingung erfüllen oder nicht.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie können die Analyseergebnisdaten von einer externen Vorrichtung empfangen werden.
  • Die Datenverarbeitungsvorrichtung sendet die jeweiligen während des Ereignisses aufgenommenen Bilder an die externe Vorrichtung und empfängt Analyseergebnisdaten, die durch einen durch die externe Vorrichtung ausgeführten Bildanalyseprozess für die jeweiligen Bilder erhalten wurden.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie kann die Anwenderschnittstellensteuereinheit eine Steuerung zum Anzeigen eines Symbols, das die Extraktionsbedingung für die Bilder der Bildgruppe anzeigt, ausführen, um eine Operation für das Symbol als eine Festlegungsoperation zum Festlegen der Extraktionsbedingung zu detektieren.
  • Der Anwender kann ein Symbol aus den angezeigten Symbolen auswählen, um die Bildtypen oder dergleichen der während des Ereignisses im Zusammenhang mit der Eheschließung aufgenommenen Bilder anzugeben.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie kann die Anwenderschnittstellensteuereinheit das Symbol, das einem Operationsziel zum Festlegen der Extraktionsbedingung entspricht, in einem Anzeigemodus anzeigen, der sich von einem Anzeigemodus eines Symbols, das nicht dem Operationsziel für die Festlegung entspricht, unterscheidet.
  • Das betätigte Symbol unterscheidet sich von den anderen Symbolen beispielsweise durch die Farbe des betätigten Symbols oder dadurch, dass die Farbe des Rahmens geändert wird, oder durch die Verwendung einer hervorgehobenen Anzeige.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie kann die Extraktionsbedingung eine Bedingung zum Festlegen einer Person aufweisen.
  • Die Festlegung einer Person, die einem Objekt entspricht, das während des Ereignisses im Zusammenhang mit der Eheschließung abgebildet werden soll, wird ermöglicht. Beispielsweise wird die Festlegung einer Braut, eines Bräutigams, von Verwandten (z. B. Eltern, Brüder und Schwestern), Freunden, Ehrengästen oder dergleichen ermöglicht.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie kann die Extraktionsbedingung eine Bedingung aufweisen, die das Festlegen einer Szene des Ereignisses im Zusammenhang mit der Eheschließung ermöglicht.
  • Eine Bedingung, die die Festlegung irgendeiner Szene während des Ereignisses im Zusammenhang mit der Eheschließung erlaubt, wie z. B. das Anschneiden der Torte und die Begrüßung der Ehrengäste, wird vorbereitet.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie kann die Extraktionsbedingung eine Bedingung aufweisen, die die Festlegung von Zeitinformationen für das Ereignis im Zusammenhang mit der Eheschließung ermöglicht.
  • Die Extraktion ist unter der Bedingung von Zeitinformationen erlaubt, wie z. B. einer spezifischen Zeit, einer Zeitspanne ab einer speziellen Zeit bis zu einer anderen Zeit und einer seit dem Beginn der Aufnahme verstrichenen Zeit.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie kann die Extraktionsbedingung eine Bedingung aufweisen, die die Festlegung eines Dings oder eines Tieres, das einem abzubildenden Objekt entspricht, ermöglicht.
  • Es wird eine Bedingung vorbereitet, die einen Gegenstand festlegt, für den es wahrscheinlich ist, dass er während des Ereignisses im Zusammenhang mit der Eheschließung zu einem abzubildenden Objekt wird, wie z. B. eine Torte, eine Kerze, ein Ring, ein Haustier und ein Glas.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie kann die Extraktionsbedingung eine Bedingung aufweisen, die die Festlegung einer Emotion oder eines Gesichtsausdrucks eines abzubildenden Objekts ermöglicht.
  • Beispielsweise wird eine Bedingung, die eine Szene mit Lächeln, eine Szene mit Emotionen, eine Szene mit Weinen, eine Szene mit gesenktem Blick oder dergleichen festlegt, vorbereitet.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie kann die Anwenderschnittstellensteuereinheit Informationen, die einen Grad einer Emotion oder eines Gesichtsausdrucks eines abzubildenden Objekts für das durch die Extraktionsverarbeitungseinheit extrahierte Bild angeben, präsentieren.
  • Beispielsweise in einem Fall, in dem ein Bild wie eine Szene mit Lächeln extrahiert wird, wird eine Präsentation, die einen Grad des Lächelns angibt, für jedes der Bilder vorgenommen.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie kann die Extraktionsbedingung als die Extraktionsbedingung eine Bedingung aufweisen, die die Festlegung eines Elements, das unter Bezugnahme auf die während der Aufnahme hinzugefügten Metadaten bestimmt wird, ermöglicht.
  • Beispielsweise kann eine Bedingung festgelegt werden, die eine Bestimmung durch die Bildaufnahmevorrichtung während der Aufnahme unter Bezugnahme auf die den Bildern zugeordneten Metadaten, wie z. B. Informationen, die dem Fokussieren zugeordnet sind, ermöglicht.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie kann die Anwenderschnittstellensteuereinheit eine Fokusposition des durch die Extraktionsverarbeitungseinheit extrahierten Bildes präsentieren.
  • Beispielsweise wird ein Bild, das eine Position oder einen Bereich im Fokus unter Verwendung eines Fokusrahmens oder dergleichen unter Bezugnahme auf Informationen, die in den Metadaten enthalten sind und die den Fokusbereich angeben, angibt, überlagert und in dem extrahierten Bild angezeigt.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie kann die Anwenderschnittstellensteuereinheit eine Steuerung zum Anzeigen eines Symbols der Extraktionsbedingung in einem Kandidatenbereich in einem Anzeigebildschirm und zum Anzeigen eines Symbols, das durch eine vorbestimmte Operation festgelegt ist, in einem Auswahlbereich in dem Anzeigebildschirm ausführen.
  • Der Kandidatenbereich und der Auswahlbereich sind auf dem Anzeigebildschirm so eingestellt, dass das Symbol in dem Kandidatenbereich gemäß einer durch den Anwender ausgeführten Operation in dem Auswahlbereich angezeigt werden kann.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie kann die Anwenderschnittstellensteuereinheit eine Steuerung zur Beendigung der Anzeige des in dem Auswahlbereich angezeigten Symbols gemäß einer vorbestimmten Auswahlaufhebungsoperation ausführen.
  • Der Anwender kann das Symbol in dem Auswahlbereich durch Ausführen einer Operation in den Kandidatenbereich zurück bringen.
  • Gemäß der vorstehend beschriebenen Datenverarbeitungsvorrichtung der vorliegenden Technologie kann eine AND-Bedingung, eine OR-Bedingung oder eine Ausschlussbedingung für jede von mehreren festgelegten Extraktionsbedingungen eingestellt werden, um ein Bild zu extrahieren.
  • Unter Verwendung mehrerer Extraktionsbedingungen, die für das Ereignis im Zusammenhang mit der Eheschließung vorbereitet wurden, werden verschiedene Arten der Extraktion erreicht.
  • Die vorstehend beschriebene Datenverarbeitungsvorrichtung der vorliegenden Technologie kann ferner eine Videobearbeitungseinheit aufweisen, die unter Verwendung mehrerer Videoszenen, die durch die Extraktionsverarbeitungseinheit gemäß der Extraktionsbedingung extrahiert wurden, Videoinhalte erzeugt.
  • Die Videoszenen werden gemäß den Extraktionsbedingungen extrahiert, um den Videoinhalt unter Verwendung der extrahierten Videoszenen zu erzeugen.
  • Ein Datenverarbeitungsverfahren gemäß der vorliegenden Technologie, das durch eine Datenverarbeitungsvorrichtung ausgeführt wird, weist einen Steuerprozess, der eine Anwenderschnittstelle bereitstellt, die eine Festlegungsoperation zum Festlegen einer Extraktionsbedingung für eine Bildgruppe von Bildern, die bei einem Ereignis im Zusammenhang mit einer Eheschließung aufgenommen wurden, ermöglicht, und einen Extraktionsprozess, der ein Bild aus der Bildgruppe gemäß der festgelegten Extraktionsbedingung extrahiert, auf.
  • Diese Prozesse bilden einen Unterstützungsprozess, der die Arbeitseffizienz zum Erzeugen einer Bildsammlung durch einen Fotografen oder dergleichen verbessert.
  • Ein Programm gemäß der vorliegenden Technologie ist auf ein Programm gerichtet, das eine Datenverarbeitungsvorrichtung veranlasst, diese Prozesse gemäß dem Datenverarbeitungsverfahren auszuführen.
  • Figurenliste
    • [1] 1 ist ein erläuterndes Diagramm einer Systemkonfiguration zum Bereitstellen eines Dienstes einer Ausführungsform gemäß der vorliegenden Technologie.
    • [2] 2 ist ein erläuterndes Diagramm einer Arbeitsprozedur zum Bereitstellen des Dienstes der Ausführungsform.
    • [3] 3 ist ein Blockdiagramm einer Konfiguration sowohl einer Endgerätevorrichtung als auch einer Servervorrichtung der Ausführungsform.
    • [4] 4 ist ein erläuterndes Diagramm einer funktionalen Konfiguration der Endgerätevorrichtung der Ausführungsform.
    • [5] 5 ist ein erläuterndes Diagramm von Ereignisdaten auf der Seite der Endgerätevorrichtung der Ausführungsform.
    • [6] 6 ist ein erläuterndes Diagramm einer funktionalen Konfiguration der Servervorrichtung der Ausführungsform.
    • [7] 7 ist ein erläuterndes Diagramm von Ereignisdaten auf der Seite der Servervorrichtung der Ausführungsform.
    • [8] 8 ist ein erläuterndes Diagramm von durch die Servervorrichtung der Ausführungsform erzeugten Web-Galerie-Informationen.
    • [9] 9 ist ein Ablaufplan eines Voreinstellungsprozesses, der durch die Endgerätevorrichtung der Ausführungsform ausgeführt wird.
    • [10] 10 bildet erläuternde Diagramme eines Projektlistenbildschirms der Ausführungsform ab.
    • [11] 11 ist ein Ablaufplan eines durch die Endgerätevorrichtung der Ausführungsform ausgeführten Übertragungs/Bearbeitungs-Prozesses.
    • [12] 12 ist ein Ablaufplan eines durch die Endgerätevorrichtung der Ausführungsform ausgeführten Auswahlunterstützungsprozesses.
    • [13] 13 ist ein Ablaufplan des durch die Endgerätevorrichtung der Ausführungsform ausgeführten Auswahlunterstützungsprozesses.
    • [14] 14 ist ein Ablaufplan des durch die Endgerätevorrichtung der Ausführungsform ausgeführten Auswahlunterstützungsprozesses.
    • [15] 15 ist ein Ablaufplan des durch die Endgerätevorrichtung der Ausführungsform ausgeführten Auswahlunterstützungsprozesses.
    • [16] 16 ist ein Ablaufplan des durch die Endgerätevorrichtung der Ausführungsform ausgeführten Auswahlunterstützungsprozesses.
    • [17] 17 ist ein Ablaufplan des durch die Endgerätevorrichtung der Ausführungsform ausgeführten Auswahlunterstützungsprozesses.
    • [18] 18 ist ein erläuterndes Diagramm eines Ereignisbildschirms der Ausführungsform.
    • [19] 19 ist ein erläuterndes Diagramm des Registerkartenwechsels des Ereignisbildschirms der Ausführungsform.
    • [20] 20 bildet erläuternde Diagramme einer Operation zum Aufziehen oder Stauchen des Ereignisbildschirms der Ausführungsform ab.
    • [21] 21 ist ein erläuterndes Diagramm eines Anzeigebildschirms der Ausführungsform.
    • [22] 22 ist ein erläuterndes Diagramm eines Titel-Hervorhebungs-Auswahlbildschirms einer Ausführungsform.
    • [23] 23 ist ein erläuterndes Diagramm eines Bestätigungsbildschirms der Ausführungsform.
    • [24] 24 ist ein Ablaufplan eines durch die Servervorrichtung der Ausführungsform ausgeführten Prozesses.
    • [25] 25 ist ein Ablaufplan eines Prozesses, der nach dem Empfang der URL durch die Endgerätevorrichtung der Ausführungsform ausgeführt wird.
    • [26] 26 ist ein erläuterndes Diagramm eines Vorschaubildschirms einer Web-Galerie der Ausführungsform.
    • [27] 27 ist ein erläuterndes Diagramm eines Web-Galerie-Übergabebildschirms einer Ausführungsform.
    • [28] 28 ist ein Ablaufplan eines durch die Endgerätevorrichtung der Ausführungsform ausgeführten regulären Übergabeprozesses.
    • [29] 29 ist ein Ablaufplan eines durch die Endgerätevorrichtung der Ausführungsform ausgeführten automatischen Einstellprozesses.
    • [30] 30 ist ein Ablaufplan des durch die Endgerätevorrichtung der Ausführungsform ausgeführten automatischen Einstellprozesses.
    • [31] 31 ist ein Ablaufplan eines Beispiels für einen Anzeigesteuerungsprozess gemäß einer Flag-Ein-Anzahl der Ausführungsform.
    • [32] 32 bildet erläuternde Diagramme des Anzeigesteuerungsprozesses gemäß der Flag-Ein-Anzahl der Ausführungsform ab.
    • [33] 33 ist ein Ablaufplan eines Beispiels für einen Datenersetzungsprozess der Ausführungsform.
    • [34] 34 bildet erläuternde Diagramme eines die Datenersetzung betreffenden Anzeigebeispiels der Ausführungsform ab.
    • [35] 35 bildet erläuternde Diagramme zur Ersetzung von Bewertungsinformationen der Ausführungsform ab.
    • [36] 36 bildet erläuternde Diagramme zur Ersetzung von Auswahlinformationen der Ausführungsform ab.
    • [37] 37 bildet erläuternde Diagramme zur Bewertungseinstellung ab.
    • [38] 38 bildet erläuternde Diagramme für ein Konfigurationsbeispiel zum Erreichen von Auswahlbeschleunigung gemäß der Ausführungsform ab.
    • [39] 39 bildet erläuternde Diagramme für ein funktionales Konfigurationsbeispiel der Ausführungsform ab.
    • [40] 40 bildet erläuternde Diagramme zur Bildanalyse der Ausführungsform ab.
    • [41] 41 bildet erläuternde Diagramme zur Bildauswahl der Ausführungsform ab.
    • [42] 42 ist ein Ablaufplan, der ein Beispiel für die durch eine Bildaufnahmevorrichtung der Ausführungsform ausgeführte Verarbeitung darstellt.
    • [43] 43 ist ein Ablaufplan, der ein Beispiel für die durch die Servervorrichtung der Ausführungsform ausgeführte Verarbeitung darstellt.
    • [44] 44 ist ein Ablaufplan, der ein Beispiel für die durch die Endgerätevorrichtung der Ausführungsform ausgeführte Verarbeitung darstellt.
    • [45] 45 ist ein Ablaufplan, der einen Bildanalyseprozess der Ausführungsform darstellt.
    • [46] 46 bildet erläuternde Diagramme für die Bewertung, die gemäß der Ausführungsform basierend auf der Bildextraktion ausgeführt wird, ab.
    • [47] 47 ist ein erläuterndes Diagramm für Symbole, die Extraktionsbedingungen der Ausführungsform angeben.
    • [48] 48 ist ein erläuterndes Diagramm für die Extraktion einer einzelnen Person gemäß der Ausführungsform.
    • [49] 49 ist ein erläuterndes Diagramm für die Extraktion mehrerer Personen gemäß der Ausführungsform.
    • [50] 50 ist ein erläuterndes Diagramm, das eine Nahaufnahme der Ausführungsform darstellt.
    • [51] 51 bildet erläuternde Diagramme für einen Begrenzungsrahmen der Ausführungsform ab.
    • [52] 52 ist ein erläuterndes Diagramm für ein herausgezoomtes Bild einer einzelnen Person gemäß der Ausführungsform.
    • [53] 53 ist ein erläuterndes Diagramm für ein Bild einer Person und eines Objekts gemäß der Ausführungsform.
    • [54] 54 ist ein erläuterndes Diagramm eines Bildes eines Objekts gemäß der Ausführungsform.
    • [55] 55 ist ein erläuterndes Diagramm für die Extraktion nach Person und Zeit gemäß der Ausführungsform.
    • [56] 56 ist ein erläuterndes Diagramm für die Anzeige von Emotionserkennungsinformationen gemäß der Ausführungsform.
    • [57] 57 ist ein erläuterndes Diagramm für ein Beispiel einer Anwenderschnittstelle der Ausführungsform.
    • [58] 58 ist ein erläuterndes Diagramm für ein Beispiel der Anwenderschnittstelle der Ausführungsform.
    • [59] 59 ist ein erläuterndes Diagramm für ein Beispiel der Anwenderschnittstelle der Ausführungsform.
    • [60] 60 ist ein erläuterndes Diagramm für ein Beispiel der Anwenderschnittstelle der Ausführungsform.
    • [61] 61 bildet erläuternde Diagramme für die Extraktion nach Emotionserkennungsinformationen gemäß der Ausführungsform ab.
    • [62] 62 ist ein erläuterndes Diagramm für die Eingrenzung von Bildern anhand von Informationen über die Fokusposition gemäß der Ausführungsform.
    • [63] 63 ist ein erläuterndes Diagramm für die Eingrenzung von Bildern anhand der Informationen über die Fokusposition gemäß der Ausführungsform.
    • [64] 64 ist ein Ablaufplan, der die Detektion eines Bildes, in dem Pupillen im Fokus sind, gemäß der Ausführungsform darstellt.
    • [65] 65 ist ein erläuterndes Diagramm für die Extraktion eines Bildes, in dem ein Objekt im Fokus ist, gemäß der Ausführungsform.
    • [66] 66 bildet erläuternde Diagramme für die Extraktion von Bildern, in denen Tiere im Fokus sind, gemäß der Ausführungsform ab.
    • [67] 67 ist ein erläuterndes Diagramm für die Extraktion eines Bildes, in dem ein extrahiertes Objekt im Fokus ist, gemäß der Ausführungsform.
    • [68] 68 bildet erläuternde Diagramme für die Extraktion gemäß OR-Bedingungen gemäß der Ausführungsform ab.
    • [69] 69 bildet erläuternde Diagramme für die Extraktion unter Verwendung von Ausschlussbedingungen gemäß der Ausführungsform ab.
    • [70] 70 bildet erläuternde Diagramme für die Extraktion unter Verwendung von Ausschlussbedingungen gemäß der Ausführungsform ab.
    • [71] 71 ist ein erläuterndes Diagramm zur Anpassung von Extraktionsbedingungen gemäß der Ausführungsform.
    • [72] 72 ist ein erläuterndes Diagramm für die Anwendung der Ausführungsform auf Videos.
    • [73] 73 ist ein erläuterndes Diagramm zur Erzeugung von Höhepunkt-Videos gemäß der Ausführungsform.
    • [74] 74 ist ein Ablaufplan, der einen Prozess zur Erzeugung von Höhepunkt-Videos gemäß dieser Ausführungsform darstellt.
    • [75] 75 ist ein erläuterndes Diagramm eines Prüfbildschirms für ein Bild als Übergabekandidaten gemäß der Ausführungsform.
    • [76] 76 ist ein erläuterndes Diagramm Filtern unter Verwendung von Gesichtern gemäß der Ausführungsform.
    • [77] 77 ist ein erläuterndes Diagramm für die Präsentation von Personen, die nicht in den Übergabebildern enthalten sind, gemäß der Ausführungsform.
  • [Beschreibung der Ausführungsform]
  • Eine Ausführungsform wird nachstehend in der folgenden Reihenfolge beschrieben.
    1. <1. Systemkonfiguration und Arbeitsprozedur für den Dienst zum Bereitstellen einer Bildsammlung>
    2. <2. Konfiguration der Datenverarbeitungsvorrichtung>
    3. <3. Voreinstellungsprozess>
    4. <4. Übertragungs/Bearbeitungs-Prozess>
    5. <5. Auswahlprozess>
    6. <6. Serverprozess>
    7. <7. Web-Galerie-Übergabeprozess>
    8. <8. Regulärer Übergabeprozess>
    9. <9. Automatischer Einstellungsprozess>
    10. <10. Auswahlbeschleunigungsunterstützungsprozess>
    11. <11. Unterstützung der Endbestätigung für die Auswahl des übergebenen Bildes>
    12. <12. Präsentation basierend auf Gesichtsinformationen>
    13. <13. Automatische Auswahl eines übergebenen Bildes>
    14. <14. Präsentation von Personen, die nicht im übergebenen Bild enthalten sind, unter Verwendung von Gesichtsinformationen oder anderem>
    15. <15. Unterstützung der Bildaufnahme unter Verwendung einer Aufnahmeliste>
    16. <16. Zusammenfassung und Modifikationen>
  • <1. Systemkonfiguration und Arbeitsprozedur für den Dienst zum Bereitstellen einer Bildersammlung>
  • Die Ausführungsform wird unter Annahme eines Falls beschrieben, in dem Inhalt als eine Bildsammlung erzeugt wird, die aufgenommene Bilder aufweist, die Standbilder (Fotos) sind, die durch einen Fotografen bei einem Ereignis wie z. B. einer Hochzeit aufgenommen werden, und der erzeugte Inhalt gegen eine Gebühr oder gebührenfrei für einen Kunden bereitgestellt wird.
  • Es wird darauf hingewiesen, dass anstelle der Bildsammlung aus Standbildern auch eine Bildsammlung die Videos, die mit Ton aufgenommen wurden, oder Videos, die ohne Ton aufgenommen wurden, enthält, erzeugt werden kann. Alternativ kann auch eine Bildsammlung, die mehrere Videos aufweist, erzeugt werden.
  • Ein Fotograf und ein Assistent des Fotografen werden zur Vereinfachung der Erläuterung gemeinsam als Kamerapersonal bezeichnet.
  • Außerdem ist ein Kunde ein allgemeiner Begriff, der nicht nur einen Käufer, sondern auch einen Anwender, der die Erlaubnis besitzt, die Lieferung einer Bildsammlung zu empfangen und die Bildsammlung anzusehen, bezeichnet. Beispielsweise werden betroffene Personen wie beispielsweise ein Brautpaar und Verwandte und Freunde des Brautpaares gemeinsam als ein Kunde bezeichnet.
  • Die Bildsammlung bezieht sich auf einen weiten Bereich von Inhalt, der aus einer Sammlung von Bildern (Standbildern und Videos) besteht, wie z. B. ein Fotoalbum, und kann in jedem Bereitstellungsmodus bereitgestellt werden. Gemäß der vorliegenden Ausführungsform, die als Beispiel präsentiert ist, ist angenommen, dass eine Bildsammlung für eine Web-Galerie und eine Bildsammlung für die reguläre Übergabe bereitgestellt werden können.
  • Beispielsweise ist hier die Bildsammlung für die Web-Galerie eine elektronische Bildsammlung, die Ereignisbilder enthält, die unmittelbar nach dem Ende eines Ereignisses wie z. B. einer Hochzeit auf einer Website durchsuchbar gemacht werden.
  • Es wird darauf hingewiesen, dass hier ein Beispiel beschrieben ist, das eine Website verwendet. Dieser Fall ist jedoch nur als Beispiel präsentiert. Einsetzbar ist ein solcher Bereitstellungsmodus, der in der Lage ist, eine Inhaltsdatei, die eine Bildsammlung bildet, an die Endgerätevorrichtung des Kunden zu senden, beispielsweise unter Verwendung einer E-Mail, einer elektronischen Nachricht, sozialer Medien oder dergleichen.
  • Außerdem bezieht sich die Bildsammlung für die reguläre Übergabe auf eine Ereignisbildsammlung, die offiziell durch das Kamerapersonal als Fotoalbum erstellt und dem Kunden beispielsweise später zur Verfügung gestellt wird. Die Bildsammlung für die reguläre Übergabe kann eine elektronische Bildsammlung sein, die Inhalte von Fotoalben, Diashows oder dergleichen, die durch Bearbeiten von Bilddaten von während eines Ereignisses aufgenommenen Bildern erstellt wurden, aufweist, oder eine Bildsammlung sein, die beispielsweise unter Verwendung eines Papiermediums erzeugt wurde. Die elektronische Bildsammlung kann durch Herunterladen, Streaming oder andere Verfahren bereitgestellt sein oder kann in einem tragbaren Speichermedium wie z. B. einem plattenförmigen Speichermedium, einem kartenförmigen Speichermedium, einem bandförmigen Speichermedium und einem Flash-Speichermedium gespeichert und in dieser Form bereitgestellt sein.
  • Gemäß der vorliegenden Ausführungsform wird eine Bildsammlung, die der Kunde sofort durchsuchen kann, als die Bildsammlung für die Web-Galerie erzeugt, bevor die Bildsammlung für die reguläre Übergabe erzeugt wird. Außerdem ist die Bildsammlung für die Web-Galerie keine Sammlung, die einfach eine große Menge aufgenommener Bilder, die auf einfache Weise angeordnet sind, enthält, sondern eine Sammlung, die ausgewählte Bilder enthält und die eine Qualität aufweist, die ausreicht, um dem Betrachter Freude zu bereiten.
  • Andererseits wird die Bildsammlung für die reguläre Übergabe als eine Sammlung betrachtet, die durch das Kamerapersonal mit Zeitaufwand und einer anspruchsvolleren kreativen Bearbeitung erzeugt wird.
  • 1 bildet die Endgerätevorrichtungen 1A und 1B, eine Bildaufnahmevorrichtung 2, einen Personalcomputer 3, eine Servervorrichtung 4, die Endgerätevorrichtungen 5A und 5B und ein Netz 6 ab.
  • Es wird darauf hingewiesen, dass die Endgerätevorrichtungen 1A und 1B Endgerätevorrichtungen angeben, die durch das Kamerapersonal verwendet werden, und werden zur Unterscheidung in der Erläuterung gemeinsam als ein Personalendgerät 1 bezeichnet.
  • Die Endgerätevorrichtungen 5A und 5B sind Endgerätevorrichtungen, die jeweils durch einen Anwender, der dem vorstehend beschriebenen Kunden entspricht, verwendet werden, und werden zur Vereinfachung der Erläuterung gemeinsam als ein Kundenendgerät 5 bezeichnet.
  • Sowohl das Personalendgerät 1 als auch das Kundenendgerät 5 ist hier eine tragbare Endgerätevorrichtung, wie z. B. ein Smartphone oder eine Tablet-Vorrichtung, die als Beispiel präsentiert sind.
  • Die Endgerätevorrichtung 1A ist beispielsweise ein Smartphone, von dem angenommen ist, dass es durch den Fotografen verwendet wird, während die Endgerätevorrichtung 1B ein Smartphone ist, von dem angenommen ist, dass es durch den Assistenten verwendet wird.
  • Indessen ist die Endgerätevorrichtung 5A ein Smartphone, von dem angenommen ist, dass es durch eine Braut verwendet wird, während die Endgerätevorrichtung 5B ein Tablet ist, von dem angenommen ist, dass es durch einen am Veranstaltungsort anwesenden Freund verwendet wird.
  • Für sowohl das Personalendgerät 1 als auch das Kundenendgerät 5 ist lediglich erforderlich, dass es etwas ist, was allgemein als eine Datenverarbeitungsvorrichtung bezeichnet wird. Es ist angenommen, dass spezifische Beispiele für diese Endgeräte einen Personalcomputer, ein Mobiltelefon, eine Spielkonsole, eine Audiovorrichtung, eine Videovorrichtung, eine Kommunikationsvorrichtung, ein Fernsehgerät und andere verschiedene Typen aufweisen. Mit anderen Worten kann sowohl das Personalendgerät 1 als auch das Kundenendgerät 5 der vorliegenden Offenbarung irgendeine Datenverarbeitungsvorrichtung sein, die zum Ausführen einer Datenverarbeitungsoperation in der Lage ist, wie z. B. eine Vorrichtung, die einen eingebauten Mikrocomputer aufweist.
  • Es ist jedoch vorzuziehen, dass unter der Annahme der Verwendung an dem Veranstaltungsort oder ähnlichen Orten jedes der Endgeräte ein tragbares Endgerät ist, wie z. B. ein Smartphone und ein Tablet.
  • Es ist angenommen, dass die Bildaufnahmevorrichtung 2 irgendeine aus verschiedenen Typen von Bildaufnahmevorrichtungen ist, die als Videokamera oder als Standbildkamera funktionieren. Es ist angenommen, dass die in der Figur abgebildete Bildaufnahmevorrichtung 2 eine Kamera ist, die durch den Fotografen an dem Ort der Hochzeit verwendet wird.
  • Es ist angenommen, dass die Bildaufnahmevorrichtung 2 und das Personalendgerät 1 (z. B. die Endgerätevorrichtung 1A) über Datenkommunikation miteinander kommunizieren. Diese Datenkommunikation wird beispielsweise unter Verwendung von FTP-Kommunikation (Dateiübertragungsprotokoll-Kommunikation) erreicht.
  • Insbesondere wird davon ausgegangen, dass die Endgerätevorrichtung 1A als ein FTP-Server funktioniert, um eine Bilddatei (die Bilddaten und Metadaten enthält) aus Bildern, die durch die Bildaufnahmevorrichtung 2 aufgenommen sind, durch FTP-Kommunikation der Reihe nach oder gemeinsam hochzuladen.
  • Dementsprechend ist angenommen, dass die Bildaufnahmevorrichtung 2 eine FTP-Einstellung für die Datenübertragung an die Endgerätevorrichtung 1A besitzt.
  • Inhalte von FTP-Einstellungsinformationen weisen einen Host-Namen eines FTP-Servers, einen Speicherzielpfad, einen Benutzernamen, ein Passwort, einen Verbindungstyp und dergleichen auf.
  • Es ist jedoch nicht erforderlich, dass sowohl die Bildaufnahmevorrichtung 2 als auch die Endgerätevorrichtung 1A FTP verwenden, sondern sie können auch andere Protokolle einsetzen.
  • Außerdem kann irgendein Kommunikationssystem angewandt werden, um Bilder und Metadaten zwischen der Bildaufnahmevorrichtung 2 und der Endgerätevorrichtung 1A zu übertragen. Beispielsweise kann die Datenkommunikation wechselseitig durch drahtlose Kurzstreckenkommunikation wie z. B. Bluetooth (eingetragenes Warenzeichen), WI-FI (Wireless Fidelity: eingetragenes Warenzeichen) und NFC (Near Field Communication: eingetragenes Warenzeichen), Infrarot-Kommunikation oder dergleichen erreicht werden.
  • Darüber hinaus kann die Kommunikation zwischen der Bildaufnahmevorrichtung 2 und der Endgerätevorrichtung 1A wechselseitig durch Kommunikation über eine drahtgebundene Verbindung wie z. B. ein drahtgebundenes LAN erreicht werden.
  • Der Personalcomputer 3 ist ein Beispiel für eine Datenverarbeitungsvorrichtung, die durch das Kamerapersonal verwendet wird, um beispielsweise Bildsammlungsinhalte für die reguliere Übergabe zu erzeugen.
  • Der Personalcomputer 3 wird eingesetzt, um die Arbeit zum Erfassen von Ereignisbildern zugeordneten Daten von der Servervorrichtung 4 und zum Erzeugen von Bildsammlungsinhalt für die reguläre Übergabe aus den erfassten Daten unter Verwendung einer Bildbearbeitungsanwendung oder dergleichen durchzuführen.
  • Die Servervorrichtung 4 stellt verschiedene Typen von Informationen, die durch das Kamerapersonal zum Erzeugen der Bildersammlung für die Web-Galerie oder für die reguläre Übergabe zu verwenden sind, bereit und managt sie.
  • Beispielsweise besitzt das Personalendgerät 1 ein installiertes Anwendungsprogramm, um einen Bildersammlungsbereitstellungsdienst bereitzustellen, und führt unter diesem Anwendungsprogramm nachstehend beschriebene Prozesse aus. Die Servervorrichtung 4 managt dem Ereignis zugeordnete Daten und erzeugt eine Web-Galerie, beispielsweise in Übereinstimmung mit den durch das Personalendgerät 1 ausgeführten Prozessen.
  • Das Personalendgerät 1 und die Servervorrichtung 4 sind während des vorstehend beschriebenen Betriebs des Anwendungsprogramms immer miteinander verbunden, beispielsweise um Synchronisation der Ereignisdaten zu erreichen. Wie nachstehend beschrieben weisen Beispiele für die Ereignisdaten Bilddaten von während des Ereignisses aufgenommen Bildern, zum Erzeugen der Web-Galerie verwendete Daten und andere auf.
  • Die „Synchronisation“ in der vorliegenden Offenbarung bezieht sich auf einen Zustand, in dem wenigstens ein Teil der Dateninhalte der in dem Personalendgerät 1 gespeicherten Ereignisdaten und der in der Servervorrichtung 4 gespeicherten Ereignisdaten äquivalent zueinander gehalten werden. Insbesondere sind Daten, die zu synchronisieren sind, beispielsweise Bilddaten, Bewertungsinformationen, Auswahlinformationen, Bearbeitungsinformationen oder dergleichen. Die jeweiligen Inhalte dieser Datenarten werden später beschrieben.
  • Beispielsweise ist angenommen, dass das Netz 6 das Internet, ein Heimnetz, ein LAN (lokales Netz), ein Satellitenkommunikationsnetz oder andere verschiedene Typen von Netzen ist.
  • Das Personalendgerät 1 ist in der Lage, Bilddaten und dergleichen zu der Servervorrichtung 4 über das Netz 6 hochzuladen und Informationen zur Synchronisation zu senden.
  • Das Kundenendgerät 5 ist in der Lage, über das Netz 6 auf eine durch die Servervorrichtung 4 bereitgestellte Webseite zuzugreifen und eine Web-Galerie zu durchsuchen.
  • Der Personalcomputer 3 ist in der Lage, über das Netz 6 eine Bilddatei zum Erzeugen von Bildsammlungsinhalt für die reguläre Übergabe von der Servervorrichtung 4 zu erfassen.
  • Es wird darauf hingewiesen, dass die Bildaufnahmevorrichtung 2 eine Anzeigeeinheit wie z. B. eine Anzeigetafel, die auf einer Rückseite der Vorrichtung vorgesehen ist, und einen Sucher besitzt und konfiguriert ist, Bedieneingaben durch eine Funktion verschiedener Typen von Bedienelementen, eine berührungssensitive Tafel oder dergleichen zu empfangen. Mit anderen Worten besitzt die Bildaufnahmevorrichtung 2 eine ausreichende Funktion als eine Anwenderschnittstelle. Außerdem weist die Bildaufnahmevorrichtung 2 einen Mikrocomputer auf und ist in der Lage, verschiedene Arten von Datenverarbeitung und Kommunikation auszuführen.
  • Dementsprechend ist auch angenommen, dass die Bildaufnahmevorrichtung 2 als die in der vorliegenden Offenbarung beschriebene Datenverarbeitungsvorrichtung funktioniert und mit der Servervorrichtung 4 kommuniziert, ohne die Endgerätevorrichtungen 1A und 1B zu verwenden, oder Prozesse ausführt, die durch die Endgerätevorrichtungen 1A und 1B ausgeführt werden, wie später beschrieben wird.
  • Die durch das Personalendgerät 1 und die Servervorrichtung 4 ausgeführten Prozesse werden in der Ausführungsform hauptsächlich beschrieben. Es ist jedoch auch ein Beispiel möglich, in dem alle oder ein Teil der nachstehend beschriebenen und durch das Personalendgerät 1 ausgeführten Prozesse durch die Bildaufnahmevorrichtung 2 durchgeführt werden.
  • Unter Bezugnahme auf 2 wird eine schematische Prozedur beschrieben, die durch das wie in 1 dargestellt konfigurierte System erreicht wird, um eine Bildsammlung bereitzustellen. Dies ist eine Arbeitsprozedur, die durch das Personalendgerät 1 gemäß den durch das Kamerapersonal, das einem Dienstanbieter entspricht, ausgeführten Operationen ausgeführt wird.
  • In Schritt S1 wird eine Voreinstellung bereitgestellt. Beispielsweise stellt das Kamerapersonal eine Kommunikationseinstellung zwischen dem Personalendgerät 1 und der Bildaufnahmevorrichtung 2, eine Ereigniseinstellung, eine Bildretuschiereinstellung und andere Einstellungen bereit. Diese Voreinstellung wird vor dem Beginn der Hochzeit fertiggestellt.
  • In Schritt S2 werden die Bildaufnahme, die Übertragung und die automatische Bearbeitung während der Hochzeit ausgeführt.
  • Eine Bilddatei aus Bildern, die durch den Fotografen unter Verwendung der Bildaufnahmevorrichtung 2 aufgenommen wurden, wird nacheinander an das Personalendgerät 1 (z. B. die Endgerätevorrichtung 1A) übertragen.
  • Das Personalendgerät 1 importiert die Bilddatei und führt außerdem beispielsweise die Übertragung der Bilddatei und dergleichen an die Servervorrichtung 4, automatisches Bearbeiten von Bildern gemäß der Voreinstellung und anderes aus.
  • Die in Schritt S3 präsentierte Arbeit ist eine Arbeit, die beispielsweise am gleichen Tag nach dem Ende der Hochzeit ausgeführt werden kann.
  • Das Kamerapersonal führt eine Auswahloperation unter Verwendung des Personalendgeräts 1 aus. Diese Auswahl weist die Auswahl von in der Web-Galerie eingestellten Bildern, Auswahl eines Titelbildes und eines Höhepunktbildes, Bearbeiten von Bildern und dergleichen auf. Das Personalendgerät 1 führt einen Aktualisierungsprozess und dergleichen der Ereignisdaten gemäß den durch das Kamerapersonal ausgeführten Operationen aus. Ein Prozess zur Synchronisation mit den Ereignisdaten auf der Seite der Servervorrichtung 4 wird ebenfalls sequenziell ausgeführt.
  • In Schritt S4 wird ein Prozess zur Übergabe der Web-Galerie ausgeführt. Die Web-Galerie wird durch die Servervorrichtung 4 unter Bezugnahme auf die Ereignisdaten erzeugt. Eine Operation, um zu ermöglichen, dass der Kunde die Web-Galerie durchsucht, wird nach der Fertigstellung der Überprüfung der Inhalte der Web-Galerie durch das Kamerapersonal unter Verwendung des Personalendgeräts 1 ausgeführt. Das ermöglicht, dass der Kunde beispielsweise die Web-Galerie, die eine Bildsammlung der Hochzeit bildet, am gleichen Tag nach dem Ende der Hochzeit durchsucht.
  • Ein in Schritt S5 präsentierter Prozess ist ein Prozess zum Erzeugen einer Bildsammlung zur regulären Übergabe und zum Erreichen der regulären Übergabe.
  • Das Kamerapersonal erzeugt Bildsammlungsinhalt zur regulären Übergabe zu einem späteren Zeitpunkt unter Verwendung beispielsweise des Personalcomputers 3 und stellt den erzeugten Inhalt für den Kunden bereit.
  • Das ermöglicht, dass der Kunde den Bildsammlungsinhalt zur regulären Übergabe empfängt.
  • <2. Konfiguration der Datenverarbeitungsvorrichtung>
  • 3 bildet ein Konfigurationsbeispiel einer Datenverarbeitungsvorrichtung 10 ab, die zum Bilden des Personalendgeräts 1, des Kundenendgeräts 5, der Servervorrichtung oder der Personalcomputers 3 fähig ist.
  • Das Personalendgerät 1, der Personalcomputer 3 oder die Servervorrichtung 4 weist die folgende Konfiguration der Datenverarbeitungsvorrichtung 10 auf, um später beschriebene Prozesse auszuführen. Ferner kann die Bildaufnahmevorrichtung 2 dadurch, dass sie die folgenden Konfigurationen der Datenverarbeitungsvorrichtung 10 aufweist, auch Prozesse ausführen, die den durch das Personalendgerät 1 ausgeführten ähnlich sind, wie später beschrieben ist.
  • Die CPU (zentrale Verarbeitungseinheit) 71 der Datenverarbeitungsvorrichtung 10 führt verschiedene Arten von Prozessen unter einem in einem ROM (Festwertspeicher) 72 gespeicherten Programm oder einem das aus der Speichereinheit 79 in einen RAM (Direktzugriffsspeicher) 73 geladenen Programm aus. Der R_AM 73 speichert auf geeignete Weise auch Daten und dergleichen, die die CPU 71 zur Ausführung der verschiedenen Arten von Prozessen benötigt.
  • Die CPU 71, der ROM 72 und der RAM 73 sind über einen Bus 74 miteinander verbunden. Eine Eingabe/Ausgabe-Schnittstelle 75 ist ebenfalls mit dem Bus 74 verbunden.
  • Eine Eingabeeinheit 76, die ein Bedienelement aufweist, oder eine Bedienvorrichtung ist mit der Eingabe/Ausgabe-Schnittstelle 75 verbunden.
  • Beispielsweise ist angenommen, dass die Eingabeeinheit 76 irgendeines aus verschiedenen Typen von Bedienelementen und Bedienvorrichtungen ist, wie z. B. eine Tastatur, eine Maus, Tasten, ein Drehknopf, eine berührungssensitive Tafel, ein Touchpad oder eine Fernbedienung.
  • Eine durch den Anwender ausgeführte Operation wird durch die Eingabeeinheit 76 detektiert. Ein der Eingabeoperation entsprechendes Signal wird durch die CPU 71 interpretiert.
  • Außerdem sind eine Anzeigeeinheit 77, die eine Flüssigkristalltafel (LCD:
    • Flüssigkristallanzeigevorrichtung), eine organische EL-Anzeige (Elektrolumineszenz-Anzeige) oder dergleichen aufweist, und eine Audioausgabeeinheit 78, die einen Lautsprecher oder dergleichen aufweist, mit der Eingabe/Ausgabe-Schnittstelle 75 verbunden, als integrierte oder separate Komponenten.
  • Die Anzeigeeinheit 77 ist eine Anzeigeeinheit, die verschiedene Typen von Anzeigen präsentiert, und weist beispielsweise eine Anzeigevorrichtung, die auf einem Gehäuse der Datenverarbeitungsvorrichtung 10 vorgesehen ist, eine separate Anzeigevorrichtung, die mit der Datenverarbeitungsvorrichtung 10 verbunden ist, oder dergleichen auf.
  • Die Anzeigeeinheit 77 führt die Anzeige von Bildern, die für verschiedene Typen der Bildverarbeitung verwendet werden, zu verarbeitende Videos und dergleichen auf einem Anzeigebildschirm in Übereinstimmung mit Anweisungen der CPU 71 aus. Außerdem zeigt die Anzeigeeinheit 77 verschiedene Typen von Bedienmenüs, Symbolen, Meldungen oder dergleichen, d. h. Elemente als GUI (grafische Anwenderschnittstelle), als Reaktion auf Anweisungen der CPU 71 an.
  • Eine Speichereinheit 79, die eine Festplatte, einen Festkörperspeicher oder dergleichen aufweist, und eine Kommunikationseinheit 80, die die Kommunikation unter Verwendung verschiedener Typen von Kommunikationssystemen bereitstellt, sind abhängig von den Gegebenheiten mit der Eingabe/Ausgabe-Schnittstelle 75 verbunden.
  • Die Kommunikationseinheit 80 stellt Kommunikation, die durch einen Kommunikationsprozess erreicht wird, über einen Übertragungsweg wie z. B. das Internet, durch drahtgebundene/drahtlose Kommunikation mit verschiedenen Vorrichtungstypen, durch Buskommunikation oder durch andere Verfahren bereit.
  • Unter der Annahme, dass die Datenverarbeitungsvorrichtung 10 das Personalendgerät 1 bildet, besitzt die Kommunikationseinheit 80 eine Funktion zum Ausführen von FTP-Kommunikation mit der Bildaufnahmevorrichtung 2 und eine Funktion zum Kommunizieren mit der Servervorrichtung 4 über das Netz 6. Alternativ kann die Kommunikationseinheit 80 eine Funktion zum Bereitstellen von Kommunikation, die durch drahtlose Nahbereichskommunikation erreicht wird, besitzen, wie z. B. Bluetooth, WI-FI und NFC, Infrarot-Kommunikation, Kommunikation über eine drahtgebundene Verbindung oder dergleichen, wie vorstehend beschrieben. Außerdem kann die Kommunikationseinheit 80 eine Funktion zum Bereitstellen von Kommunikation unter Verwendung eines Kommunikationsweges für Mobiltelefone, wie z. B. LTE (Langzeitentwicklung), besitzen.
  • Unter der Annahme, dass die so konfigurierte Datenverarbeitungsvorrichtung 10 die Servervorrichtung 4 oder den Personalcomputer 3 bildet, besitzt die Kommunikationseinheit 80 wenigstens die Funktion zum Bereitstellen von Kommunikation über das Netz 6.
  • Ein Laufwerk 82 ist ferner bei Bedarf mit der Eingabe/Ausgabe-Schnittstelle 75 verbunden. Ein herausnehmbares Aufzeichnungsmedium 81, wie z.B. eine Magnetplatte, eine optische Platte, eine magneto-optische Platte und ein Halbleiterspeicher wird auf geeignete Weise an das Laufwerk 82 angeschlossen.
  • Eine Datendatei, wie z. B. eine Bilddatei, verschiedene Arten von Computerprogrammen und dergleichen können aus dem herausnehmbaren Aufzeichnungsmedium 81 durch das Laufwerk 82 gelesen werden. Die so gelesene Datendatei wird in der Speichereinheit 79 gespeichert, oder die in der Datendatei enthaltenen Bilder und Töne werden über die Anzeigeeinheit 77 oder die Audioausgabeeinheit 78 ausgegeben. Außerdem werden die aus dem herausnehmbaren Aufzeichnungsmedium 81 gelesenen Computerprogramme und dergleichen bei Bedarf in der Speichereinheit 79 installiert.
  • Gemäß der wie vorstehend beschrieben konfigurierten Datenverarbeitungsvorrichtung 10 kann Software, die zum Ausführen der Prozesse der vorliegenden Offenbarung verwendet wird, beispielsweise über die durch die Kommunikationseinheit 80 bereitgestellte Netzkommunikation oder das herausnehmbare Aufzeichnungsmedium 81 installiert werden. Alternativ kann diese Software auch im Voraus in dem ROM 72, der Speichereinheit 79 oder dergleichen gespeichert sein.
  • In dem Fall, in dem angenommen ist, dass die Datenverarbeitungsvorrichtung 10 das Personalendgerät 1 bildet, besitzt die Datenverarbeitungsvorrichtung 10 eine in 4 abgebildete funktionale Konfiguration und ist in der CPU 71 unter Software (Anwendungsprogramm) konstruiert.
  • 4 bildet eine Ereignisdatenmanagementeinheit 30, eine UI-Steuereinheit (Anwenderschnittstellensteuereinheit) 31, eine Kommunikationssteuereinheit 32 und eine Einheit 33 zur automatischen Einstellung als Funktionen, die in der Datenverarbeitungsvorrichtung 10 enthalten sind, die das Personalendgerät 1 bildet, ab.
  • Die Ereignisdatenmanagementeinheit 30 ist eine Verarbeitungsfunktion zum Speichern von Bilddaten, die über die Kommunikation mit der Bildaufnahmevorrichtung 2 empfangen werden, und von zusätzlichen Informationen, die Bewertungsinformationen und dergleichen, die den Bilddaten entsprechen, enthalten, beides als Ereignisdaten, die einem spezifischen Ereignis zugeordnet sind. Außerdem führt die Ereignisdatenmanagementeinheit 30 auch einen Aktualisierungsprozess aus, um die Ereignisdaten gemäß der Bedieneingabe von dem Kamerapersonal zu aktualisieren.
  • 5 bildet schematisch ein Beispiel für Inhalte der Ereignisdaten ab.
  • Die Ereignisdaten sind eine Gruppe von Daten, die Bilder und verschiedene Inhalte eines Ereignisses, die durch eine vom Kamerapersonal ausgeführte Operation des Personalendgeräts 1 registriert wurden, enthalten. 5 bildet Ereignisdaten 60 ab, die einem Ereignis, für das der Ereignisname „Ereignis2“ vergeben wurde, zugeordnet sind.
  • Gemäß diesem Beispiel ist angenommen, dass die Ereignisdaten 60 Voreinstellungsinformationen 61, eine Bildaufnahme- und Bearbeitungsinformationstabelle 62 und Tendenzinformationen 63 enthalten.
  • Die Voreinstellungsinformationen 61 sind Informationen, die durch das Kamerapersonal als die in Schritt S1 in 2 bereitgestellte Voreinstellung eingestellt wurden. Die Voreinstellungsinformationen 61 enthalten beispielsweise Bearbeitungsinformationen wie Retuschierparameter.
  • Die Bildaufnahme- und Bearbeitungsinformationstabelle 62 ist eine Tabelle, in die nacheinander Informationen gemäß der in den Schritten S2 und S3 in 2 ausgeführten Verarbeitung hinzugefügt und aktualisiert werden.
  • In der Bildaufnahme- und Bearbeitungsinformationstabelle 62 sind in Übereinstimmung mit der von der Bildaufnahmevorrichtung 2 übertragenen Bilddatei verschiedene Arten von Informationen beschrieben.
  • Die von der Bildaufnahmevorrichtung 2 übertragene Bilddatei enthält Bilddaten und Metadaten (MT1, MT2 und andere). Diese Bilddaten werden als Originalbilddaten gemanagt, und die hinzugefügten Metadaten werden ebenfalls gemanagt.
  • Die Bilddaten weisen Rohdaten (RAW), im JPEG-Format komprimierte Daten oder dergleichen auf, beispielsweise als Daten in irgendeinem Datenformat. Die hier beispielhaft präsentierten Bilddaten sind jedoch im JPEG-Format komprimierte Daten, wie z. B. „DSC0001.jpg“.
  • Die Metadaten (MT1, MT2 und andere) enthalten ein Datum der Aufnahme der Bilddaten, Kamerainformationen, ein Datenformat, eine Datengröße, Blickwinkelinformationen, Fokuspunktinformationen und andere verschiedene Arten durch die Bildaufnahmevorrichtung 2 hinzugefügter Informationen.
  • Die Bildaufnahme- und Bearbeitungsinformationstabelle 62 speichert die den Bilddaten entsprechenden Bewertungsinformationen. Die Bewertungsinformationen sind Informationen, die einen Beurteilungswert einer Beurteilung angeben, der durch den Fotografen oder dergleichen für jedes Bild vergeben wird, wie z. B. Beurteilungsinformationen, die sechs Stufen angeben, die durch die Anzahl von Sternen ausgedrückt sind, wie z. B. „kein Stern“, „ein Stern“, „zwei Sterne“, „drei Sterne“, „vier Sterne“ und „fünf Sterne“. Beispielsweise ist angenommen, dass die Beurteilung mit zunehmender Anzahl der Sterne steigt. Es versteht sich von selbst, dass solche Beurteilungsinformationen nur als Beispiel präsentiert sind. Solche Bewertungsinformationen sind eine Referenz für die durch das Kamerapersonal vorgenommene Bildauswahl. Dementsprechend wird zum Zeitpunkt des Einstellens eines Auswahl-Flags (Einstellen der Bildverwendungsinformationen), wie nachstehend beschrieben, beispielsweise ein Bild, für das anhand der Bewertungsinformationen eine hohe Beurteilung vergeben ist, auch als ein Bild betrachtet, das mit hoher Wahrscheinlichkeit für die Web-Galerie oder die reguläre Übergabe eingesetzt wird.
  • Bei der Aufnahme eines Bildes kann der Fotograf das aufgenommene Bild überprüfen und für das aufgenommene Bild die vorstehenden Bewertungsinformationen vergeben. Die Bildaufnahmevorrichtung 2 weist eine Anwenderschnittstelle auf, über die die Bewertungsinformationen eingegeben werden. Diese Bewertungsinformationen können beispielsweise in den den Bilddaten entsprechenden Metadaten enthalten sein und zusammen mit den Bilddaten an das Personalendgerät 1 übertragen werden. Alternativ können die Bewertungsinformationen auch in den XMP-Bereich von Exif innerhalb der Bilddatei geschrieben werden.
  • Das Personalendgerät 1 extrahiert die Bewertungsinformationen aus den Metadaten (oder Exif-Daten) und managt die Bewertungsinformationen.
  • Diese Bewertungsinformationen können in Übereinstimmung mit den Bilddaten durch eine Operation auf der Seite des Personalendgeräts 1 hinzugefügt oder aktualisiert werden.
  • Die Bildaufnahme- und Bearbeitungsinformationstabelle 62 speichert die den Bilddaten entsprechenden Auswahlinformationen.
  • Eines der Elemente, die in den Auswahlinformationen enthalten sind, sind die Bildverwendungsinformationen, die angeben, ob ein Bild in der Web-Galerie veröffentlicht werden soll oder nicht. Diese Informationen sind ein „Auswahl-Flag“ (auch einfach als „Flag“ bezeichnet), das später beschrieben ist. In diesem Fall ist ein Flag-Aus-Bild ein Bild, das als ein Bild ausgewählt ist, das nicht in der Web-Galerie verwendet werden soll, während ein Flag-Ein-Bild ein Bild ist, das als ein Bild ausgewählt ist, das in der Web-Galerie verwendet werden soll.
  • Außerdem ist eines der Elemente, die in den Auswahlinformationen enthalten sind, Titelbildinformationen, die die Auswahl als ein Titelbild, das oben an der Web-Galerie als Titelbild angeordnet werden soll, angibt.
  • Ferner ist eines der Elemente, die in den Auswahlinformationen enthalten sind, die Bildinformation für eine betonte Anzeige, die die Auswahl als ein Bild für eine betonte Anzeige (hervorgehobene Anzeige) in der Web-Galerie angeben. Es wird angenommen, dass die hervorgehobene Anzeige eine Anzeige größer als andere Bilder ist. Alternativ kann ein normales Bild ein Schwarzweißbild sein, während ein hervorgehobenes Bild als Farbbild angezeigt werden kann. Umgekehrt ist es unter dem Gesichtspunkt der Betonung auch möglich, dass ein normales Bild als ein Farbbild ausgedrückt ist und ein hervorgehobenes Bild als ein Schwarzweißbild ausgedrückt ist. Stattdessen kann eine Unterscheidung getroffen werden, indem beispielsweise ein normales Bild als rahmenloses Bild und ein hervorgehobenes Bild als gerahmtes Bild ausgedrückt ist. Für die betonte Anzeige sind verschiedene Verfahren anwendbar.
  • Die Bearbeitungsinformationen enthalten verschiedene Arten von Bildverarbeitungsparametern, wie z. B. Retuschierparameter und Neigungskorrekturparameter. Die Retuschierparameter weisen Parameter zur Anpassung der Bildqualität auf, wie z. B. einen Luminanzanpassungswert, einen Farbanpassungswert, einen Kontrastanpassungswert und einen Schärfeanpassungswert.
  • Die Retuschierparameter können durch Voreinstellung eingestellt werden oder können individuell für die jeweiligen Bilder eingestellt werden. Außerdem werden die Neigungskorrekturparameter individuell eingestellt. Unter Berücksichtigung dieser Punkte werden die den Bilddaten entsprechenden Bearbeitungsinformationen so gespeichert, dass die für jedes einzelne Bild eingestellten Parameter gespeichert werden können.
  • Es wird darauf hingewiesen, dass die Bildaufnahme- und Bearbeitungsinformationstabelle 62 Bearbeitungsinformationen speichern kann, die den in der Figur abgebildeten Bilddaten entsprechen.
  • Die Bildbearbeitungsdaten sind Bilddaten, die durch die Bearbeiten von Originalbilddaten in Bezug auf durch Voreinstellung bestimmte Bearbeitungsinformationen oder individuell eingestellte Bearbeitungsinformationen erhalten werden. Außerdem weisen die Bildbearbeitungsdaten nicht nur Bilddaten auf, die unter Bezugnahme auf die Bearbeitungsinformationen retuschiert wurden, sondern können auch Bilddaten aufweisen, die einer Änderung der Bildqualität unterzogen wurden. Die Qualitätsänderung enthält beispielsweise eine Änderung einer Bildgröße, eine Änderung der Auflösung, einen Ausschnitt und eine Änderung der Rahmenrate eines Videos.
  • In der Figur dem Dateiname der Bildbearbeitungsdaten ein „E“ hinzugefügt, z. B. „DSC0001E.jpg“, um die Bildbearbeitungsdaten von den Originalbilddaten zu unterscheiden. Diese Bildbearbeitungsdaten werden beispielsweise auf der Anwenderschnittstelle des Personalendgeräts 1 angezeigt.
  • Solche Bildbearbeitungsdaten müssen nicht im Voraus erzeugt und gespeichert werden. Stattdessen können die Bearbeitungsinformationen beispielsweise für jede Anzeige zum Zeitpunkt der Bildanzeige angewendet werden. Dementsprechend ist die Bildaufnahme- und Bearbeitungsinformationstabelle 62 nur zur Aktualisierung und Verwaltung der Bearbeitungsinformationen erforderlich, ohne dass die Bildbearbeitungsdaten gespeichert werden müssen. Es ist jedoch natürlich effektiv, die Bildbearbeitungsdaten nach Bedarf zu erzeugen und zu speichern, wie in der Figur abgebildet ist, beispielsweise unter dem Gesichtspunkt der Reduzierung der Verarbeitungslast während der Anzeigeverarbeitung.
  • Die Tendenzinformationen 63 werden in den Ereignisdaten 60 zusätzlich zu den vorstehend beschriebenen Voreinstellungsinformationen 61 und der Bildaufnahme- und Bearbeitungsinformationstabelle 62 gespeichert, abhängig von den Gegebenheiten. Die Tendenzinformationen sind Merkmalsinformationen, die beispielsweise eine Auswahltendenz des Kamerapersonals, eine Tendenz der bevorzugten Bilder des Kunden (z. B. der Braut) und dergleichen angeben. Ein Beispiel für die Anwendung der Tendenzinformation 63 wird später beschrieben.
  • Die CPU 71 der Datenverarbeitungsvorrichtung 10, die das Personalendgerät 1 bildet, führt eine zusätzliche Speicherung und Aktualisierung der vorgenannten Informationen, die in den Ereignisdaten 60 enthalten sind, unter Verwendung der Funktion der in 4 abgebildeten Ereignisdatenmanagementeinheit 30 aus.
  • Es wird darauf hingewiesen, dass das Format der Ereignisdaten 60 und das Format der Bildaufnahme- und Bearbeitungsinformationstabelle 62 nur als Beispiel präsentiert sind. Es kann irgendein Format eingesetzt werden, solange die vorstehend genannten Inhalte wenigstens für jedes Ereignis gemanagt werden.
  • Beispielsweise ist es nicht erforderlich, dass die Originalbilddaten, die Metadaten, die Bewertungsinformationen, die Auswahlinformationen, die Bearbeitungsinformationen und die Bildbearbeitungsdaten, die in der Bildaufnahme- und Bearbeitungsinformationstabelle 62 enthalten sind, gemeinsam als Tabelle gespeichert sind. Irgendein Format und Modus können zum Speichern eingesetzt werden, solange die Metadaten, die Bewertungsinformationen, die Auswahlinformationen, die Bearbeitungsinformationen und die Bildbearbeitungsdaten wenigstens jeder der Originalbilddateneinheiten zugeordnet sind.
  • Die UI-Steuereinheit 31 in 4 ist eine Funktion, die einen Prozess zum Steuern der Präsentation von Bildern, Bewertungsinformationen und dergleichen, die den Ereignisdaten 60 eines spezifischen Ereignisses zugeordnet sind, und zum Detektieren von Bedienungseingaben ausführt. Dementsprechend ist die UI-Steuereinheit 31 eine Funktion zum Ausführen eines Anwenderschnittstellenprozesses.
  • Der Anwenderschnittstellenprozess enthält die Präsentation verschiedener Arten von Informationen, die Bereitstellung einer Umgebung, die die Bedieneingabe ermöglicht, einen Prozess zum Detektieren einer durch einen Anwender ausgeführten Operation, einen Prozess zum Detektieren oder Schätzen einer Absicht des Anwenders und andere.
  • Insbesondere führt die UI-Steuereinheit 31 einen Steuerprozess aus, um die Anzeigeeinheit 77 und die Audioausgabeeinheit 78 zu veranlassen, Ausgaben an den Anwender, wie z. B. Anzeigeausgabe und Audioausgabe, auszuführen und eine Bedieneingabeumgebung bereitzustellen oder dem Anwender Informationen zu präsentieren.
  • Alternativ führt die UI-Steuereinheit 31 beispielsweise einen Prozess zum Detektieren einer durch den Anwender ausgeführten Operation aus.
  • Stattdessen führt die UI-Steuereinheit 31 beispielsweise sowohl den Prozess zum Bereitstellen der Bedieneingabeumgebung für den Anwender als auch den Prozess zum Detektieren der durch den Anwender ausgeführten Operation aus.
  • Selbstverständlich kann die UI-Steuereinheit 31 andere Anwenderschnittstellenprozesse ausführen.
  • Die Kommunikationssteuereinheit 32 ist eine Funktion, die die Kommunikation mit der außerhalb angeordneten Servervorrichtung 4 steuert, um die Ereignisdaten gemäß dem Speichern oder Aktualisieren der Ereignisdaten 60 zu synchronisieren.
  • Beispielsweise steuert die Kommunikationssteuereinheit 32 beim Empfang einer Bildübertragung von der Bildaufnahmevorrichtung 2 einen Prozess zum Übertragen von Bilddaten von der Kommunikationseinheit 80 an die Servervorrichtung 4 oder steuert die Ausgabe einer Meldung von Aktualisierungsinhalten an die Servervorrichtung 4 gemäß der Aktualisierung der Inhalte der Ereignisdaten 60.
  • Die Einheit 33 zur automatischen Einstellung ist eine Funktion zum Bereitstellen von automatischer Einstellung der Bewertungsinformationen, der Auswahlinformationen oder der Bearbeitungsinformationen unter Verwendung der vorstehend beschriebenen Tendenzinformationen 63. Dieser durch die Einheit 33 zur automatischen Einstellung ausgeführte Prozess wird später zusammen mit der Tendenzinformation 63 beschrieben.
  • Die in 4 gezeigten vorhergehenden Funktionen sind nur als Beispiel präsentiert. Durch die Konfiguration der Datenverarbeitungsvorrichtung 10, die wenigstens die Ereignisdatenmanagementeinheit 30, die UI-Steuereinheit 31 und die Kommunikationssteuereinheit 32 aufweist, kann die Datenverarbeitungsvorrichtung 10 die Prozesse ausführen, so dass sie als das Personalendgerät 1 der vorliegenden Ausführungsform funktioniert.
  • Die jeweiligen vorstehend beschriebenen Funktionen werden beispielsweise unter einem Anwendungsprogramm erreicht, das auf der Datenverarbeitungsvorrichtung 10 installiert ist, um Inhalte der Bildsammlung zu erzeugen.
  • Als Nächstes besitzt in einem Fall, in dem angenommen ist, dass die Datenverarbeitungsvorrichtung 10 die Servervorrichtung 4 bildet, die Datenverarbeitungsvorrichtung 10 eine in 6 abgebildete funktionale Konfiguration und ist in der CPU 71 unter Software (Anwendungsprogramm) konstruiert.
  • 6 zeigt eine Ereignisdatenmanagementeinheit 40, eine Bildsammlungserzeugungseinheit 41, eine Ereignisdatenzuführungssteuereinheit 42, eine Datenausgabeeinheit 43 und eine Tendenzinformationserzeugungseinheit 44 als Funktionen, die in der Datenverarbeitungsvorrichtung 10, die die Servervorrichtung 4 bildet, enthalten sind.
  • Die Ereignisdatenmanagementeinheit 40 ist eine Verarbeitungsfunktion, die das Speichern und Aktualisierungsmanagement von Ereignisdaten in der Servervorrichtung 4 erreicht.
  • 7 bildet schematisch Inhalte der Ereignisdaten 90 auf der Seite der Servervorrichtung 4 ab. Wie in 5 sind die Ereignisdaten 90 Daten, die einem Ereignis, für das ein Ereignisname „Ereignis2“ vergeben wurde, zugeordnet sind.
  • Gemäß diesem Beispiel ist angenommen, dass die Ereignisdaten 90 Voreinstellungsinformationen 91 und eine Bildaufnahme- und Bearbeitungsinformationstabelle 92 enthalten.
  • Die Voreinstellungsinformationen 91 sind Informationen ähnlich den für das Personalendgerät 1 eingestellten Voreinstellungsinformationen 61. Zum Beispiel werden die Inhalte, die durch die Voreinstellung in Schritt S1 in 2 eingestellt werden, in ähnlicher Weise in der Servervorrichtung 4 gemanagt.
  • Die Bildaufnahme- und Bearbeitungsinformationstabelle 92 ist eine Tabelle, die Informationen enthält, die Inhalte im Wesentlichen ähnlich den Inhalten der Bildaufnahme- und Bearbeitungsinformationstabelle 62 angeben. Insbesondere werden für jedes Bild Originalbilddaten, Metadaten, Bewertungsinformationen, Auswahlinformationen und Bearbeitungsinformationen gemanagt.
  • Es wird darauf hingewiesen, dass die Bildbearbeitungsdaten deswegen nicht der Bildaufnahme- und Bearbeitungsinformationstabelle 92 zugeordnet sind, weil die Bearbeitungsdaten zum Zeitpunkt der Erzeugung einer Web-Galerie gebildet werden. Selbstverständlich kann die Servervorrichtung 4 auch sequentiell Bildbearbeitungsdaten erzeugen und die Bildbearbeitungsdaten den Originalbilddaten in der Bildaufnahme- und Bearbeitungsinformationstabelle 92 zuordnen.
  • Die CPU 71 der Datenverarbeitungsvorrichtung 10, die die Servervorrichtung 4 bildet, führt eine zusätzliche Speicherung und Aktualisierung der vorgenannten Informationen, die in den Ereignisdaten 90 enthalten sind, unter Verwendung der Funktion der in 6 abgebildeten Ereignisdatenmanagementeinheit 40 aus.
  • Die Bildsammlungserzeugungseinheit 41 in 6 ist eine Funktion, die Bildsammlungsinhalt, der einer Web-Galerie eines spezifischen Ereignisses entspricht, erzeugt. Insbesondere erzeugt die Bildsammlungserzeugungseinheit 41 Bildsammlungsdaten, d.h. Web-Seiten-Daten, die die Web-Galerie bilden, unter Bezugnahme auf Auswahlinformationen und Bearbeitungsinformationen, die in den Ereignisdaten 90 enthalten sind.
  • 8 bildet ein Beispiel für die zu erzeugenden Web-Galerie-Daten ab.
  • Beispielsweise erzeugt die Servervorrichtung 4 als die Web-Galerie-Daten, beispielsweise als Web-Seiten-Einstellungsinformationen 96, Seiteninformationen im HTML-Format (Format der „HyperText Markup Language“) oder XML-Format (Format der „Extensible Markup Language“) und erzeugt außerdem einen Bildordner 97, der eine Sammlung von Bildern ist, die aus den Web-Seiten-Einstellungsinformationen 96 aufgerufen und innerhalb einer Seite angezeigt werden.
  • Der Bildordner 97 enthält Bildbearbeitungsdaten, die Bilder angeben, die als die Web-Galerie eingesetzt werden.
  • Die Ereignisdatenzuführungssteuereinheit 42 in 6 ist eine Funktion zum Steuern der Übertragung für die Zuführung der Ereignisdaten 90 zu dem Personalendgerät 1.
  • Beispielsweise werden nach der Anmeldung des Personalendgeräts 1 an der Servervorrichtung 4 und der Festlegung eines Ereignisses alle oder ein Teil der Ereignisdaten 90 dieses Ereignisses an das Personalendgerät 1 gesendet. Das Personalendgerät 1 legt die empfangenen Inhalte als die Ereignisdaten 60 unter dem Management durch das Personalendgerät 1 fest. Als ein Ergebnis darf der Assistent beispielsweise unter Verwendung der Ereignisdaten 60 auf der Seite der Endgerätevorrichtung 1B Operationen ausführen.
  • Selbstverständlich kann auch ein solcher Fall angenommen werden, in dem die Ereignisdatenzuführungssteuereinheit 42 die Ereignisdatenzuführungssteuerung für die Endgerätevorrichtung 1A und den Personalcomputer 3 ausführt.
  • Die Datenausgabeeinheit 43 führt die Steuerung zum Übertragen eines Teils der oder aller der in den Ereignisdaten enthaltenen Daten wie z. B. Metadaten, Bewertungsinformationen, Auswahlinformationen, Bearbeitungsinformationen und Bilddaten (z. B. Originalbilddaten) an die Endgerätevorrichtung (z. B. den Personalcomputer 3) als eine Datei in einem vorbestimmten Format aus.
  • Dementsprechend ist die Datenausgabeeinheit 43 um eine Verarbeitungsfunktion, die Daten, die für die Erzeugung von Bildsammlungsinhalten zur regulären Übergabe erforderlich sind, der Seite des Kamerapersonals zuführt.
  • Die Tendenzinformationserzeugungseinheit 44 ist eine Funktion, die eine Tendenz der Bildauswahl durch das Kamerapersonal und eine Tendenz der Bildbeurteilung durch den Anwender als dem Kunden lernt und Merkmalsinformationen, die diesen Tendenzen zugeordnet sind, erzeugt.
  • Die durch die Tendenzinformationserzeugungseinheit 44 ausgeführte Verarbeitung wird später zusammen mit der durch die Einheit 33 zur automatischen Einstellung des Personalendgeräts 1 ausgeführten Verarbeitung beschrieben.
  • Die in 6 gezeigten vorhergehenden Funktionen sind nur als Beispiel präsentiert. Durch die Konfiguration der Datenverarbeitungsvorrichtung 10, die die Ereignisdatenmanagementeinheit 40 aufweist, ist eine Synchronisation der Ereignisdaten zwischen dem Personalendgerät 1 und der Servervorrichtung 4 erreichbar. Außerdem ist durch die Konfiguration der Servervorrichtung 4, die die Bildsammlungserzeugungseinheit 41 aufweist, eine zeitnahe Erzeugung der Web-Galerie erreichbar.
  • Die jeweiligen in 6 abgebildeten Funktionen werden beispielsweise unter einem Anwendungsprogramm erreicht, das auf der Datenverarbeitungsvorrichtung 10 installiert ist, um Bildsammlungsinhalt zu erzeugen.
  • <3. Voreinstellungsprozess>
  • Ein spezifisches Verarbeitungsbeispiel wird nachstehend beschrieben.
  • Zunächst wird unter Bezugnahme auf die 9 und 10 ein Verarbeitungsbeispiel der Voreinstellung, die durch das Personalendgerät 1 ausgeführt wird und als Schritt S1 in 2 präsentiert ist, beschrieben.
  • Es wird darauf hingewiesen, dass sich der nachstehend beschriebene durch das Personalendgerät 1 ausgeführte Prozess auf einen Prozess bezieht, der durch die CPU 71 der Datenverarbeitungsvorrichtung 10, die die in 4 abgebildeten Funktionen besitzt, ausgeführt wird.
  • Außerdem ist jedes der nachstehend unter Bezugnahme auf einen Ablaufplan beschriebenen Bildschirmbeispiele ein Beispiel für die Anzeige von Inhalten auf einer Anzeigevorrichtung, die beispielsweise auf einem Gehäuse eines Smartphones gebildet ist, unter der Annahme, dass die Datenverarbeitungsvorrichtung 10, das das Personalendgerät 1 bildet, dieses Smartphone ist.
  • 9 präsentiert einen durch das Personalendgerät 1 ausgeführten Prozess.
  • Beispielsweise startet das Kamerapersonal ein Anwendungsprogramm unter Verwendung des Personalendgeräts 1, um eine Operation für einen Vorbereitungsprozess auszuführen. Das Personalendgerät 1 führt die Verarbeitung in Schritt S10 und den folgenden Schritten unter Verwendung der CPU 71 gemäß dieser Operation aus.
  • In Schritt S10 führt das Personalendgerät 1 einen Prozess zur Projekterzeugung aus. Dieser ist ein Prozess zum Einstellen eines Ereignisses, für das eine Bildsammlung erzeugt werden soll.
  • Beispielsweise wird auf der Anzeigeeinheit 77 des Personalendgeräts 1 ein Projektlistenbildschirm 110 angezeigt, nachdem das Anwendungsprogramm gestartet wurde, wie in 10A abgebildet.
  • Der Projektlistenbildschirm 110 weist einen Listenbereich 111, in dem eine Liste von Ereignisnamen, die individuellen Projektzielen entsprechen, angezeigt wird, auf. Der Projektlistenbildschirm 110 zeigt ferner ein Hinzufügungssymbol 112, ein Kamerasymbol 134, ein Menüsymbol 127 und andere an.
  • Das Kamerapersonal erzeugt auf dem so konfigurierten Projektlistenbildschirm 110 ein Zielprojekt, für das eine Bildsammlung erzeugt werden soll. Beispielsweise führt das Kamerapersonal eine Operation zum Erzeugen eines Projekts durch Eingeben eines Ereignisnamens oder dergleichen aus.
  • Beispielsweise wird durch Betätigung des Hinzufügungssymbols 112 ein nicht dargestellter Projekteinstellungsbildschirm angezeigt. In diesem Bildschirm sind ein Titel des Projekts (z. B. der Ereignisname), Uhrzeit und Datum des Ereignisses, ein Ort des Ereignisses, ob eine Auto-Retuschiereinstellung anzuwenden ist oder nicht, und dergleichen einstellbar.
  • Das Kamerapersonal gibt die Elemente auf geeignete Weise ein, um eine Operation zum Einstellen von Projektinhalten auszuführen. Das Personalendgerät 1 erzeugt ein Projekt gemäß dieser Operation und zeigt das erzeugte Projekt in dem Listenbereich 111 an.
  • 10B bildet ein Beispiel ab, in dem zwei Projekte mit den Namen „Ereignis1“ und „Ereignis2“ angezeigt werden. Beispielsweise werden für jedes Projekt Informationen, die einen Ereignisnamen, Uhrzeit und Datum, einen Ort und dergleichen angegeben, angezeigt.
  • In Schritt S10 in 9 führt das Personalendgerät 1 eine Steuerung zum Bereitstellen einer Anwenderschnittstelle mit dem vorstehenden Bildschirm unter Verwendung der Funktion der UI-Steuereinheit 31 aus, um einen Projekterzeugungsprozess gemäß einer durch das Kamerapersonal ausgeführten Operation auszuführen.
  • Es wird darauf hingewiesen, dass Projekterzeugungsprozess beispielsweise in einem Online-Verbindungszustand zwischen dem Personalendgerät 1 und der Servervorrichtung 4 ausgeführt wird. In diesem Fall sendet das Personalendgerät 1 Informationen, die für einen Synchronisationsprozess verwendet werden, an die Servervorrichtung 4 gemäß den Inhalten der durch den Anwender ausgeführten Operation unter Verwendung der Funktion der Kommunikationssteuereinheit 32.
  • Als ein Ergebnis wird der Eingangszustand der Informationen als ein Projekt synchron auch in der Servervorrichtung 4 erreicht.
  • In Schritt S11 in 9 stellt das Personalendgerät 1 die Übertragungseinstellung bereit. Diese Übertragungseinstellung ist die Einstellung der FTP-Übertragung zwischen dem Personalendgerät 1 und der Bildaufnahmevorrichtung 2, wie beispielsweise die Einstellung eines Dateiformats für die Übertragung und eines FTP-Verbindungsservers.
  • Das Personalendgerät 1 führt eine Anzeige eines Übertragungseinstellungsbildschirms für das Kamerapersonal unter Verwendung der Funktion der UI-Steuereinheit 31 aus, um die erforderlichen Übertragungseinstellungen gemäß einer durch das Kamerapersonal ausgeführten Operation bereitzustellen.
  • In Schritt S12 stellt das Personalendgerät 1 eine Auto-Retuschiereinstellung bereit. Die Auto-Retuschiereinstellung ist ein Prozess zum Einstellen von Parametern für einen Bildbearbeitungsprozess, der gemeinsam auf die jeweiligen Bilder angewendet wird.
  • Das Personalendgerät 1 führt eine Anzeige eines Auto-Retuschiereinstellungsbildschirms für das Kamerapersonal unter Verwendung der Funktion der UI-Steuereinheit 31 aus, um die erforderlichen Auto-Retuschiereinstellung gemäß einer durch das Kamerapersonal ausgeführten Operation bereitzustellen. Die Parameter der Auto-Retuschiereinstellung sind in den Ereignisdaten 60 des erzeugten Projekts als die Voreinstellungsinformationen 61 beschrieben.
  • Außerdem wird diese Auto-Retuschiereinstellung beispielsweise auch in dem Online-Verbindungszustand zwischen dem Personalendgerät 1 und der Servervorrichtung 4 bereitgestellt. Das Personalendgerät 1 sendet Parameterinformationen, die die Auto-Retuschiereinstellung angeben, an die Servervorrichtung 4, um den Synchronisierungsprozess zu erreichen.
  • Als ein Ergebnis kann die Servervorrichtung 4 auch die Voreinstellungsinformationen 91, die denselben Inhalt wie die in den Ereignisdaten 60 enthaltenen Voreinstellungsinformationen 61 aufweisen, als die Ereignisdaten 90 des entsprechenden Projekts speichern.
  • In Schritt S13 stellt das Personalendgerät 1 eine Wasserzeicheneinstellung bereit. Beispielsweise kann ein Name des Fotografen oder dergleichen als ein Wasserzeichen (digitales Wasserzeichen) in ein Bild der Web-Galerie eingefügt werden. Die Wasserzeicheneinstellung ist ein Prozess zum Einstellen des Vorhandenseins oder Fehlens und der Inhalte des Wasserzeichens.
  • Das Personalendgerät 1 führt eine Anzeige eines Wasserzeicheneinstellungsbildschirms für das Kamerapersonal unter Verwendung der Funktion der UI-Steuereinheit 31 aus, um die erforderliche Wasserzeicheneinstellung gemäß einer durch das Kamerapersonal ausgeführten Operation bereitzustellen. Informationen, die die Wasserzeicheneinstellung angeben, sind auch in den Ereignisdaten 60 des erzeugten Projekts als die Voreinstellungsinformationen 61 beschrieben.
  • Außerdem wird diese Wasserzeicheneinstellung auch im Online-Verbindungszustand zwischen dem Personalendgerät 1 und der Servervorrichtung 4 bereitgestellt. Das Personalendgerät 1 sendet die Informationen, die die Wasserzeicheneinstellung angeben, an die Servervorrichtung 4, um den Synchronisierungsprozess zu erreichen.
  • Als ein Ergebnis kann die Servervorrichtung 4 auch die Voreinstellungsinformationen 91 in den Ereignisdaten 90 des entsprechenden Projekts als Informationen, die mit den Voreinstellungsinformationen 61 synchronisiert sind, speichern.
  • Es wird darauf hingewiesen, dass die vorstehend beschriebenen Schritte S11, S12 und S13 in einer anderen Reihenfolge ausgeführt werden können. Außerdem muss die Verarbeitung in den jeweiligen Schritten nicht als eine Reihe von Prozessen ausgeführt werden. Die Verarbeitung kann beispielsweise für jede Operation ausgeführt werden, die während des Betriebs durch den Anwender ausführt wird.
  • Ferner kann die Verarbeitung in den jeweiligen Schritten übersprungen werden, wenn sie nicht notwendig ist. Beispielsweise kann die Übertragungseinstellung in Schritt S11 jedes Mal bereitgestellt werden, wenn ein Projekt in Schritt S10 erzeugt wird. Wenn jedoch keine Änderung der Einstellung speziell erforderlich ist, nachdem die FTP-Übertragungseinstellung einmal ausgeführt worden ist, kann der Prozess zu Schritt S12 fortfahren, während Schritt S11 nach Fertigstellung der Projekterzeugung in Schritt S10 übersprungen wird. Dies gilt natürlich auch für die Verarbeitung in den Schritten S12 und S13. In einem Fall, in dem nach der Einstellung keine Änderung speziell erforderlich ist, können diese Schritte übersprungen werden.
  • Außerdem kann die Kommunikation mit der Servervorrichtung 4 zur Synchronisation zu einer Zeit jeder Verarbeitung erreicht werden. Alternativ kann eine Synchronisierung zwischen den Voreinstellungsinformationen 61 und den Voreinstellungsinformationen 91 dadurch erreicht werden, dass solche Informationseinheiten, die mehrere Einstellungen angeben, zum Zeitpunkt der Fertigstellung dieser Einstellungen gemeinsam gesendet werden.
  • Darüber hinaus ist es in einem Fall, in dem irgendwelche Inhalte in einer Umgebung eingestellt worden sind, in der die Online-Verbindung mit der Servervorrichtung 4 deaktiviert ist, ausreichend, wenn die eingestellten Informationen zur Synchronisierung zwischen den Voreinstellungsinformationen 61 und den Voreinstellungsinformationen 91 zu dem Zeitpunkt, an dem ein Online-Verbindungszustand erreicht ist, gesendet werden.
  • <4. Übertragungs/Bearbeitungs-Prozess>
  • Als Nächstes wird unter Bezugnahme auf 11 ein spezifisches Verarbeitungsbeispiel des Personalendgeräts 1 in Schritt S2 in 2 beschrieben. Insbesondere ist dieses Verarbeitungsbeispiel ein Prozess, der durch das Personalendgerät 1 hauptsächlich unter Verwendung der Funktionen der Ereignisdatenmanagementeinheit 30 und der Kommunikationssteuerungseinheit 32 in 4, während eine Hochzeit abgehalten wird, ausgeführt wird.
  • Das Personalendgerät 1 prüft in Schritt S101 in 11, ob die Übertragung von Bilddateien von der Bildaufnahmevorrichtung 2 gestartet wurde oder nicht. Der Prozess in 11 wird insbesondere nicht während einer Zeitspanne ohne Bildübertragung ausgeführt.
  • Beispielsweise nimmt der Fotograf während der Hochzeit Bilder von Szenen einer Zeremonie und eines Empfangs unter Verwendung der Bildaufnahmevorrichtung 2 auf. Beispielsweise überträgt die Bildaufnahmevorrichtung 2 die Bilddateien automatisch oder gemäß einer durch den Fotografen beispielsweise nach der Aufnahme von Standbildern ausgeführten Operation nacheinander an das Personalendgerät 1. Es wird darauf hingewiesen, dass diese Zeit für die Übertragung nur ein Beispiel ist. Diese Übertragung kann für jede Aufnahme eines Bildes ausgeführt werden, oder es können mehrere Bilder gemeinsam übertragen werden.
  • Außerdem kann im Fall von Videoaufnahmen die Übertragung während einer Zeitspanne ohne Aufzeichnung für jedem Aufzeichnungsstart und -stopp erreicht werden oder kann während einer Aufzeichnungszeitspanne nach einem Aufzeichnungsstart erreicht werden. Es können alle aufgezeichneten Bilder übertragen werden, oder es können nur die Bilder einer vorbestimmten initialen Zeitspanne übertragen werden.
  • Außerdem kann der Fotograf den aufgenommenen Bildern durch Bedienen der Bildaufnahmevorrichtung 2 Bewertungsinformationen hinzufügen. Beispielsweise werden Bewertungsinformationen durch Überprüfen eines Bildes unmittelbar nach Aufnahme des Bildes eingegeben. Diese Bewertungsinformationen sind in den Metadaten beschrieben.
  • Die Übertragung einer Bilddatei, die Bilddaten und Metadaten enthält, kann beispielsweise als Reaktion auf die Überprüfung des aufgenommenen Bildes und die Eingabe von Bewertungsinformationen durch den Fotografen ausgeführt werden.
  • Wenn ein Beginn der Übertragung der vorstehend beschriebenen Bilddatei detektiert wird, setzt das Personalendgerät 1 den Prozess von Schritt S101 mit Schritt S102 fort, um einen Empfangsprozess zum Empfangen der Bilddaten und der Metadaten auszuführen. In diesem Fall werden die empfangenen Bilddaten in der Bildaufnahme- und Bearbeitungsinformationstabelle 62 der Ereignisdaten 60 als Originalbilddaten gemanagt. Zusätzlich werden auch die empfangenen Metadaten in Zuordnung zu den Bilddaten gemanagt.
  • In Schritt S103 führt das Personalendgerät 1 einen Bildkomprimierungsprozess aus. Beispielsweise führt das Personalendgerät 1 den Komprimierungsprozess auf eine solche Weise aus, dass eine höhere Komprimierungsrate der empfangenen Bilddaten erreicht wird. Das ist ein Prozess zum Erzeugen von Bilddaten, die an die Servervorrichtung 4 gesendet werden sollen.
  • In Schritt S104 managt das Personalendgerät 1 Bewertungsinformationen. Das ist ein Prozess zum Überprüfung der Metadaten der empfangenen Bilddatei, Extrahieren der von der Seite der Bildaufnahmevorrichtung 2 vergebenen Bewertungsinformationen und Managen der Bewertungsinformationen auf eine Weise, dass sie in der Bildaufnahme- und Bearbeitungsinformationstabelle 62 der Ereignisdaten 60 aktualisiert werden können.
  • In Schritt S105 überträgt das Personalendgerät 1 Informationen an die Servervorrichtung 4 zur Synchronisation zwischen den Ereignisdaten 60 und den Ereignisdaten 90. In diesem Fall überträgt das Personalendgerät 1 die Bilddaten, die Metadaten und die Bewertungsinformationen, die in Schritt S103 komprimiert wurden, an die Servervorrichtung 4. Die Seite der Servervorrichtung 4 aktualisiert die Ereignisdaten 90 in Reaktion auf den Empfang dieser Dateneinheiten und Informationen, um einen synchronen Zustand mit den Ereignisdaten 60 aufrechtzuerhalten.
  • In Schritt S106 führt das Personalendgerät 1 einen Auto-Retuschieranwendungsprozess aus. Insbesondere führt das Personalendgerät 1 eine Bildverarbeitung für die Originalbilddaten unter Verwendung von Retuschierparametern, die automatisch durch Voreinstellung eingestellt sind, aus, um Bildbearbeitungsdaten zu erzeugen, und managt die erzeugten Bildbearbeitungsdaten in der Bildaufnahme- und Bearbeitungsinformationstabelle 62.
  • Diese Bildbearbeitungsdaten werden zur UI-Anzeige durch das Personalendgerät 1 erzeugt.
  • Während in diesem Beispiel der Auto-Retuschieranwendungsprozess als Verarbeitung zum Zeitpunkt des Empfangs der Bilddatei ausgeführt wird, kann der Auto-Retuschieranwendungsprozess bei Bedarf bei anderen Gelegenheiten ausgeführt werden, wie z. B. wenn die Anzeige eines Bildes erforderlich ist.
  • Außerdem ist es auch möglich, dass die Bildverarbeitung für die in Schritt S103 erzeugten komprimierten Bilddaten ausgeführt wird. In diesem Fall kann die Reihenfolge der Verarbeitung von Schritt S105 und Schritt S106 vertauscht werden, beispielsweise um die komprimierten Bilddaten nach Fertigstellung der Bildverarbeitung zum Anwenden von Auto-Retusche auf die komprimierten Bilddaten an den Server zu übertragen.
  • Nachdem die in 11 beschriebenen Prozesse ausgeführt worden sind, wird das Personalendgerät 1 in einen Zustand versetzt, in dem es Bilder gemäß der Bildaufnahme durch den Fotografen importiert und die den Bildern entsprechenden Informationen in den Ereignisdaten 60 managt. Beispielsweise werden alle aufgenommenen Bilder zum Zeitpunkt des Endes der Hochzeit in einen in den Ereignisdaten 60 gemanagten Zustand gebracht.
  • Außerdem erreichen die Ereignisdaten 90 auf der Seite der Servervorrichtung 4 nach dem Senden für die sequentielle Synchronisierung einen mit den Ereignisdaten 60 auf der Seite des Personalendgeräts 1 in der Mitte oder am Ende der Hochzeit synchronisierten Zustand.
  • Zusätzlich kann das Kamerapersonal sogar in dieser Stufe des Prozesses in 11 den Status des Imports von Bildern in das Personalendgerät 1 und dergleichen überprüfen, indem eine Liste der von der Bildaufnahmevorrichtung 2 übertragenen Bilder und ein Kommunikationsstatus auf einem später beschriebenen Ereignisbildschirm 120 oder dergleichen angezeigt wird.
  • <5. Auswahlprozess>
  • Als Nächstes wird ein ausführliches Verarbeitungsbeispiel für die Auswahl in Schritt S3 in 2 unter Bezugnahme auf die in 12 bis 17 dargestellten Ablaufpläne und die in 18 bis 23 abgebildeten Bildschirmbeispiele beschrieben.
  • Es wird darauf hingewiesen, dass die 12 bis 17 eine Reihe von Ablaufplänen als Unterteilungen eines kontinuierlichen Ablaufplans präsentieren. Jedes der Elemente „c1“, „c2“, „c3“, „c4“, „c5“, „c6“ und „c7“ repräsentiert eine Verbindungsbeziehung zwischen diesen Ablaufplänen.
  • Die in diesen Ablaufplänen ausgeführten Prozesse sind Prozesse, die durch die in 4 dargestellten Funktionen der Ereignisdatenverwaltungseinheit 30, der UI-Steuereinheit 31 und der Kommunikationssteuereinheit 32 ausgeführt werden.
  • Schritt S201 in 12 repräsentiert einen Prozess zum Anzeigen einer Liste von Projekten (z. B. Ereignisnamen) auf dem in 10B abgebildeten Projektlistenbildschirm 110.
  • In Schritt S202 überwacht das Personalendgerät 1, ob eine Projektauswahloperation auf dem Projektlistenbildschirm 110 ausgeführt worden ist oder nicht. Außerdem überwacht das Personalendgerät 1 in Schritt S203 eine Beendigungsoperation eines Anwendungsprogramms.
  • Nach der Fertigstellung der Beendigungsoperation des Anwendungsprogramms wird das Anwendungsprogramm geschlossen, um den Prozess zu beenden.
  • In einem Fall, in dem die Auswahl beispielsweise unmittelbar nach der Hochzeit vorgenommen werden soll, führt das Kamerapersonal eine Operation zum Auswählen eines Zielprojekts auf dem Projektlistenbildschirm 110 aus. Das Kamerapersonal führt beispielsweise eine Operation wie z. B. das Antippen eines der in dem Listenbereich 111 angezeigten Projekte aus.
  • Wenn eine solche Operation detektiert wird, fährt das Personalendgerät 1 mit dem Prozess von Schritt S202 zu Schritt S204 fort, um die neuesten Ereignisdaten des ausgewählten Projekts zu erfassen. Beispielsweise fordert das Personalendgerät 1 die Servervorrichtung 4 auf, die Ereignisdaten 90 des ausgewählten Projekts zu senden, und importiert die gesendeten Ereignisdaten 90. Danach vergleicht das Personalendgerät 1 die Ereignisdaten 90 mit den in dem Personalendgerät 1 gehaltenen Ereignisdaten 60 und aktualisiert die Ereignisdaten 60 auf die neuesten Informationsinhalte. Beispielsweise vergleicht das Personalendgerät 1 die Ereignisdaten 60 mit den Ereignisdaten 90 in Bezug auf irgendwelche Informationen als eine Referenz für die Bestimmung der Neuheit von Informationen, wie z. B. Aktualisierungszeit/-datumsinformationen und Versionsmanagementinformationen, und aktualisiert die Ereignisdaten 60 auf die neuesten Informationsinhalte, wenn irgendein Unterschied erkannt wird.
  • Unter der Annahme, dass das Personalendgerät 1 beispielsweise das durch den Fotografen mitgeführte Endgerät 1A ist, kann es möglich sein, dass die von dem Assistenten auf der Seite der Endgerätevorrichtung 1B während der Hochzeit eingegebenen Bewertungsinformationen oder Auswahlinformationen nicht in den Ereignisdaten 60 der Endgerätevorrichtung 1A widergespiegelt sind.
  • Außerdem ist es in einem Fall der Eingabe der Bewertungsinformationen und der Auswahlinformationen über die durch den Assistenten mitgeführte Endgerätevorrichtung 1B angebracht, dass der Assistent die Bewertungsinformationen und die Auswahlinformationen unter Bezugnahme auf die neuesten Informationen auf der Seite der Endgerätevorrichtung 1A eingibt.
  • Dementsprechend ist das Personalendgerät 1 so konfiguriert, dass es die Ereignisdaten 90 der Servervorrichtung 4, an die die neuesten Informationen von den beiden Endgerätevorrichtungen 1A und 1B gesendet worden sind, empfängt und die in den durch das Personalendgerät 1 gehaltenen Ereignisdaten 60 enthaltenen Informationen aktualisiert, falls die Ereignisdaten 60 nicht die neuesten Informationen sind.
  • Es gibt jedoch einen Fall, in dem nur ein Personalendgerät 1 vorhanden ist, wobei in dieser Situation die in dem Personalendgerät 1 gehaltenen Informationen immer die neuesten Informationen sind. In einem solchen Fall kann die Verarbeitung in Schritt S204 eliminiert werden.
  • Danach fährt das Personalendgerät 1 zu Schritt S211 in 13 fort, um eine Liste von Ereignisbildern anzuzeigen. Zum Beispiel wird ein in 18 abgebildeter Ereignisbildschirm 120 angezeigt.
  • Auf dem Ereignisbildschirm 120 werden unter anderem sowohl ein Ereignistitel 121 als auch ein Alle-Flags-Symbol 123, ein Nächstes-Symbol 132, ein Kamerasymbol 134 und ein Menüsymbol 127 angezeigt.
  • Das Menüsymbol 127 ist ein Bedienelement zum Anzeigen verschiedener Typen von Menüeinträgen.
  • Das Kamerasymbol 134 ist ein Symbol beispielsweise zum Anzeigen eines Zustands der FTP-Kommunikation mit der Bildaufnahmevorrichtung 2.
  • Das Alle-Flags-Symbol 123 ist ein Bedienelement zum Bereitstellen einer Ein/Aus-Einstellung für ein Flag (Auswahl-Flag), das den Bildverwendungsinformationen für alle Bilder entspricht.
  • Das Nächstes-Symbol 132 ist ein Bedienelement für den Wechsel zu einem nächsten Bildschirm.
  • Außerdem enthält der Ereignisbildschirm 120 einen Bildbereich 128, in dem eine Liste der von der Bildaufnahmevorrichtung 2 übertragenen Bilder als Miniaturansicht angezeigt wird. Beispielsweise werden die Bilder in chronologischer Reihenfolge gemäß der Bildaufnahmezeit angezeigt.
  • Ferner sind eine Alle-Registerkarte 125 und eine Kandidaten-Registerkarte 126 in Bezug auf die Anzeige des Bildbereichs 128 vorgesehen.
  • Wenn die Alle-Registerkarte 125 ausgewählt ist, werden die von der Bildaufnahmevorrichtung 2 übertragenen Bilder in dem Bildbereich 128 angezeigt, unabhängig von einem Ein-Zustand oder einem Aus-Zustand des Flag, das den Bildverwendungsinformationen entspricht. Beispielsweise wird angenommen, dass 18 die Anzeige einer Liste präsentiert, wenn die Alle-Registerkarte 125 ausgewählt ist.
  • Andererseits wird, wenn die Kandidaten-Registerkarte 126 ausgewählt ist, im Bildbereich 128 eine Liste nur derjenigen Bilder, die der Flag-Ein-Einstellung entsprechen, unter allen von der Bildaufnahmevorrichtung 2 übertragenen Bildern, angezeigt. Beispielsweise präsentiert 19 ein Beispiel für die Anzeige einer Liste, wenn die Kandidaten-Registerkarte 126 ausgewählt ist.
  • Das Ein/Aus des Flag wird für jedes Bild durch eine durch das Kamerapersonal ausgeführte Operation eingestellt, je nachdem, ob das entsprechende Bild in die Web-Galerie aufgenommen werden soll oder nicht.
  • Zusätzlich weist der Ereignisbildschirm 120 einen Filterfestlegungsbereich 129 auf. Die Bilder können beispielsweise unter Verwendung des Filterfestlegungsbereichs 129 nach einer sechsstufigen Bewertung eingegrenzt werden. So werden beispielsweise Bedienelemente für die Anzahl der Sterne angegeben, bereitgestellt, und das Filtern wird gemäß dem festgelegten Bedienelement ausgeführt, um eine Liste extrahierter Bilder in dem Bildbereich 128 anzuzeigen.
  • Beispielsweise in einem Fall, in dem das Bedienelement, das drei Sternen entspricht, betätigt wird, werden Bilder extrahiert, die Bewertungsinformationen entsprechen, die drei oder mehr Sterne angeben (d. h. Bilder, die irgendeinem aus „drei Sternen“, „vier Sternen“ oder „fünf Sternen“ entsprechen), und eine Liste der extrahierten Bilder wird angezeigt. Alternativ können in diesem Fall nur die Bilder extrahiert werden, die der Bewertungsinformation, die „drei Sterne“ angeben, entsprechen, und eine Liste dieser Bilder kann angezeigt werden.
  • Außerdem gibt der Filterfestlegungsbereich 129 die Anzahl der Bilder an, für die eine entsprechende Bewertung eingestellt worden ist, zusammen mit dem durch die Anzahl der Sterne ausgedrückten Bedienelement.
  • In dem Zustand, in dem der so konfigurierte Ereignisbildschirm 120 in Schritt S211 angezeigt wird, führt das Personalendgerät 1 eine Überwachungsschleife von Schritt S212 bis Schritt S219 in 14 aus.
  • In Schritt S212 in 13 überwacht das Personalendgerät 1 eine Betätigung des Nächstes-Symbols 132. Ein Prozess, der einem Falle der Detektion der Betätigung des Nächstes-Symbols 132 ausgeführt wird, wird später beschrieben.
  • In Schritt S213 überwacht das Personalendgerät 1 eine Registerkartenwechseloperation. Die Registerkartenwechseloperation ist eine Betätigung der Kandidatenregisterkarte 126 während der Anzeige der Liste, die der Alle-Registerkarte 125 entspricht, oder eine Betätigung der Alle-Registerkarte 125 während der Anzeige der Liste, die der Kandidaten-Registerkarte 126 entspricht.
  • Wenn die Registerkartenwechseloperation detektiert wird, führt das Personalendgerät 1 einen Wechselprozess zum Wechseln des Inhalts in der Anzeige der Liste im Bildbereich 128 gemäß der ausgewählten Registerkarte in Schritt S220 aus.
  • In Schritt S214 überwacht das Personalendgerät 1 eine Operation zum Aufziehen oder Stauchen, die durch das Kamerapersonal in dem Bildbereich 128 ausgeführt wird. Die hier beschriebene Operation zum Aufziehen oder Stauchen ist eine Operation zum Aufziehen zur Bildvergrößerung und eine Operation zum Stauchen zur Bildverkleinerung.
  • Wenn die Operation zum Aufziehen oder Stauchen detektiert wird, vergrößert oder verkleinert das Personalendgerät 1 einen Anzeigezustand in dem Bildbereich 128 als die Anzeige für die Operation in Schritt S221.
  • Die 20A, 20B und 20C bilden jeweils ein Beispiel für eine Anzeigeänderung in dem Bildbereich 128 gemäß dem Aufziehen oder Stauchen ab.
  • 20A bildet einen normalen Anzeigezustand ähnlich dem Anzeigezustand in 18 ab. Wenn die Operation zum Aufziehen ausgeführt wird, werden die in einer Liste angezeigten Bilder vergrößert, wie in 20B abgebildet. Eine weitere Vergrößerung wird, wie in 20C abgebildet, durch die weitere Operation zum Aufziehen erreicht.
  • Zusätzlich wird, wenn die Operation zum Stauchen ausgeführt wird, der Zustand in 2C auf den in 20B abgebildeten Zustand reduziert und kehrt durch die weitere Operation zum Stauchen zu dem in 20A abgebildeten Zustand zurück.
  • Ferner werden, obwohl sie in dem normalen Anzeigezustand in 20A nicht angezeigt sind, ein Bewertungssymbol 130 und ein Flag-Einstellungssymbol 131 in Übereinstimmung mit den Bildern in diesem Beispiel angezeigt, wie in 20B und 20C in einer Stufe der Vergrößerung, die durch die Operation zum Aufziehen erreicht wird, abgebildet ist. Mit anderen Worten werden, wenn jedes der Bilder eine leicht sichtbare Größe oder leicht bedienbare Größe besitzt, das Bewertungssymbol 130 und das Flag-Einstellungssymbol 131 in Übereinstimmung mit den Bildern angezeigt.
  • Zusätzlich können natürlich sogar in dem in 20A abgebildeten Zustand das Bewertungssymbol 130 und das Flag-Einstellungssymbol 131 in Übereinstimmung mit den Bildern angezeigt werden.
  • In Schritt S221 in 13 führt das Personalendgerät 1 einen Prozess zum Ändern des Anzeigezustands im Bildbereich 128 in Zuordnung zu der Operation zum Aufziehen oder Stauchen wie im vorstehend beschriebenen Beispiel aus.
  • Das Bewertungssymbol 130 ist ein Bedienelement, das nicht nur betätigt wird, um die als die Anzahl von Sternen eingestellten Bewertungsinformationen anzuzeigen, sondern auch um die Bewertung zu ändern. Beispielsweise kann die Anzahl der Sterne durch Antippen oder Verschieben eines Abschnitts des Bewertungssymbols 130 geändert werden. Diese Operation ist als eine Bewertungsänderungsoperation definiert.
  • Außerdem drückt das Flag-Einstellungssymbol 131 das Ein/Aus des Flag aus, indem es beispielsweise die Farbe, die Luminanz oder dergleichen des Symbols ändert. Darüber hinaus funktioniert das Flag-Einstellungssymbol 131 auch als Bedienelement zum Umschalten zwischen Ein und Aus des Flag. Beispielsweise wird das Umschalten zwischen Ein und Aus des Flag durch eine Tippoperation erreicht.
  • In Schritt S215 überwacht das Personalendgerät 1, ob eine Operation zum Auswählen eines der im Bildbereich 128 angezeigten Bilder ausgeführt worden ist oder nicht. Beispielsweise ist diese Operation eine Operation zum Antippen eines Miniaturbildes. Ein Prozess, der in einem Fall der Detektion dieser Auswahloperation ausgeführt wird, wird später beschrieben.
  • In Schritt S216 überwacht das Personalendgerät 1 eine Filteroperation. Insbesondere ist diese Operation eine Betätigung eines Bedienelements, das die Bewertung angibt, des Filterfestlegungsbereichs 129.
  • Im Falle der Detektion einer Betätigung eines beliebigen Bedienelements in dem Filterfestlegungsbereich 129 fährt das Personalendgerät 1 zu Schritt S223 fort, um Filtern gemäß dem erkannten Bedienelement auszuführen und entsprechende Bilder zu extrahieren. Danach wird in Schritt S224 eine Liste der extrahierten Bilder in dem Bildbereich 128 angezeigt.
  • In Schritt S217 in 14 überwacht das Personalendgerät 1 eine Bewertungsoperation. Beispielsweise ist diese Operation eine Operation, die für das Bewertungssymbol 130 ausgeführt wird, wie in jeder der 20B und 20C abgebildet ist.
  • In einem Fall der Detektion der Operation für das Bewertungssymbol 130, fährt das Personalendgerät 1 zu Schritt S230 fort, um die Ereignisdaten 60 zu aktualisieren, so dass die Bewertungsinformationen, die den Bildern, die dem Bewertungssymbol 130 entsprechen, zugeordnet sind, einen Wert besitzen, der der Operation entspricht.
  • Außerdem sendet das Personalendgerät 1 in Schritt S231 die aktualisierten Bewertungsinformationen an die Servervorrichtung 4, um die Ereignisdaten 90 auf der Seite der Servervorrichtung 4 zu aktualisieren. Mit anderen Worten wird ein synchroner Zustand aufrechterhalten.
  • In Schritt S218 überwacht das Personalendgerät 1 eine Flag-Ein/Aus-Operation. Beispielsweise ist diese Operation eine Operation, die für das Flag-Einstellungssymbol 131 ausgeführt wird, wie in jeder der 20B und 20C abgebildet ist.
  • Im einem Fall der Detektion der Operation für das Flag-Einstellungssymbol 131 fährt das Personalendgerät 1 zu Schritt S232 fort, um die Ereignisdaten 60 zu aktualisieren, so dass ein Umschalten zwischen dem Ein und Aus des Flag der Auswahlinformationen, die Bildern zugeordnet sind, die dem Flag-Einstellungssymbol 131 entsprechen, erreicht werden kann.
  • Außerdem sendet das Personalendgerät 1 in Schritt S233 die aktualisierten Flag-Informationen an die Servervorrichtung 4, um die Ereignisdaten 90 auf der Seite der Servervorrichtung 4 zu aktualisieren. Mit anderen Worten wird der synchrone Zustand aufrechterhalten.
  • In Schritt S219 überwacht das Personalendgerät 1 eine Betätigung des Alle-Flags-Symbols 123.
  • Im Falle der Detektion einer Operation, die für das Alle-Flags-Symbol 123 ausgeführt wird, fährt das Personalendgerät 1 zu Schritt S234 fort, um den Prozess abhängig davon, ob alle Bilder Flag-Ein-Bilder sind oder nicht, zu verzweigen. Wenn nicht alle Bilder Flag-Ein-Bilder sind, d.h. wenn einige der Bilder Flag-Ein-Bilder sind oder wenn alle Bilder Flag-Aus-Bilder sind, fährt das Personalendgerät 1 zu Schritt S236 fort, um die Ereignisdaten 60 zu aktualisieren, so dass alle Bilder zu Flag-Ein-Bildern werden.
  • Wenn andererseits das Alle-Flags-Symbol 123 in einem Zustand betätigt wird, in dem alle Bilder Flag-Ein-Bilder sind, fährt das Personalendgerät 1 zu Schritt S235 fort, um die Ereignisdaten 60 zu aktualisieren, so dass alle Bilder zu Flag-Aus-Bildern werden.
  • Außerdem überträgt das Personalendgerät 1 in Schritt S237 die aktualisierten Flag-Informationen an die Servervorrichtung 4, um die Ereignisdaten 90 auf der Seite der Servervorrichtung 4 zu aktualisieren. Mit anderen Worten wird der synchrone Zustand aufrechterhalten.
  • Nachfolgend wird ein Prozess beschrieben, der im Falle der Detektion der Bildauswahloperation in Schritt S215 in 13 ausgeführt wird. In diesem Fall fährt der durch das Personalendgerät 1 ausgeführte Prozess zu Schritt S250 in 15 fort, um einen in 21 abgebildeten Anzeigebildschirm 140 anzuzeigen.
  • Ein Anzeigebereich 142 ist in dem einen Anzeigebildschirm 140 vorgesehen, um ein ausgewähltes Bild in einem größeren Format in dem einen Anzeigebereich 142 anzuzeigen.
  • Ein Bild, das in dem einen Anzeigebereich 142 angezeigt wird, ist ein Bild, das beispielsweise aus den die in den Ereignisdaten 60 gemanagten Bildbearbeitungsdaten gebildet. Insbesondere ist dieses Bild ein Reproduktionsbild, das aus Bildbearbeitungsdaten, die durch die Auto-Retuschierverarbeitung in Schritt S106 in 11 erzeugt wurden, und aus Bilddaten, die die in den Voreinstellungsinformationen 61 enthaltenen Retuschierparameter widerspiegeln, gebildet wird.
  • Außerdem wird im Bild abhängig von den Gegebenheiten eine Fokuspunktmarkierung 149, die eine Fokusposition innerhalb des Bildes angibt, angezeigt.
  • Ferner werden auf dem einen Anzeigebildschirm 140 ein Zurück-Symbol 133, das ein Bedienelement zum Zurückkehren der Anzeige zu dem Ereignisbildschirm 120 ist, und das Bewertungssymbol 130 und das Flag-Einstellungssymbol 131 für das angezeigte Bild angezeigt.
  • Zusätzlich werden auf dem einen Anzeigebildschirm 140 ein Bearbeitungssymbol 145, ein Fokuspunktoperationssymbol 146, ein Exportsymbol 147 und ein Originalsymbol 148 für dem angezeigten Bild zugeordnete Operationen angezeigt.
  • Das Personalendgerät 1 führt einen Überwachungsschleifenprozess von Schritt S251 bis Schritt S257 in den 15 und 16 in einem Zustand, in dem der so konfigurierte eine Anzeigebildschirm 140 angezeigt wird, aus.
  • In Schritt S251 überwacht das Personalendgerät 1 eine Betätigung des Bearbeitungssymbols 145.
  • In einem Fall der Detektion der Betätigung eines Bedienelements Bearbeitungssymbols 145 fährt das Personalendgerät 1 zu Schritt S260 fort, um einen nicht dargestellten Bearbeitungsbildschirm anzuzeigen. Beispielsweise wird eine Anwenderschnittstelle, die Operationen wie z. B. eine Retuschieroperation und eine Neigungskorrekturoperation ermöglicht, in dem Bearbeitungsbildschirm bereitgestellt. Das Kamerapersonal kann unter Verwendung dieser Anwenderschnittstelle eine Bildbearbeitung ausführen.
  • Beispielsweise können ein Luminanzanpassungswert, ein Farbanpassungswert, ein Kontrastanpassungswert, ein Schärfeanpassungswert und dergleichen als Retuschierparameter für die Retuschieroperation eingestellt werden.
  • Beispielsweise ist in der Neigungskorrekturoperation ein Bedienelement zum Anpassen eines Winkels jedes Bilds vorgesehen.
  • Es wird darauf hingewiesen, dass der Bearbeitungsbildschirm ein von dem einen Anzeigebildschirm 140 verschiedener Bildschirm sein kann oder ein Bildschirm sein kann, der dem einen Anzeigebildschirm 140 überlagert ist, um verschiedene Bedienelemente auf dem Bildschirm anzuzeigen.
  • In einem Fall der Detektion der Retuschieroperation fährt das Personalendgerät 1 von Schritt S261 zu Schritt S262 fort, um einen Retuschierprozess auszuführen. Dieser Prozess ist ein Prozess zur weiteren Bearbeitung der Bildbearbeitungsdaten unter Verwendung der durch eine durch das Kamerapersonal ausgeführte Operation eingegebenen Retuschierparameter. Außerdem werden die eingegebenen Retuschierparameter in diesem Fall in den Ereignisdaten 60 als individuellen Bilddaten zugeordnete Bearbeitungsinformationen gespeichert.
  • In einem Fall der Detektion der Neigungskorrekturoperation fährt das Personalendgerät 1 von Schritt S263 zu Schritt S264 fort, um einen Bildneigungskorrekturprozess auszuführen. Dieser Prozess ist ein Prozess zum Bearbeiten der Bildbearbeitungsdaten unter Verwendung der gemäß einer durch das Kamerapersonal ausgeführten Operation eingegebenen Neigungskorrekturparameter. Außerdem werden die eingegebenen Neigungskorrekturparameter in diesem Fall in den Ereignisdaten 60 als individuellen Bilddaten zugeordnete Bearbeitungsinformationen gespeichert.
  • Wenn in Schritt S265 ein Ende der Bearbeitungsoperation detektiert wird, sendet das Personalendgerät 1 in Schritt S266 die in den Ereignisdaten 60 enthaltenen und gemäß dem Bearbeitungsvorgang aktualisierten Bearbeitungsinformationen an die Servervorrichtung 4, um die Ereignisdaten 90 auf der Seite der Servervorrichtung 4 zu aktualisieren. Mit anderen Worten wird der synchrone Zustand aufrechterhalten.
  • In Schritt S267 beendet das Personalendgerät 1 den Bearbeitungsbildschirm und kehrt zu dem normalen einen Anzeigebildschirm 140 zurück. Zu diesem Zeitpunkt wird ein Bearbeitungsergebnis in dem angezeigten Bild widergespiegelt.
  • Auf diese Weise kann das Kamerapersonal irgendwelche Bildretuschen und Neigungskorrekturen gemäß einer unter Verwendung des Bearbeitungssymbols 145 ausgeführten Operation ausführen.
  • In Schritt S252 überwacht das Personalendgerät 1 eine Betätigung des Fokuspunktoperationssymbols 146 im Anzeigezustand des einen Anzeigebildschirms 140.
  • In einem Fall der Detektion der Betätigung des Fokuspunktoperationssymbols 146 fährt das Personalendgerät 1 zu Schritt S270 fort, um den Prozess abhängig davon, ob die Fokuspunktmarkierung 149 derzeit in dem Bild in dem einen Anzeigebereich 142 angezeigt wird oder nicht, zu verzweigen.
  • Falls die Fokuspunktmarkierung 149 derzeit nicht angezeigt wird, fährt das Personalendgerät 1 zu Schritt S271 fort, um Informationen, die dem Fokuspunkt des angezeigten Bildes zugeordnet sind, zu erfassen. Der Fokuspunkt ist Informationen, die eine Position angeben, die einem fokussierten Zustand entspricht, der durch die Bildaufnahmevorrichtung 2 während der Aufnahme innerhalb des Bildes produziert wird, und ist in den Metadaten beschrieben. Beispielsweise wird der Fokuspunkt als Koordinateninformationen, die einen Punkt innerhalb des Bildes angeben, beschrieben.
  • Das Personalendgerät 1 erfasst Informationen, die dem Fokuspunkt zugeordnet sind, aus den Metadaten des angezeigten Bildes und zeigt die Fokuspunktmarkierung 149 in dem angezeigten Bild gemäß diesen Informationen an, wie in 21 abgebildet ist. Beispielsweise wird die Fokuspunktmarkierung 149 als ein Bereich mit vorbestimmter Ausdehnung um die Koordinateninformationen, die einen Punkt innerhalb des Bildes angeben und die als der Fokuspunkt gespeichert sind, angezeigt. Als ein Ergebnis kann der Anwender während der Bildaufnahme ein Objekt in einem fokussierten Zustand überprüfen.
  • Es wird darauf hingewiesen, dass die „Ausdehnung“, die vorstehend als der durch die Fokuspunktmarkierung 149 angezeigte Bereich beschrieben ist, variabel sein kann. Beispielsweise kann eine Größe der Ausdehnung gemäß der Position im Bild oder einem durch Objekterkennung erhaltenen Objekt variiert werden. Beispielsweise kann zum Zeitpunkt der Fokussierung auf die Pupille einer Person in 21 die Fokuspunktmarkierung 149 in einem engen Bereich, der der Pupille entspricht, angezeigt werden. Zum Zeitpunkt der Fokussierung auf einen Blumenstrauß kann die Fokuspunktmarkierung 149 ein weiter Bereich sein, der eine solche Weise angezeigt wird, dass er den gesamten Blumenstrauß enthält.
  • Außerdem wird die Fokuspunktmarkierung 149 in 21 in Form einer Markierung, die vier Ecken angibt (ein durch Klammern ausgedrücktes Viereck) angezeigt. Es können jedoch auch andere Anzeigeformen wie z. B. ein viereckiger Rahmen oder ein kreisförmiger Rahmen eingesetzt werden.
  • Ferner ist, obwohl 21 einen Fall abbildet, in dem nur ein Fokuspunkt produziert wird, auch ein Fall möglich, in dem mehrere Fokuspunkte produziert werden, wie z. B. ein Fall, in dem mehrere Abschnitte eines Objekts (z. B. der Braut) in einem Bild fokussiert sind, und ein Fall, in dem ein Teil jedes von mehreren Objekten (z. B. Braut und Bräutigam) fokussiert ist. Dementsprechend können die Metadaten als der Fokuspunkt die Beschreibung mehrerer Koordinatenpositionen aufweisen. In diesem Fall werden mehrere Fokuspunktmarkierungen 149 in Übereinstimmung mit diesen Positionen angezeigt.
  • Außerdem kann, obwohl die Fokuspunktmarkierung 149 in dem einen Anzeigebildschirm wie 21 abgebildet angezeigt wird, die Fokuspunktmarkierung 149 in dem Bild, das in der Liste von Bildern in dem Bildbereich des in 18 abgebildeten Ereignisbildschirms enthalten ist, angezeigt werden.
  • In einem Fall der Detektion einer Betätigung des Fokuspunktoperationssymbols 146 in Schritt S252 während der Anzeige des Fokuspunktoperationssymbols 146 fährt das Personalendgerät 1 von Schritt S270 zu Schritt S273 fort, um die Anzeige des Fokuspunktoperationssymbols 146 zu beenden.
  • Dementsprechend kann das Kamerapersonal die Anzeige der Fokuspunktmarkierung 149 unter Verwendung des Fokuspunktoperationssymbols 146 ein- oder ausschalten.
  • In Schritt S253 in 16 überwacht das Personalendgerät 1 eine Betätigung des Exportsymbols 147 in dem Anzeigezustand des einen Anzeigebildschirms 140.
  • In einem Fall der Detektion der Betätigung des Exportsymbols 147 fährt das Personalendgerät 1 zu Schritt S280 dort, um einen Exportvorgang auszuführen. Insbesondere wird der Exportprozess zum Exportieren von Informationen, die den angezeigten Bilddaten zugeordnet sind, ausgeführt.
  • In Schritt S254 überwacht das Personalendgerät 1 eine Bildwechseloperation. Die Bildwechseloperation ist in diesem Fall eine Betätigung des Originalsymbols 148.
  • In einem Fall der Detektion der Betätigung des Originalsymbols 148 fährt das Personalendgerät 1 zu Schritt S281 fort, um zwischen Bildern basierend auf Originalbilddaten und Bildern basierend auf Bildbearbeitungsdaten zu wechseln. Insbesondere wird, wenn Reproduktionsbilder, die auf den Bildbearbeitungsdaten basieren, derzeit angezeigt werden, die Anzeige auf Reproduktionsbilder, die auf den Originalbilddaten basieren, umgeschaltet. Indessen wird, wenn Reproduktionsbilder, die auf den Originalbilddaten basieren, derzeit angezeigt werden, auf Reproduktionsbilder, die auf den Bildbearbeitungsdaten basieren, umgeschaltet.
  • Dementsprechend kann das Kamerapersonal durch die Betätigung des Originalsymbols 148 bearbeitete Bilder und Originalbilder auf beliebige Weise visuell vergleichen.
  • Das Bewertungssymbol 130 des aktuell angezeigten Bildes wird auf dem einen Anzeigebildschirm 140 angezeigt.
  • In Schritt S255 überwacht das Personalendgerät 1 eine Bewertungsoperation.
  • In einem Fall der Detektion der Operation für das Bewertungssymbol 130, geht das Personalendgerät 1 zu Schritt S282 über, um die Ereignisdaten 60 zu aktualisieren, so dass die Bewertungsinformationen, die dem angezeigten Bild zugeordnet sind, einen der Operation entsprechenden Wert besitzen.
  • Außerdem sendet das Personalendgerät 1 in Schritt S283 die aktualisierten Bewertungsinformationen an die Servervorrichtung 4, um die Ereignisdaten 90 auf der Seite der Servervorrichtung 4 zu aktualisieren. Mit anderen Worten wird der synchrone Zustand aufrechterhalten.
  • Das Flag-Einstellungssymbol 131 des aktuell angezeigten Bildes wird auf dem einen Anzeigebildschirm 140 angezeigt.
  • In Schritt S256 überwacht das Personalendgerät 1 eine Flag-Ein/Aus-Operation, d. h. eine Betätigung des Flag-Einstellungssymbols 131.
  • Im einem Fall der Detektion der Operation für das Flag-Einstellungssymbol 131 fährt das Personalendgerät 1 zu Schritt S284 fort, um die Ereignisdaten 60 zu aktualisieren, so dass ein Umschalten zwischen Ein und Aus des Flag der Auswahlinformationen, die dem angezeigten Bild zugeordnet sind, erreicht werden kann.
  • Außerdem sendet das Personalendgerät 1 in Schritt S285 die aktualisierten Flag-Informationen an die Servervorrichtung 4, um die Ereignisdaten 90 auf der Seite der Servervorrichtung 4 zu aktualisieren. Mit anderen Worten wird der synchrone Zustand aufrechterhalten.
  • In Schritt S257 überwacht das Personalendgerät 1 eine Betätigung des Zurück-Symbols 133.
  • In einem Fall der Detektion die Betätigung des Zurück-Symbols 133 fährt das Personalendgerät 1 zu Schritt S211 in 13 fort, um den einen Anzeigebildschirm 140 zu beenden und zu einem Zustand der Anzeige des Ereignisbildschirms 120 zurückzukehren.
  • Nachfolgend wird ein Prozess beschrieben, der in einem Fall der Detektion einer Betätigung des Nächstes-Symbols 132 in Schritt S212 in 13 ausgeführt wird.
  • In diesem Fall fährt der durch das Personalendgerät 1 ausgeführte Prozess zu Schritt S300 in 17 fort, um einen in 22 abgebildeten Titel-Hervorhebungs-Auswahlbildschirm 150 anzuzeigen.
  • Der Titel-Hervorhebungs-Auswahlbildschirm 150 ist ein Bildschirm, der durch das Kamerapersonal verwendet wird, um eine Operation zum Auswählen eines Bildes als ein Titelbild (vorderes Titelbild) einer Web-Galerie oder eines Bildes für eine Hervorhebung (betonte Anzeige) auszuwählen.
  • Das Zurück-Symbol 133 und das Nächstes-Symbol 132 werden auf dem Titel-Hervorhebungs-Auswahlbildschirm 150 angezeigt.
  • Außerdem ist in dem Titel-Hervorhebungs-Auswahlbildschirm 150 ein Listenfestlegungsbereich 153 vorgesehen, und eine Kandidatenregisterkarte 151 und eine Auswahlregisterkarte 152 sind vorgesehen.
  • Wenn die Kandidatenregisterkarte 151 ausgewählt ist, wird eine Liste von Bildern, die den Flag-Ein-Bildern entsprechen (d. h. Bilder, die zur Aufnahme in die Web-Galerie ausgewählt wurden), in dem Listenfestlegungsbereich 153 angezeigt.
  • Außerdem werden für jedes Bild eine Hervorhebungsschaltfläche 155 und eine Titelschaltfläche 156 angezeigt. Die Hervorhebungsschaltfläche 155 ist ein Bedienelement zum Festlegen eines hervorgehobenen Bildes, während die Titelschaltfläche 156 ein Bedienelement zum Festlegen eines Titelbildes ist.
  • Es wird darauf hingewiesen, dass die Hervorhebungsschaltfläche 155 das Vorhandensein oder Fehlen der aktuellen Hervorhebungseinstellung durch einen Anzeigemodus der Hervorhebungsschaltfläche 155 ausdrücken kann und dass die Titelschaltfläche 156 einen aktuellen Titeleinstellungszustand durch einen Anzeigemodus der Titelschaltfläche 156 ausdrücken kann.
  • Wenn die Auswahlregisterkarte 152 ausgewählt ist, wird in dem Listenfestlegungsbereich 153 eine Liste von Bildern angezeigt, die jeweils als ein Titelbild oder hervorgehobenes Bild festgelegt sind.
  • Das Kamerapersonal bedient den so konfigurierten Titel-Hervorhebungs-Auswahlbildschirm 150, um ein Titelbild oder ein hervorgehobenes Bild auszuwählen.
  • In dem Zustand, in dem in Schritt S300 in 17 der Titel-Hervorhebungs-Auswahlbildschirm 150 angezeigt wird, führt das Personalendgerät 1 einen Prozess einer Überwachungsschleife von Schritt S301 bis Schritt S305 aus.
  • In Schritt S301 überwacht das Personalendgerät 1 eine Betätigung der Titelschaltfläche 156.
  • In einem Fall der Detektion der Betätigung der Titelschaltfläche 156 fährt das Personalendgerät 1 zu Schritt S310 fort, um die in den Auswahlinformationen enthaltenen Titelbildinformationen so einzustellen, dass ein entsprechendes Bild als Titelbild eingestellt wird, und um die Ereignisdaten 60 zu aktualisieren.
  • Außerdem sendet das Personalendgerät 1 in Schritt S311 die aktualisierten Auswahlinformationen an die Servervorrichtung 4, um die Ereignisdaten 90 auf der Seite der Servervorrichtung 4 zu aktualisieren. Mit anderen Worten wird der synchrone Zustand aufrechterhalten.
  • In Schritt S302 überwacht das Personalendgerät 1 eine Betätigung der Hervorhebungsschaltfläche 155.
  • In einem Fall der Detektion der Betätigung der Hervorhebungsschaltfläche 155 fährt das Personalendgerät 1 zu Schritt S320 fort, um die in den Auswahlinformationen enthaltenen Informationen zur betonten Anzeige des Bildes so einzustellen, dass ein entsprechendes Bild als ein hervorgehobenes Bild eingestellt wird, und um die Ereignisdaten 60 zu aktualisieren.
  • Außerdem sendet das Personalendgerät 1 in Schritt S321 die aktualisierten Auswahlinformationen an die Servervorrichtung 4, um die Ereignisdaten 90 auf der Seite der Servervorrichtung 4 zu aktualisieren. Mit anderen Worten wird der synchrone Zustand aufrechterhalten.
  • In Schritt S303 überwacht das Personalendgerät 1 eine Registerkartenwechseloperation. Die Registerkartenwechseloperation ist in diesem Fall eine Betätigung der Auswahl-Registerkarte 152 während der Anzeige der Liste, die der Kandidaten-Registerkarte 151 entspricht, oder eine Betätigung der Kandidaten-Registerkarte 151 während der Anzeige der Liste, die der Auswahl-Registerkarte 152 entspricht.
  • Wenn die Registerkartenwechseloperation detektiert wird, führt das Personalendgerät 1 einen Wechselprozess zum Wechseln des Inhalts in dem Listenfestlegungsbereich 153 gemäß der ausgewählten Registerkarte in Schritt S330 aus.
  • In Schritt S305 überwacht das Personalendgerät 1 eine Betätigung des Zurück-Symbols 133. Wenn eine Betätigung des Zurück-Symbol 133 detektiert wird, fährt das Personalendgerät 1 zu Schritt S211 in 13 fort, um zu einem Zustand der Anzeige des Ereignisbildschirms 120 zurückzukehren.
  • Als ein Ergebnis kann das Kamerapersonal die Titel-Hervorhebungs-Festlegung unterbrechen oder die Auswahl aus der Flag-Einstellung wieder aufnehmen.
  • Wenn die Operation in dem Titel-Hervorhebungs-Auswahlbildschirm 150 fertiggestellt ist, betätigt das Kamerapersonal das Nächstes-Symbol 132.
  • In Schritt S304 in 17 überwacht das Personalendgerät 1 eine Betätigung des Nächstes-Symbols 132. Wenn die Betätigung des Nächstes-Symbols 132 detektiert wird, fährt das Personalendgerät 1 zu Schritt S340 fort, um einen Bestätigungsbildschirm anzuzeigen.
  • 23 bildet ein Beispiel für einen Bestätigungsbildschirm 160 ab. Das Zurück-Symbol 133 und das Nächstes-Symbol 132 sowie ein genauer Bereich 161 sind für den Bestätigungsbildschirm 160 vorbereitet, um den endgültigen Bestätigungsinhalt in dem Bestätigungsbildschirm 160 anzuzeigen. Beispielsweise werden genaue Informationen wie z. B. die Anzahl von Bildern, die in eine Web-Galerie aufgenommen werden sollen und für die ein Flag vergeben ist wird, die Anzahl von Bildern für hervorgehobene Anzeige, ein Titel sowie Uhrzeit und Datum angezeigt.
  • Das Personalendgerät 1 überwacht in Schritt S341 in 17 eine Betätigung des Nächstes-Symbols 132 und überwacht in Schritt S342 eine Betätigung des Zurück-Symbols 133.
  • Wenn die Betätigung des Zurück-Symbols 133 detektiert wird, kehrt das Personalendgerät 1 zu Schritt S300 zurück, um zu dem Zustand der Anzeige des Titel-Hervorhebungs-Auswahlbildschirms 150 zurückzukehren.
  • Wenn die Betätigung des Nächstes-Symbols 132 detektiert wird, fährt das Personalendgerät 1 zu Schritt S343 fort, um eine Anforderung zur Erzeugung einer Web-Galerie an die Servervorrichtung 4 zu senden.
  • Danach fährt das Personalendgerät 1 zu Schritt S201 in 12 fort, um in den Zustand der Anzeige des Projektlistenbildschirms 110 zurückzukehren. Es wird darauf hingewiesen, dass das Personalendgerät 1 in diesem Fall zu Schritt S211 in 13 fortfahren kann, um zu dem Ereignisbildschirm 120 zurückzukehren.
  • Indessen ist es in dem vorstehend beschriebenen Auswahlprozess erforderlich, dass das Kamerapersonal die Bestimmung, ob ein Bild als ein Bild, das in die Web-Galerie aufgenommen werden soll, auszuwählen ist oder nicht, (Flag Ein/Aus) fortlaufend wiederholt. Dementsprechend muss selbst in einem Fall, in dem mehrere ähnliche Bilder (Bilder eines ähnlichen Objekts oder eines Objekts mit einer ähnlichen Stellung oder einem ähnlichen Blickwinkel oder dergleichen) nacheinander aufgenommen werden (d.h. als ein Fall bezeichnet, in dem eine identische Szene aufgenommen wird), die Bestimmung von Flag-Ein/Aus nach dem Durchsuchen ähnlicher Bilder, eines nach dem anderen, zum Zeitpunkt des Durchsuchens vorgenommen werden.
  • Beispielsweise ist es in einem Fall, in dem sich Bilder einer identischen Szene fortsetzen, effizient, einen Anzeigeprozess auf eine solche Weise auszuführen, dass die Bilder einer nächsten Szene zum Durchsuchen angezeigt werden, anstatt die verbleibenden Bilder der identischen Szene anzuzeigen, nachdem eine vorbestimmte Anzahl von Flag-Ein-Bildern als in die Web-Galerie aufzunehmende Bilder bestimmt wurde.
  • Nachstehend wird ein Ablauf eines spezifischen Prozesses beschrieben. Als Voraussetzung für diese Beschreibung ist es vorzuziehen, eine Bildaufnahmeszene von Bildern in Bezug auf Informationen, die den Typ eines Objekts jedes der aufgenommenen Bilder, eine Stellung, einen Blickwinkel und einen Bildaufnahmezeitpunkt des Objekts und dergleichen angeben, zu erkennen. In einem Fall, in dem die Bildaufnahmevorrichtung 2 eine Funktion zur Erkennung von Szeneninformationen besitzt, können beispielsweise mehrere aufgenommene Bilder für jede Szene gruppiert werden, indem den Metadaten einer an das Personalendgerät 1 übertragenen Bilddatei Szeneninformationen, die den jeweiligen Bildern zugeordnet sind, hinzugefügt werden. Alternativ können in einem Fall, in dem das Personalendgerät 1 die Funktion zur Erkennung besitzt, die Bilder für jede Szene durch das Personalendgerät 1 gruppiert werden. In jedem dieser Fälle können die den jeweiligen Bildern zugeordneten Szeneninformationen in den Ereignisdaten 60 in 5 gehalten werden.
  • Ein weiteres Verarbeitungsbeispiel für die Auswahl in Schritt S3 in 2 wird nachstehend unter Bezugnahme auf einen Ablaufplan in 31 und ein Bildschirmbeispiel in 32 beschrieben.
  • Der Prozess des Ablaufplans in 31 ist ein Prozess, der durch die Funktion der UI-Steuereinheit 31 in 4 ausgeführt wird. Es wird darauf hingewiesen, dass das vorliegende Verarbeitungsbeispiel auch als Beispiel für einen Fall betrachtet wird, in dem die Verarbeitung in den Schritten S218, S232 und/oder S233 in 14 wiederholt für alle Bilder ausgeführt wird.
  • Schritt S381 in 31 ist eine Verarbeitung, die durch das Personalendgerät 1 ausgeführt wird, um jedes der in 20A, 20B und 20C als Beispiel abgebildeten Bilder anzuzeigen. In Schritt S382 überwacht das Personalendgerät 1 eine Flag-Ein/Aus-Operation für das angezeigte Bild. Beispielsweise ist diese Operation eine Operation, die für das Flag-Einstellungssymbol 131 ausgeführt wird, wie in jeder der 20B und 20C abgebildet ist.
  • Im einem Fall der Detektion der Operation für das Flag-Einstellungssymbol 131 aktualisiert das Personalendgerät 1 die Ereignisdaten 60, so dass ein Umschalten zwischen dem Ein und Aus des Flag der Auswahlinformationen, die Bildern zugeordnet sind, die dem Flag-Einstellungssymbol 131 entsprechen, erreicht werden kann.
  • In Schritt S383 empfängt das Personalendgerät 1 ein Ergebnis der in Schritt S382 ausgeführten Flag-Operation und zählt die Flag-Ein-Anzahl, die der Anzahl der als Flag-Ein-Bilder in einer gruppierten identischen Szene bestimmten Bilder entspricht. In Schritt S384 vergleicht das Personalendgerät 1 eine vorbestimmte Flag-Ein-Anzahl, die im Voraus für jede Szene bestimmt ist, mit der in Schritt S383 gezählten Flag-Ein-Anzahl, um zu bestimmen, ob die Flag-Ein-Anzahl die vorbestimmte Anzahl erreicht hat. Es wird darauf hingewiesen, dass die vorbestimmte Flag-Ein-Anzahl durch das Kamerapersonal im Voraus für jede Szene bestimmt werden kann, oder dass sie gemäß der Anzahl von Bildern in einer als eine identische Szene festgelegten Gruppe bestimmt werden kann.
  • In einem Fall einer Bestimmung, dass die Flag-Ein-Anzahl die vorbestimmte Anzahl noch nicht erreicht hat, fährt das Personalendgerät 1 zu Schritt S385 fort, um zu überwachen, ob eine Operation zum Anzeigen des nächsten Bildes ausgeführt worden ist. In einem Fall, in dem diese Operation ausgeführt worden ist, fährt das Personalendgerät 1 zu Schritt S386 fort, um die Steuerung für die kontinuierliche Anzeige des nächsten Bildes in der identischen Szene auszuführen. Andererseits fährt in einem Fall einer Bestimmung in Schritt S384, dass die Flag-Ein-Anzahl die vorbestimmte Anzahl erreicht hat, das Personalendgerät 1 zu Schritt S387 fort, um zu überwachen, ob eine Operation zum Anzeigen des nächsten Bildes ausgeführt worden ist. In einem Fall, in dem diese Operation ausgeführt worden ist, fährt das Personalendgerät 1 zu Schritt S388 fort, um die Steuerung für die Anzeige eines Bildes in einer Szene der nächsten Gruppe, die sich von der Szene der aktuellen Gruppe unterscheidet, auszuführen. Dieser Prozess kann wiederholt werden, bis die Bearbeitung für Szenen aller Gruppen fertiggestellt ist.
  • 32A und 32B bilden jeweils ein Bildschirmbeispiel für den Zustand einer Anzeigereihenfolge von Bildern ab. 32A ist ein Beispiel, das der Reihe nach alle Bilder (Bilder A bis E) unabhängig von den Szenen der Bilder anzeigt. 32B ist ein Beispiel für einen Fall, der gemäß den Szenen und der Flag-Ein-Anzahl einige der Bilder nicht anzeigt (die Anzeige überspringt).
  • Beispielsweise wird in einem Fall, in dem das Bild A in einer Szene SN1, in der die vorbestimmte Flag-Ein-Anzahl als „1“ festgelegt ist, in Flag-Aus gebracht wird, die Flag-Ein-Anzahl zu „0 (Null)“ und erreicht nicht die vorbestimmte Flag-Ein-Anzahl. Dementsprechend wird die Anzeigesteuerung ausgeführt, um das nächste Bild B in der Szene SN1 als die identische Szene wie in 32B abgebildet anzuzeigen. Danach wird in einem Fall, in dem das Bild B in Flag-Ein gebracht wird, die Flag-Ein-Anzahl zu „1“. In diesem Fall hat die Flag-Ein-Anzahl die vorbestimmte Anzahl erreicht. Dementsprechend wird die Anzeigesteuerung ausgeführt, um das Bild D, das einem Bild der nächsten Szene SN2 entspricht, anzuzeigen, ohne dass das nächste Bild C der identischen Szene angezeigt wird, wie in der Figur abgebildet. Darüber hinaus wird in einem Fall, in dem das Bild D in der Szene SN2, in der die vorbestimmte Flag-Ein-Anzahl als „1“ festgelegt ist, in Flag-Ein gebracht wird, die Flag-Ein-Anzahl zu „1“ und erreicht die vorbestimmte Anzahl. Dementsprechend wird ein Bild in der nächsten Szene angezeigt, ohne dass das nächste Bild E der identischen Szene angezeigt wird.
  • Nachfolgend wird ein Prozess zum Austauschen von Bewertungsinformationen und Auswahlinformationen zwischen Bildern als ein weiteres Verarbeitungsbeispiel des Auswahlprozesses beschrieben.
  • Bei der Auswahl in Schritt S3 in 2 gibt es manchmal einen Fall, in dem das Kamerapersonal beabsichtigt, die Bewertungsinformationen und die Auswahlinformationen, die einmal eingestellt worden sind, erneut zu überprüfen und zu ersetzen. In einem solchen Fall können diese Informationseinheiten durch erneutes Betätigen des Bewertungssymbols 130 und des Flag-Einstellungssymbols 131 geändert werden. Der Auswahlprozess ist jedoch effizienter zu erreichen, wenn die Bewertungsinformationen und die Auswahlinformationen, die für zwei Bilder vergeben sind, miteinander vertauscht werden können.
  • Ein weiteres Verarbeitungsbeispiel für die Auswahl in Schritt S3 in 2 wird nachstehend unter Bezugnahme auf einen Ablaufplan in 33 und Bildschirmbeispiele in den 34, 35 und 36 beschrieben. Der Prozess des Ablaufplans in 33 ist ein Prozess, der durch die Funktion der UI-Steuereinheit 31 in 4 ausgeführt wird.
  • Schritt S420 in 33 ist ein Schritt, der durch das Personalendgerät 1 ausgeführt wird, um den einen Anzeigebildschirm 140 anzuzeigen, wie in 34A abgebildet. In 34A sind für die Teile, die gleich den entsprechenden Teilen in 21 sind, gleiche Nummern vergeben. Neu hinzugefügt ist jedoch ein Ersetzungssymbol 170 zum Ausgeben einer Anweisung zur Ersetzung von Informationen, und ein aktuell angezeigtes Bild wird als Bild W festgelegt. In Schritt S421 überwacht das Personalendgerät 1 eine Betätigung des Ersetzungssymbols170. In einem Fall der Bestimmung, dass das Ersetzungssymbol 170 betätigt worden ist, zeigt das Personalendgerät 1 in Schritt S422 eine Bildliste an, die Bilder enthält, die sich in der Nähe des aktuell angezeigten Bildes befinden. Die „nahen“ Bilder können hier Bilder, die sich hinsichtlich einer Bildfolge in der Nähe befinden, Bilder, die sich hinsichtlich eines Dateinamens von Bilddaten in der Nähe befinden, oder Bilder in einer identischen Szene sein. 34B bildet einen Zustand ab, in dem eine Liste aus einem Bild X, einem Bild Y und einem Bild Z unterhalb des Bildes W als Bilder in der Nähe des Bildes W angezeigt wird.
  • In Schritt S423 überwacht das Personalendgerät 1 eine Operation zum Auswählen eines Bildes aus der Bildliste. In einem Fall, in dem ein Bild aus der Liste ausgewählt wird, ersetzt das Personalendgerät 1 im Schritt S424 die dem Originalbild hinzugefügten Informationen durch Informationen, die das ausgewählte Bild angeben, und zeigt das ausgewählte Bild im nachfolgenden Schritt S425 an. 34C bildet einen Zustand ab, in dem das Bild Y angezeigt wird, wobei die Bewertungsinformationen und die Auswahlinformationen, die dem Originalbild W zugeordnet sind, durch die Bewertungsinformationen und die Auswahlinformationen, die dem ausgewählten Bild Y zugeordnet sind, gemäß der Auswahl des Bildes Y, das in den nahen Bildern in 34B enthalten ist, ersetzt sind.
  • Es wird darauf hingewiesen, dass die Verarbeitung in Schritt S424 und die Verarbeitung in Schritt S425 vertauscht werden können, d. h. Schritt S425 kann vor Schritt S424 ausgeführt werden.
  • Der Informationsersetzungsprozess in dem vorstehenden Beispiel kann entweder ein Prozess zum Ersetzen sowohl der Bewertungsinformationen als auch der Auswahlinformationen sein oder kann ein Prozess zum Ersetzen nur eines aus den Bewertungsinformationen und den Auswahlinformationen sein. In einem solchen Fall kann ein Arbeitsschritt zum Festlegen, welche Informationen ersetzt werden sollen, hinzugefügt werden.
  • 35 bildet konzeptionelle Diagramme ab, die einen Zustand, in dem die Bewertungsinformationen ersetzt worden sind, darstellen. Die dem Bild W zugeordneten Bewertungsinformationen sind „drei Sterne“, während die dem Bild Y zugeordneten Bewertungsinformationen „kein Stern“ sind, wie in 35A abgebildet. Nach dem Prozess von 33, der einer Ersetzungsoperation durch den Anwender entspricht, sind die dem Bild W zugeordneten Bewertungsinformationen durch „kein Stern“ ersetzt, und die dem Bild Y zugeordneten Bewertungsinformationen sind durch „drei Sterne“ ersetzt, wie in 35B abgebildet.
  • 36 zeigt konzeptionelle Diagramme, die einen Zustand darstellen, in dem ein Flag, das den Auswahlinformationen entspricht, ersetzt worden ist. Das Bild W ist ein Flag-Aus-Bild, während das Bild Y ein Flag-Ein-Bild ist, wie in 36A abgebildet. Nach dem Prozess von 33, der einer Ersetzungsoperation durch den Anwender entspricht, ist das Bild W in ein Flag-Ein-Bild geändert, und das Bild Y ist in ein Flag-Aus-Bild geändert, wie in 36B abgebildet.
  • <6. Serverprozess>
  • Der durch das Personalendgerät 1 bis zur Auswahlstufe in Schritt S3 in 2 ausgeführte Prozess ist beschrieben worden. Ein auf der Seite der Servervorrichtung 4 ausgeführter Prozess wird hier beschrieben.
  • 24 präsentiert einen Prozess, der durch die Servervorrichtung 4 in Übereinstimmung mit der von dem Personalendgerät 1 empfangenen Kommunikation ausgeführt wird. Es wird darauf hingewiesen, dass sich der nachstehend beschriebene durch die Servervorrichtung 4 ausgeführte Prozess auf einen Prozess bezieht, der durch die CPU 71 der Datenverarbeitungsvorrichtung 10, die die in 6 abgebildeten Funktionen besitzt, ausgeführt wird. Der Prozess in 24 ist ein Prozess, der hauptsächlich durch die Funktionen der Ereignisdatenmanagementeinheit 40 und der Bildsammlungserzeugungseinheit 41 ausgeführt wird.
  • In der Stufe von Schritt S1 in 2 werden Informationen, die die Voreinstellung von dem Personalendgerät 1 angeben, an die Servervorrichtung 4 gesendet.
  • Beim Empfang von Informationen, die der Projekteinstellung zugeordnet sind, von dem Personalendgerät 1 fährt die Servervorrichtung 4 von Schritt S500 zu Schritt S510 fort, um einen Projekteinstellungsprozess in der Servervorrichtung 4 auszuführen.
  • Die von dem Personalendgerät 1 empfangene Kommunikation für die Projekteinstellung bezieht sich auf die Kommunikation, die für den Server durch die durch das Personalendgerät 1 ausgeführte Verarbeitung von Schritt S10 bis Schritt S13 in 9 bereitgestellt wird. Beispielsweise werden Informationen, die einen Ereignisnamen, Uhrzeit und Datum, einen Ort und dergleichen eines erzeugten Projekts angeben, gesendet. Die Servervorrichtung 4 stellt unter Bezugnahme auf diese Informationseinheiten ein neues Projekt ein und stellt die Ereignisdaten 90 des neuen Projekts ein.
  • Außerdem stellt das Personalendgerät 1 nicht nur die Einstellung des Projekts selbst, sondern auch die Auto-Retuschiereinstellung, Wasserzeicheneinstellung und dergleichen bereit und sendet die Einstellungsinformationen der Reihe nach an die Servervorrichtung 4. Die Servervorrichtung 4 beschreibt diese Informationseinheiten als Voreinstellungsinformationen 91, die in den Ereignisdaten 90 enthalten sind, um die Ereignisdaten 60 mit den Ereignisdaten 60 in dem Voreinstellungszustand zu synchronisieren.
  • In der Stufe von Schritt S2 in 2 werden Bilder, die von der Bildaufnahmevorrichtung 2 übertragen werden, Metadaten, die Bewertungsinformationen enthalten, und dergleichen durch die Verarbeitung, die durch das Personalendgerät 1 in Schritt S105 in 11 ausgeführt wird, an die Servervorrichtung 4 gesendet.
  • Beim Empfang der Bilder und der Metadaten von dem Personalendgerät 1 fährt die Servervorrichtung 4 von Schritt S501 zu Schritt S520 in 24 fort, um die Bilder und die Metadaten als Informationen, die den Ereignisdaten 90 des entsprechenden Projekts zugeordnet sind, zu importieren. Die in den Metadaten enthaltenen Bewertungsinformationen werden aus den Metadaten extrahiert und in den Ereignisdaten 90 in einem später aktualisierbaren Zustand gemanagt.
  • In der Stufe von Schritt S3 in 2 werden verschiedene Arten von Informationen zur Aufrechterhaltung der Synchronisation mit der Bildaufnahmevorrichtung 2 von dem Personalendgerät 1 an die Servervorrichtung 4 im Verlauf der Verarbeitung des Personalendgeräts 1 von 12 bis 17 gesendet.
  • Beim Empfang von Bewertungsinformationen von dem Personalendgerät 1 fährt die Servervorrichtung 4 von Schritt S502 zu Schritt S530 in 24 fort, um Bewertungsinformationen, die entsprechenden Bildern zugeordnet sind, in den Ereignisdaten 90 des entsprechenden Projekts zu aktualisieren.
  • Beim Empfang von Auswahlinformationen von dem Personalendgerät 1 fährt die Servervorrichtung 4 von Schritt S503 zu Schritt S540 fort, um Auswahlinformationen, die entsprechenden Bildern zugeordnet sind, in den Ereignisdaten 90 des entsprechenden Projekts zu aktualisieren.
  • Insbesondere werden die durch die Flag-Einstellung bereitgestellten Bildverwendungsinformationen, die einen Titel angebenden Titelbildinformationen, die durch die Hervorhebungseinstellung bereitgestellten Informationen zur betonten Anzeige von Bildern und dergleichen auch auf der Seite der Servervorrichtung 4 der Reihe nach aktualisiert.
  • Beim Empfang von Bearbeitungsinformationen von dem Personalendgerät 1 fährt die Servervorrichtung 4 von Schritt S504 zu Schritt S550 fort, um Bearbeitungsinformationen, die entsprechenden Bildern zugeordnet sind, in den Ereignisdaten 90 des entsprechenden Projekts zu aktualisieren.
  • Beim Empfang von Web-Galerie-Bearbeitungsinformationen von dem Personalendgerät 1 fährt die Servervorrichtung 4 von Schritt S505 zu Schritt S560 fort. Diese Informationen sind Informationen, die in Schritt S343 in 17 von dem Personalendgerät 1 gesendet werden.
  • In Schritt S560 in 24 führt die Servervorrichtung 4 zuerst einen Bildbearbeitungsprozess unter Verwendung von Parametern als Bearbeitungsinformationen (die Bearbeitungsinformationen enthalten, die durch die Voreinstellungsinformationen 61 bereitgestellt sind) für die jeweiligen Bilder, die als Flag-Ein-Bilder festgelegt sind, als Bildverwendungsinformationen aus, um Bilder für die Web-Galerie heraus zu schreiben. Insbesondere werden die jeweiligen Bearbeitungsbilder, die in dem Bildordner 97 in 8 gespeichert werden sollen, gebildet.
  • In Schritt S561 in 24 führt die Servervorrichtung 4 einen Prozess zur Erzeugung einer Web-Galerie aus. Insbesondere erzeugt die Servervorrichtung 4 beispielsweise die Webseiten-Einstellungsinformationen 96 in 8 als HTML-Daten oder dergleichen und gibt die Webseiten-Einstellungsinformationen 96 als eine Webseite ein. Als ein Ergebnis wird eine Web-Galerie erzeugt.
  • In Schritt S562 in 24 überträgt die Servervorrichtung 4 eine URL („Uniform Resource Locator“) der entsprechenden Web-Galerie an das Personalendgerät 1. Als ein Ergebnis kann das Personalendgerät 1 die Web-Galerie durchsuchen.
  • Es wird darauf hingewiesen, dass die Web-Galerie zu diesem Zeitpunkt noch in einem als privat eingestellten Zustand ist. Nur das Personalendgerät 1, das dem Ziel der URL-Übertragung entspricht, ist in einem durchsuchungsfähigen Zustand.
  • Der vorstehend beschriebene Prozess ist der Prozess, der durch die Servervorrichtung 4 in Übereinstimmung mit dem durch das Personalendgerät 1 bis zu Schritt S3 in 2 ausgeführten Prozess ausgeführt wird.
  • Obwohl in 24 nicht abgebildet, führt die Servervorrichtung 4 einen Prozess zum Bereitstellen der Ereignisdaten 90 für das Personalendgerät 1, das sich bei der Servervorrichtung 4 angemeldet hat, aus (siehe Beschreibung von Schritt S201 in 12).
  • Nachdem die Web-Galerie erzeugt worden ist, wird eine Teilen-Anforderung von dem Personalendgerät 1 an die Servervorrichtung 4 gesendet, wie in der Stufe von Schritt S4 in 2 (nachstehend unter Bezugnahme auf 25 beschrieben).
  • In diesem Fall fährt das Personalendgerät 1 von Schritt S506 zu Schritt S570 in 24 fort, um eine öffentliche Einstellung für die entsprechende Web-Galerie bereitzustellen. Beispielsweise kann auch das Kundenendgerät 5 die Web-Galerie durchsuchen.
  • <7. Web-Galerie-Übergabeprozess>
  • Mit Bezug auf 25 wird ein Prozess beschrieben, der durch das Personalendgerät 1 in der Stufe des Web-Galerie-Übergabeprozesses in Schritt S4 in 2 ausgeführt wird.
  • Wenn eine Anforderung zur Erzeugung einer Web-Galerie wie vorstehend beschrieben an die Servervorrichtung 4 gesendet wird, wird durch die Servervorrichtung 4 eine Web-Galerie unter Bezugnahme auf die Ereignisdaten 90 erzeugt. Danach wird eine URL einer Webseite dieser Web-Galerie gesendet. 25 präsentiert einen Prozess, der durch das Personalendgerät 1 nach der Erfassung der URL ausgeführt wird.
  • Das Personalendgerät 1 greift auf die Webseite unter Verwendung der in Schritt S350 erfassten URL zu. Als ein Ergebnis kann das Personalendgerät 1 eine Vorschau der Web-Galerie durchsuchen.
  • Das ist ein Durchsuchen einer Vorschau durch das Kamerapersonal zur Überprüfung. Ein Vorschaubildschirm 180 in 26 ist ein Beispiel für eine Web-Galerie für diese Vorschau.
  • Beispielsweise wird eine in einem Vorschaubereich 183 erzeugte Webgalerie angezeigt, und es werden eine Bearbeitungsschaltfläche 181 und eine Teilen-Schaltfläche 182 bereitgestellt.
  • Die im Vorschaubereich 183 angezeigten Inhalte der Web-Galerie, d.h. der durch die Servervorrichtung 4 erzeugten Web-Galerie, sind so konfiguriert, dass beispielsweise Bilder, für die Flag-Ein eingestellt worden ist, in Zeitreihen angeordnet sind. Außerdem wird ein Bild, für das Titelbildinformationen eingestellt worden sind, oben als ein Titel angezeigt. Ferner wird ein Bild, für das die Hervorhebungseinstellung gemäß den Informationen zur betonten Anzeige des Bildes vorgenommen worden ist, in einer größeren Größe als die Größe von Bildern, für die keine Hervorhebungseinstellung vorgenommen worden ist, angezeigt. Es wird darauf hingewiesen, dass sogar jedes Bild, für das keine Hervorhebungseinstellung vorgenommen worden ist, automatisch in einer großen Größe angeordnet werden kann. Diese Anordnung dient dazu, die gesamte Galerie auszubalancieren oder zu schärfen.
  • Das Personalendgerät 1 überwacht in Schritt S351 in 25 eine Operation zum Beenden des Durchsuchens, überwacht in Schritt S352 eine Betätigung der Bearbeitungsschaltfläche 181 und überwacht in Schritt S353 eine Betätigung der Teilen-Schaltfläche 182.
  • Zum Zeitpunkt der Detektion der Operation zum Beenden des Durchsuchens wird das Durchsuchen der Webseite beendet.
  • Wenn die Betätigung der Bearbeitungsschaltfläche 181 detektiert wird, fährt das Personalendgerät 1 zu Schritt S360 fort, um einen Bearbeitungsprozess auszuführen.
  • Das Kamerapersonal prüft den Inhalt der Web-Galerie im Vorschaubereich 183 und betätigt bei Bedarf die Bearbeitungsschaltfläche 181, um die Web-Galerie weiter zu bearbeiten.
  • Das Personalendgerät 1 zeigt ein Schnittstellenbild zum Bearbeiten in dem Bearbeitungsprozess in Schritt S360 an, um eine Operation durch das Kamerapersonal zu empfangen und das Vorschaubild gemäß der empfangenen Operation zu bearbeiten. Beispielsweise können eine Hintergrundfarbe, eine Titelschriftart, eine Titelfarbe, eine Titelposition, Musik für eine Diashow und dergleichen bearbeitet werden.
  • Danach werden die Bearbeitungsinformationen gemäß einer Bearbeitungsfertigstellungsoperation an die Servervorrichtung 4 gesendet, um die Bearbeitungsoperation in der Web-Galerie widerzuspiegeln.
  • Nach der Fertigstellung der Bearbeitungsoperation betätigt das Kamerapersonal bei Bedarf die Teilen-Schaltfläche 182. In diesem Fall fährt das Personalendgerät 1 zu Schritt S370 fort, um eine Teilen-Anforderung an die Servervorrichtung 4 zu senden. Wie vorstehend beschrieben, stellt die Servervorrichtung 4 als Reaktion auf die Teilen-Anforderung in Schritt S570 in 24 die Einstellung auf öffentlich für die Web-Galerie bereit.
  • Das Personalendgerät 1 führt in Schritt S371 in 25 einen Prozess aus, der der Bildschirmanzeige und einer Bildschirmoperation zum Fertigstellen der Übergabe der Web-Galerie entspricht.
  • Beispielsweise zeigt das Personalendgerät 1 in 27 einen Bildschirm für die Übergabe einer Web-Galerie 190 an. Eine Meldung über die Fertigstellung der Erzeugung der Web-Galerie, ein Ablaufdatum und ferner eine URL 193 der Web-Galerie werden auf dem Web-Galerie-Übergabebildschirm 190 angezeigt. Außerdem werden eine Kopierschaltfläche 191 und eine Teilen-Schaltfläche 192 angezeigt.
  • Das Kamerapersonal betätigt die Kopierschaltfläche 191, um die URL zu kopieren, und sendet die URL an das Kundenendgerät 5, indem es die URL an eine E-Mail oder dergleichen anhängt. Außerdem betätigt das Kamerapersonal die Teilen-Schaltfläche 192, um die URL für soziale Medien oder dergleichen bereitzustellen und dem Kunden zu ermöglichen, die Web-Galerie über die sozialen Medien zu durchsuchen.
  • Als ein Ergebnis kann der Kunde schon zu einem sehr frühen Zeitpunkt, wie z.B. am gleichen Tag nach dem Ende der Hochzeit, die Web-Galerie durchsuchen.
  • Es wird darauf hingewiesen, dass die Weitergabe einer URL an den Kunden, um das Durchsuchen einer Bildsammlung als eine Web-Galerie zu ermöglichen, nur als Beispiel präsentiert wird. Beispielsweise kann der Inhalt einer Bildsammlung, der der vorstehenden Web-Galerie entspricht, erzeugt und als Inhaltsdatei an den Kunden weitergegeben werden.
  • <8. Regulärer Übergabeprozess>
  • Im Schritt S5 in 2 wird ein regulärer Übergabeprozess ausgeführt.
  • 28 bildet einen Prozess der regulären Übergabestufe ab. Dieses ist ein Prozess, der beispielsweise durch den Personalcomputer 3 oder das Personalendgerät 1 ausgeführt wird. Nachstehend wird ein Prozess beschrieben, der durch den Personalcomputer 3 ausgeführt wird.
  • Das Kamerapersonal führt in Schritt S400 eine Operation unter Verwendung des Personalcomputers 3 aus, um auf die Servervorrichtung 4 zuzugreifen und eine Informationsleseanforderung für die reguläre Übergabe auszugeben.
  • Danach werden in Schritt S401 die Ereignisdaten 90 von der Servervorrichtung 4 erfasst.
  • In diesem Fall kann die Servervorrichtung 4 beispielsweise Bewertungsinformationen, Auswahlinformationen oder Bearbeitungsinformationen als eine XMP-Datei herunterladen, um die XMP-Datei auf eine RAW-Bilddatei in dem Personalcomputer 3 anzuwenden.
  • Insbesondere werden die Bewertungsinformationen, die Bildverwendungsinformationen, die Flag-Einstellung angeben, die Titelbildinformationen, das die Festlegung als Titelbild angeben, die Informationen zur betonten Anzeige des Bildes, die die Hervorhebungseinstellung angeben, und dergleichen an den Personalcomputer 3 übertragen.
  • Es wird darauf hingewiesen, dass alle Ereignisdaten 90 für den Personalcomputer 3 bereitgestellt werden können.
  • Das Kamerapersonal importiert die RAW-Bilddaten, die die durch die Bildaufnahmevorrichtung 2 aufgenommenen Bilddaten sind, in den Personalcomputer 3 und erzeugt unter Verwendung dieser RAW-Bilddaten eine Bildsammlung für die reguläre Übergabe. In diesem Fall ist die Erzeugungsarbeit durch die Erfassung einer XMP-Datei basierend auf den Ereignisdaten 90 von der Servervorrichtung 4 effizient zu erreichen.
  • Der Personalcomputer 3 führt in Schritt S402 einen notwendigen Bearbeitungsprozess aus, um die Bildsammlung für die reguläre Übergabe fertigzustellen.
  • Danach wird in Schritt S403 ein Prozess zur regulären Übergabe ausgeführt. Die auszuführende Verarbeitung weist beispielsweise das Erzeugen von Inhaltsdaten, die dem Bildsammlungsinhalt entsprechen, und das elektronische Senden der erzeugten Inhaltsdaten, die Aufzeichnung der Inhaltsdaten auf einem Aufzeichnungsmedium oder das Drucken der Inhaltsdaten zum Erzeugen von Druckdaten auf.
  • Danach wird die Bildsammlung, die die erzeugten Inhaltsdaten aufweist, das Aufzeichnungsmedium, auf dem die Inhaltsdaten aufgezeichnet sind, oder das bedruckte Papiermedium an den Kunden übergeben.
  • <9. Automatischer Einstellungsprozess>
  • Eine Reihe von Prozessen von der Voreinstellung bis zur regulären Übergabe ist vorstehend beschrieben worden. Hier wird als ein modifiziertes Beispiel ein automatischer Einstellprozess beschrieben, der die Effizienz der Auswahl in 2 weiter erhöhen kann.
  • 29 bildet ein Beispiel eines Prozesses ab, der unter Verwendung der Funktion der Einheit 33 zur automatischen Einstellung in 4 Auswahlinformationen unter Bezugnahme auf Tendenzinformationen, die gemäß früheren Auswahlinformationen, die die Auswahl durch das Kamerapersonal angeben, das ein Anwender des Personalendgeräts 1 ist, erzeugt werden, automatisch einstellt.
  • Beispielsweise managt die Servervorrichtung 4 die Ereignisdaten 90, die mehreren Projekten eines speziellen Kamerapersonals zugeordnet sind. In diesem Fall kann die Servervorrichtung 4 Tendenzinformationen, die eine Auswahltendenz dieses Kamerapersonals angeben, erzeugen, indem sie mit der Funktion der Tendenzinformationserzeugungseinheit 44 in 6 einen Lernprozess für die dem Kamerapersonal zugeordneten Ereignisdaten 90 ausführt.
  • Beispielsweise erzeugt das maschinelle Lernen Tendenzinformationen, die Merkmalsinformationen, die Flag-Ein-Einstellungsbildern zugeordnet sind, Merkmalsinformationen, die Hervorhebungseinstellungsbildern zugeordnet sind, Merkmalsinformationen, die einem Titeleinstellungsbild zugeordnet sind, und dergleichen, enthalten, unter Verwendung von Lerndaten, die die Flag-Ein-Einstellungsbilder, die Hervorhebungseinstellungsbilder, dem Titeleinstellungsbild und dergleichen aufweisen.
  • Die Seite des Personalendgeräts 1 führt einen Prozess in 29 zu einem Zeitpunkt für die Anzeige des Ereignisbildschirms 120 in Schritt S211 oder anderen Schritten in 13 oder beispielsweise zu einem Zeitpunkt vor diesem Zeitpunkt aus.
  • In Schritt S600 erfasst das Personalendgerät 1 die diesem Kamerapersonal zugeordneten und durch die Servervorrichtung 4 erzeugten Tendenzinformationen.
  • In Schritt S601 nimmt das Personalendgerät 1 für jedes der von der Bildaufnahmevorrichtung 2 übertragenen Bilder unter Bezugnahme auf die Tendenzinformationen eine Bestimmung vor, um zu bestimmen, ob jedes der Bilder ein Merkmal der Flag-Ein-Einstellung, ein Merkmal der Hervorhebungseinstellung, ein Merkmal der Titeleinstellung oder dergleichen besitzt.
  • In Schritt S602 stellt das Personalendgerät 1 automatisch eine Flag-Einstellung, eine Hervorhebungseinstellung oder eine Titeleinstellung für jedes der Bilder gemäß einem Ergebnis der vorstehenden Bestimmung bereit.
  • Das Kamerapersonal kann die in den 13 bis 17 beschriebene Auswahloperation im Zustand der vorstehend beschriebenen automatischen Einstellung ausführen. Als ein Ergebnis ist es wahrscheinlich, dass sich die Effizienz der durch das Kamerapersonal ausgeführten Arbeit verbessert.
  • Es wird darauf hingewiesen, dass der vorhergehende Prozess auch auf Bewerten zum Erreichen von automatischer Einstellung von Bewertungsinformationen anwendbar ist. Insbesondere analysiert die Servervorrichtung 4 Bilder jeder Bewertungsstufe unter Verwendung der Ereignisdaten 90 früherer Projekte des Kamerapersonals mit der Funktion der Tendenzinformationserzeugungseinheit 44, um Merkmalsinformationen, die „Kein-Stern“-Bildern zugeordnet sind, Merkmalsinformationen, die „Ein-Stern“-Bildern zugeordnet sind, Merkmalsinformationen, die „Zwei-Stern“-Bildern zugeordnet sind, Merkmalsinformationen, die „Drei-Stern“-Bildern zugeordnet sind, Merkmalsinformationen, die „Vier-Stern“-Bildern zugeordnet sind, und Merkmalsinformationen, die „Fünf-Stern“-Bildern zugeordnet sind, zu erzeugen. Natürlich ist es auch möglich, nur Merkmalsinformationen zu erzeugen, die beispielsweise „Fünf-Sterne“-Bildern zugeordnet sind, anstatt alle diese Informationen zu erzeugen.
  • Danach erfasst das Personalendgerät 1 Tendenzinformationen, die die vorstehenden Informationen enthalten, und bestimmt die Übereinstimmung mit den Merkmalsinformationen, die den jeweiligen Bildern zugeordnet sind, um Bewertungsinformationen für alle oder einige der Bilder automatisch einzustellen.
  • Diese automatische Einstellung kann auch die Effizienz der Operation, die zum Zeitpunkt der Auswahl durch das Kamerapersonal ausgeführt wird, erhöhen.
  • Als Nächstes bildet 30 ein Beispiel ab, bei dem das Personalendgerät 1 einen Prozess zur automatischen Einstellung von Auswahlinformationen unter Verwendung der Funktion der Einheit 33 zur automatischen Einstellung unter Bezugnahme auf Tendenzinformationen, die gemäß der Präferenz des Kundenanwenders erzeugt sind, ausführt.
  • Beispielsweise bestimmt die Servervorrichtung 4 die Präferenz aus dem bisherigen Verhalten des Kunden (der Braut, die die Bildsammlung bestellt hat) und stellt die Tendenzinformationen im Voraus ein. Beispielsweise wird eine Tendenz bevorzugter Bilder aus dem Verhalten des Kunden in den sozialen Medien (z. B. Vergeben von „Gefällt mir“ für ein Bild), den durch den Kunden in den sozialen Medien veröffentlichten Bildern und dergleichen bestimmt, und die Tendenzinformationen werden entsprechend dieser Bestimmung eingestellt.
  • Das Personalendgerät 1 führt den Prozess in 30 zu einem Zeitpunkt für die Anzeige des Ereignisbildschirms 120 in Schritt S211 oder anderen Schritten in 13 oder beispielsweise zu einem Zeitpunkt vor diesem Zeitpunkt aus.
  • In Schritt S610 erfasst das Personalendgerät 1 die Tendenzinformationen, die dem Kunden dieses Projekts (z. B. der Braut) zugeordnet sind und durch die Servervorrichtung 4 erzeugt wurden.
  • In Schritt S611 nimmt das Personalendgerät 1 für jedes der von der Bildaufnahmevorrichtung 2 übertragenen Bilder unter Bezugnahme auf die Tendenzinformationen eine Bestimmung vor, um zu bestimmen, ob jedes der Bilder ein Merkmal, das mit der Präferenz des Kunden übereinstimmt, besitzt
  • In Schritt S612 stellt das Personalendgerät 1 automatisch eine Flag-Einstellung für jedes der Bilder gemäß einem Ergebnis der vorstehenden Bestimmung bereit. Insbesondere werden Bilder, die mit der Präferenz des Kunden übereinstimmen, in die Web-Galerie aufgenommen. Natürlich können auch Hervorhebungseinstellung und Titeleinstellung bereitgestellt werden.
  • Das Kamerapersonal kann die in den 13 bis 17 beschriebene Auswahloperation im Zustand der vorstehend beschriebenen automatischen Einstellung ausführen. Als ein Ergebnis wird es wahrscheinlicher, dass die Effizienz der durch das Kamerapersonal ausgeführten Arbeit erhöht wird und eine Bildsammlung, die die Zufriedenheit des Kunden erhöht, erzeugt wird.
  • Es wird darauf hingewiesen, dass der vorstehend beschriebene Prozess auch auf Bewerten zum Erreichen von automatischer Einstellung von Bewertungsinformationen anwendbar ist. Insbesondere erzeugt die Servervorrichtung 4 Tendenzinformationen, die Merkmalsinformationen enthalten, die bevorzugten Bildern des Kunden zugeordnet sind, unter Verwendung der Funktion der Tendenzinformationserzeugungseinheit 44.
  • Das Personalendgerät 1 erfasst Tendenzinformationen, die solche Merkmalsinformationen enthalten, und bestimmt die Übereinstimmung mit Merkmalsinformationen, die den jeweiligen Bildern zugeordnet sind, um Bewertungsinformationen automatisch einzustellen.
  • Dieses automatische Einstellen der Bewertungsinformationen kann nicht nur die Effizienz der Operation, die zur Zeit der Auswahl durch das Kamerapersonal ausgeführt wird, sondern auch die Zufriedenheit des Kunden erhöhen.
  • <10. Auswahlbeschleunigungsunterstützungsprozess>
  • Nachstehend werden verschiedene Arten von weiteren Verarbeitungsbeispielen der Ausführungsform beschrieben.
  • Unter der Annahme, dass eine Bildsammlung unter Verwendung von Bildern, die während einer Hochzeitszeremonie, eines Hochzeitsempfangs oder dergleichen aufgenommen wurden, erzeugt wird, wie vorstehend beschrieben, kann der Fotograf beispielsweise an einem Tag mehrere tausend bis zehntausend oder mehr Bilder von einem Ereignis im Zusammenhang mit einer Eheschließung aufnehmen.
  • Die Auswahl gemäß einer Bewertung ist als ein effektives Verfahren eingesetzt, um aus einer enormen Anzahl von so aufgenommenen Bildern Bilder auszuwählen, die in die vorstehend beschriebene Bildsammlung für die Web-Galerie oder die reguläre Übergabe aufgenommen werden sollen.
  • Wie vorstehend beschrieben werden die Bewertungsinformationen in Zuordnung zu den Bildern gemanagt. Diese Bewertungsinformationen sind beispielsweise Beurteilungsinformationen in sechs Stufen im Bereich von „kein Stern“ bis „fünf Sterne“ und werden durch das Kamerapersonal unter Bezugnahme für die jeweiligen Bilder vergebenen Beurteilungen eingestellt.
  • 37A bildet einen Zustand ab, in dem Bewertungsinformationen, die „drei Sterne“ angeben, für ein spezielles Bild vergeben worden sind.
  • Beispielsweise kann das Kamerapersonal Bilder mit hoher Beurteilung extrahieren und aus den extrahierten Bildern Bilder auswählen, die in die Bildsammlung aufgenommen werden sollen, indem es alle aufgenommenen Bilder betrachtet und beurteilt und die Bewertungsinformationen gemäß den Beurteilungen einstellt. Dementsprechend sind die Bewertungsinformationen im Hinblick auf die Auswahl von Bildern, die in die Bildsammlung aufgenommen werden sollen, aus einer großen Anzahl von Bildern effektiv.
  • Beispielsweise bildet 37B ein Beispiel eines Falls ab, in dem Bilder unter einer Bedingung extrahiert werden, dass die Bewertungsinformationen „drei oder mehr Sterne“ angeben. In diesem Fall werden nur hoch beurteilte Bilder, die drei oder mehr Sternen entsprechen, extrahiert. Dementsprechend kann das Kamerapersonal Bilder, die in die Bildsammlung aufgenommen werden sollen, aus den extrahierten Bildern auswählen. Diese Auswahl ist extrem effizient im Vergleich zur Auswahl von Bildern, die in die Bildsammlung aufgenommen werden sollen, aus allen aufgenommenen Bildern.
  • Dieses Verfahren erfordert jedoch die Einstellung von Bewertungsinformationen für alle aufgenommenen Bilder und kann daher eine im Hinblick darauf zeitaufwändige und mühsame Arbeit sein.
  • Außerdem können die Beurteilungskriterien für die Bewertung abhängig von der Zeit variieren, oder eine unterschiedliche Beurteilung wie z. B. eine großzügige Beurteilung und eine harte Beurteilung kann durch das Kamerapersonal produziert werden. Es ist daher auch schwierig, alle Bilder nach einheitlichen Kriterien zu beurteilen.
  • Gemäß dem nachstehend beschriebenen Verarbeitungsbeispiel werden deshalb in einem Fall, in dem eine Bildgruppe, die mehrere Bilder aufweist, die während eines Ereignisses im Zusammenhang mit einer Eheschließung aufgenommen wurden, ein Verarbeitungsziel ist, die jeweiligen Bilder so weit wie möglich nach einheitlichen Kriterien effizient beurteilt, und auch die Bewertungsinformationen selbst werden effizient eingestellt. Außerdem wird abhängig von Situationen ein Fall angenommen, in dem die Einstellung der Bewertungsinformationen nicht für jedes Bild erforderlich ist.
  • Zu diesem Zweck wird die Bildextraktion unter Verwendung von Szenenanalyseergebnissen für die jeweiligen Bilder und der durch die Bildaufnahmevorrichtung 2 hinzugefügten Metadaten erreicht.
  • Beispielsweise werden Symbole, die den Szenenanalyseergebnissen entsprechen, bereitgestellt, um Bilder, die eine Extraktionsbedingung erfüllen, unter Verwendung des dieser Bedingung entsprechenden Symbols zu extrahieren und um Bewertungsinformationen für die extrahierten Bilder einzustellen.
  • Infolgedessen wird eine Unterstützung zur Beschleunigung der Bildauswahl durch das Kamerapersonal erreicht.
  • Es wird darauf hingewiesen, dass die Bewertungseinstellung für die extrahierten Bilder nur als Beispiel präsentiert ist. Ein Prozess zum Auswählen von Bildern, die in die Bildersammlung aufgenommen werden sollen, aus den extrahierten Bildern kann eingesetzt werden.
  • Insbesondere wird ein Extraktionsprozess unter Verwendung von Symbolen unter Bezugnahme auf die Szenenanalyse oder dergleichen, wie später beschrieben, als Bildextraktion für die Bewertungseinstellung präsentiert. Dieser Extraktionsprozess ist jedoch nicht notwendigerweise auf den auf die Bewertungseinstellung gerichteten Prozess beschränkt.
  • Außerdem ist das Ereignis im Zusammenhang mit der Eheschließung beispielsweise eine Hochzeitszeremonie, ein Hochzeitsempfang, eine Hochzeitsfeier, eine Verlobungszeremonie, ein Treffen, eine Eheanbahnung oder dergleichen und bezieht sich auf ein Ereignis, an dem mehrere Personen, die ein Brautpaar enthalten, teilnehmen. Das Einstellen geeigneter Extraktionsbedingungen wird als eine auf diese Arten von Ereignissen spezialisierte Auswahlbeschleunigungsunterstützung aktiviert.
  • Ein Beispiel für die Hauptverarbeitung wird unter Bezugnahme auf 38A, 38B und 38C beschrieben.
  • Ein Prozess, der ausgeführt wird, um eine Auswahlbeschleunigung gemäß einer Szenenanalyse oder dergleichen zu erreichen, analysiert im Wesentlichen aufgenommene Bilder, stellt eine Extraktionsbedingung ein und extrahiert Bilder unter Bezugnahme auf ein Szenenanalyseergebnis oder dergleichen gemäß der Extraktionsbedingung.
  • Ein solcher Prozess kann unter Verwendung irgendeines aus der Bildaufnahmevorrichtung 2, dem Personalendgerät 1 und der Servervorrichtung 4, die in Fig. abgebildet sind, durchgeführt werden.
  • 38A bildet einen Fall ab, in dem die Bildaufnahmevorrichtung 2 diesen Prozess ausführt.
  • Die Bildaufnahmevorrichtung 2 kann beispielsweise Bilder, Symbole und anderes auf einer Anzeigeeinheit 2a anzeigen. Außerdem sind verschiedene Arten von Bedienelementen vorgesehen.
  • Die so konfigurierte Bildaufnahmevorrichtung 2 führt einen Analyseprozess für jedes der Bilder einer Bildgruppe, die bei einem speziellen Ereignis aufgenommen und aufgezeichnet wurden, aus, um Analyseergebnisdaten zu erhalten. Die Bildaufnahmevorrichtung 2 bestimmt ferner, ob jedes der Bilder eine Extraktionsbedingung erfüllt, unter Verwendung von Analyseergebnisdaten gemäß einer Extraktionsoperation und zeigt extrahierte Bilder, die einem Ergebnis der Bestimmung entsprechen, auf der Anzeigeeinheit 2a an. Das Kamerapersonal kann für die extrahierten Bilder Bewertungseinstellungen und dergleichen bereitstellen.
  • Es wird darauf hingewiesen, dass die Servervorrichtung 4 die jeweiligen durch die Bildaufnahmevorrichtung 2 aufgenommenen und gesendeten Bilder empfangen, die jeweiligen Bilder der Bildgruppe analysieren und die Analyseergebnisdaten an die Bildaufnahmevorrichtung 2 senden kann. In diesem Fall kann die Bildaufnahmevorrichtung 2 in ähnlicher Weise Bilder unter Verwendung von Analyseergebnisdaten gemäß einer Extraktionsoperation, der durch das Kamerapersonal ausgeführt wird, extrahieren und die extrahierten Bilder gemäß einem Ergebnis der Extraktion auf der Anzeigeeinheit 2a anzeigen.
  • 38B bildet einen Fall ab, in dem das Personalendgerät 1 die vorstehend beschriebene Auswahlbeschleunigungsunterstützung ausführt.
  • Die durch die Bildaufnahmevorrichtung 2 aufgenommenen Bilder werden an das Personalendgerät 1 übertragen. Beispielsweise sendet das Personalendgerät 1 die jeweiligen Bilder der von der Bildaufnahmevorrichtung 2 empfangenen Bildgruppe als verkleinerte Bilder an die Servervorrichtung 4 in einer Cloud 7. Die Servervorrichtung 4 analysiert die jeweiligen Bilder der Bildgruppe und sendet die Analyseergebnisdaten an das Personalendgerät 1. Das Personalendgerät 1 kann Bilder unter Verwendung der Analyseergebnisdaten gemäß einer Extraktionsoperation, die durch das Kamerapersonal ausgeführt wird, extrahieren und die extrahierten Bilder auf einer Anzeigeeinheit 1a anzeigen.
  • Es wird darauf hingewiesen, dass die Bildanalyse in dem Personalendgerät 1 ausgeführt werden kann. Insbesondere analysiert das Personalendgerät 1 die jeweiligen Bilder der Bildgruppe, die von der Bildaufnahmevorrichtung 2 empfangen werden, und erhält Analyseergebnisdaten. Das Personalendgerät 1 extrahiert ferner Bilder unter Verwendung der Analyseergebnisdaten gemäß einer Festlegungsoperation, die durch das Kamerapersonal zum Festlegen einer Extraktionsbedingung ausgeführt wird, und zeigt die extrahierten Bilder auf der Anzeigeeinheit 1a an.
  • 38C bildet einen Fall ab, in dem die Servervorrichtung 4 in der Cloud 7 den vorstehend beschriebenen Prozess ausführt.
  • Die durch die Bildaufnahmevorrichtung 2 aufgenommenen Bilder werden an die Servervorrichtung 4 gesendet. Die Servervorrichtung 4 analysiert das jeweilige Bild der Bildgruppe, die von der Bildaufnahmevorrichtung 2 empfangen wird, und erhält Analyseergebnisdaten. Danach stellt die Servervorrichtung 4 eine Schnittstelle für das Personalendgerät 1 bereit, beispielsweise unter Verwendung eines Browsers, eines Anwendungsprogramms oder von etwas anderem.
  • Auf der Seite des Personalendgeräts 1 kann das Kamerapersonal eine Extraktionsoperation für einen Web-Seitenbildschirm oder dergleichen, der unter Verwendung eines Browsers betrachtet wird, ausführen. Die Servervorrichtung 4 extrahiert Bilder unter Verwendung von Analyseergebnisdaten gemäß dieser Extraktionsoperation und führt die extrahierten Bilder, die einem Ergebnis der Extraktion entsprechen, über einen Browser oder dergleichen der Anzeigeeinheit 1a des Personalendgeräts 1 zu.
  • Es wird darauf hingewiesen, dass die durch die Bildaufnahmevorrichtung 2 aufgenommenen Bilder temporär auf das Personalendgerät 1 übertragen und von dem Personalendgerät 1 an die Servervorrichtung 4 gesendet werden können. Danach kann die Servervorrichtung 4 die Bilder analysieren und eine Schnittstelle über einen Browser oder dergleichen bereitstellen.
  • Außerdem kann, falls die Bildaufnahmevorrichtung 2 eine Web-Browsing-Funktion oder dergleichen besitzt, das Kamerapersonal die Extraktionsbedingungen festlegen oder die extrahierten Bilder unter Verwendung der Bildaufnahmevorrichtung 2 durchsuchen.
  • In jedem der vorhergehenden Fälle kann das Kamerapersonal ein Bildextraktionsergebnis erhalten, um eine Auswahlbeschleunigung zu erreichen. Ein solcher Auswahlbeschleunigungsunterstützungsprozess kann die Arbeit zur Bewertungseinstellung durch das Kamerapersonal für eine große Anzahl von Bildern und die Arbeit zum Auswählen von in einer Bildsammlung enthaltenen Bildern unterstützen.
  • Das Konfigurationsbeispiel der Datenverarbeitungsvorrichtung 10, die das Personalendgerät 1 oder die Servereinrichtung 4 bildet, ist unter Bezugnahme auf 3 beschrieben worden. Außerdem besitzt die Bildaufnahmevorrichtung 2, die eingebaute Komponenten wie z. B. einen Mikrocomputer aufweist, auch eine Konfiguration, die die Datenverarbeitungsvorrichtung 10 in 3 bildet.
  • Zusätzlich ist der Prozess zum Erreichen der Auswahlbeschleunigung durch die CPU 71 in 3, die beispielsweise die in 39A abgebildeten Funktionen besitzt, implementiert.
  • 39A bildet die UI-Steuereinheit 31, eine Extraktionsverarbeitungseinheit 34, eine Bewertungsinformationsmanagementeinheit 35, eine Analyseergebnisdatenempfangseinheit 36, eine Analyseeinheit 37 und eine Videobearbeitungseinheit 38 als die Funktionen ab, die in der CPU 71 der Datenverarbeitungsvorrichtung 10, die die Bildaufnahmevorrichtung 2, das Personalendgerät 1 oder die Servervorrichtung 4 bildet, enthalten sind.
  • Zum Ausführen des Auswahlbeschleunigungsunterstützungsprozesses sind wenigstens die UI-Steuereinheit 31 und die Extraktionsverarbeitungseinheit 34 vorgesehen, und es muss entweder nur die Analyseergebnisdatenempfangseinheit 36 oder die Analyseeinheit 37 vorgesehen sein.
  • Wie unter Bezugnahme auf 4 beschrieben, ist die UI-Steuereinheit 31 eine Funktion zum Ausführen eines Prozesses zum Steuern der Präsentation von Bildern, Bewertungsinformationen und dergleichen und zum Detektieren von Bedieneingaben.
  • Insbesondere im Hinblick auf den Auswahlbeschleunigungsprozess führt die UI-Steuereinheit 31 einen UI-Prozess aus, um die Festlegung einer Extraktionsbedingung zu ermöglichen, die die Klassifizierung einer Bildgruppe, die mehrere während eines Ereignisses im Zusammenhang mit der Eheschließung aufgenommene Bilder enthält, ermöglicht. Insbesondere führt die UI-Steuereinheit 31 auch einen Prozess zum Anzeigen von Symbolen, der später beschrieben ist, und zum Detektieren von Operationen, die den Symbolen entsprechen, und anderes aus.
  • Die Extraktionsverarbeitungseinheit 34 ist eine Funktion zum Extrahieren eines oder mehrerer Bilder aus einer Bildgruppe, die einem speziellen Ereignis zugeordnet ist, gemäß einer festgelegten Extraktionsbedingung.
  • Beispielsweise extrahiert die Extraktionsverarbeitungseinheit 34 Bilder unter Bezugnahme auf die Analyseergebnisdaten der Bilder gemäß einer Extraktionsbedingung, die durch ein Symbol festgelegt ist. Verschiedene Arten von spezifischen Beispielen werden später beschrieben.
  • Die Bewertungsinformationsmanagementeinheit 35 ist eine Funktion zum Ausführen eines Prozesses zum Aktualisieren von Bewertungsinformationen, die extrahierten Bildern zugeordnet sind, in einem Fall, in dem die Bewertung für die extrahierten Bilder eingestellt ist. In dem Fall des Personalendgeräts 1 kann die Bewertungsinformationsmanagementeinheit 35 auch in die Funktion der unter Bezugnahme auf 4 beschriebenen Ereignisdatenmanagementeinheit 30 aufgenommen sein.
  • Die Analyseergebnisdatenempfangseinheit 36 ist eine Funktion zum Empfangen von Analyseergebnisdaten.
  • Die Analyseeinheit 37 ist eine Funktion zum Analysieren der jeweiligen Bilder und zum Erzeugen von Analyseergebnisdaten.
  • Es muss entweder nur die Analyseergebnisdatenempfangseinheit 36 oder die Analyseeinheit 37 bereitgestellt sein.
  • Beispielsweise in einem Fall, in dem der Auswahlbeschleunigungsprozess unter Verwendung nur der Bildaufnahmevorrichtung 2 ausgeführt wird, wie in 38A abgebildet, erhält die CPU 71 der Bildaufnahmevorrichtung 2 die Analyseergebnisdaten unter Verwendung der Analyseeinheit 37. In diesem Fall ist die Funktion der Analyseergebnisdatenempfangseinheit 36 nicht notwendig.
  • Außerdem ist es in einem Fall, in dem die Bildaufnahmevorrichtung 2, die die Servervorrichtung 4 veranlasst, eine Analyse auszuführen, und Analyseergebnisdaten von der Servervorrichtung 4 empfängt, beispielsweise nicht erforderlich, dass die CPU 71 der Bildaufnahmevorrichtung 2 die Funktion der Analyseeinheit 37 besitzt, und es ist nur erforderlich, dass sie die Funktion der Analyseergebnisdatenempfangseinheit 36 besitzt.
  • In diesem Fall weist die CPU 71 der Servervorrichtung 4 die Analyseeinheit 37 auf, wie in 39B abgebildet.
  • Ferner ist es in einem Fall, in dem das Personalendgerät 1 Analyseergebnisdaten von der Servervorrichtung 4 empfängt, wie in 38B abgebildet, nicht erforderlich, dass die CPU 71 des Personalendgeräts 1 die Funktion der Analyseeinheit 37 besitzt, und es ist nur erforderlich, dass sie die Funktion der Analyseergebnisdatenempfangseinheit 36 besitzt. In diesem Fall weist die CPU 71 der Servervorrichtung 4 die Analyseeinheit 37 auf, wie in 39B abgebildet.
  • Zusätzlich besitzt in einem Fall, in dem die Bildanalyse in dem Personalendgerät 1 ausgeführt wird, die CPU 71 des Personalendgeräts 1 die Funktion der Analyseeinheit 37. Die Analyseergebnisdatenempfangseinheit 36 ist nicht notwendig.
  • In einem Fall, in dem die Servervorrichtung 4 die Bildanalyse, den UI-Prozess über einen Browser oder dergleichen und den Extraktionsprozess wie in 38C abgebildet ausführt, ist die Analyseergebnisdatenempfangseinheit 36 nicht notwendig.
  • Die Videobearbeitungseinheit 38 besitzt eine Funktion zum Ausführen eines Bearbeitungsprozesses insbesondere für ein extrahiertes Video. Dies ist eine Funktion, die in einem Fall vorgesehen ist, in dem ein Video mit Hervorhebung erzeugt wird, wie später beschrieben wird.
  • Die durch die Analyseeinheit 37 ausgeführte Szenenanalyse wird beschrieben.
  • Die Analyseeinheit 37 analysiert die durch das Kamerapersonal oder dergleichen aufgenommenen Bilder, um Szenen und Personen zu erkennen.
  • Maschinelles Lernen ist ein typisches zu diesem Zweck eingesetztes Verfahren.
  • Beispielsweise werden Bilder durch maschinelles Lernen analysiert, um die folgenden einer Person oder einem Objekt (Szene) zugeordneten Informationseinheiten zu erfassen.
    • - Informationen über Personen Geschlechtsbestimmung,
    Gesichtsinformationen, Augenschließungsinformationen, Gesichtsgröße auf dem Bildschirm, Art der Emotion, Lächeln, Gesichtsausdruck und andere
    • - Informationen über Szenen Torte, Bräutigam, Braut, Blumenstrauß, Kirche, und andere
  • 40A bildet ein Beispiel ab, bei dem ein spezielles Bild analysiert wird und als ein Ergebnis der Analyse bestimmt wird, dass es dass es ein Objekt enthält, das als ein „Blumenstrauß“ erkannt wird. Eine Erkennungsrate ist ein Wert für die Zuverlässigkeit eines Analyseergebnisses.
  • 40B Bildet ein Beispiel ab, bei dem ein spezielles Bild analysiert und als ein Ergebnis der Analyse bestimmt wird, dass es Personen, die als „Braut“ und „Bräutigam“ erkannt werden, und ein Objekt, das als „Torte“ erkannt wird, enthält.
  • Analyseergebnisdaten, die angeben, dass das Bild den „Blumenstrauß“ enthält, und Analyseergebnisdaten, die angeben, dass das Bild die „Braut“, den „Bräutigam“ und die „Torte“ enthält, werden den entsprechenden Bildern als Ergebnisse der vorhergehenden Bildanalyse zugeordnet.
  • Danach wird die Bildextraktion unter Bezugnahme auf solche Analyseergebnisdateneinheiten erreicht.
  • Beispielsweise in einem Fall, in dem eine Extraktionsbedingung, die den „Blumenstrauß“ angibt, durch den Anwender festgelegt ist, wird das Bild, dem „Blumenstrauß“ als die Analyseergebnisdaten zugeordnet sind, extrahiert.
  • Insbesondere kann der Anwender Bilder in einer gewünschten Szene selektiv durchsuchen, indem er Bilder nach einer AND-Bedingung oder einer OR-Bedingung unter Verwendung von Informationen, die als die Analyseergebnisdaten festgelegt sind, extrahieren lässt. Dementsprechend können die Bewertungseinstellung und die Auswahl der Bilder, die in die Bildsammlung aufgenommen werden sollen, für die Bilder in der gewünschten Szene erreicht werden, ohne dass alle aufgenommenen Bilder betrachtet werden müssen. Infolgedessen verbessert sich die Effizienz der durch das Kamerapersonal ausgeführten Auswahlarbeit.
  • 41A und 41B bilden spezifische Beispiele dieses Verfahrens ab.
  • 41A bildet ein Beispiel für die Anzeige beispielsweise auf der Anzeigeeinheit 1a des Personalendgeräts 1 oder der Anzeigeeinheit 2a der Bildaufnahmevorrichtung 2 ab.
  • Für die Anzeigeeinheit 1a (oder 2a) ist zusätzlich zu dem Bildbereich 128 ein Symbolbereich 200 eingestellt. Beispielsweise wird eine Liste von Bildern einer Bildgruppe, die einem Verarbeitungsziel entspricht, d.h. eine Reihe von Bildern, die bei einem speziellen Hochzeitsereignis aufgenommen wurden, in dem Bildbereich 128 in einem Zustand vor der Extraktion angezeigt.
  • In dem Symbolbereich 200 werden Symbole IC angezeigt, die jeweils eine Extraktionsbedingung für die Extraktion einer gewünschten Szene oder einer gewünschten Person aus einer solchen Liste von Bildern festlegen.
  • Während Einzelheiten später beschrieben werden, kann jedes der Symbole IC eine Extraktionsbedingung in Bezug auf die Analyseergebnisdaten jedes der Bilder, die in der vorhergehenden Bildgruppe enthalten sind, festlegen.
  • Der Anwender, wie z. B. das Kamerapersonal, kann eine Extraktionsbedingung festlegen, indem er eines der Symbole IC festlegt. Wenn beispielsweise ein Symbol, das die „Braut“ angibt, festgelegt wird, wird die „Braut“ zu einer Extraktionsbedingung. In diesem Fall werden Bilder, die die Braut enthalten, extrahiert.
  • Außerdem kann der Anwender, wie in 41B abgebildet, auch mehrere IC-Symbole frei festlegen, um eine Extraktionsbedingung einzustellen, wie z. B. einen Extraktionsausdruck, der eine so genannte AND-Bedingung, eine so genannte OR-Bedingung oder dergleichen enthält.
  • Beispielsweise in einem Fall, in dem gewünscht ist, dass ein Bild, das eine Tortenschnittszene enthält, extrahiert wird, führt der Anwender eine Operation aus, um die Symbole IC, die die „Braut“, den „Bräutigam“ und die „Torte“ angeben, als AND-Bedingungen zu festzulegen.
  • Zusätzlich führt der Anwender in einem Fall, in dem gewünscht ist, dass eine Szene mit einer beeindruckenden Nahaufnahme der Braut enthält, extrahiert werden soll, beispielsweise eine Operation zur Festlegung der Symbole IC, die die „Braut“, ein „einzelnes Objekt“, eine „Nahaufnahme (oben)“ und den „Blumenstrauß“ angibt, oder das Symbol IC, das die „Zeitfestlegung“ zum Festlegen einer speziellen Zeitzone angibt, aus, um die gewünschten Bilder leicht einzugrenzen.
  • Ein Beispiel für einen Auswahlbeschleunigungsunterstützungsprozess zum Extrahieren von Bildern unter Verwendung des vorhergehenden Verfahrens wird beschrieben. In dem folgenden Beispiel ist angenommen, dass die Bildextraktion gemäß einer Operation durchgeführt wird, die in Bezug auf das Symbol IC nach der Bildanalyse ausgeführt wird, und dass der Anwender eine Bewertung für das extrahierte Bild einstellt.
  • Dementsprechend erreicht die Auswahlbeschleunigungsunterstützung in diesem Fall Verbesserung der Effizienz bei der Bewertungseinstellung. Wie vorstehend beschrieben, ist der Auswahlbeschleunigungsunterstützungsprozess jedoch nicht auf einen Prozess, der auf die effiziente Verbesserung der Bewertungseinstellung angewandt wird, beschränkt.
  • Der Auswahlbeschleunigungsunterstützungsprozess kann beispielsweise ausgeführt werden, um Bilder auszuwählen, die in einer Web-Galerie veröffentlicht wurden, um Titelbilder und hervorgehobene Bilder auszuwählen und um Bilder, die wie vorstehend beschrieben bearbeitet werden sollen, auszuwählen. Dementsprechend kann ein Bewertungseinstellungsprozess, der in jedem der folgenden Prozesse ausgeführt wird, durch einen Prozess zum Auswählen dieser Bilder zu ersetzen sein.
  • 42 präsentiert ein Beispiel, in dem die Bildaufnahmevorrichtung 2 den in 38A beschriebenen Auswahlbeschleunigungsunterstützungsprozess ausführt.
  • In Schritt S700 speichert die CPU 71 der Bildaufnahmevorrichtung 2 die durch die Bildaufnahme erhaltenen Bilddaten. Dieser Prozess repräsentiert umfassend einen Prozess zum sequenziellen Speichern der aufgenommenen Bilddaten in der darin angeordneten Speichereinheit 79. Eine große Anzahl von Bildern wird durch eine Reihe von durch den Fotografen ausgeführten Bildaufnahmeprozessen in der Speichereinheit 79 gespeichert.
  • In Schritt S701 analysiert die CPU 71 jedes der gespeicherten Bilder. Wie vorstehend beschrieben werden Personeninformationen und Szeneninformationen durch die Analyse der jeweiligen Bilder erhalten, und die Analyseergebnisdaten werden unter Bezugnahme auf diese Informationen erzeugt. Die Analyseergebnisdaten werden als den Bildern zugeordnete Informationen, d. h. als Metadaten, aufgezeichnet.
  • Dieser Bildanalyseprozess kann nacheinander bei jeder Aufnahme eines Bildes durchgeführt werden oder regelmäßig für neu aufgenommene Bildern ausgeführt werden. Alternativ kann der Bildanalyseprozess für die gespeicherten Bilder gemeinsam ausgeführt werden, wenn der Fotograf eine vorbestimmte Operation ausführt, wie z. B. eine Operation zur Durchführung einer Bildextraktion.
  • In Schritt S702 zeigt die CPU 71 die Symbole IC in dem Symbolbereich 200 der Anzeigeeinheit 2a an.
  • Die Arten der angezeigten Symbole IC können im Voraus für das Ereignis im Zusammenhang mit der Eheschließung eingestellten sein. Beispielsweise werden Symbole wie die „Braut“, der „Bräutigam“, die „Torte“ und der „Blumenstrauß“ vorbereitet.
  • Außerdem werden die so vorbereiteten Symbole IC vorzugsweise unter Bezugnahme auf Analyseergebnisdaten ausgewählt und angezeigt, anstatt auf eine feste Weise angezeigt zu werden. Insbesondere wird das Symbol IC, das einem existierenden Ding entspricht, ausgewählt und als Personeninformationen oder Szeneninformationen, die durch die Analyse der jeweiligen Bilder in Schritt S701 erhalten wurden, angezeigt. Alternativ kann das entsprechende Symbol IC gemäß einer Person oder einem Objekt, die/das als Analyseergebnisdaten erhalten wurde, produziert und angezeigt werden.
  • Auf diese Weise können nur die Symbole IC, die die Bildextraktion ermöglichen, angezeigt werden. Falls beispielsweise ein Bild, das die „Torte“ enthält, in allen Bildern der Bildgruppe, die dem Verarbeitungsziel entspricht, fehlt, wird das Symbol IC für die „Torte“ als unnötig betrachtet. Das liegt daran, dass selbst bei Festlegung des Symbols IC für die „Torte“ durch den Anwender kein Bild extrahiert wird. Bedeutungslose Festlegungen des Symbols IC (für das kein Bild extrahiert wird) können eliminiert werden, indem dem Anwender nur das Symbol IC präsentiert wird, das einer Person oder einem Gegenstand, die/der als Analyseergebnisdaten erhalten wurde, entspricht.
  • In Schritt S703 überprüft die CPU 71 eine Extraktionsbedingung. Insbesondere wird eine durch den Anwender ausgeführte Operation zur Festlegung des Symbols IC durch einen UI-Prozess detektiert.
  • In Schritt S704 führt die CPU 71 einen Bildextraktionsprozess gemäß der festgelegten Extraktionsbedingung aus und steuert die Anzeige der extrahierten Bilder. Insbesondere werden Bilder, die die Extraktionsbedingung erfüllen, unter Bezugnahme auf die Analyseergebnisdaten, die jedem der Bilder in der Bildgruppe, die dem Verarbeitungsziel entspricht, zugeordnet sind, extrahiert. Danach werden die extrahierten Bilder in dem Bildbereich 128 der Anzeigeeinheit 2a angezeigt.
  • Danach fährt die CPU 71 in einem Fall, in dem der Anwender eine Bewertungsoperation für die in dem Bildbereich 128 angezeigten Bilder ausführt, von Schritt S705 zu Schritt S706 fort, um Bewertungsinformationen zu speichern. Im Fall der CPU 71 der Bildaufnahmevorrichtung 2 werden die Bewertungsinformationen als den Bildern zugeordnete Metadaten gespeichert.
  • Als Nächstes präsentiert 43 ein Beispiel, in dem das Personalendgerät 1 den in 38A beschriebenen Auswahlbeschleunigungsunterstützungsprozess ausführt. Es wird darauf hingewiesen, dass dieses Beispiel ein Fall ist, in dem auch die Bildanalyse in dem Personalendgerät 1 ausgeführt wird.
  • In Schritt S720 empfängt die CPU 71 des Personalendgeräts 1 Bilder von der Bildaufnahmevorrichtung 2. Dieser Prozess ist ein Prozess zum Importieren von Bildern, die in der Bildaufnahmevorrichtung 2 durch eine Reihe von Bildaufnahmeprozessen des Fotografen gespeichert worden sind, beispielsweise in die Speichereinheit 79 in dem Personalendgerät 1 über drahtlose Nahbereichskommunikation oder drahtgebundene Kommunikation, Übertragung unter Verwendung eines Aufzeichnungsmediums oder dergleichen.
  • In Schritt S721 analysiert die CPU 71 des Personalendgeräts 1 jedes der gespeicherten Bilder, die von der Bildaufnahmevorrichtung 2 empfangen worden sind. Personeninformationen oder Szeneninformationen werden durch die vorstehend beschriebene Analyse jedes der Bilder erhalten, um Analyseergebnisdaten zu erzeugen. Die Analyseergebnisdaten werden als den Bildern zugeordnete Informationen gespeichert.
  • In diesem Fall können die Analyseergebnisdaten in den in 5 abgebildeten Ereignisdaten 60 gespeichert werden, beispielsweise als Informationen, die jedem der Bilder zugeordnet sind. Insbesondere werden die Analyseergebnisdaten, die jedem der Bilder entsprechen, in der Bildaufnahme- und Bearbeitungsinformationstabelle 62 der Ereignisdaten 60 gespeichert. Beispielsweise können die Analyseergebnisdaten den Metadaten MT1, MT2 und anderen in den Ereignisdaten 60 in 5 hinzugefügt werden, oder sie können in Übereinstimmung mit den jeweiligen Bildern in der Bildaufnahme- und Bearbeitungsinformationstabelle 62 getrennt von den Metadaten MT1, MT2 und anderen gespeichert werden. Es können irgendwelche Speichermodi eingesetzt werden, solange die Analyseergebnisdaten in einem den Bildern zugeordneten Zustand gespeichert werden können.
  • Es ist angenommen, dass dieser Bildanalyseprozess beispielsweise für jedes der übertragenen Bilder zum Zeitpunkt der Bildübertragung von der Bildaufnahmevorrichtung 2 ausgeführt wird. Alternativ kann der Bildanalyseprozess für die gespeicherten Bilder gemeinsam ausgeführt werden, wenn das Kamerapersonal eine vorbestimmte Operation, wie z. B. eine Operation zur Durchführung einer Bildextraktion, ausführt.
  • In Schritt S722 zeigt die CPU 71 die Symbole IC in dem Symbolbereich 200 der Anzeigeeinheit 1a an. Die Arten der angezeigten Symbole IC können die sein, die im Voraus für das Ereignis im Zusammenhang mit der Eheschließung festgelegt wurden, wie in dem Fall der vorstehend beschriebenen Bildaufnahmevorrichtung 2. Besonders vorteilhaft ist es, wenn dem Anwender nur das Symbol IC, das einer Person oder einem Gegenstand, die/der als Analyseergebnisdaten erhalten wurde, entspricht, präsentiert wird.
  • In Schritt S723 überprüft die CPU 71 eine Extraktionsbedingung. Insbesondere wird eine durch den Anwender ausgeführte Operation zur Festlegung des Symbols IC durch einen UI-Prozess detektiert.
  • In Schritt S724 führt die CPU 71 einen Bildextraktionsprozess gemäß der festgelegten Extraktionsbedingung aus und steuert die Anzeige der extrahierten Bilder. Insbesondere werden Bilder, die die Extraktionsbedingung erfüllen, unter Bezugnahme auf die Analyseergebnisdaten, die jedem der Bilder in der Bildgruppe, die dem Verarbeitungsziel entspricht, zugeordnet sind, extrahiert. Danach werden die extrahierten Bilder in dem Bildbereich 128 der Anzeigeeinheit 1a angezeigt.
  • Danach fährt die CPU 71 in einem Fall, in dem der Anwender eine Bewertungsoperation für die in dem Bildbereich 128 angezeigten Bilder ausführt, von Schritt S725 zu Schritt S726 fort, um Bewertungsinformationen zu speichern. Im Fall der CPU 71 des Personalendgeräts 1 werden die eingestellten Bewertungsinformationen als Bewertungsinformationen in der Bildaufnahme- und Bearbeitungsinformationstabelle 62 der Ereignisdaten 60 gespeichert und aktualisiert, wie in 5 abgebildet.
  • Es wird darauf hingewiesen, dass das Personalendgerät 1 auch Bilder auswählt, die in einer Web-Galerie veröffentlicht wurden, Titelbilder und hervorgehobene Bilder auswählt oder Bilder auswählt, für die gewünscht wird, dass sie bearbeitet werden sollen, beispielsweise gemäß einer Operation, die in einigen Situationen durch das Kamerapersonal in Schritt S724 oder in den folgenden Schritten ausgeführt wird. In diesem Fall werden die Ereignisdaten 60 gemäß diesen Operationen aktualisiert.
  • Als Nächstes präsentiert 44 ein Beispiel eines Falls, in dem die Servervorrichtung 4 den Auswahlbeschleunigungsunterstützungsprozess wie in 38C beschrieben ausführt.
  • In Schritt S740 empfängt die CPU 71 der Servervorrichtung 4 Bilder von dem Personalendgerät 1 oder der Bildaufnahmevorrichtung 2. Beispielsweise werden Bilder, die in der Bildaufnahmevorrichtung 2 durch eine Reihe von durch den Fotografen ausgeführten Bildaufnahmeprozessen gespeichert wurden, oder Bilder, die an das Personalendgerät 1 übertragen wurden, zu der Servervorrichtung 4 in der Cloud 7 hochgeladen.
  • In Schritt S741 analysiert die CPU 71 der Servervorrichtung 4 jedes der empfangenen Bilder. Personeninformationen oder Szeneninformationen werden durch die Analyse jedes der Bilder erhalten, wie vorstehend beschrieben, und die Analyseergebnisdaten werden unter Bezugnahme auf diese Informationen erzeugt. Die Analyseergebnisdaten werden als den Bildern zugeordnete Informationen gespeichert. In diesem Fall können die Analyseergebnisdaten in den in 7 abgebildeten Ereignisdaten 90 gespeichert werden, beispielsweise als Informationen, die den entsprechenden Bilder zugeordnet sind.
  • Die Schritte S742 bis S746 entsprechen der Verarbeitung zum Bereitstellen eines UI-Bildes von der Servervorrichtung 4 für das Personalendgerät 1 durch einen Browser, ein Anwendungsprogramm oder dergleichen. Beispielsweise wird die Verarbeitung in Schritt S742 und den folgenden Schritten in Reaktion auf eine Anzeigeanforderung, die von dem Personalendgerät 1 über einen Browser oder dergleichen an die Servervorrichtung 4 ausgegeben wird, ausgeführt.
  • In Schritt S742 zeigt die CPU 71 die Symbole IC auf der Anzeigeeinheit 1a des Personalendgeräts 1 als Anzeige in dem Symbolbereich 200 beispielsweise in einer WebSeite an. In diesem Fall können die Arten der angezeigten Symbole IC ähnlich den im Voraus für das Ereignis im Zusammenhang mit der Eheschließung eingestellten sein. Besonders vorteilhaft sein es, wenn dem Anwender nur das Symbol IC, das einer Person oder einem Gegenstand, die/der als Analyseergebnisdaten erhalten wurde, entspricht, präsentiert wird.
  • In Schritt S743 empfängt die CPU 71 eine Extraktionsbedingung, basierend auf einer durch das Personalendgerät 1 oder dergleichen ausgeführten Operation.
  • In Schritt S744 führt die CPU 71 einen Bildextraktionsprozess gemäß der festgelegten Extraktionsbedingung aus und steuert die Anzeige der extrahierten Bilder. Insbesondere werden Bilder, die die Extraktionsbedingung erfüllen, unter Bezugnahme auf die Analyseergebnisdaten, die jedem der Bilder in der Bildgruppe, die dem Verarbeitungsziel entspricht, zugeordnet sind, extrahiert. Danach werden die extrahierten Bilder auf der Anzeigeeinheit 1a oder dergleichen als der Bildbereich 128 in einer Webseite oder dergleichen angezeigt.
  • Danach fährt die CPU 71 in einem Fall, in dem der Anwender eine Bewertungsoperation für die in dem Bildbereich 128 angezeigten Bilder ausführt, von Schritt S725 zu Schritt S726 fort, um Bewertungsinformationen zu speichern. Im Fall der CPU 71 der Servervorrichtung 4 werden die eingestellten Bewertungsinformationen als Bewertungsinformationen in der Bildaufnahme- und Bearbeitungsinformationstabelle 92 der Ereignisdaten 90 gespeichert und aktualisiert, wie in 7 abgebildet.
  • Es wird darauf hingewiesen, dass das Personalendgerät 1 auch Bilder auswählt, die in einer Web-Galerie veröffentlicht wurden, Titelbilder und hervorgehobene Bilder auswählt oder Bilder auswählt, für die gewünscht wird, dass sie bearbeitet werden sollen, beispielsweise gemäß einer Operation, die in einigen Situationen durch das Kamerapersonal in Schritt S744 oder in den folgenden Schritten ausgeführt wird. In diesem Fall aktualisiert die CPU 71 der Servervorrichtung 4 die Ereignisdaten 90 gemäß diesen Operationen.
  • In dem Fall, in dem die Ereignisdaten 90 auf der Seite der Servervorrichtung 4 aktualisiert werden, werden die Ereignisdaten 60 auf der Seite des Personalendgeräts 1 ebenfalls mit den Ereignisdaten 90 synchronisiert, wie vorstehend beschrieben.
  • Zusätzlich ist in der Konfiguration, in der die Bildaufnahmevorrichtung 2 eine Web-Browsing-Funktion oder dergleichen besitzt, der in 44 präsentierte Prozess nicht nur durch das Personalendgerät 1, sondern auch durch einen Schnittstellenprozess unter Verwendung der Bildaufnahmevorrichtung 2 erreichbar.
  • Indessen ist unter Bezugnahme auf 38A und 38B auch das Beispiel beschrieben worden, in dem die Bildanalyse auch durch die Servervorrichtung 4 in einem Fall ausgeführt wird, in dem der Auswahlbeschleunigungsunterstützungsprozess durch die Bildaufnahmevorrichtung 2 oder das Personalendgerät 1 ausgeführt wird. In diesem Fall ist es ausreichend, wenn die Verarbeitung zur Bildanalyse in Schritt S701 in 42 und Schritt S721 in 43 wie in 45 präsentiert ausgeführt wird.
  • Beispielsweise entsprechen die Schritte S800 und S803 in 45 der Verarbeitung, die durch die Funktion der Analyseergebnisdatenempfangseinheit 36 (39A), die in der CPU 71 des Personalendgeräts 1 oder der Bildaufnahmevorrichtung 2 enthalten ist, ausgeführt wird, während die Schritte S801 und S803 der Verarbeitung entsprechen, die durch die Funktion der Analyseeinheit 37 (39B), die in der CPU 71 der Servervorrichtung 4 enthalten ist, ausgeführt wird.
  • In Schritt S800 lädt Bildaufnahmevorrichtung 2 oder das Personalendgerät 1 die aufgenommenen Bilder auf die Servervorrichtung 4 hoch. In diesem Fall können die aufgenommenen Bilder als verkleinerte Bilder mit verringerter Auflösung übertragen werden, beispielsweise im Hinblick auf ein Kommunikationsvolumen, eine Kommunikationsgeschwindigkeit oder dergleichen. Die Originalbilder sind sehr groß und erfordern Zeit für die Übertragung und Analyse. Dementsprechend kann durch die Verkleinerung des Bildes auf eine für die Analyse ausreichende Größe eine Verkürzung der Übertragungszeit und eine Verringerung der Belastung der Servervorrichtung 4 durch die Analyse erreicht werden.
  • Es wird darauf hingewiesen, dass das Bild auch ohne Verkleinerung hochgeladen werden kann. In diesem Fall ist es auch möglich, dass die Servervorrichtung 4 verkleinerte Bilder zur Analyse erzeugt.
  • In Schritt S801 führt die Servervorrichtung 4 für jedes der Bilder einen Analyseprozess durch, um Analyseergebnisdaten zu erzeugen.
  • In Schritt S802 gibt die Servervorrichtung die Analyseergebnisdaten für jedes der Bilder an die Bildaufnahmevorrichtung 2 oder das Personalendgerät 1 zurück.
  • In Schritt S803 empfängt die Bildaufnahmevorrichtung 2 oder das Personalendgerät 1 die Analyseergebnisdaten von der Servereinrichtung 4 und speichert die Analyseergebnisdaten. Die Bildaufnahmevorrichtung 2 speichert beispielsweise die Analyseergebnisdaten als Metadaten für die Bilder oder in Form einer separat erzeugten Datenbank. Andererseits kann das Personalendgerät 1 die Analyseergebnisdaten in den Ereignisdaten 60 speichern.
  • Die vorhergehende in Schritt S701 in 42 oder Schritt S721 in 43 ausgeführte Verarbeitung eliminiert die Notwendigkeit, einen Analyseprozess auszuführen, der die Bildaufnahmevorrichtung 2 oder das Personalendgerät 1, die/das den Analyseprozess ausführt, mit einer relativ hohen Verarbeitungslast belastet.
  • Nachstehend wird ein spezifisches Beispiel für die Auswahlbeschleunigungsunterstützung, die durch das vorstehend beschriebene Verarbeitungsbeispiel erreicht wird, beschrieben.
  • Obwohl es nicht einzeln beschrieben ist, ist das im Folgenden unter Bezugnahme auf die jeweiligen Figuren beschriebene Anzeigebeispiel ein Anzeigebeispiel der Anzeigeeinheit 1a des Personalendgeräts 1 oder die Anzeigeeinheit 2a der Bildaufnahmevorrichtung 2. Das Anzeigebeispiel der Anzeigeeinheit 1a oder 2a weist die Anzeige von Bildern, die von der Servervorrichtung 4 zugeführt werden, durch einen Browser oder ein Anwendungsprogramm auf.
  • 46 bildet ein Beispiel für eine Anwenderschnittstelle, die durch die Auswahlbeschleunigungsunterstützung bereitgestellt wird, ab.
  • In 46A wird im Bildbereich 128 eine Liste der aufgenommenen Bilder angezeigt, während im Symbolbereich 200 verschiedene Arten von Symbolen IC angezeigt werden. Die Symbole IC werden beispielsweise gemäß einem Analyseergebnis jedes Bildes angezeigt.
  • 46B bildet ein Beispiel ab, bei dem extrahierte Bilder in dem Bildbereich 128 als Bilder angezeigt werden, die durch einen Extraktionsprozess, der gemäß einer Extraktionsbedingung ausgeführt wurde, die durch die Festlegung der Symbole IC1 und IC4 durch den Anwender bestimmt wurde, extrahiert wurden.
  • Die festgelegten Symbole IC1 und IC4 werden in einem Modus angezeigt, der sich von den Modi der anderen Symbole IC im Symbolbereich 200 unterscheidet. In diesem Beispiel wird jedes der Symbole IC1 und IC4 mit einem dicken Rahmen angezeigt. Als ein Ergebnis ist für den Anwender erkennbar, welches der Symbole IC festgelegt worden ist.
  • Verschiedene Modi sind als die unterschiedlichen Anzeigemodi einsetzbar. Das festgelegte Symbol IC selbst oder der Rahmen des Symbols kann eine andere Farbe, Luminanz oder Größe besitzen als die anderen Symbole IC, oder das festgelegte Symbol, das im Normalzustand zweidimensional angezeigt wird, kann dreidimensional angezeigt werden.
  • Insbesondere kann es unter der Annahme, dass mehrere Symbole durch den Anwender festgelegt werden sollen, für den Anwender wünschenswert sein, die festgelegten Symbole IC in einem anderen Anzeigemodus übersichtlich zu präsentieren.
  • Für jedes der Bilder in dem Bildbereich 128 ist ein Bewertungssymbol 130 vorgesehen.
  • Der Anwender kann für jedes der Bilder durch Betätigen des entsprechenden Bewertungssymbols 130 Bewertungsinformationen einstellen. Der Anwender, der das in 46B abgebildete Extraktionsergebnis erkannt hat, stellt für jedes der Bilder eine Bewertungseinstellung bereit. 46C bildet einen aktualisierten Zustand der der durch eine Operation erreichten Bewertungsinformationen ab.
  • Beispielsweise kann der Anwender Bilder, die eine gewünschte Extraktionsbedingung erfüllen, unter Verwendung des Auswahlbeschleunigungsunterstützungsprozesses auf eine solche Weise durchsuchen und kann danach beim Vergleichen der extrahierten Bilder eine Bewertungseinstellung bereitstellen. Natürlich können zusätzlich zum Ausführen der Bewertungseinstellung auch Bilder, die in einer Web-Galerie veröffentlicht werden sollen, Titelbilder, hervorgehobene Bilder, Bilder, die bearbeitet werden sollen, und andere ausgewählt werden.
  • 47 bildet Beispiele für die in dem Symbolbereich 200 angezeigten Symbole IC ab. Beispielsweise sind die folgenden Elemente enthalten.
    • Symbol IC1: Bild, das die Braut enthält
    • Symbol IC2: Bild, das den Bräutigam enthält
    • Symbol IC3: Bild, das die Torte enthält
    • Symbol IC4: Bild, das eine einzelne Person enthält
    • Symbol IC5: Bild, das mehrere Personen enthält
    • Symbol IC6: Nahaufnahme, die ein großformatiges Gesicht enthält (z. B. ein Bild, das ein Gesicht enthält, wobei eine Größe des Gesichts 20 % oder mehr der horizontalen Breite des Bildschirms ist)
    • Symbol IC7: „herausgezoomtes“ Bild, das ein kleinformatiges Gesicht enthält (z. B. ein Bild, das ein Gesicht enthält, wobei eine Größe des Gesichts 5 % oder weniger der horizontalen Breite des Bildschirms ist)
    • Symbol IC8: Bild, das ein Glas enthält
    • Symbol IC9: Bild, das einen Blumenstrauß enthält
    • Symbol IC10: Symbol zur Zeitfestlegung (z. B. Symbol zum Festlegen der Zeit, des Zeitbereichs usw. zur die Aufteilung nach Zeit oder Szene)
  • Die vorstehenden Elemente sind nur als Beispiele präsentiert. Zusätzlich zu diesen Beispielen sind verschiedene Arten von Symbolen denkbar. Es ist jedoch vorzuziehen, Symbole einzusetzen, die für die Extraktion von Bildern bei einem Ereignis im Zusammenhang mit einer Eheschließung geeignet sind. Wie vorstehend beschrieben können geeignete Symbole gemäß einem Ergebnis der Bildanalyse erlernt und als die Symbole IC zum Einstellen von Extraktionsbedingungen hinzugefügt werden. Wenn beispielsweise durch Lernen bestimmt wird, dass ein spezielles Objekt in einer relativ großen Anzahl von Bildern enthalten ist, wird ein Symbol, das diesem Objekt entspricht, hinzugefügt. Dies führt dazu, dass ein Gegenstand, für den es wahrscheinlich ist, dass er während einer Hochzeit zu einem Objekt einer Bildaufnahme wird, oder dergleichen automatisch symbolisiert wird.
  • Verschiedene Arten von Beispielen für eine Extraktionstestbildextraktion werden hier beschrieben. Zusätzlich wird in einem Fall, in dem mehrere Symbole IC festgelegt sind, angenommen, dass jede der Extraktionsbedingungen, die durch die festgelegten Symbole IC angegeben sind, als eine AND-Bedingung bereitgestellt ist, sofern in der folgenden Beschreibung nicht ausdrücklich etwas anderes spezifiziert ist.
  • (Beispiel 1: Beispiel, das Personeninformationen als Extraktionsbedingung festlegt)
  • 48 bildet einen Fall ab, in dem das Symbol IC1, das die Braut angibt, und das Symbol IC4, das eine einzelne Person angibt, festgelegt sind. Bilder, die jeweils nur die Braut enthalten, werden gemäß dieser Festlegung extrahiert. Diese Festlegung ist beispielsweise im Fall der Ausführung einer Bewertung oder Auswahl von Bildern, die die Braut, die der Star der Hochzeit ist, enthalten, wirksam.
  • In ähnlicher Weise werden Bilder, die jeweils nur den Bräutigam enthalten, gemäß der Festlegung des Symbols IC2, das den Bräutigam angibt, und des Symbols IC4, das eine einzelne Person angibt, extrahiert.
  • (Beispiel 2: Beispiel, das Person und Anzahl von Personen als Extraktionsbedingung festlegt)
  • 49 bildet einen Fall ab, in dem das Symbol IC1, das die Braut angibt, und das Symbol IC5, das mehrere Personen angibt, festgelegt sind. Bilder, die jeweils mehrere Personen, darunter die Braut, enthalten, werden gemäß dieser Festlegung extrahiert. Diese Festlegung ist in dem Fall der Ausführung von Bewertung, Auswahl und dergleichen von Bildern, die die Braut und die betreffenden Personen enthalten, wirksam.
  • In ähnlicher Weise werden Bilder, die jeweils mehrere Personen, darunter den Bräutigam, enthalten, gemäß der Festlegung des Symbols IC2, das den Bräutigam angibt, und des Symbols IC5, das mehrere Personen angibt, extrahiert.
  • (Beispiel 3: Beispiel, das Person, Anzahl von Personen und Gesichtsgröße als Extraktionsbedingung festlegt)
  • 50 bildet einen Fall ab, in dem das Symbol IC1, das die Braut angibt, das Symbol IC4, das eine einzelne Person angibt, und das Symbol IC6, das eine Nahaufnahme angibt, festgelegt sind. Bilder in Nahaufnahme, die jeweils nur die Braut enthalten, werden gemäß dieser Festlegung extrahiert.
  • Ein Ausschnitt eine Gesichts in Nahaufnahme oder ein Herauszoomen muss nur anhand der Größe einer rechteckigen Form (Begrenzungsrahmen BB), die ein Gesicht enthält, bestimmt werden.
  • 51A und 51B bilden ein Beispiel für den Begrenzungsrahmen BB ab.
  • 51A bildet ein Beispiel ab, bei dem der Begrenzungsrahmen BB durch die Koordinaten oben links und die Koordinaten unten rechts definiert ist.
  • 51B bildet ein Beispiel ab, bei dem der Begrenzungsrahmen BB durch die Koordinaten oben links, eine Breite und eine Höhe definiert ist.
  • (Beispiel 4: Beispiel, Person, Anzahl von Personen und Gesichtsgröße als Extraktionsbedingung festlegt)
  • 52 zeigt einen Fall ab, in dem das Symbol IC1, das die Braut angibt, das Symbol IC4, das eine einzelne Person angibt, und das Symbol IC7, das eine „herausgezoomte“ Aufnahme angibt, festgelegt sind. „Herausgezoomte“-Bilder, die jeweils nur die Braut enthalten, werden gemäß dieser Festlegung extrahiert.
  • (Beispiel 5: Beispiel, das Person und Ding als Extraktionsbedingung festlegt)
  • 53 bildet einen Fall ab, in dem das Symbol IC1, das die Braut angibt, und das Symbol IC3, das die Torte angibt, festgelegt sind. Bilder, die jeweils die Braut und die Torte enthalten, werden gemäß dieser Festlegung extrahiert. Diese Festlegung wird beispielsweise in einem Fall der Prüfung eines Bildes einer Tortenanschnittszene verwendet. Auf diese Weise kann eine gewünschte Szene leicht gemäß einer Extraktionsbedingung, die ein Ding festlegt, extrahiert werden.
  • (Beispiel 6: Beispiel, das Ding als Extraktionsbedingung festlegt)
  • 54 bildet einen Fall ab, in dem das Symbol IC9, das den Blumenstrauß angibt, festgelegt ist. Diese Festlegung führt zur Extraktion von Bildern, in denen der Blumenstrauß als abzubildendes Objekt detektiert wird. Diese Festlegung ist beispielsweise in einem Fall nützlich, in dem ein Gegenstand, der symbolisch für eine Hochzeit oder dergleichen ist, extrahiert werden soll.
  • (Beispiel 7: Beispiel, das Person und Zeitinformationen als Extraktionsbedingung festlegt)
  • 55 bildet einen Fall ab, in dem das Symbol IC1, das die Braut angibt, das Symbol IC2, das den Bräutigam angibt, und das Symbol IC10, das die Zeitfestlegung angibt, festgelegt sind. Für das Symbol IC10, das die Zeitfestlegung angibt, erscheint ein Zeitfestlegungsrahmen 202 als ein Rahmen, in den ein Zeitbereich gemäß einer Betätigung des Symbols IC10 eingegeben wird, und der Anwender gibt eine gewünschte Zeit in den Zeitfestlegungsrahmen 202 ein. Im Fall des in der Figur abgebildeten Beispiels werden Bilder, die die Braut und den Bräutigam enthalten, aus Bildern, die während einer Zeitspanne von 13:00 bis 14:00 Uhr aufgenommen wurden, extrahiert.
  • Die Festlegung der Zeitinformationen kann auch als Bedingung für die Extraktion einer Szene zu einer speziellen Zeit betrachtet werden.
  • (Beispiel 8: Beispiel, das Person als Extraktionsbedingung festlegt und eine Erkennungsstufe anzeigt)
  • 56 bildet einen Fall ab, in dem das Symbol IC1, das die Braut angibt, und das Symbol IC2, das den Bräutigam angibt, festgelegt sind. Bilder, die jeweils die Braut und den Bräutigam enthalten, werden gemäß dieser Festlegung extrahiert. In diesem Fall wird für jedes der Bilder eine Erkennungsstufe für Emotionen und Gesichtsausdrücke 201 angezeigt.
  • Die Erkennungsstufe für Emotionen und Gesichtsausdrücke ist ein Wert, der einen Grad einer Emotion und eines Gesichtsausdrucks angibt, wie z. B. ein lächelndes Gesicht, ein erstauntes Gesicht und ein weinendes Gesicht, wenn diese Emotionen und Gesichtsausdrücke erkannt werden. Beispielsweise in einem Fall, in dem ein Prozess, der ein „lächelndes Gesicht“ erkennt, zu der Zeit der Bilderkennung ausgeführt wird, wird der Grad des Lächelns als Erkennungsstufe quantifiziert und den Analyseergebnisdaten hinzugefügt. In diesem Fall kann die Emotions- und Gesichtsausdruck-Erkennungsstufe 201 wie in der Figur abgebildet angezeigt werden. Der Anwender kann die Bewertungseinstellungen und die Auswahl in Bezug auf die Emotions- und Gesichtsausdruck-Erkennungsstufe 201 bereitstellen.
  • Vorstehend sind die Beispiele beschrieben worden, die jeweils die Extraktionsbedingungen unter Verwendung des Symbols IC, das den Analyseergebnisdaten entspricht, festlegen. Es wird ein UI-Beispiel, das einem solchen Fall entspricht, wird beschrieben.
  • Beispielsweise besitzt die Anzeigeeinheit 2a der Bildaufnahmevorrichtung 2 oder die Anzeigeeinheit 1a in einem Fall, in dem ein Smartphone oder dergleichen als Personalendgerät 1 angenommen ist, eine kleinere Anzeigefläche als die eines Desktop-PCs oder dergleichen. In diesem Fall kann die Erkennbarkeit und Bedienbarkeit geringer sein. Es wird ein UI-Beispiel, das für einen solchen Fall geeignet ist, unter Verwendung der Anzeigeeinheit 2a oder 1a, die relativ klein ist, beschrieben.
  • 57 und 58 bilden jeweils die Anzeigeeinheit 2a der Bildaufnahmevorrichtung 2 ab. Diese Figuren bilden ferner eine Kreuztaste 2c und ein Rad 2d ab, die als Bedienelemente an der Bildaufnahmevorrichtung 2 angebracht sind.
  • Die Kreuztaste 2c ist ein Bedienelement, bei dem auf die obere, untere, linke und rechte Taste und eine mittlere Taste gedrückt werden kann. Das Rad 2d ist ein Bedienelement, das drehbar ist und bei dem auf eine mittlere Taste gedrückt werden kann.
  • Beispielsweise besitzt die Anzeigeeinheit 2a den Bildbereich 128, der in einem oberen Teil des Bildschirms eingestellt ist, und den Symbolbereich 200, der in einem unteren Teil des Bildschirms eingestellt ist. Im Symbolbereich 200 sind ein Kandidatenbereich AR1 und ein Auswahlbereich AR2 eingestellt.
  • Der Kandidatenbereich AR1 ist ein Bereich, in dem die Symbole IC in einer horizontalen Reihe in einem untersten Teil des Bildschirms angeordnet sind, und gibt schematisch an, dass das eine Symbol IC, das sich in der Mitte befindet, gerade durch einen Cursor K ausgewählt ist, wobei die angezeigten Symbole IC in horizontaler Richtung gemäß einer Betätigung der linken Taste oder der rechten Taste der Kreuztaste 2c oder einer Drehoperation des Rads 2d gescrollt werden.
  • Es wird darauf hingewiesen, dass die Reihe der Symbole IC in der Figur so ausgedrückt ist, dass sie aus dem Bildschirm der Anzeigeeinheit 2a hervorsteht. Diese Figur repräsentiert schematisch, dass die jeweiligen Symbole IC durch Scrollen innerhalb des Bildschirms angezeigt werden.
  • Der Auswahlbereich AR2 ist ein Bereich, der sich oberhalb des und angrenzend an den Kandidatenbereich AR1 befindet.
  • Der Anwender führt eine Scroll-Operation für den Kandidatenbereich AR1 aus, um einen Zustand zum Auswählen des gewünschten Symbols IC durch den Cursor K zu produzieren. Danach führt der Anwender eine Eingabeoperation aus, indem er die mittlere Taste der Kreuztaste 2c und die mittlere Taste des Rads 2d drückt.
  • In diesem Fall werden die Symbole IC, die der Eingabeoperation zugeordnet sind, in dem Auswahlbereich AR2 angezeigt, wie in 58 abgebildet ist.
  • Auf diese Weise kann der Anwender die festgelegten Symbolarten leicht überprüfen, indem die durch den Anwender festgelegten Symbole IC im Auswahlbereich AR2 angezeigt werden. Es ist nützlich, den festgelegten Zustand durch Ändern des Anzeigemodus wie vorstehend beschrieben anzuzeigen. Abhängig von Situationen kann es jedoch schwierig sein, einen Unterschied im Anzeigemodus zu erkennen, insbesondere bei einem relativ kleinen Bildschirm wie der Anzeigeeinheit 2a der Bildaufnahmevorrichtung 2. Außerdem können in einem Fall, in dem nicht alle Symbole auf einmal angezeigt werden können und Scrollen erforderlich ist, die festgelegten Symbole selbst nicht angezeigt werden und somit auch in einem anderen Anzeigemodus abhängig von Situationen schwer zu überprüfen sein. Wenn der Auswahlbereich AR2 getrennt vom Kandidatenbereich AR1 vorgesehen ist, um den Festlegungszustand durch Anzeige in dem Auswahlbereich AR2 anzugeben, wie in 58 abgebildet, können die festgelegten Symbole IC auch auf einem kleinen Bildschirm leicht überprüft werden.
  • Wenn eine vorbestimmte Operation in einem Zustand, in dem ein oder mehrere Symbole IC in dem Auswahlbereich AR2 angezeigt werden, ausgeführt wird, werden Bilder gemäß den Extraktionsbedingungen, die diesen Symbolen IC entsprechen, extrahiert und in dem Bildbereich 128 angezeigt. In dem Beispiel von 58 werden im Auswahlbereich AR2 das Symbol IC1, das die Braut angibt, und das Symbol IC4, das eine einzelne Person angibt, angezeigt. In diesem Fall sind diese Symbole als die Extraktionsbedingungen festgelegt, und in dem Bildbereich 128 werden Bilder angezeigt, die jeweils die Braut allein enthalten.
  • Außerdem kann das Symbol IC, sobald es in dem Auswahlbereich AR2 angezeigt wird, durch eine durch den Anwender ausgeführte Operation zum Aufheben der Auswahl aus dem Auswahlbereich AR2 gelöscht werden.
  • Beispielsweise wird durch eine Betätigung der oberen Taste der Kreuztaste 2c ein Scroll-Ziel in den Auswahlbereich AR2 verschoben. Danach wird der Cursor K durch eine Scroll-Operation in einen Zustand gebracht, in dem er aktuell irgendeines der Symbole IC auswählt, und eine Eingabeoperation wird ausgeführt. Als ein Ergebnis wird der Auswahlzustand des entsprechenden Symbols IC aufgehoben, und das entsprechende Symbol IC wird aus dem Auswahlbereich AR2 gelöscht.
  • Es wird darauf hingewiesen, dass das Beispiel in 57 und 58 den Fall abbildet, in dem das Symbol IC4 festgelegt ist. In diesem Fall wird das Symbol IC4 sowohl in dem Kandidatenbereich AR1 als auch in dem Auswahlbereich AR2 angezeigt, wie in 58 abgebildet ist.
  • Anstelle eines solchen Beispiels kann das festgelegte Symbol IC von dem Kandidatenbereich AR1 in dem Auswahlbereich AR2 verschoben werden. Beispielsweise sind in dem Fall des in 58 abgebildeten Beispiels die Symbole IC1 und IC4 in dem Auswahlbereich AR2 angezeigt. Zu diesem Zeitpunkt sind die Symbole IC1 und IC4 aus dem Kandidatenbereich AR1 gelöscht (sie erscheinen auch nicht beim Scrollen).
  • Als ein Ergebnis nimmt die Anzahl der Symbole, die auswählbaren Kandidaten in dem Kandidatenbereich AR1 entsprechen, ab, wenn die Anzahl der Symbole IC in dem Auswahlbereich AR2 zunimmt. Dementsprechend kann der Anwender die Symbole IC leicht auswählen und eine wiederholte Auswahloperation vermeiden.
  • Außerdem werden in einem Fall, in dem sich die Symbole IC wie vorstehend beschrieben verschieben, die Symbole IC, deren Auswahl im Auswahlbereich AR2 aufgehoben worden ist, wieder in dem Kandidatenbereich AR1 angezeigt.
  • Anschließend bilden die 59 und 60 jeweils einen Fall ab, in dem die Anzeigeeinheit 1a des Personalendgerätes 1, insbesondere die Anzeigeeinheit 1a einer kleinen tragbaren Vorrichtung, wie z.B. eines Smartphones, angenommen ist. Es ist angenommen, dass die Anzeigeeinheit 1a einen Mechanismus mit berührungssensitiver Tafel besitzt, um zu ermöglichen, dass der Anwender Operationen wie Tippen, doppeltes Tippen, Streichen, Ziehen und Aufziehen und Stauchen ausführt.
  • Wie in 57, auf die vorstehend Bezug genommen ist, besitzt die Anzeigeeinheit 1a den Bildbereich 128, der in einem oberen Teil des Bildschirms eingestellt ist, und den Symbolbereich 200, der in einem unteren Teil des Bildschirms eingestellt ist. In dem Symbolbereich 200 sind der Kandidatenbereich AR1 und der Auswahlbereich AR2 eingestellt.
  • Der Kandidatenbereich AR1 ist ein Bereich, in dem die Symbole IC in einer horizontalen Reihe im untersten Teil des Bildschirms angeordnet sind, und gibt schematisch an, dass ein Symbol IC, das sich in der Mitte befindet, aktuell durch den Cursor K ausgewählt ist, wobei die Anzeigesymbole IC in horizontaler Richtung durch einen Streichen-Operation in Links-Rechts-Richtung gescrollt werden.
  • Der Anwender führt eine Scroll-Operation für den Kandidatenbereich AR1 aus, um einen Zustand zum Auswählen des gewünschten Symbols IC durch den Cursor K zu produzieren. Danach wird eine Operation wie das Ziehen in Richtung des Auswahlbereichs AR2 für die Symbole IC ausgeführt, um die Symbole IC im Auswahlbereich AR2 anzuzeigen, wie in 60 abgebildet.
  • Wenn eine vorbestimmte Operation in einem Zustand, in dem ein oder mehrere Symbole IC im Auswahlbereich AR2 angezeigt sind, ausgeführt wird, werden Bilder gemäß den Extraktionsbedingungen, die diesen Symbolen IC entsprechen, extrahiert. Die extrahierten Bilder werden in dem Bildbereich 128 angezeigt.
  • Außerdem kann das Symbol IC, sobald es in dem Auswahlbereich AR2 angezeigt wird, durch eine durch den Anwender ausgeführte Operation zum Aufheben der Auswahl aus dem Auswahlbereich AR2 gelöscht werden.
  • Beispielsweise führt der Anwender eine Tipp-Operation für das im Auswahlbereich AR2 vorhandene System IC aus. Als ein Ergebnis wird der Auswahlzustand des entsprechenden Symbols IC aufgehoben, und das entsprechende Symbol IC wird aus dem Auswahlbereich AR2 gelöscht.
  • Auf die vorstehend beschriebene Weise kann der Anwender sogar im Fall der Anzeigeeinheit 1a des Personalendgeräts 1 die festgelegten Symbolarten leicht überprüfen, indem die durch den Anwender festgelegten Symbole IC im Auswahlbereich AR2 angezeigt werden.
  • Natürlich können auch in diesem Fall die festgelegten Symbole IC aus dem Kandidatenbereich AR1 in den Auswahlbereich AR2 verschoben werden, und das Symbol IC, dessen Auswahl aufgehoben worden ist, kann aus dem Auswahlbereich AR2 in den Kandidatenbereich AR1 verschoben werden.
  • Nachfolgend wird unter Bezugnahme auf 61 ferner ein Beispiel für die Symbole IC präsentiert, die in einem Fall nützlich sind, in dem Bilder einer Hochzeit oder dergleichen das Ziel sind. Dies ist eine weitere Variante des in 47 abgebildeten Beispiels der Symbole IC.
  • 61A zeigt ein Symbol IC20, das Bilder in einer Szene der Braut mit niedergeschlagenen Augen als Extraktionsbedingung festlegt.
  • 61B bildet ein Symbol IC21 ab, das Bilder in einer Szene mit Weinen als Extraktionsbedingung festlegt.
  • 61C bildet ein Symbol IC22 ab, das Bilder von beeindruckten oder erstaunten Gesichtsausdrücken als Extraktionsbedingung festlegt.
  • Diese Symbole sind die Symbole IC, die nützlichen Extraktionsbedingungen zum Extrahieren von Bildern, die jeweils eine Emotion und einen Gesichtsausdruck einer Person als abzubildendes Objekt enthalten, entsprechen. Insbesondere ist es wünschenswert, Szenen, die reich an Emotionen und Gesichtsausdrücken sind, als Bilder, die in eine Bildsammlung eines Ereignisses im Zusammenhang mit einer Eheschließung aufgenommen werden sollen, auszuwählen. Dementsprechend werden Extraktionsbedingungen festgelegt, denen Elemente von Emotionen und Gesichtsausdrücken hinzugefügt sind, um die Bildextraktion unter Verwendung der Symbole IC, die den festgelegten Extraktionsbedingungen entsprechen, zu erleichtern.
  • Bilder in einer Szene mit niedergeschlagenen Augen können durch geschlossene Augen, einen Gesichtswinkel und maschinelles Lernen bestimmt werden.
  • Bilder in einer Szene mit Weinen können durch die Detektion von Tränen, einer Geste des Wegwischens der Tränen mit einem Taschentuch oder der Hand oder dergleichen bestimmt werden.
  • Bilder in einer beeindruckten oder erstaunten Szene können durch die Bestimmung des Gesichtsausdrucks, insbesondere durch die Analyse der Augen, des Mundes, der Gesten oder dergleichen bestimmt werden.
  • Dementsprechend ist eine Bildextraktion gemäß den Extraktionsbedingungen unter Verwendung beispielsweise der Symbole IC20, IC21 und IC22 dadurch erreichbar, dass diese Szenen durch Bildanalyse bestimmt werden und diese Bestimmung den Analyseergebnisdaten hinzugefügt wird.
  • 61D bildet die Symbole IC20 und IC31 ab, die jeweils eine betreffende Person angeben, die durch Personengesichtserkennung erkannt wurde. Bilder spezifischer Personen können durch Extraktion von Gesichtern von Personen, die an einer Hochzeit oder dergleichen teilgenommen haben, und Festlegung dieser Bilder als die Symbole IC extrahiert werden.
  • Die Symbole IC werden unter Verwendung von Bildern von Gesichtern der jeweiligen Teilnehmer mit Personenidentifizierung zum Zeitpunkt der Analyse der jeweiligen Bilder erzeugt. Auf diese Weise werden die vorstehend beschriebenen Personengesichtssymbole erzeugt und als Symbole für die Auswahlbeschleunigungsunterstützung verwendet.
  • Als Nächstes wird die Verknüpfung nicht nur mit den Analyseergebnisdaten, sondern auch mit den durch die Bildaufnahmevorrichtung 2 hinzugefügten Metadaten betrachtet.
  • Beispielsweise verbindet die Bildaufnahmevorrichtung 2 zum Zeitpunkt der Aufnahme Informationen über die Fokusposition mit den Bildern als Metadaten, die den Bildern zugeordnet sind. Die Eingrenzung von Bildern basierend auf einer fokussierten Position ist durch Kombinieren dieser Informationen über die Fokusposition mit den Analyseergebnisdaten erreichbar.
  • (Beispiel 9: Beispiel, das Person und Pupille im Fokus als Extraktionsbedingung festlegt)
  • 62 bildet einen Fall ab, in dem die Bedingung, dass ein Bild eine Pupille im Fokus enthält, zur Festlegung des Symbols IC1, das die Braut angibt, hinzugefügt ist.
  • In jedem der Bilder sind Informationen, die einen Pupillenrahmen EP zur Angabe einer Pupillenposition während der Aufnahme präsentieren, und Informationen, die einen Fokusrahmen FW zur Angabe einer Fokusposition präsentieren, in den Metadaten enthalten. Als ein Ergebnis können Bilder, die die Braut enthalten, unter Bezugnahme auf die Analyseergebnisdaten extrahiert werden, und ferner können Bilder, die die Braut mit Pupillen im Fokus enthalten, aus den extrahierten Bildern extrahiert werden. In diesem Fall können beispielsweise Bilder, bei denen die Fokusposition und die Pupillenposition im Wesentlichen übereinstimmen, als Bilder bestimmt werden, die die Braut, deren Pupillen im Fokus sind, enthalten.
  • (Beispiel 10: Beispiel, das Person und Zustand im Fokus als Extraktionsbedingung festlegt)
  • 63 bildet einen Fall ab, in dem die Bedingung eines Zustands im Fokus zur Festlegung des Symbols IC1, das die Braut angibt, hinzugefügt ist. Insbesondere werden Bilder, die jeweils die Braut im Fokus enthalten, extrahiert.
  • Die Figur bildet den Begrenzungsrahmen BB, der einen Bereich des Körpers der Braut angibt, ab. Bilder, die jeweils den Fokusrahmen FW enthalten, der sich im Begrenzungsrahmen BB befindet, sind Bilder, die jeweils die Braut im Fokus enthalten. Dementsprechend können Bilder, die die Braut enthalten, unter Bezugnahme auf die Analyseergebnisdaten extrahiert werden, und ferner können Bilder, die die Braut im Fokus enthalten, aus den extrahierten Bildern extrahiert werden.
  • Wie in den vorstehenden Beispielen beschrieben, ist die UI für die Extraktion, die in den Metadaten enthaltene Fokusinformationen verwendet, nur erforderlich, um dem Anwender die Festlegung unter Verwendung von Symbolen wie beispielsweise „Pupille im Fokus“ und „im Fokus“ zu ermöglichen.
  • 64 präsentiert ein Beispiel für einen Extraktionsprozess unter Verwendung von in den Metadaten enthaltenen Fokusinformationen. 64 ist ein Beispiel für die Extraktion von Bildern, die jeweils die Braut, deren Pupillen wie in Beispiel 9 im Fokus sind, enthalten.
  • Die CPU 71 führt den in 64 präsentierten Prozess für alle Zielbilder aus, um für jedes Bild ein Flag, das angibt, dass die Pupillen der Braut im Fokus sind, einzustellen.
  • Zunächst wird von der CPU 71 in Schritt S900 das Flag, das angibt, dass die Pupillen der Braut für ein Zielbild im Fokus sind, ungültig gemacht (initialisiert).
  • In Schritt S901 bestimmt die CPU 71 unter Bezugnahme auf die Analyseergebnisdaten des Bildes, ob das entsprechende Bild ein Bild ist, das die Braut enthält oder nicht. Falls das Bild kein Bild, das die Braut enthält, endet der Prozess für das Bild.
  • In einem Fall einer Bestimmung in Schritt S901, dass das Bild ein Bild ist, das die Braut enthält, fährt die CPU 71 zu Schritt S902 fort, um zu bestimmen, ob ein Abstand zwischen der Fokusposition und der Pupillenposition der Braut ein Schwellenwert oder kleiner ist oder nicht. Insbesondere wird bestimmt, ob das Bild ein Bild ist, bei dem die beiden Positionen in einem Zustand, in dem die Pupillen im Fokus sind, im Wesentlichen übereinstimmen oder nicht.
  • In einem Fall, in dem der Abstand den Schwellenwert übersteigt, wird davon ausgegangen, dass das Bild kein Bild ist, das die Pupillen im Fokus enthält. In diesem Fall endet der Prozess für das Bild.
  • Andererseits fährt in einem Fall einer Bestimmung, dass die Fokusposition und die Pupillenposition der Braut in dem Zustand, in dem die Pupillen im Fokus sind, im Wesentlichen übereinstimmen, die CPU 71 zu Schritt S903 fort, um das Flag, das angibt, dass die Pupillen der Braut im Fokus sind, gültig zu machen. Danach endet der Prozess für das Bild.
  • Bilder, die dem aktivierten Flag entsprechen, werden als Bilder extrahiert, die die Braut mit den Pupillen im Fokus enthalten, indem der vorstehend beschriebene Prozess für alle Bilder einer Zielbildgruppe ausgeführt wird.
  • Es wird darauf hingewiesen, dass die Anzeige des Fokusrahmens FW und des Pupillenrahmens EP, die in den 62 und 63 abgebildet sind, dem Anwender ermöglicht, die Fokusposition und den fokussierten Zustand leicht zu erkennen, und auch als Referenz für die Bewertungseinstellung und die Bildauswahl zum Zeitpunkt der Anzeige von Bildern, die einem Extraktionsergebnis entsprechen, in dem Bildbereich 128 der Anzeigeeinheit 1a oder 2a zur Verfügung steht.
  • (Beispiel 11: Beispiel, das Ding und Zustand im Fokus als Extraktionsbedingung festlegt)
  • Ein Beispiel für die Bedingungen „Pupille im Fokus“ und „Zustand im Fokus“ wird ferner präsentiert.
  • 65 bildet einen Fall ab, in dem eine Bedingung eines Zustands im Fokus zur Festlegung des Symbols IC3, das die Torte angibt, hinzugefügt ist. Insbesondere werden Bilder extrahiert, die jeweils die Torte im Fokus enthalten.
  • Wie in der Figur abgebildet ist, sind Bilder extrahierbar, die eine Bedingung erfüllen, dass sich die Position des Fokusrahmens FW an einer Position, die zum Zeitpunkt der Bildanalyse als die Torte erkannt wird, befindet.
  • (Beispiel 12: Beispiel, das Tier und Zustand im Fokus als Extraktionsbedingung festlegt)
  • 66A bildet einen Fall ab, in dem eine Bedingung einer Pupille im Fokus zur Festlegung eines Symbols IC40, das ein Tier angibt, hinzugefügt ist. In diesem Fall werden Bilder extrahiert, die jeweils ein Tier und den Pupillenrahmen EP, der die Pupille im Fokus angibt und sich in dem Begrenzungsrahmen BB des Tieres befindet, enthalten.
  • 66B bildet einen Fall ab, in dem eine Bedingung eines Zustands im Fokus zur Festlegung eines Symbols IC40, das ein Tier angibt, hinzugefügt ist. In diesem Fall werden Bilder extrahiert, die jeweils ein Tier und den Fokusrahmen FW, der sich in dem Begrenzungsrahmen BB des Tieres befindet, enthalten.
  • (Beispiel 13: Beispiel, das Ding und Zustand im Fokus als Extraktionsbedingung festlegt)
  • 67 bildet einen Fall ab, in dem die Bedingung eines Zustands im Fokus zur Festlegung eines Symbols IC41, das ein Fahrzeug angibt, hinzugefügt ist. In diesem Fall werden Bilder extrahiert, die jeweils den Fokusrahmen FW, der sich in dem Begrenzungsrahmen BB eines aus dem Bild erkannten Fahrzeugs befindet, enthalten.
  • (Beispiel 14: Beispiel für die Extraktion durch OR-Bedingung)
  • Vorstehend sind AND-Bedingungen als Extraktionsbedingungen unter Verwendung mehrerer Symbole IC und UND-Bedingungen unter Verwendung der Symbole IC und von Metadaten beschrieben worden. Die Extraktion unter einer OR-Bedingung kann jedoch angewandt werden, um den Bereich der zu extrahierenden Bilder zu erweitern.
  • 68A bildet einen Fall ab, in dem das Symbol IC1, das die Braut angibt, und das Symbol IC2, das den Bräutigam angibt, als OR-Bedingungen festgelegt sind. Bilder, die jeweils entweder die Braut oder den Bräutigam enthalten, werden gemäß dieser Festlegung extrahiert.
  • Außerdem kann eine Eingrenzung der Bilder durch Kombinieren der OR-Bedingung und der AND-Bedingung erreicht werden.
  • 68B bildet einen Fall ab, in dem das Symbol IC1, das die Braut angibt, und das Symbol IC2, das den Bräutigam angibt, als OR-Bedingungen festgelegt sind. Zusätzlich werden das Symbol IC3, das die Torte angibt, und das Symbol IC7, das ein „herausgezoomtes“ Bild angibt, als AND-Bedingungen festgelegt.
  • Als Ergebnis werden Bilder, die jeweils entweder die Braut oder den Bräutigam enthalten, die Torte enthalten und einem „herausgezoomten“ Bild entsprechen, extrahiert.
  • (Beispiele 15-1 und 15-2: Beispiel für eine Extraktion unter Verwendung einer Ausschlussbedingung)
  • Es kann auch eine Ausschlussbedingung (NOT-Bedingung) angewendet werden.
  • 69A bildet Bilder einer Bildgruppe ab, die einem Verarbeitungsziel entspricht und Bilder von geschlossenen Augen aufweist.
  • 69B bildet einen Fall der Festlegung des Symbols IC1, das die Braut angibt, und eines Symbols IC50, das geschlossene Augen als eine Ausschlussbedingung angibt, ab.
  • Auf diese Weise werden Bilder extrahiert, die jeweils die Braut, jedoch nicht die Braut mit geschlossenen Augen enthalten, wie in 69C abgebildet ist.
  • Außerdem bildet 70A Bilder einer Bildgruppe ab, die einem Verarbeitungsziel entspricht und Bilder, die jeweils die Torte enthalten, aufweist.
  • 70B bildet einen Fall der Festlegung des Symbols IC1, das die Braut angibt, und des Symbols IC2, das den Bräutigam angibt, als AND-Bedingungen und der Festlegung des Symbols IC3, das die Torte angibt, als Ausschlussbedingung ab.
  • Auf diese Weise werden Bilder, die jeweils die Braut und den Bräutigam, jedoch nicht die Torte enthalten, extrahiert, wie in 70C abgebildet.
  • Eine solche Einstellung der Ausschlussbedingung ermöglicht die Extraktion von Bildern, die nicht Bilder sind, die den Zielen der Bewertungseinstellung und der Bildauswahl durch das Kamerapersonal entsprechen, und verbessert somit die Arbeitseffizienz.
  • (Beispiel 16: Registrierung der Extraktionsbedingung)
  • Indessen können die vorstehenden Extraktionsbedingungen im Voraus eingestellt werden, oder es können verschiedene Extraktionsbedingungen in Zeitreihen eingestellt werden.
  • Beispielsweise kann eine Extraktionsbedingung zum Extrahieren von Ausschnitten, die durch Fotografen angenommen werden, oder dergleichen im Voraus registriert werden, um schnell Ausschnitte, die eine Web-Galerie oder dergleichen bilden und für die Übergabe notwendig sind, zu extrahieren. Außerdem wird die Extraktion von Bildern in den jeweiligen Szenen durch Einstellen von an einem Standardablauf einer Hochzeit oder dergleichen ausgerichteten Extraktionsbedingungen unterstützt.
  • 71 bildet dieses Beispiel ab.
  • Eine Bedingung der „Braut“, des „Bräutigams“ und einer „Kirche“ wird als Bedingung c1 eingestellt, um Bilder in einer Szene mit einem Hintergrund einer Kirche zu extrahieren. Beispielsweise werden das Symbol IC1, das die Braut angibt, das Symbol IC2, das den Bräutigam angibt, und ein Symbol IC51, das die Kirche angibt, dadurch registriert, dass eine Operation zum Festlegen dieser Symbole ausgeführt wird.
  • Eine Bedingung der „Braut“, des „Bräutigams“ und eines „Pastors“ wird als Bedingung c2 eingestellt, um Bilder in einer Szene mit einem Pastor zu extrahieren. Die Bedingung c2 wird beispielsweise durch eine Operation registriert, die das Symbol IC1, das die Braut angibt, das Symbol IC2, das den Bräutigam angibt, und das Symbol IC52, das den Pastor angibt, festlegt.
  • Eine Bedingung der „Braut“ und eines „Rings“ wird als Bedingung c3 festgelegt, um Bilder in einer Szene, in der ein Ring angesteckt wird, zu extrahieren. Beispielsweise wird die Bedingung c3 durch eine Operation registriert, die das Symbol IC1, das die Braut angibt, und ein Symbol IC53, das einen Ring angibt, festlegt.
  • Eine Bedingung der „Braut“, des „Bräutigams“ und der „Reisdusche“ wird als Bedingung c4 festgelegt, um Bilder in einer Szene der Braut und des Bräutigam in der Reisdusche zu extrahieren. Beispielsweise wird die Bedingung c4 durch eine Operation registriert, die das Symbol IC1, das die Braut angibt, das Symbol IC2, das den Bräutigam angibt, und das Symbol IC54, das die Kirchen-Reisdusche angibt, festlegt.
  • Eine Bedingung der „Braut“, des „Bräutigams“ und eines „Kindes“ wird als Bedingung c5 eingestellt, um Bilder in einer Szene, in der ein Kind der Braut und dem Bräutigam Blumen übergibt, zu extrahieren. Die Bedingung c5 wird beispielsweise durch eine Operation registriert, die das Symbol IC1, das die Braut angibt, das Symbol IC2, das den Bräutigam angibt, und das Symbol IC55, das das Kind angibt, festlegt.
  • Die Registrierung solcher Bedingungen in einer Zeitreihe erreicht die Extraktion von Bildern, die die Bedingungen erfüllen, durch eine äußerst einfache Operation in einer Zeitreihe und verbessert die Effizienz der durch das Kamerapersonal ausgeführten Arbeit, wie z. B. die schnelle Auswahl der für die Übergabe erforderlichen Bilder.
  • Zusätzlich können Bilder, die Szenen wie der „Kirche“ und der „Reisdusche“ entsprechen, durch maschinelles Lernen im Voraus gelernt werden, um diese Bilder zu extrahieren.
  • Die Extraktionsbedingungen können durch das Festlegen der Symbole IC, die durch das Kamerapersonal für jedes Ereignis vorgenommen wird, registriert werden. Alternativ können die Extraktionsbedingungen zum Festlegen typischer Szenen bei einer Hochzeit oder dergleichen, wie die vorstehend beschriebenen Bedingungen c1 bis c5, im Voraus registriert und für jedes Ereignis ausgewählt werden.
  • Beispielsweise wird die Extraktionsbedingung, die die „Braut“, den „Bräutigam“ und die „Kirche“ angibt, als eine „Kirchenszene“ eingestellt. Solche vorstehend beschriebenen Einstellungsarten sind mehrfach vorgesehen, und die registrierten Einstellungsarten werden für jedes Ereignis verwendet. Auf diese Weise wird die Effizienz des Registrierungszustands der Extraktionsbedingungen für das Kamerapersonal verbessert.
  • (Beispiel 17: Anwendung auf Video)
  • Vorstehend ist der Auswahlbeschleunigungsunterstützungsprozess im Hinblick auf die Auswahl von Standbildern beschrieben worden. Dieser Prozess ist auch auf ein Video anwendbar.
  • 72 bildet dieses Beispiel ab.
  • Beispielsweise kann ein Videoabschnitt (Eingangspunkt zu Ausgangspunkt), der einer Szene entspricht, die den Bräutigam und die Braut, die den Blumenstrauß hält, enthält, durch Festlegung des Symbols IC1, das die Braut angibt, des Symbols IC2, das den Bräutigam angibt, und des Symbols IC9, das den Blumenstrauß angibt, extrahiert werden.
  • Außerdem kann ein Videoabschnitt (Eingangspunkt zu Ausgangspunkt), der einer Szene des Anschneidens einer Torte entspricht, durch Festlegung des Symbols IC1, das die Braut angibt, des Symbols IC2, das den Bräutigam angibt, und des Symbols IC3, das die Torte angibt, extrahiert werden.
  • Darüber hinaus kann ein Videoabschnitt (Eingangspunkt zu Ausgangspunkt), der einer Szene der Braut und des Bräutigams mit Freunden oder dergleichen entspricht, durch Festlegung des Symbols IC1, das die Braut angibt, des Symbols IC2, das den Bräutigam angibt, und des Symbols IC5, das mehrere Personen angibt, extrahiert werden.
  • Es ist auch möglich, dass diese Extraktionsbedingungen des Videos im Voraus auf die vorstehend beschriebene Weise registriert werden (Beispiel 16).
  • (Beispiel 18: automatische Erzeugung eines Höhepunkt-Videos)
  • Es ist auch möglich, automatisch eine Szene zu extrahieren und ein Höhepunkt-Video zu erzeugen, indem die Extraktionsbedingungen eines Videos wie vorstehend beschrieben registriert werden.
  • 73 bildet dieses Beispiel ab. 73 bildet ein Beispiel für die Extraktionsbedingungen einer Szene ähnlich der Szene in 72 ab. Die CPU 71 extrahiert Videoabschnitte der entsprechenden Szene unter diesen Extraktionsbedingungen und erzeugt automatisch ein Höhepunkt-Video, indem sie die Videoabschnitte gemäß der Registrierung der Extraktionsbedingungen verbindet.
  • 74 präsentiert einen Prozess zur Erstellung eines Höhepunkt-Videos, der durch die CPU 71 unter Verwendung der Funktion der Videobearbeitungseinheit 38 in 39 ausgeführt wird.
  • In Schritt S1000 registriert die CPU 71 eine oder mehrere Extraktionsbedingungen gemäß einer durch den Anwender ausgeführten Operation.
  • In Schritt S1001 extrahiert die CPU 71 eine Szene, die die jeweiligen so registrierten Extraktionsbedingungen erfüllt. Insbesondere werden ein Eingangspunkt und ein Ausgangspunkt festgelegt, um eine Szene, die die jeweiligen Extraktionsbedingungen erfüllt, festzulegen.
  • Für die Extraktion von Videoausschnitten können verschiedene spezifische Verfahren eingesetzt werden. Zum Beispiel werden Bilder, die die Extraktionsbedingungen erfüllen, in Einheiten von Rahmen gesucht. Im Falle eines Videos werden die Extraktionsbedingungen jedoch nicht notwendigerweise von aufeinanderfolgenden Rahmen erfüllt. Beispielsweise kann es einen Fall geben, in dem sich die Braut sogar in einer Szene, die die Braut enthält, für einen Moment außerhalb des Bildes befindet. Dementsprechend ist ein solcher Prozess einsetzbar, der einen Ausgangspunkt zu einem Zeitpunkt definiert, an dem die Bedingung beispielsweise für eine spezielle Anzahl oder mehr Rahmen nicht kontinuierlich erfüllt ist.
  • In Schritt S1002 bearbeitet die CPU 71 Szenen. Insbesondere werden die Bilder vom Eingangspunkt bis zum Ausgangspunkt in jeder der in Schritt S1001 eingestellten Szenen verbunden, um eine Reihe von Videos zu erzeugen.
  • In Schritt S1003 wird die so erzeugte Reihe von Videos als Höhepunkt-Video gespeichert.
  • Das Höhepunkt-Video kann durch den vorhergehenden Prozess automatisch erzeugt werden und durch das Kamerapersonal als Videoinhalt angesehen und angehört oder dem Kunden zur Verfügung gestellt werden.
  • Die Videobearbeitung, die typischerweise Zeit und Arbeit erfordert, kann nur durch die Registrierung einer Extraktionsbedingung fertiggestellt werden. Dementsprechend wird die Erzeugung eines Höhepunkt-Video für das Kamerapersonal extrem erleichtert.
  • <11. Unterstützung der Endbestätigung für der Auswahl des übergebenen Bildes>
  • Bei übergebenen Bildern prüft das Kamerapersonal eine Ausgewogenheit der Personen, die in den übergebenen Bildern enthalten sind, beispielsweise indem es eine einfache Liste von Bildern, die Übergabekandidaten entsprechen, betrachtet. 75 bildet beispielsweise einen Zustand ab, in dem eine Liste von Bildern, die Übergabekandidaten entsprechen, angezeigt wird.
  • Es wird darauf hingewiesen, dass die „übergebenen Bilder“ in der Ausführungsform entweder Bilder sein können, die übergeben werden, um eine Web-Galerie zu bilden (Bilder, die als Bilder ausgewählt sind, die in die Web-Galerie aufgenommen werden sollen), oder Bilder, die für die reguläre Übergabe ausgewählt wurden.
  • Zusätzlich werden beim Betrachten solcher übergebener Bilder beispielsweise folgende Punkte überprüft.
    • - sind die jeweiligen Teilnehmer, die der Braut und dem Bräutigams zugeordnet sind, gut ausgewogen?
    • - ist die Anzahl der Gruppenbilder angemessen?
    • - ist ein Verhältnis von Nahaufnahmen zu herausgezoomten Bildern angemessen?
  • Das Filtern der Bilder kann durch verschiedene Elemente unter Verwendung von Gesichtserkennung, Objekterkennung oder dergleichen, die durch Bildanalyse erreicht werden, ausgeführt werden, um die Effizienz dieser Arbeit zu verbessern und die endgültige Bestätigung zu erleichtern.
  • Beispielsweise werden die Gesichter jeder in den Bildern enthaltenen Person erkannt und Informationen, die die Anzahl der Bilder, die die entsprechende Person enthalten, angeben, werden präsentiert.
  • 76 bildet schematisch ein Beispiel für die Eingrenzung von Bildern nach Gesichtern ab.
  • Beispielsweise ist ein Gesichtsauswahlbereich 210 in einem Bildschirm einer Registerkarte „Filtern nach Gesicht“ vorgesehen, um ein Gesichtsbild durch Scrollen auszuwählen. Wenn das Kamerapersonal eines der Gesichtsbilder auswählt, werden Bilder, die jeweils eine Person, die diesem Gesicht entspricht, enthalten, extrahiert und in dem Bildbereich 128 angezeigt.
  • Dieses Beispiel erleichtert das Überprüfen, ob beispielsweise Bilder der jeweiligen Teilnehmer in ausgewogener Weise enthalten sind oder nicht.
  • Außerdem ist eine Eingrenzung von Bildern oder dergleichen basierend auf effektiveren Informationen erreichbar, indem im Voraus Attribute der jeweiligen Personen, wie z. B. Namen und Positionen im entsprechenden Ereignis (z. B. Bräutigam, Braut, Freunde und Familienmitglieder bei einer Hochzeit) eingestellt werden.
  • Außerdem ist eine Eingrenzung der Bilder unter Verwendung der Anzahl der in den Bildern enthaltenen Personen erreichbar.
  • Beispielsweise werden die Bilder danach eingegrenzt, ob jedes Bild eine einzelne Person enthält oder ein Gruppenbild ist.
  • Zum Überprüfen von übergebenen Bildern ist dieses Beispiel nützlich, um die Bestätigung des Vorhandenseins oder Fehlens eines Bildes, das nur eine wichtige Person enthält, zu erleichtern oder um eine Person zu überprüfen, die nur in einem Gruppenbild enthalten ist.
  • Darüber hinaus können die Bilder nach einem Objekt, das in jedem Bild enthalten ist, eingegrenzt werden.
  • Übergebene Bilder können beispielsweise dahingehend überprüft werden, ob Bilder von wichtigen Gegenständen für eine Bildsammlung einer Hochzeit der dergleichen, wie z.B. eine Torte und ein Ring, enthalten sind.
  • <12. Präsentation basierend auf Gesichtsinformationen>
  • Eine nicht abgebildete Person kann durch vorherige Registrierung von Gesichtsinformationen, die den Anwesenden zugeordnet sind, präsentiert werden. Auf diese Weise kann während der Bildaufnahme ein Übergabestatus präsentiert werden.
  • Die Anzahl der Bilder, die eine entsprechende Person enthalten, kann für jede Person durch Detektion von Gesichtern, die in aufgenommenen oder übergebenen Bildern enthalten sind, gezählt werden.
  • Außerdem kann ein Zustand, bei dem die Anzahl der Bilder, die die Eltern der Braut enthalten, kleiner ist als die Anzahl der Bilder, die die Eltern des Bräutigams enthalten, überprüft und ausgeglichen werden.
  • <13. Automatische Auswahl eines übergebenen Bildes>
  • Durch die Analyse der Bilder werden Bildern automatisch Identifizierungskennzeichen hinzugefügt.
    • - Personeninformationen (Bräutigam, Braut, Brautjungfer, usw.)
    • - Objektinformationen (Ring, Torte, Begrüßungstafel, usw.)
    • - Szeneninformationen (Anschneiden der Torte, Einzug von Braut und Bräutigam, usw.)
  • Die Bildauswahl zum Zeitpunkt der Übergabe kann unter Verwendung dieser Identifizierungskennzeichen unterstützt werden.
  • Außerdem können die zu übergebenden Bilder automatisch durch eine Vorabdefinition einer Vorlage ausgewählt werden.
  • Beispiele für diese Vorlage enthalten das Folgende.
    • - Übergabe eines Bilds, das den Einzug von Braut und Bräutigam enthält
    • - Übergabe von fünf Bildern, die den Bräutigam enthalten
    • - Übergabe von acht Bildern, die die Braut enthalten
    • - Übergabe von drei Bildern, die das Anschneiden der Torte enthalten
  • <14. Präsentation von Personen, die nicht im übergebenen Bild enthalten sind, unter Verwendung von Gesichtsinformationen oder anderem>
  • Zum Zeitpunkt der der Auswahl der zu übergebenden Bilder aus den aufgenommenen Bildern wird eine „Person, die in den aufgenommenen Bildern, jedoch in keinem der zu übergebenden Bilder enthalten ist“, detektiert und als Informationen präsentiert.
  • Beispielsweise wird, wie in 77 abgebildet, das Kamerapersonal über die Tatsache benachrichtigt, dass in den zu übergebenden Bildern kein Bild einer Person C enthalten ist.
  • <15. Unterstützung der Bildaufnahme unter Verwendung einer Aufnahmeliste>
  • Es ist angenommen, dass eine Aufnahmeliste eine Liste ist, die als Plandaten für die Erzeugung einer Bildsammlung betrachtet wird, wie z. B. die Anzahl der Bilder, die in eine Bildsammlung aufgenommen werden sollen, und die Anzahl der Bilder für jede Szene, wobei diese Zahlen beispielsweise für die Braut, den Bräutigam, die Familien, Verwandten und Freunde eingestellt sind.
  • Eine Liste Bilder, deren Aufnahme gewünscht ist, (Aufnahmeliste) wird beispielsweise dadurch erzeugt, dass die Braut vorher befragt wird, und eingegeben.
  • Die Aufnahmeliste enthält beispielsweise den folgenden Inhalt.
    • - Szene: Wunsch nach einer Szene mit Tortenanschnitt
    • - Person: Wunsch nach einem Bild, das die Tante und die Braut enthält
    • - Ding: Torte, Ring
  • Während einer Hochzeit wird automatisch eine Auswahl gemäß der vorstehenden Aufnahmeliste getroffen, um die zu übergebenden Bilder einzusammeln.
  • Irgendein Ausschnitt, der durch den Fotografen nicht aufgenommen wurde, kann durch Überprüfung dieser Aufnahmeliste sogar während der Bildaufnahme erkannt werden.
  • <16. Zusammenfassung und Modifikationen>
  • Gemäß der Ausführungsform bietet der unter Bezugnahme auf 37 und die folgenden Figuren beschriebene Auswahlbeschleunigungsunterstützungsprozess die folgenden vorteilhaften Effekte.
  • Die Datenverarbeitungsvorrichtung gemäß der Ausführungsform, d.h. das Personalendgerät 1, die Servervorrichtung 4 oder die Bildaufnahmevorrichtung 2, weist die UI-Steuereinheit 31, die die Festlegung einer Extraktionsbedingung für eine Bildgruppe, die mehrere Bilder aufweist, die während Ereignisses in Zusammenhang mit einer Eheschließung aufgenommen wurden, ermöglicht, und die Extraktionsverarbeitungseinheit 34, die ein oder mehrere Bilder aus der Bildgruppe unter der festgelegten Extraktionsbedingung extrahiert, auf.
  • In einem Fall, in dem eine Web-Galerie oder eine Bildsammlung für die reguläre Übergabe unter Verwendung von Bildern, die sorgfältig aus einer Bildgruppe mit einer enormen Anzahl von Bildern, die während eines Ereignisses, das beispielsweise einer Hochzeit zugeordnet ist, aufgenommen wurden, ausgewählt wurden, ist zunächst eine Beurteilung jedes dieser Bilder notwendig. Diese Beurteilung erfordert jedoch sehr viel Aufwand und Zeit. Dementsprechend wird eine für eine Hochzeit oder dergleichen spezifische Bedingung festgelegt, und die Bildextraktion wird gemäß der festgelegten Extraktionsbedingung erreicht. Auf diese Weise wird die Effizienz der durch das Kamerapersonal ausgeführten Arbeiten verbessert.
  • Insbesondere kann die Arbeit zum Erzeugen einer Bildsammlung für ein Ereignis im Zusammenhang mit einer Eheschließung durch Bereitstellen einer Schnittstelle, die in der Lage ist, Bildinhalte von während des Ereignisses im Zusammenhang mit der Eheschließung aufgenommenen Bildern zu klassifizieren, auf geeignete Weise unterstützt werden.
  • Gemäß der vorstehend beschriebenen Ausführungsform führt die UI-Steuereinheit 31 Steuerung für die Anzeige von durch die Extraktionsverarbeitungseinheit 34 extrahierten Bildern und Bereitstellen einer Anwenderschnittstelle Benutzeroberfläche, die eine Eingabeoperation zum Eingeben von jedem der Bilder zugeordneten Bewertungsinformationen ermöglicht, aus.
  • Diese Konfiguration ermöglicht eine Operation, die entsprechende Bilder gemäß einer Person, einer Szene oder dergleichen, die wahrscheinlich in einer Bildsammlung aufgenommen werden, extrahiert und Bewertungsinformationen einstellt, während beispielsweise eine Liste dieser Bilder betrachtet wird.
  • Dementsprechend verbessert sich die Arbeitseffizienz extrem im Vergleich zu einem Verfahren, in dem die Bewertungsinformationen eingegeben werden, während alle aufgenommenen Bilder einzeln betrachtet werden. Außerdem wird eine Bewertung eingestellt, während ähnliche Typen von Bildern verglichen werden. Dieser Vorteil ist wünschenswert im Hinblick auf eine einfache Standardisierung der Beurteilungskriterien und eine angemessene Einstellung der Bewertung, die durch eine gleichzeitig mit einem Vergleich ähnlicher Typen von Bildern ausgeführte Bewertungseinstellung ermöglicht wird. Die Bewertung kann insbesondere durch den kollektiven Vergleich ähnlicher Arten von Bildern erreicht werden. Dementsprechend ist eine angemessene Beurteilung leicht vorzunehmen. Darüber hinaus werden auf diese Weise die gewünschten Bilder zum Zeitpunkt der Auswahl der in die Bildsammlung aufzunehmenden Bilder unter Bezugnahme auf die Bewertungsinformationen leicht ausgewählt. Dementsprechend werden die Bewertungsinformationen als Informationen für die Auswahl wertvoller.
  • Gemäß der Ausführungsform extrahiert die Extraktionsverarbeitungseinheit 34 Bilder, die festgelegten Extraktionsbedingungen erfüllen, unter Bezugnahme auf Analyseergebnisdaten der Bildinhalte jedes Bildes, das in einer Bildgruppe eines speziellen Ereignisses enthalten ist.
  • Ob jedes Bild die Extraktionsbedingungen erfüllt oder nicht, kann leicht unter Bezugnahme auf Analyseergebnisdaten, die den Inhalt des entsprechenden Bildes angeben und durch Bildanalyse solchen Bildern zugeordnet sind, bestimmt werden.
  • Gemäß der als Beispiel präsentierten Ausführungsform werden die Analyseergebnisdaten von einer externen Vorrichtung, wie z. B. der Servervorrichtung 4, empfangen.
  • Das ermöglicht, dass die Analyseergebnisdaten, die den Inhalt jedes Bildes angeben, erhalten werden, ohne dass eine Bildanalyse erforderlich ist, die eine relativ große Belastung für die Vorrichtung darstellt, die beispielsweise als das Personalendgerät 1 oder als die Bildaufnahmevorrichtung 2 verwendet wird.
  • Gemäß der Ausführungsform führt die UI-Steuereinheit 31 eine Steuerung zum Anzeigen der Symbole IC, die jeweils eine Extraktionsbedingung für Bilder einer Bildgruppe präsentieren, und zum Detektieren einer Betätigung irgendeines dieser Symbole IC als eine Festlegungsoperation zum Festlegen der Extraktionsbedingung aus.
  • Die Symbole IC ermöglichen eine einfache Präsentation der Extraktionsbedingungen für Bilder eines Ereignisses im Zusammenhang mit einer Hochzeit und eine einfache Festlegung der Extraktionsbedingungen.
  • Gemäß der vorstehenden Beschreibung werden die Symbole IC vorzugsweise gemäß einem Analyseergebnis jedes Bildes eingestellt. Beispielsweise in einem Fall, in dem ein Bilderkennungsergebnis, das eine „Braut“ und einen „Blumenstrauß“ angibt, für ein spezielles Bild erhalten wird, werden das Symbol IC1, das die Braut angibt, und das Symbol IC9, das den Blumenstrauß angibt, bereitgestellt. Die für die Bildextraktion aus einer Zielbildgruppe notwendigen Symbole können durch die Bereitstellung von Symbolen, die den Analyseergebnissen aller einem Analyseziel entsprechenden Bilder entsprechen, bereitgestellt werden.
  • Mit anderen Worten bedeutet das auch, dass Symbole, die für die Zielbildgruppe nicht erforderlich sind, nicht angezeigt werden müssen. Beispielsweise in einem Fall, in dem in einer Bildgruppe eines speziellen Ereignisses kein Bild enthalten ist, das eine „Torte“ enthält, wird das Symbol IC3 für die Torte nicht angezeigt, was ermöglicht, eine unnötige Ausführung der Extraktion zu vermeiden.
  • Gemäß der als Beispiel beschriebenen Ausführungsform zeigt die UI-Steuereinheit 31 das Symbol IC, das einem Operationsziel zum Festlegen einer Extraktionsbedingung entspricht, in einem Anzeigemodus an, der sich von einem Anzeigemodus der Symbole IC, die jeweils nicht einem Operationsziel zur Festlegung entsprechen, unterscheidet.
  • Beispielsweise wird das zur Festlegung betätigte Symbol IC von den anderen Symbolen IC durch die Farbe des betätigten Symbols oder dadurch, dass die Farbe des Rahmens verändert wird oder dass eine hervorgehobene Anzeige verwendet wird, unterschieden.
  • Diese Anzeige, die die Identifizierung des Symbols, das als Extraktionsbedingung festgelegt ist, ermöglicht präsentiert die Extraktionsbedingung selbst deutlich für den Anwender. Dementsprechend ist die Art des extrahierten Bildes leicht zu erkennen.
  • Außerdem sind die bereits festgelegten Symbole (Bedingungen) leicht erkennbar, wenn Extraktionsbedingungen kombiniert werden. Zusätzlich ist ein Kombinationszustand der Bedingungen auf einen Blick erkennbar.
  • Darüber hinaus wird das festgelegte Symbol so angezeigt, dass der festgelegte Zustand zusammen mit einer Liste extrahierter Bilder erkennbar ist. Dementsprechend ist auch leicht zu erkennen, unter welcher Bedingung oder in welcher Kombination das extrahierte Bild erhalten wird.
  • Gemäß der Ausführungsform weist eine Extraktionsbedingung eine Bedingung für die Festlegung einer Person auf. Beispielsweise kann eine Extraktionsbedingung eine Braut, einen Bräutigam, Verwandte (z. B. Eltern und Brüder und Schwestern), Freunde, Ehrengäste und dergleichen festlegen.
  • Als Wichtigstes bei einer Bildsammlung zu einem Ereignis im Zusammenhang mit einer Eheschließung sollte die angemessene Darstellung von Personen als Teilnehmer, hauptsächlich der Braut und des Bräutigams, betrachtet werden. Dementsprechend ist es zweckmäßig, eine Extraktionsbedingung vorzubereiten, so dass Bilder nach Personen im Hinblick auf die Unterstützung für die Erzeugung einer Bildsammlung extrahiert werden können.
  • Gemäß der Ausführungsform weist eine Extraktionsbedingung eine Bedingung auf, die die Festlegung einer Szene eines Ereignisses im Zusammenhang mit der Eheschließung ermöglicht.
  • Beispielsweise wird eine Extraktionsbedingung, die ermöglicht, eine Szene selbst festzulegen, wie z.B. einen „Tortenanschnitt“, einen „Ringtausch“ und einen „Blumenstraußwurf“, eine Extraktionsbedingung unter der Annahme einer speziellen Szene, wie z.B. eine „Torte“ und einen „Ring“, und eine Extraktionsbedingung, die ermöglicht, eine Szene zu spezifizieren, beispielsweise durch eine Zeitfestlegung zum Festlegen einer Zeit, die einer Szene entspricht, vorbereitet. Dies führt zu einer einfachen Extraktion eines Bildes einer spezifischen Szene. Dieser Vorteil ist in einem Fall nützlich, in dem beispielsweise eine Bewertung oder dergleichen für eine große Anzahl von Bildern in der entsprechenden Szene vergeben wird.
  • Gemäß der Ausführungsform weist eine Extraktionsbedingung eine Bedingung auf, die die Festlegung von Zeitinformationen, die einem Ereignis Zusammenhang mit der Eheschließung zugeordnet sind, ermöglicht.
  • Zum Beispiel kann ein Bild einer bestimmten Szene durch die Festlegung einer Zeit oder dergleichen, die einer Szene wie z. B. einem „Tortenanschnitt“, einem „Ringtausch“ und einem „Blumenstraußwurf“ entspricht, extrahiert werden. Dieser Vorteil beispielsweise in einem Fall nützlich, in dem für ein Bild einer spezifischen Szene eine Bewertung vergeben wird.
  • Gemäß der Ausführungsform weist eine Extraktionsbedingung eine Bedingung zum Festlegen eines Dings oder eines Tieres, das einem abzubildenden Objekt entspricht, auf.
  • Beispielsweise wird eine Bedingung zum Festlegen eines Gegenstands, für den es wahrscheinlich ist, dass er während eines Ereignisses im Zusammenhang mit eine Eheschließung zu einem abzubildenden Objekt wird, wie z. B. ein Kuchen, eine Kerze, ein Ring, ein Haustier und ein Glas, vorbereitet.
  • Die Festlegung eines Gegenstands ist häufig für die Extraktion ähnlicher Bilder aus Bildern eines Ereignisses im Zusammenhang mit der Eheschließung geeignet. Ähnliche Bilder können gemäß der für das Festlegen eines Dings vorbereiteten Extraktionsbedingung leicht extrahiert werden. Dieser Vorteil ist für das Bewerten und Auswählen von Bildern nützlich.
  • Gemäß der Ausführungsform weist eine Extraktionsbedingung eine Bedingung zum Festlegen einer Emotion oder eines Gesichtsausdrucks eines abzubildenden Objekts auf.
  • Beispielsweise wird eine Bedingung zum Festlegen einer Szene mit Lächeln, einer Szene mit Emotionen, einer Szene mit Weinen, einer Szene mit gesenkten Augen oder dergleichen vorbereitet.
  • Im Hinblick auf die Erzeugung einer Bildsammlung über ein Ereignis im Zusammenhang mit einer Eheschließung ist es angebracht, Bilder auszuwählen, die reicher an Emotionen sind, und die Bewertung zu erhöhen, um die Emotionen der Teilnehmer zu repräsentieren. Die Extraktionsbedingung, die zum Extrahieren von Bildern als ein Erkennungsergebnis einer Emotion und eines Gesichtsausdrucks, wie z. B. einer Szene mit Lächeln, vorbereitet wird, ist zum Bewerten und Auswählen von Bildern nützlich.
  • Gemäß der als Beispiel präsentierten Ausführungsform werden für Bilder, die durch die Extraktionsverarbeitungseinheit 34 extrahiert werden, Informationen präsentiert, die einen Grad einer Emotion oder eines Gesichtsausdrucks eines aufzunehmenden Objekts angeben.
  • Wie unter Bezugnahme auf 56 beschrieben ist, ist die Anzeige eines numerischen Wertes oder dergleichen, der als ein Ergebnis der Erkennung einer Emotion oder eines Gesichtsausdrucks für ein Bild, das durch eine spezielle Extraktionsbedingung extrahiert wird, erhalten wird, als eine Referenz zum Bewerten oder Auswählen und als Unterstützung für beim Erzeugen einer Bildsammlung nützlich. Obwohl das Beispiel, das den Grad des Lächelns angibt, in 56 dargestellt ist, wird davon ausgegangen, dass ein Grad eines Analyseergebnisses einer Emotion oder eines Gesichtsausdrucks für ein Bild angezeigt wird, wie z. B. ein Grad eines weinenden Gesichts, ein Grad eines erstaunten Gesichts, ein Grad von gesenkten Augen und ein Grad von Freude.
  • Gemäß der Ausführungsform weist eine Extraktionsbedingung eine Bedingung, die die Festlegung eines Gegenstands ermöglicht, der durch während der Bildaufnahme hinzugefügte Metadaten bestimmt wird, auf.
  • Beispielsweise kann eine Bedingung festgelegt werden, die eine Bestimmung durch die Bildaufnahmevorrichtung während der Bildaufnahme unter Bezugnahme auf Bildern zugeordnete Metadaten, wie z. B. Informationen, die dem Fokussieren zugeordnet sind, ermöglicht (siehe 62 bis 67).
  • Beispielsweise kann ein Bild, das eine Braut, deren Pupillen fokussiert sind, enthält, extrahiert werden, indem während der Aufnahme hinzugefügte Metadaten, wie z. B. Informationen, die eine Fokusposition der Fokussierung angeben, die durch eine Steuerung wie z. B. Gesichtsfokussierung und Pupillenfokussierung erreicht wird, als eine der Extraktionsbedingungen festgelegt werden. Es ist sowohl die Extraktion nur von Bildern im Fokus als auch von Bildern, die nach dem Inhalt ausgewählt wurden, beispielsweise durch Hinzufügen eines Bildaufnahmezustands zu der Extraktionsbedingung, erreichbar. Dieser Vorteil ist im Hinblick auf die Extraktion von Bildern, die Kandidaten entsprechen, die in eine Bildsammlung aufgenommen werden sollen, aus einer großen Anzahl von Bildern geeignet.
  • Gemäß der als Beispiel präsentierten Ausführungsform sind Informationen, die „Pupille im Fokus“ und „im Fokus“ angeben, als ein Beispiel unter Verwendung von Metadaten angewandt. Jedoch sind natürlich auch andere Metadaten verfügbar. Beispielsweise in einem Fall, in dem Informationen wie z. B. eine Blendenzahl, eine ISO-Zahl, eine Verschlusszeit und eine Zoomvergrößerung in den Metadaten enthalten sind, können die Bilder unter Extraktionsbedingungen, die diese Informationen aufweisen, eingegrenzt werden.
  • Gemäß der als Beispiel präsentierten Ausführungsform wird für ein durch die Extraktionsverarbeitungseinheit 34 extrahiertes Bild eine Fokusposition präsentiert.
  • Wie unter Bezugnahme auf die 62 und 63 beschrieben, wird eine Position oder ein Bereich im Fokus oder ein Bild, das Informationen, die diesen zugeordnet sind, angibt, überlagert und als der Fokusrahmen FW, der Pupillenrahmen EP, der Begrenzungsrahmen BB oder dergleichen angezeigt. Auf diese Weise kann das Kamerapersonal unter Bezugnahme auf überlagerten Informationen eine geeignete Auswahl oder Bewertung von Bildern erreichen.
  • Gemäß der als Beispiel beschriebenen Ausführungsform wird eine Steuerung zum Anzeigen der Symbole IC, die jeweils eine Extraktionsbedingung angeben, in dem Kandidatenbereich AR1 auf dem Anzeigebildschirm und der Symbole IC, die durch eine vorbestimmte Operation festgelegt sind, in dem Auswahlbereich AR2 auf dem Anzeigebildschirm ausgeführt.
  • Eine Liste der Symbole IC, die festgelegt werden können, wird in dem Kandidatenbereich AR1 angezeigt, und die Symbole IC, die jeweils einem Ziel einer Festlegungsoperation entsprechen, werden in dem Auswahlbereich AR2 angezeigt. Dementsprechend kann der Anwender zu jeder Zeit erkennen, welche Symbole IC aktuell ausgewählt sind. Diese Anzeige erhöht die Erkennbarkeit und Bedienbarkeit in einem Fall, in dem gewünscht ist, dass mehrere Symbole IC (Extraktionsbedingungen) kombiniert und zur Bildextraktion verwendet werden sollen.
  • Insbesondere in dem Fall der Anzeigeeinheit (1a, 2a) als relativ kleine Einheit, die in einer kleinen Vorrichtung wie z. B. dem Personalendgerät 1 und der Bildaufnahmevorrichtung 2 enthalten ist, werden die Sichtbarkeit und die Erkennung eines Auswahlzustands für das Kamerapersonal vorzugsweise durch eine Angabe, ob die Symbole IC aktuell ausgewählt sind oder nicht, durch den Bereich, in dem die Symbole IC angezeigt werden, anstatt durch eine Änderung des Anzeigemodus der Symbole IC angeboten.
  • Wie in den Beispielen mit Bezug auf die 57, 58, 59 und 60 beschrieben, kann der Auswahlzustand durch die Anordnung des Kandidatenbereichs AR1 und des Auswahlbereichs AR2 nebeneinander in der Richtung von oben nach unten (oder in Richtung von links nach rechts) und die Anzeige der Symbole in dem Auswahlbereich AR2 gemäß einer Operation deutlich präsentiert werden.
  • Außerdem kann der Auswahlzustand deutlich präsentiert werden, indem die Symbole gemäß einer Operation von dem Kandidatenbereich AR1 in den Auswahlbereich AR2 verschoben werden.
  • Darüber hinaus kann eine große Anzahl von Symbolen in dem Kandidatenbereich AR1 durch Scroll-Anzeige sogar auf einem kleinen Anzeigebildschirm angezeigt werden.
  • Der Fall der Verschiebung von dem Kandidatenbereich AR1 in den Auswahlbereich AR2 ist nützlich, um die Auswahl und Betätigung identischer Symbole zu verhindern und die Auswahl unter Verwendung des Cursors K zu erleichtern, indem die Anzahl der Symbole, die einem Scroll-Ziel im Kandidatenbereich AR1 entsprechen, reduziert wird.
  • Gemäß der als Beispiel beschriebenen Ausführungsform wird eine Steuerung ausgeführt, um die Anzeige der im Auswahlbereich AR2 angezeigten Symbole gemäß einer vorgegebenen Auswahlaufhebungsoperation zu beenden.
  • Insbesondere kann der Anwender eine Operation ausführen, um die Symbole, die sich im Auswahlbereich befinden, in den Kandidatenbereich zurück zu bringen. Auf diese Weise kann die Auswahl des Symbols IC (Extraktionsbedingung), das einmal als Extraktionsbedingung ausgewählt wurde, aufgehoben werden. Das Kamerapersonal kann flexibel eine Betätigung des Symbols zum geeigneten Einstellen einer für die Bildextraktion notwendigen Bedingung ausführen.
  • In dem Fall der Verschiebung des in dem Kandidatenbereich AR1 festgelegten Symbols IC in den Auswahlbereich AR2 kann das Symbol IC gemäß einer vorbestimmten Auswahlaufhebungsoperation in den Kandidatenbereich AR1 zurück gebracht werden. Auf diese Weise wird der Auswahlzustand leicht erkennbar.
  • Gemäß der als Beispiel beschriebenen Ausführungsform stellt die Extraktionsverarbeitungseinheit 34 eine AND-Bedingung, eine OR-Bedingung oder eine Ausschlussbedingung für jede von mehreren festgelegten Extraktionsbedingungen ein, um Bilder zu extrahieren.
  • Auf diese Weise kann das Kamerapersonal einen Bedingungsausdruck einstellen, indem es die AND-Bedingung, die OR-Bedingung oder die Ausschlussbedingung kombiniert, um eine Extraktionsbedingung für mehrere Extraktionsbedingungen, die für ein Ereignis im Zusammenhang mit einer Eheschließung eingestellt wurden, festzulegen und die eingestellte Bedingung als eine Extraktionsbedingung festzulegen. Dementsprechend können die gewünschten Bilder auf eine besser geeignete Weise extrahiert werden.
  • Gemäß der als Beispiel präsentierten Ausführungsform ist die Videobearbeitungseinheit 38 vorgesehen, um Videoinhalte unter Verwendung mehrerer Videoszenen, die durch die Extraktionsverarbeitungseinheit 34 unter einer Extraktionsbedingung extrahiert wurden, zu erzeugen.
  • Wie unter Bezugnahme auf die 72 bis 74 beschrieben, ist der auf einer Extraktionsbedingung basierende Extraktionsprozess auch für die Szenenextraktion zur Produktion eines Videos anwendbar. In diesem Fall werden Videoinhalte als ein Höhepunkt-Video durch Verbinden extrahierter Szenen erzeugt. Das Kamerapersonal kann durch Auswahl einer Extraktionsbedingung auf einfache Weise das Erzeugen eines Videos erreichen. Dieser Vorteil ist für die rasche Erzeugung eines Höhepunkt-Videos vorteilhaft.
  • Gemäß den Prozessen gemäß der vorstehenden Ausführungsform, die unter Bezugnahme auf die 1 bis 36 beschrieben ist, sind die nachstehend beschriebenen vorteilhaften Effekte angeboten.
  • Das Personalendgerät 1 gemäß der Ausführungsform weist die Ereignisdatenmanagementeinheit 30 auf, die Bilddaten, die über Kommunikation mit der Bildaufnahmevorrichtung 2 empfangen wurden, und Metadaten (zusätzliche Informationen), die wenigstens Bewertungsinformationen, die den Bilddaten entsprechen, enthalten, beide als die einem speziellen Ereignis zugeordneten Ereignisdaten 60 speichert und die Ereignisdaten 60 gemäß einer Bedieneingabe aktualisiert. Außerdem besitzt das Personalendgerät 1 die UI-Steuereinheit 31, die die Präsentation der Bilder und der Bewertungsinformationen, die den Ereignisdaten 60 des spezifischen Ereignisses als Projektziel zugeordnet sind, steuert und die Bedieneingabe erkennt. Das Personalendgerät 1 weist ferner die Kommunikationssteuereinheit 32 auf, die die Kommunikation mit der außerhalb angeordneten Servervorrichtung 4 steuert, um die Ereignisdaten 60 und die Ereignisdaten 90 gemäß der Speicherung oder Aktualisierung der Ereignisdaten 60 zu synchronisieren.
  • Dementsprechend führt die Datenverarbeitungsvorrichtung 10 als das Personalendgerät 1 einen Ereignisdatenmanagementprozess, der einen Prozess zum Speichern der Bilddaten, die über Kommunikation mit der Bildaufnahmevorrichtung 2 empfangen wurden, und der zusätzlichen Informationen, die wenigstens die Bewertungsinformationen, die den Bilddaten entsprechen, enthalten, beide als die Ereignisdaten, die dem spezifischen Ereignis zugeordnet sind, und einen Aktualisierungsprozess zum Aktualisieren der Ereignisdaten gemäß der Bedieneingabe, einen UI-Steuerungsprozess, der die Präsentation der Bilder und der Bewertungsinformationen, die den Ereignisdaten des spezifischen Ereignisses zugeordnet sind, steuert und die Operationseingabe erkennt, aufweist; und einen Kommunikationssteuerungsprozess, der die Kommunikation mit der außerhalb angeordneten Servervorrichtung zur Synchronisation der Ereignisdaten steuert, gemäß Speichern oder Aktualisieren der Ereignisdaten, aus.
  • Das so konfigurierte Personalendgerät 1 ist in der Lage, die von der Bildaufnahmevorrichtung 2 der Reihe nach übertragenen Bilder und Metadaten als die Ereignisdaten des jeweiligen Ereignisses zu managen und diese Bilder und Metadaten beispielsweise in Listenform dem Kamerapersonal zu präsentieren. Dementsprechend ist das Kamerapersonal in der Lage, Bilder, die eine Bildsammlung, wie z. B. eine Web-Galerie bilden, unter Verwendung des Personalendgeräts 1 zu überprüfen.
  • Außerdem werden die Bewertungsinformationen, die der Fotograf unter Verwendung der Bildaufnahmevorrichtung 2 für jedes der Bilder vergeben hat, zu diesem Zeitpunkt auch als Bewertungssymbol 130 angezeigt. Dementsprechend können diese Bewertungsinformationen das Kamerapersonal, wie z. B. den Fotografen selbst und den Assistenten, zum Zeitpunkt der Auswahl der in die Bildsammlung aufzunehmenden Bilder unterstützen.
  • Ferner wird eine Kommunikation ausgeführt, um einen Zustand der Synchronisation zwischen den Ereignisdaten 60 des Personalendgeräts 1 und den Ereignisdaten 90 der Servervorrichtung 4 aufrechtzuerhalten. Somit kann selbst in einem Fall, in dem der Assistent die Endgerätevorrichtung 1B bedient, nachdem der Fotograf eine Operation wie beispielsweise die Auswahl unter Verwendung der Endgerätevorrichtung 1A fertiggestellt hat, wobei sich die Endgerätevorrichtung 1B an der Servervorrichtung 4 angemeldet hat, die Endgerätevorrichtung 1A in einem Zustand betrieben werden, in dem synchronisierte aktuelle Ereignisdateninhalte widergespiegelt sind. Dementsprechend ist die Erzeugung der Bildsammlung effizient ausführbar.
  • Obwohl die Bildaufnahmevorrichtung 2 und das Personalendgerät 1 als separate Komponenten präsentiert worden sind, ist es auch möglich, dass die Bildaufnahmevorrichtung 2 und die Endgerätevorrichtung 1A des Personalendgerät 1 beispielsweise in einer Vorrichtung integriert sind.
  • Gemäß der Ausführungsform erfasst die Ereignisdatenmanagementeinheit 30 Ereignisdaten eines spezifischen Ereignisses von der Servervorrichtung 4 als Reaktion auf die Auswahl des spezifischen Ereignisses (siehe Schritt S204 in 12).
  • Die Ereignisdaten der Servervorrichtung 4 werden über die Kommunikation von dem Personalendgerät 1 synchronisiert. Dementsprechend sind die Ereignisdaten der Servervorrichtung 4 die neuesten Ereignisdaten. Wenn ein Anwendungsprogramm in dem Personalendgerät 1 gestartet wird, wird eine Liste von Ereignissen angezeigt. In einem Fall, in dem der Anwender ein Ereignis auswählt, können die neuesten Ereignisdaten dadurch erfasst werden, dass zuerst Ereignisdaten von der Seite der Servervorrichtung 4 geladen werden. Es versteht sich von selbst, dass die Bewertungsinformationen die neuesten Informationen sind. Beispielsweise kann selbst in einem Fall, in dem der Assistent die Endgerätevorrichtung 1B verwendet, der Assistent die neueste Bewertung überprüfen, die die vorherige Einstellung oder Änderung der Bewertung, die durch den Fotografen mit der Bildaufnahmevorrichtung 2 oder dem Personalendgerät 1 vorgenommen wurde, widerspiegelt.
  • Gemäß der Ausführungsform enthalten die Ereignisdaten 60 die Voreinstellungsinformationen 61. Die UI-Steuereinheit 31 zeigt Bilder von Bilddaten, die in den Ereignisdaten 60 enthalten sind, unter Verwendung der Bildbearbeitungsdaten an, die unter Bezugnahme auf Bearbeitungsinformationen, die in den Voreinstellungsinformationen enthalten sind, bearbeitet wurden (siehe Schritt S250 in 15).
  • Jedes der aufgenommenen und importierten Bilder kann automatisch bearbeitet und angezeigt werden, indem solche Bearbeitungsinformationen wie Retuschierparameter als die Voreinstellungsinformationen 61 eingestellt werden. Dieses Verfahren ist in einem Fall effektiv, in dem jedem Bild in einer Web-Galerie oder dergleichen eine einheitliche Atmosphäre verliehen werden soll.
  • Außerdem eliminiert die automatische Bearbeitung die Notwendigkeit, für jedes einzelne Bild eine ähnliche Bearbeitungsoperation auszuführen, und erleichtert so die durch das Kamerapersonal ausgeführte Arbeit erheblich.
  • Gemäß der Ausführungsform führt die UI-Steuereinheit 31 eine Steuerung aus, um eine Anwenderschnittstelle bereitzustellen, die eine Eingabeoperation für Bearbeitungsinformationen für Bilddaten, die in den Ereignisdaten 60 enthalten sind, ermöglicht. Die Ereignisdatenmanagementeinheit 30 führt einen Prozess zum Aktualisieren der Ereignisdaten gemäß der Eingabeoperation für Bearbeitungsinformationen aus (siehe Schritt S251 und Schritt S260 bis Schritt S267 in 15).
  • In der Konfiguration, die die Eingabe von Bearbeitungsinformationen wie z. B. Retuschierparametern ermöglicht, ist es beispielsweise möglich, dass das Kamerapersonal einzelne Bilder auf irgendeine Weise bearbeitet.
  • Insbesondere durch Bearbeiten der jeweiligen Bilder in Übereinstimmung mit den Retuschierparametern der Voreinstellung sind Feinanpassungen und eine Änderung der Atmosphäre für die jeweiligen Bilder erreichbar, nachdem beispielsweise ein gemeinsamer Farbton für die jeweiligen Bilder eingestellt worden ist.
  • Gemäß der Ausführungsform führt die UI-Steuereinheit 31 eine Steuerung aus, die eine Eingabeoperation zum Eingeben von Bewertungsinformationen, die Bilddaten, die in den Ereignisdaten 60 enthalten sind, zugeordnet sind, ermöglicht. Die Ereignisdatenmanagementeinheit 30 führt einen Prozess zum Aktualisieren der Ereignisdaten gemäß der Eingabeoperation zum Eingeben der Bewertungsinformationen aus (siehe Schritte S217, S230 und S231 in 14, Schritte S255, S282 und Schritt S283 in 16 und andere).
  • Beispielsweise in der Konfiguration, die die Eingabe der Bewertungsinformationen ermöglicht, kann das Kamerapersonal die durch das Kamerapersonal für die einzelnen Bilder während der Bildaufnahme eingestellte Bewertung auf irgendeine Weise nachträglich ändern. Eine besser geeignete Auswahl kann beispielsweise durch die Überprüfung der Bilder und Neueinstellen der Bewertung nach dem Ende der Hochzeit erreichbar sein.
  • Gemäß der Ausführungsform führt die UI-Steuereinheit 31 eine Steuerung aus, um eine Anwenderschnittstelle bereitzustellen, die eine Einstelloperation zum Einstellen von Auswahlinformationen zur selektiven Verwendung der in den Ereignisdaten 60 enthaltenen Bilddaten und zur Erzeugung einer Bildsammlung ermöglicht. Die Ereignisdatenmanagementeinheit 30 führt einen Prozess zum Aktualisieren der Ereignisdaten gemäß der Einstelloperation zum Einstellen der Auswahlinformationen aus (siehe Schritte S218, S219 und S232 bis S237 in 14, Schritte S256, S284 und S285 in 16, Schritte S301, S302, S310, S311, S320 und S321 in 17 und andere).
  • Durch Einstellen der Auswahlinformation kann eine Absicht des Kamerapersonals bezüglich der Bildsammlung den Ereignisdaten 60 hinzugefügt werden. In diesem Fall kann eine solche Bildsammlung, die die Absicht des Kamerapersonals widerspiegelt, zum Zeitpunkt der automatischen Erzeugung einer Web-Galerie durch die Servervorrichtung 4 unter Bezugnahme auf die synchronisierten Ereignisdaten 90 erzeugt werden. Dementsprechend kann dem Kunden eine Web-Galerie, die die Erzeugungsabsicht des Kamerapersonals widerspiegelt, in kürzester Zeit präsentiert werden.
  • Gemäß der Ausführungsform enthalten die Auswahlinformationen die Bildverwendungsinformationen, die die Auswahl als in die Bildsammlung aufgenommene Bilder angeben.
  • Insbesondere kann ein Flag als Bildverwendungsinformationen eingestellt werden, die angeben, welche Bilder in die Web-Galerie aufgenommen werden sollen. Das Kamerapersonal kann durch Ein- und Ausschalten des Flag leicht einstellen, welche Bilder aufgenommen werden sollen.
  • Gemäß der Ausführungsform enthalten die Auswahlinformationen Titelbildinformationen, die die Auswahl als ein Titelbild der Bildsammlung angeben.
  • Insbesondere kann ein Titelbild als Auswahlinformationen eingestellt werden, die angeben, welches Bild als ein Titel der Web-Galerie eingesetzt werden soll. Das Kamerapersonal kann durch Einstellen des Titelbilds ein Bild, das als Titel eingesetzt werden soll, leicht einstellen.
  • Gemäß der Ausführungsform enthalten die Auswahlinformationen Informationen zur betonten Anzeige des Bildes, die die Auswahl als ein Bild angeben, das in der Bildsammlung mit Betonung angezeigt werden soll.
  • Insbesondere kann ein Bild, das mit Betonung wie z. B. mit einer größeren Größe als die Größe der anderen Bilder in der Web-Galerie angezeigt werden soll, durch Hervorhebungseinstellung ausgewählt werden. Das Kamerapersonal kann ein Bild auswählen, das durch eine Hervorhebungseinstellung betont werden soll. Außerdem bildet eine mit Hervorhebungseinstellung erzeugte Web-Galerie eine Bildsammlung, die automatisch erzeugt worden ist, jedoch nicht langweilig ist.
  • Es wird darauf hingewiesen, dass die Servervorrichtung 4 konfiguriert sein kann, eine Web-Galerie zu erzeugen, die Bilder, für die keine Hervorhebungseinstellung vorgenommen worden ist, mit Hervorhebung anzeigt.
  • Ferner ist die Hervorhebungseinstellung nicht auf eine Vergrößerung beschränkt, sondern weist beispielsweise auch Betonung unter Verwendung von Luminanz, Farbe oder Rahmenanzeige auf
  • In dem Beispiel gemäß der vorstehend beschriebenen Ausführungsform weist das Personalendgerät 1 die Einheit 33 zur automatischen Einstellung auf, die einen Prozess zum automatischen Einstellen von Auswahlinformationen unter Bezugnahme auf Tendenzinformationen, die unter Bezugnahme auf dem Kamerapersonal zugeordnete frühere Auswahlinformationen erzeugt wurden, ausführt.
  • Tendenzinformationen, die angeben, welche Bilder eingesetzt werden sollen, welche Bilder als Titelbilder festgelegt werden sollen und welche Bilder als hervorgehobene Bilder festgelegt werden sollen, werden durch das Erlernen der früheren Auswahleinstellung eingestellt. Insbesondere werden charakteristische Punkte solcher Bilder wie z. B. Bilder, die wahrscheinlich als Flag-Ein-Bilder, Bilder festgelegt werden, Bilder, die wahrscheinlich als Bilder mit Hervorhebungseinstellung festgelegt werden, und Bilder, die wahrscheinlich als Titelbilder festgelegt werden, analysiert und als Tendenzinformationen bereitgestellt. Das automatische Bereitstellen von Auswahleinstellung unter Verwendung dieser Tendenzinformationen erleichtert in gewissem Maße die durch das entsprechende Kamerapersonal ausgeführte Arbeit.
  • Selbstverständlich kann das Kamerapersonal nach der automatischen Auswahleinstellung eine manuelle Einstellung bereitstellen. Dementsprechend kann eine Bildsammlung erzeugt werden, die ferner die Absicht des Kamerapersonals widerspiegelt.
  • Zusätzlich kann die automatische Einstellung der Auswahlinformationen auf der Seite der Servervorrichtung 4 ausgeführt werden, und die Ereignisdaten, die diese automatische Einstellung widerspiegeln, können an das Personalendgerät 1 übermittelt werden.
  • Außerdem kann, obwohl die Tendenzinformationen gemäß der vorstehenden Beschreibung auf der Seite der Servervorrichtung 4 erzeugt werden, das Personalendgerät 1 eine Tendenzinformationserzeugungseinheit zum Erzeugen von Tendenzinformationen aufweisen.
  • In dem Beispiel gemäß der vorstehend beschriebenen Ausführungsform weist das Personalendgerät 1 die Einheit 33 zur automatischen Einstellung auf, die einen Prozess zum automatischen Einstellen von Auswahlinformationen unter Bezugnahme auf gemäß der Präferenz des Kundenanwenders erzeugten Tendenzinformationen ausführt.
  • Die Tendenzinformationen werden durch Erlernen einer Tendenz bevorzugter Bilder des Kunden und Analysieren der charakteristischen Punkte der bevorzugten Bilder erzeugt. Das automatische Bereitstellen von Auswahleinstellungen unter Verwendung dieser Tendenzinformationen ermöglicht die einfache Erzeugung einer Bildsammlung, die zu einem gewissen Grad mit der Tendenz des Kunden übereinstimmt.
  • Zusätzlich kann die automatische Einstellung der Auswahlinformationen auf der Seite der Servervorrichtung 4 ausgeführt werden, und die Ereignisdaten, die diese automatische Einstellung widerspiegeln, können an das Personalendgerät 1 übermittelt werden.
  • Außerdem kann, obwohl die Tendenzinformationen gemäß der vorstehenden Beschreibung auf der Seite der Servervorrichtung 4 erzeugt werden, das Personalendgerät 1 eine Tendenzinformationserzeugungseinheit zum Erzeugen von Tendenzinformationen aufweisen.
  • Die Servervorrichtung 4 gemäß der Ausführungsform weist die Ereignisdatenmanagementeinheit 40 auf, die die Ereignisdaten 90, die Bilddaten und den Bilddaten entsprechende Bewertungsinformationen enthalten, speichert und die Aktualisierung in Reaktion auf den Empfang von Informationen, die einem bestimmten Ereignis zugeordnet sind, von dem Personalendgerät 1 verwaltet. Die Servervorrichtung 4 fügt die Ereignisdaten 90 hinzu und aktualisiert sie, so dass die vom Personalendgerät 1 gesendeten Bilddaten und Bewertungsinformationen in den Ereignisdaten 90 des spezifischen Ereignisses widergespiegelt werden können. Somit können die mit den Bildern und den Bewertungsinformationen der Ereignisdaten 60 auf der Seite des Personalendgeräts 1 synchronisierten Ereignisdaten 90 gespeichert werden. Insbesondere sind die Bewertungsinformationen auf der Seite des Personalendgeräts 1 beliebig veränderbar. Diese Änderung kann in den Ereignisdaten 90 der Servervorrichtung 4 widergespiegelt werden, um die neuesten Ereignisdaten 90 beizubehalten.
  • Obwohl die Servervorrichtung 4 in der vorstehenden Beschreibung die Bilddaten und die den Bilddaten entsprechenden Bewertungsinformationen von dem Personalendgerät 1 empfängt, kann die Servervorrichtung 4 die Übertragung von Metadaten (zusätzlichen Informationen), die die Bilddaten und die den Bilddaten entsprechenden Bewertungsinformationen enthalten, direkt von der Bildaufnahmevorrichtung 2 empfangen.
  • Die Servervorrichtung 4 gemäß der Ausführungsform weist die Ereignisdatenzuführungssteuereinheit 42 auf, die veranlasst, dass eine Übertragung zum Zuführen der Ereignisdaten zu dem Personalendgerät 1 ausgeführt wird.
  • Die Ereignisdaten der Servervorrichtung 4 werden mit den Ereignisdaten des Personalendgeräts 1 durch Kommunikation von dem Personalendgerät 1 synchronisiert. Dementsprechend sind die Ereignisdaten der Servervorrichtung 4 die neuesten Ereignisdaten. Die Anzeige basierend auf den neuesten Ereignisdaten ist durch Übermitteln der Ereignisdaten an das Personalendgerät 1 ausführbar, wenn ein Ereignis nach einem Start eines Anwendungsprogramms in dem Personalendgerät 1 ausgewählt wird. Dementsprechend können der Fotograf und der Assistent unter Verwendung des Personalendgeräts 1 verschiedene Arten von Arbeiten in einem neuesten Zustand ausführen.
  • Die Ereignisdatenmanagementeinheit 40 der Servervorrichtung 4 gemäß der Ausführungsform speichert und managt die Aktualisierung der Ereignisdaten 90, die Auswahlinformationen oder Bearbeitungsinformationen, die Bilddaten entsprechen, enthalten, in Reaktion auf den Empfang von Informationen, die einem spezifischen Ereignis zugeordnet sind, von dem Personalendgerät 1.
  • Die Seite der Servervorrichtung 4 aktualisiert auch die Ereignisdaten in Reaktion auf den Empfang von Bearbeitungsinformationen, wie z. B. Retuschierparametern, und Auswahlinformationen, die Flags, einem Titel und Hervorhebungen zugeordnet sind. Als ein Ereignis kann ein synchroner Zustand mit den Ereignisdaten des Personalendgeräts 1 aufrechterhalten werden.
  • Die Servervorrichtung 4 gemäß der Ausführungsform weist die Bildsammlungserzeugungseinheit 41 auf, die eine Web-Galerie, die den einem spezifischen Ereignis zugeordneten Bildsammlungsdaten entspricht, unter Verwendung von Auswahlinformationen und Bearbeitungsinformationen erzeugt.
  • Die Ereignisdaten 60 und die Ereignisdaten 90 werden auf der Seite der Servervorrichtung 4 und auf der Seite des Personalendgeräts 1 miteinander synchronisiert. Dementsprechend kann eine Bildsammlung (Web-Galerie), die eine Absicht des Kamerapersonals, das das Personalendgerät 1 verwendet, widerspiegelt, unter Bezugnahme auf die in den Ereignisdaten 90 auf der Seite der Servervorrichtung 4 enthaltenen Ausgabeinformationen und Auswahlinformationen erzeugt werden.
  • Außerdem kann die Erzeugung der Bildsammlung auf der Seite der Servervorrichtung 4 eine Verarbeitungslast des Personalendgeräts 1, das eine Endgerätevorrichtung mit geringem Betriebsmittelvolumen ist, reduzieren.
  • Gemäß der Ausführungsform weisen die in den Ereignisdaten 90 auf der Seite der Servervorrichtung 4 enthaltenen Auswahlinformationen auch Bildverwendungsinformationen auf, die die Auswahl als in die Bildsammlung aufzunehmende Bilder angeben.
  • Somit kann eine Bildsammlung (Web-Galerie), die Bilder aufweist, die durch das Kamerapersonal, das das Personalendgerät 1 verwendet, ausgewählt wurden, unter Bezugnahme auf die Auswahlinformationen erzeugt werden.
  • Gemäß der Ausführungsform weisen die in den Ereignisdaten 90 auf der Seite der Servervorrichtung 4 enthaltenen Auswahlinformationen auch Titelbildinformationen auf, die die Auswahl als ein Titelbild der Bildersammlung angeben.
  • Somit kann eine Bildsammlung (Web-Galerie), die ein Titelbild festlegt, das durch das Kamerapersonal, das das Personalendgerät 1 verwendet, als ein Titel ausgewählt ist, unter Bezugnahme auf die Auswahlinformationen erzeugt werden.
  • Gemäß der Ausführungsform enthalten die in den Ereignisdaten 90 auf der Seite der Servervorrichtung 4 enthaltene Auswahlinformationen eine Bildinformation zur betonten Anzeige, die die Auswahl als ein Bild, das in der Bildsammlung mit Betonung angezeigt werden soll, angeben.
  • Somit kann eine Bildsammlung (Web-Galerie), die betonte Bilder mit Hervorhebung enthält, die durch das Kamerapersonal, das das Personalendgerät 1 verwendet, ausgewählt wurden, unter Bezugnahme auf die Auswahlinformationen erzeugt werden.
  • Die Servervorrichtung 4 gemäß der Ausführungsform weist die Datenausgabeeinheit 43 auf, die alle oder einen Teil der Ereignisdaten 90 als Datei in einem vorbestimmten Format an die Endgerätevorrichtung (Personalcomputer 3 oder Personalendgerät 1) sendet.
  • Dementsprechend kann beispielsweise die Seite des Kamerapersonals unter Verwendung des Personalcomputers 3 oder des Personalendgeräts 1 auf effiziente Weise Materialien einer Bildsammlung für die reguläre Übergabe erfassen und durch Ausführen notwendiger Bearbeitung oder dergleichen auf einfache Weise eine Bildsammlung für die reguläre Übergabe erzeugen.
  • Gemäß der Ausführungsform kann, obwohl eine von der Bildaufnahmevorrichtung 2 empfangene Bilddatei an das Personalendgerät 1 übertragen und von dem Personalendgerät 1 zu der Servervorrichtung 4 hochgeladen wird, die Bilddatei direkt von der Bildaufnahmevorrichtung 2 zu der Servervorrichtung 4 hochgeladen werden.
  • Gemäß der vorstehend beschriebenen Ausführungsform wird die Erzeugung einer Bildsammlung von Standbildern angenommen. Die Bildsammlung kann jedoch auch ein Video als Teil des Inhalts enthalten oder mehrere Videos aufweisen. In diesen Fällen sind die in der Ausführungsform beschriebenen Prozesse in ähnlicher Weise anwendbar.
  • Das Video kann in diesem Fall entweder ein Video mit Ton oder ein Video, das nur Bildinformationen ohne Ton enthält, sein.
  • Ein Programm gemäß der Ausführungsform ist ein Programm, das beispielsweise eine CPU, einen DSP oder dergleichen oder eine Vorrichtung, die diese enthält, veranlasst, die in den 42 bis 45 und 74 präsentierten Prozesse auszuführen.
  • Insbesondere veranlasst das Programm gemäß der Ausführungsform die Datenverarbeitungsvorrichtung, die das Personalendgerät 1, die Servervorrichtung 4 oder die Bildaufnahmevorrichtung 2 bildet, einen Steuerprozess, der eine Anwenderschnittstelle bereitstellt, die eine Festlegungsoperation zum Festlegen einer Extraktionsbedingung für eine Bildgruppe von Bildern, die bei einem Ereignis im Zusammenhang mit einer Eheschließung aufgenommen werden, ermöglicht, und einen Extraktionsprozess, der ein Bild aus der Bildgruppe gemäß der festgelegten Extraktionsbedingung extrahiert, auszuführen.
  • Ein solches Programm ermöglicht, dass das Personalendgerät 1 oder die Servervorrichtung 4, das/die den vorstehend beschriebenen Auswahlbeschleunigungsunterstützungsprozess ausführt, in einer anderen Einrichtung implementiert werden, die in der Lage ist, Datenverarbeitung auszuführen, wie z. B. einer tragbaren Endgerätevorrichtung und einem Personalcomputer. Alternativ kann der Auswahlbeschleunigungsunterstützungsprozess auch durch die Bildaufnahmevorrichtung 2 ausgeführt werden.
  • Das vorstehend beschriebene Programm zum Implementieren des Personalendgeräts 1, der Servervorrichtung 4 oder der Bildaufnahmevorrichtung 2 kann im Voraus auf einer HDD als eingebautem Aufzeichnungsmedium einer Vorrichtung wie z. B. einer Computervorrichtung, einem ROM in einem Mikrocomputer mit einer CPU oder dergleichen aufgezeichnet werden.
  • Alternativ kann das Programm temporär oder permanent auf einem herausnehmbaren Aufzeichnungsmedium wie einer flexiblen Platte, einer CD-ROM (Compact-Disc-Festwertspeicher), einer MO-Platte (magneto-optischen Platte), einer DVD (Digital Versatile Disc), einer Blu-ray-Platte (Blu-ray Disc (eingetragenes Warenzeichen)), einer Magnetplatte, einem Halbleiterspeicher und einer Speicherkarte gespeichert (aufgezeichnet) werden. Ein solches herausnehmbares Aufzeichnungsmedium kann als so genannte Paketsoftware bereitgestellt werden.
  • Außerdem kann das vorstehend beschriebene Programm in einem Personalcomputer oder dergleichen von einem herausnehmbaren Aufzeichnungsmedium installiert werden oder kann über ein Netz wie z. B. ein LAN (lokales Netz) und das Internet von einer Download-Seite heruntergeladen werden.
  • Darüber hinaus ist das vorstehend beschriebene Programm auf eine große Angebotsauswahl des Personalendgeräts 1, der Servervorrichtung 4 oder der Bildaufnahmevorrichtung 2 gemäß der Ausführungsform anwendbar. Beispielsweise kann das Programm auf eine tragbare Endgerätevorrichtung wie z. B. ein Smartphone und ein Tablet, ein Mobiltelefon, einen Personalcomputer, eine Standbildkamera, eine Videokamera, eine Spielkonsole, ein Videogerät und einen PDA (persönlichen digitalen Assistenten) heruntergeladen werden, um zu ermöglichen, dass das Smartphone oder dergleichen als das Personalendgerät 1, die Servervorrichtung 4 oder die Bildaufnahmevorrichtung 2 der vorliegenden Offenbarung funktioniert.
  • Es wird darauf hingewiesen, dass die in der vorliegenden Beschreibung beschriebenen vorteilhaften Effekte nur als Beispiel präsentiert sind. Die vorteilhaften Effekte, die produziert werden sollen, sind nicht auf diese Beispiele beschränkt und können andere vorteilhafte Effekte aufweisen.
  • Es wird darauf hingewiesen, dass die vorliegende Technologie auch die folgenden Konfigurationen aufweisen kann.
    • (1) Datenverarbeitungsvorrichtung, die Folgendes aufweist:
      • eine Anwenderschnittstellensteuereinheit, die eine Steuerung zum Bereitstellen einer Anwenderschnittstelle ausführt, die eine Festlegungsoperation zum Festlegen einer Extraktionsbedingung für eine Bildgruppe von Bildern, die bei einem Ereignis im Zusammenhang mit einer Eheschließung aufgenommen wurden, ermöglicht; und
      • eine Extraktionsverarbeitungseinheit, die ein Bild aus der Bildgruppe gemäß der festgelegten Extraktionsbedingung extrahiert.
    • (2) Datenverarbeitungsvorrichtung nach dem vorstehend beschriebenen (1), wobei die Anwenderschnittstellensteuereinheit eine Steuerung zum Anzeigen des durch die Extraktionsverarbeitungseinheit extrahierten Bildes und zum Bereitstellen einer Anwenderschnittstelle, die eine Eingabeoperation zum Eingeben von jedem der Bilder zugeordneten Bewertungsinformationen ermöglicht, ausführt.
    • (3) Datenverarbeitungsvorrichtung nach dem vorstehend beschriebenen (1) oder (2), wobei die Extraktionsverarbeitungseinheit ein Bild, das die festgelegte Extraktionsbedingung erfüllt, unter Bezugnahme auf Analyseergebnisdaten der Bildinhalte der jeweiligen in der Bildgruppe enthaltenen Bilder extrahiert.
    • (4) Datenverarbeitungsvorrichtung nach dem vorstehend beschriebenen (3), wobei die Analyseergebnisdaten von einer externen Vorrichtung empfangen werden.
    • (5) Datenverarbeitungsvorrichtung nach einem der vorstehend beschriebenen (1) bis (4), wobei die Anwenderschnittstellensteuereinheit eine Steuerung zum Anzeigen eines Symbols, das die Extraktionsbedingung für die Bilder der Bildgruppe anzeigt, um eine Operation für das Symbol als eine Festlegungsoperation zum Festlegen der Extraktionsbedingung zu detektieren, ausführt.
    • (6) Datenverarbeitungsvorrichtung nach dem vorstehend beschriebenen (5), wobei die Anwenderschnittstellensteuereinheit das Symbol, das einem Operationsziel zum Festlegen der Extraktionsbedingung entspricht, in einem Anzeigemodus, der sich von einem Anzeigemodus eines Symbols das nicht dem Operationsziel für die Festlegung entspricht, unterscheidet, anzeigt.
    • (7) Datenverarbeitungsvorrichtung nach einem der vorstehend beschriebenen (1) bis (6), wobei die Extraktionsbedingung eine Bedingung zum Festlegen einer Person aufweist.
    • (8) Datenverarbeitungsvorrichtung nach einem der vorstehend beschriebenen (1) bis (7), wobei die Extraktionsbedingung eine Bedingung aufweist, die die Festlegung einer Szene des Ereignisses im Zusammenhang mit der Eheschließung ermöglicht.
    • (9) Datenverarbeitungsvorrichtung nach einem der vorstehend beschriebenen (1) bis (8), wobei die Extraktionsbedingung eine Bedingung aufweist, die die Festlegung von Zeitinformationen für das Ereignis im Zusammenhang mit der Eheschließung ermöglicht.
    • (10) Datenverarbeitungsvorrichtung nach einen der vorstehend beschriebenen (1) bis (9), wobei die Extraktionsbedingung eine Bedingung aufweist, die die Festlegung eines Dings oder eines Tieres, das einem abzubildenden Objekt entspricht, ermöglicht.
    • (11) Datenverarbeitungsvorrichtung nach einen der vorstehend beschriebenen (1) bis (10), wobei die Extraktionsbedingung eine Bedingung aufweist, die die Festlegung einer Emotion oder eines Gesichtsausdrucks eines abzubildenden Objekts ermöglicht.
    • (12) Datenverarbeitungsvorrichtung nach einem der vorstehend beschriebenen (1) bis (11), wobei die Anwenderschnittstellensteuereinheit Informationen präsentiert, die einen Grad einer Emotion oder eines Gesichtsausdrucks eines abzubildenden Objekts für das durch die Extraktionsverarbeitungseinheit extrahierte Bild angeben.
    • (13) Datenverarbeitungsvorrichtung nach einem der vorstehend beschriebenen (1) bis (12), wobei als Extraktionsbedingung eine Bedingung enthalten ist, die die Festlegung eines unter Bezugnahme auf während der Bildaufnahme hinzugefügte Metadaten bestimmten Elements ermöglicht.
    • (14) Datenverarbeitungsvorrichtung nach einem der vorstehend beschriebenen (1) bis (13), wobei die Anwenderschnittstellensteuereinheit eine Fokusposition des durch die Extraktionsverarbeitungseinheit extrahierten Bildes präsentiert.
    • (15) Datenverarbeitungsvorrichtung nach einem der vorstehend beschriebenen (1) bis (14), wobei die Anwenderschnittstellensteuereinheit eine Steuerung zum Anzeigen eines Symbols der Extraktionsbedingung in einem Kandidatenbereich in einem Anzeigebildschirm und zum Anzeigen eines Symbols, das durch eine vorbestimmte Operation festgelegt ist, in einem Auswahlbereich in dem Anzeigebildschirm ausführt.
    • (16) Datenverarbeitungsvorrichtung nach dem vorstehend beschriebenen (15), wobei die Anwenderschnittstellensteuereinheit eine Steuerung zum Beenden der Anzeige des in dem Auswahlbereich angezeigten Symbols gemäß einer vorbestimmten Auswahlaufhebungsoperation ausführt.
    • (17) Datenverarbeitungsvorrichtung nach einem der vorstehend beschriebenen (1) bis (16), wobei eine AND-Bedingung, eine OR-Bedingung oder eine Ausschlussbedingung für jede von mehreren festgelegten Extraktionsbedingungen zum Extrahieren eines Bildes eingestellt ist.
    • (18) Die Datenverarbeitungsvorrichtung nach einem der vorstehend beschriebenen (1) bis (17), die ferner Folgendes aufweist:
      • eine Videobearbeitungseinheit, die unter Verwendung mehrerer Videoszenen, die durch die Extraktionsverarbeitungseinheit gemäß der Extraktionsbedingung extrahiert wurden, Videoinhalt erzeugt.
    • (19) Datenverarbeitungsverfahren, das durch eine Datenverarbeitungsvorrichtung ausgeführt wird, wobei das Verfahren Folgendes aufweist:
      • einen Steuerprozess, der eine Anwenderschnittstelle bereitstellt, die eine Festlegungsoperation zum Festlegen einer Extraktionsbedingung für eine Bildgruppe von Bildern, die bei einem Ereignis im Zusammenhang mit einer Eheschließung aufgenommen wurden, ermöglicht; und
      • einen Extraktionsprozess, der ein Bild aus der Bildgruppe gemäß der festgelegten Extraktionsbedingung extrahiert.
    • (20) Programm, das eine Datenverarbeitungsvorrichtung veranlasst, Folgendes auszuführen:
      • einen Steuerprozess, der eine Anwenderschnittstelle bereitstellt, die eine Festlegungsoperation zum Festlegen einer Extraktionsbedingung für eine Bildgruppe von Bildern, die bei einem Ereignis im Zusammenhang mit einer Eheschließung aufgenommen wurden, ermöglicht; und
      • einen Extraktionsprozess, der ein Bild aus der Bildgruppe gemäß der festgelegten Extraktionsbedingung extrahiert.
  • Bezugszeichenliste
  • 1
    Personalendgerät
    1a
    Anzeigeeinheit
    2
    Bildaufnahmevorrichtung
    2a
    Anzeigeeinheit
    2c
    Kreuztaste
    2d
    Rad
    3
    Personalcomputer
    4
    Servervorrichtung
    5
    Kundenendgerät
    6
    Netz
    10
    Datenverarbeitungsvorrichtung
    30
    Ereignisdatenmanagementeinheit
    31
    UI-Steuereinheit
    32
    Kommunikationssteuereinheit
    33
    Einheit zur automatischen Einstellung
    34
    Extraktionsverarbeitungseinheit
    35
    Bewertungsinformationsmanagementeinheit
    36
    Analyseergebnisdatenempfangseinheit
    37
    Analyseeinheit
    38
    Videobearbeitungseinheit
    71
    CPU
    200
    Symbolbereich
    201
    Erkennungsstufe von Emotionen und Gesichtsausdrücken
    202
    Zeitfestlegungsrahmen
    210
    Gesichtsauswahlbereich
    AR1
    Kandidatenbereich
    AR2
    Auswahlbereich
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 201681173 [0005]

Claims (20)

  1. Datenverarbeitungsvorrichtung, die Folgendes umfasst: eine Anwenderschnittstellensteuereinheit, die eine Steuerung zum Bereitstellen einer Anwenderschnittstelle ausführt, die eine Festlegungsoperation zum Festlegen einer Extraktionsbedingung für eine Bildgruppe von Bildern, die bei einem Ereignis im Zusammenhang mit einer Eheschließung aufgenommen wurden, ermöglicht; und eine Extraktionsverarbeitungseinheit, die ein Bild aus der Bildgruppe gemäß der festgelegten Extraktionsbedingung extrahiert.
  2. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Anwenderschnittstellensteuereinheit eine Steuerung zum Anzeigen des durch die Extraktionsverarbeitungseinheit extrahierten Bildes und zum Bereitstellen einer Anwenderschnittstelle, die eine Eingabeoperation zum Eingeben von jedem der Bilder zugeordneten Bewertungsinformationen ermöglicht, ausführt.
  3. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Extraktionsverarbeitungseinheit ein Bild, das die festgelegte Extraktionsbedingung erfüllt, unter Bezugnahme auf Analyseergebnisdaten der Bildinhalte der jeweiligen in der Bildgruppe enthaltenen Bilder extrahiert.
  4. Datenverarbeitungsvorrichtung nach Anspruch 3, wobei die Analyseergebnisdaten von einer externen Vorrichtung empfangen werden.
  5. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Anwenderschnittstellensteuereinheit eine Steuerung zum Anzeigen eines Symbols, das die Extraktionsbedingung für die Bilder der Bildgruppe anzeigt, um eine Operation für das Symbol als eine Festlegungsoperation zum Festlegen der Extraktionsbedingung zu detektieren, ausführt.
  6. Datenverarbeitungsvorrichtung nach Anspruch 5, wobei die Anwenderschnittstellensteuereinheit das Symbol, das einem Operationsziel zum Festlegen der Extraktionsbedingung entspricht, in einem Anzeigemodus, der sich von einem Anzeigemodus eines Symbols, das nicht dem Operationsziel für die Festlegung entspricht, unterscheidet, anzeigt.
  7. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Extraktionsbedingung eine Bedingung zur Festlegung einer Person aufweist.
  8. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Extraktionsbedingung eine Bedingung aufweist, die die Festlegung einer Szene des Ereignisses im Zusammenhang mit einer Eheschließung ermöglicht.
  9. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Extraktionsbedingung eine Bedingung aufweist, die die Festlegung von Zeitinformationen für das Ereignis im Zusammenhang mit einer Eheschließung ermöglicht.
  10. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Extraktionsbedingung eine Bedingung aufweist, die die Festlegung eines Dings oder eines Tieres, das einem abzubildenden Objekt entspricht, ermöglicht.
  11. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Extraktionsbedingung eine Bedingung aufweist, die die Festlegung einer Emotion oder eines Gesichtsausdrucks eines abzubildenden Objekts ermöglicht.
  12. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Anwenderschnittstellensteuereinheit Informationen präsentiert, die einen Grad einer Emotion oder eines Gesichtsausdrucks eines abzubildenden Objekts für das durch die Extraktionsverarbeitungseinheit extrahierte Bild anzeigen.
  13. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei als die Extraktionsbedingung eine Bedingung enthalten ist, die die Festlegung eines unter Bezugnahme auf während der Bildaufnahme hinzugefügte Metadaten bestimmten Elements ermöglicht.
  14. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Anwenderschnittstellensteuereinheit eine Fokusposition des durch die Extraktionsverarbeitungseinheit extrahierten Bildes präsentiert.
  15. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei die Anwenderschnittstellensteuereinheit eine Steuerung zum Anzeigen eines Symbols der Extraktionsbedingung in einem Kandidatenbereich in einem Anzeigebildschirm und zum Anzeigen eines Symbols, das durch eine vorbestimmte Operation festgelegt ist, in einem Auswahlbereich in dem Anzeigebildschirm ausführt.
  16. Datenverarbeitungsvorrichtung nach Anspruch 15, wobei die Anwenderschnittstellensteuereinheit eine Steuerung zur Beendigung der Anzeige des in dem Auswahlbereich angezeigten Symbols gemäß einer vorbestimmten Auswahlaufhebungsoperation ausführt.
  17. Datenverarbeitungsvorrichtung nach Anspruch 1, wobei eine AND-Bedingung, eine OR-Bedingung oder eine Ausschlussbedingung für jede von mehreren festgelegten Extraktionsbedingungen zum Extrahieren eines Bildes eingestellt ist.
  18. Datenverarbeitungsvorrichtung nach Anspruch 1, die ferner Folgendes umfasst: eine Videobearbeitungseinheit, die unter Verwendung mehrerer durch die Extraktionsverarbeitungseinheit gemäß der Extraktionsbedingung extrahierter Videoszenen Videoinhalt erzeugt.
  19. Datenverarbeitungsverfahren, das durch eine Datenverarbeitungsvorrichtung ausgeführt wird, wobei das Verfahren Folgendes umfasst: einen Steuerprozess, der eine Anwenderschnittstelle bereitstellt, die eine Festlegungsoperation zum Festlegen einer Extraktionsbedingung für eine Bildgruppe von Bildern, die bei einem Ereignis im Zusammenhang mit einer Eheschließung aufgenommen wurden, ermöglicht; und einen Extraktionsprozess, der ein Bild aus der Bildgruppe gemäß der festgelegten Extraktionsbedingung extrahiert.
  20. Programm, das eine Datenverarbeitungsvorrichtung veranlasst, Folgendes auszuführen: einen Steuerprozess, der eine Anwenderschnittstelle bereitstellt, die eine Festlegungsoperation zum Festlegen einer Extraktionsbedingung für eine Bildgruppe von Bildern, die bei einem Ereignis im Zusammenhang mit einer Eheschließung aufgenommen wurden, ermöglicht; und einen Extraktionsprozess, der ein Bild aus der Bildgruppe gemäß der festgelegten Extraktionsbedingung extrahiert.
DE112021001101.4T 2020-02-17 2021-01-28 Datenverarbeitungsvorrichtung, Datenverarbeitungsverfahren und Programm Pending DE112021001101T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2020-024625 2020-02-17
JP2020024625 2020-02-17
JP2020162637 2020-09-28
JP2020-162637 2020-09-28
PCT/JP2021/003094 WO2021166583A1 (ja) 2020-02-17 2021-01-28 情報処理装置、情報処理方法、プログラム

Publications (1)

Publication Number Publication Date
DE112021001101T5 true DE112021001101T5 (de) 2023-01-19

Family

ID=77390970

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021001101.4T Pending DE112021001101T5 (de) 2020-02-17 2021-01-28 Datenverarbeitungsvorrichtung, Datenverarbeitungsverfahren und Programm

Country Status (5)

Country Link
US (1) US20230137452A1 (de)
JP (1) JPWO2021166583A1 (de)
CN (1) CN115066710A (de)
DE (1) DE112021001101T5 (de)
WO (1) WO2021166583A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016081173A (ja) 2014-10-14 2016-05-16 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム、画像送信装置及びユースシーン分析方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5686673B2 (ja) * 2010-07-22 2015-03-18 富士フイルム株式会社 画像処理装置、画像処理方法およびプログラム
CN104756157B (zh) * 2012-11-09 2019-06-18 索尼公司 图像处理装置、图像处理方法以及存储介质
JP2015156187A (ja) * 2014-02-21 2015-08-27 ソニー株式会社 情報処理装置、システム、情報処理方法およびプログラム
JP2017058783A (ja) * 2015-09-14 2017-03-23 富士ゼロックス株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
US10860876B2 (en) * 2017-12-28 2020-12-08 Fujifilm Corporation Image presentation system, image presentation method, program, and recording medium
WO2019132016A1 (ja) * 2017-12-28 2019-07-04 富士フイルム株式会社 画像提示システム、画像提示方法、プログラムおよび記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016081173A (ja) 2014-10-14 2016-05-16 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム、画像送信装置及びユースシーン分析方法

Also Published As

Publication number Publication date
WO2021166583A1 (ja) 2021-08-26
JPWO2021166583A1 (de) 2021-08-26
CN115066710A (zh) 2022-09-16
US20230137452A1 (en) 2023-05-04

Similar Documents

Publication Publication Date Title
US7818689B2 (en) Information managing method, information managing apparatus, information managing program and storage medium
US11256904B2 (en) Image candidate determination apparatus, image candidate determination method, program for controlling image candidate determination apparatus, and recording medium storing program
DE202017002875U1 (de) Benutzerschnittstelle für Kameraeffekte
DE202016002529U1 (de) Vorrichtungen zum Einfangen von und Interagieren mit erweiterten digitalen Bildern
DE112015004827T5 (de) Verbesserte Ziehen-und-Ablegen-Operation in einer Mobilvorrichtung
JP2020140577A (ja) 装置、方法、及びプログラム
US10115216B2 (en) Display control apparatus, display control method, and program
DE19916349A1 (de) Bildverarbeitungsapparat, Verfahren und computerlesbares Aufzeichnungsmedium mit darauf aufgezeichnetem Programm zum leichten Verbinden von Bildern und Korrigieren von Bildverzerrungen
JP2020140567A (ja) 装置、方法、及びプログラム
JP7336211B2 (ja) 画像処理装置、制御方法、及びプログラム
JP6887816B2 (ja) 画像処理装置、制御方法、及びプログラム
JP2011055295A (ja) 撮影装置
DE112013002384T5 (de) Informationenverarbeitungsvorrichtung, Verfahren zum Steuern der Informationenverarbeitungsvorrichtung und Speichermedium
DE202017002874U1 (de) Benutzerschnittstelle für Kameraeffekte
JP7336209B2 (ja) 画像処理装置、制御方法、及びプログラム
DE10116830A1 (de) Dateiverwaltungsvorrichtung und Datenträger zum Aufzeichnen eines Dateiverwaltungsprogramms
DE102016125315A1 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
US20210090312A1 (en) Image processing apparatus, image processing method, image processing program, and recording medium storing image processing program
DE112021001101T5 (de) Datenverarbeitungsvorrichtung, Datenverarbeitungsverfahren und Programm
JP6673771B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP5513539B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2021149195A (ja) プログラム、画像処理方法、及び画像処理装置
JP2021077131A (ja) 構図アドバイスシステム、構図アドバイス方法、ユーザ端末、プログラム
JP2010272001A (ja) 表示制御装置、表示制御方法及びプログラム
EP4207739A1 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm