JP2022120646A - Imaging apparatus and imaging system - Google Patents

Imaging apparatus and imaging system Download PDF

Info

Publication number
JP2022120646A
JP2022120646A JP2021017681A JP2021017681A JP2022120646A JP 2022120646 A JP2022120646 A JP 2022120646A JP 2021017681 A JP2021017681 A JP 2021017681A JP 2021017681 A JP2021017681 A JP 2021017681A JP 2022120646 A JP2022120646 A JP 2022120646A
Authority
JP
Japan
Prior art keywords
content
photographing
user
image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021017681A
Other languages
Japanese (ja)
Inventor
健二朗 村田
Kenjiro Murata
健秀 岸本
Takehide Kishimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2021017681A priority Critical patent/JP2022120646A/en
Publication of JP2022120646A publication Critical patent/JP2022120646A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide an imaging apparatus and an imaging system capable of imaging a desirable facial expression of a user.SOLUTION: An imaging apparatus 110 comprises: image display means 111 for displaying an image included in a content; imaging means 112 for imaging a user; content reproduction means 113 for reproducing the content; imaging control means 116 which controls imaging timing by the imaging means in accordance with the reproduction time of the content by the content reproduction means; and image recording means 115 which records a photographic image obtained by imaging by the imaging means.SELECTED DRAWING: Figure 2

Description

本開示は、コンテンツの視聴者を撮影するための技術に関する。 TECHNICAL FIELD The present disclosure relates to techniques for shooting content viewers.

従来、テーマパークや観光地においては、顧客を撮影し、撮影した写真を販売する撮影サービスが提供されている。このような撮影サービスは、顧客であるユーザが視認できる位置にあるカメラで撮影される場合とアトラクションに乗っている最中に、知らない間に撮影される場合がある(特許文献1参照)。 2. Description of the Related Art Conventionally, in theme parks and sightseeing spots, photography services have been provided in which customers are photographed and the photographed photographs are sold. In such a photographing service, there are cases in which a photograph is taken by a camera that is visible to the user, who is a customer, and in which the photograph is taken without the user's knowledge while riding an attraction (see Patent Document 1).

特開2020-71519号公報JP 2020-71519 A

撮影BOXやスタッフによる撮影等、ユーザが視認できる位置にあるカメラで撮影される場合、ユーザは撮影のために表情を作るので不自然な表情になってしまう場合もある。ユーザが知らない間に撮影される場合、ユーザの自然な表情を撮影することができるが、事前に撮影の意思表示をした訳ではないので、ユーザによっては不快な気持ちになる場合も考えられる。よってユーザが自発的に撮影でき、尚且つ自然な表情を撮影出来る仕組みが必要となる。 In the case of shooting with a camera at a position where the user can see, such as shooting by a shooting box or staff, the user makes a facial expression for shooting, which may result in an unnatural facial expression. When the image is captured without the user's knowledge, the user's natural expression can be captured, but since the user does not express his/her intention to take the image in advance, the user may feel uncomfortable. Therefore, there is a need for a mechanism that allows the user to voluntarily photograph and to photograph natural facial expressions.

そこで、本開示は、ユーザの好ましい表情を撮影することが可能な撮影装置および撮影システムを提供することを課題とする。 Accordingly, an object of the present disclosure is to provide a photographing device and a photographing system capable of photographing a user's preferred facial expression.

上記課題を解決するため、本開示では、
コンテンツに含まれる画像を表示する画像表示手段と、
ユーザを撮影する撮影手段と、
前記コンテンツを再生するコンテンツ再生手段と、
前記コンテンツ再生手段による前記コンテンツの再生時に合わせて前記撮影手段による撮影タイミングを制御する撮影制御手段と、
前記撮影手段の撮影により取得された撮影画像を記録する画像記録手段と、
を有する撮影装置を提供する。
In order to solve the above problems, in the present disclosure,
image display means for displaying an image included in content;
a photographing means for photographing a user;
content reproduction means for reproducing the content;
a photographing control means for controlling timing of photographing by the photographing means in accordance with reproduction of the content by the content reproducing means;
an image recording means for recording a photographed image acquired by photographing by the photographing means;
To provide an imaging device having

また、本開示の撮影装置は、
前記撮影手段は、前記コンテンツ再生手段によるコンテンツの再生中に一定の時間間隔で撮影してもよい。
Further, the imaging device of the present disclosure is
The photographing means may photograph at regular time intervals during the reproduction of the content by the content reproducing means.

また、本開示の撮影装置は、
前記撮影手段は、前記コンテンツに応じて定められた所定の時間帯において撮影してもよい。
Further, the imaging device of the present disclosure is
The photographing means may photograph in a predetermined time period determined according to the content.

また、本開示の撮影装置は、
被写体の表情を認識するための表情認識用撮影手段をさらに有し、前記撮影手段は、表情認識用撮影手段により撮影された被写体の表情に応じて被写体を撮影してもよい。
Further, the imaging device of the present disclosure is
The apparatus may further comprise facial expression recognition photographing means for recognizing the facial expression of the subject, wherein the photographing means may photograph the subject according to the facial expression of the subject photographed by the facial expression recognition photographing means.

また、本開示の撮影装置は、
人物の表情を認識する表情認識手段をさらに有し、
前記撮影手段は、前記コンテンツの再生中に連続して動画を撮影し、
前記表情認識手段は、撮影された動画における被写体の表情に応じて、抽出する範囲を決定し、
前記画像記録手段は、前記決定された動画を記録してもよい。
Further, the imaging device of the present disclosure is
further comprising facial expression recognition means for recognizing facial expressions of a person;
The shooting means shoots moving images continuously during playback of the content,
The facial expression recognition means determines a range to be extracted according to the facial expression of the subject in the captured moving image,
The image recording means may record the determined moving image.

また、本開示では、
前記撮影装置と、
前記撮影装置と接続された管理サーバと、を有し、
前記管理サーバは、
前記コンテンツ再生手段により再生されるコンテンツを前記撮影装置に供給するコンテンツ供給手段と、
前記撮影装置から前記撮影画像を取得する撮影画像取得手段と、
前記撮影画像のユーザ状態を解析するユーザ状態解析手段と、
を有する撮影システムを提供する。
Also, in this disclosure:
the photographing device;
a management server connected to the imaging device;
The management server is
a content supplying means for supplying the content reproduced by the content reproducing means to the photographing device;
a photographed image obtaining means for obtaining the photographed image from the photographing device;
user state analysis means for analyzing the user state of the captured image;
To provide an imaging system having

また、本開示の撮影システムは、
前記撮影装置と接続された広告サーバをさらに有し、
前記広告サーバは、
前記コンテンツを前記管理サーバに送信するコンテンツ送信手段と、
前記管理サーバから前記ユーザ状態解析手段により解析された前記ユーザ状態のデータでるユーザ状態データを取得するユーザ状態データ取得手段と、を有してもよい。
Further, the imaging system of the present disclosure is
further comprising an advertisement server connected to the photographing device;
The ad server
content transmission means for transmitting the content to the management server;
a user state data acquisition unit for acquiring user state data, which is data of the user state analyzed by the user state analysis unit, from the management server.

本開示によれば、ユーザの自然な表情を撮影することが可能な撮影装置および撮影システムを提供することが可能となる。 According to the present disclosure, it is possible to provide a photographing device and a photographing system capable of photographing a user's natural expression.

本開示の一実施形態に係る撮影システムの構成図である。1 is a configuration diagram of an imaging system according to an embodiment of the present disclosure; FIG. 撮影装置110の詳細を示す図である。2 is a diagram showing details of an imaging device 110. FIG. 管理サーバ120の詳細を示す図である。3 is a diagram showing details of a management server 120; FIG. 広告サーバ140の詳細を示す図である。FIG. 3 is a diagram showing details of an advertisement server 140; FIG. ユーザ端末150のハードウェア構成図である。2 is a hardware configuration diagram of a user terminal 150. FIG. 撮影システムの処理動作を示すシーケンス図である。4 is a sequence diagram showing processing operations of the imaging system; FIG. 本実施形態に係る撮影手段の撮影態様を示す図である。It is a figure which shows the imaging|photography mode of the imaging means which concerns on this embodiment. 撮影時における撮影装置とユーザの関係を示す図である。FIG. 10 is a diagram showing the relationship between a photographing device and a user at the time of photographing; コンテンツの再生終了直後の表示デバイス110fの画面の様子を示す図である。FIG. 10 is a diagram showing a screen of a display device 110f immediately after content reproduction is finished; 撮影装置110の表示デバイス110fの画面変化の様子を示す図である。10A and 10B are diagrams showing how the screen of the display device 110f of the photographing device 110 changes. FIG. 分岐可能な複数のストーリーを有するコンテンツの画像の変化の様子を示す図である。FIG. 10 is a diagram showing how an image of content having a plurality of stories that can be branched changes.

以下、本開示の好適な実施形態について図面を参照して詳細に説明する。
<1.システム構成>
図1は、本開示の一実施形態に係る撮影システムの構成図である。図1において、110は撮影装置、120は管理サーバ、130はコンテンツ公開サーバ、140は広告サーバ、150はユーザ端末、160はネットワークである。撮影装置110、管理サーバ120、コンテンツ公開サーバ130、広告サーバ140、ユーザ端末150はインターネット等の公衆のネットワーク160に接続されており、互いにデータの送受信が可能となっている。図1の例では、説明の便宜上、撮影装置110、コンテンツ公開サーバ130、広告サーバ140、ユーザ端末150については、それぞれ1台のみ示しているが、それぞれ複数台接続されていてもよい。実際には、撮影装置110は、撮影スポットごとに設置されており、ユーザ端末150は、ユーザの数だけ存在する。
Preferred embodiments of the present disclosure will be described in detail below with reference to the drawings.
<1. System configuration>
FIG. 1 is a configuration diagram of an imaging system according to an embodiment of the present disclosure. In FIG. 1, 110 is a photographing device, 120 is a management server, 130 is a content publishing server, 140 is an advertising server, 150 is a user terminal, and 160 is a network. The photographing device 110, management server 120, content publishing server 130, advertisement server 140, and user terminal 150 are connected to a public network 160 such as the Internet, and can exchange data with each other. In the example of FIG. 1, for convenience of explanation, only one photographing device 110, content publishing server 130, advertising server 140, and user terminal 150 are shown, but a plurality of each may be connected. Actually, the photographing device 110 is installed for each photographing spot, and the number of user terminals 150 is equal to the number of users.

撮影装置110は、テーマパークや観光地等、撮影スポットに設置された撮影用の装置である。図2は、撮影装置110を示す図である。図2のうち、図2(a)は、撮影装置110の外観斜視図であり、図2(b)は、撮影装置110のハードウェア構成図であり、図2(c)は、撮影装置110の機能ブロック図である。図2(a)の外観に示すように、撮影装置110は筐体110jを有し、筐体110jの外部から視認可能な位置に、表示デバイス110fおよび撮影デバイス110hが設置されている。 The photographing device 110 is a photographing device installed in a photographing spot such as a theme park or a tourist spot. FIG. 2 is a diagram showing the imaging device 110. As shown in FIG. 2, FIG. 2(a) is an external perspective view of the photographing device 110, FIG. 2(b) is a hardware configuration diagram of the photographing device 110, and FIG. 2(c) is a photographing device 110. It is a functional block diagram of. As shown in the appearance of FIG. 2A, the imaging device 110 has a housing 110j, and a display device 110f and an imaging device 110h are installed at positions visible from the outside of the housing 110j.

図2(b)に示すように、撮影装置110は、CPU(Central Processing Unit)110aと、メインメモリであるRAM(Random Access Memory)110bと、CPU110aが実行するプログラムやデータを記憶するための不揮発性の記憶装置110c(例えば、ハードディスク、フラッシュメモリ等)と、キーボード、タッチパネル等の指示入力部110dと、データをプリンタ出力するためのプリンタ110eと、表示デバイス(液晶ディスプレイ等)110fと、ネットワーク160を介して管理サーバ120等の他のコンピュータとネットワーク通信を行うための通信部110gと、静止画や動画等の画像を撮影する撮影デバイス110h(CCDカメラ等)と、他の端末とネットワーク160を介さずに直接無線通信を行う近距離無線通信部110iを備え、互いにバスを介して接続されている。 As shown in FIG. 2B, the photographing apparatus 110 includes a CPU (Central Processing Unit) 110a, a RAM (Random Access Memory) 110b as a main memory, and a non-volatile memory for storing programs and data executed by the CPU 110a. a physical storage device 110c (for example, hard disk, flash memory, etc.); an instruction input unit 110d such as a keyboard or touch panel; a printer 110e for outputting data; A communication unit 110g for performing network communication with other computers such as the management server 120, a photographing device 110h (such as a CCD camera) for photographing images such as still images and moving images, and other terminals and the network 160. A short-range wireless communication unit 110i for direct wireless communication is provided, and they are connected to each other via a bus.

本実施形態では、指示入力部110dと表示デバイス110fは、タッチパネル式ディスプレイとして実現されている。近距離無線通信部110iが用いる通信方式としては、比較的近距離で無線通信を行う形式であれば特に限定されないが、例えばbluetooth、無線LAN等の公知の様々な方式を用いることができる。図2(b)に示した各構成要素は、図2(a)に示したような筐体110jに納められ、表示デバイス110fおよび撮影デバイス110hの一部が表出している。なお、本明細書において、単に「画像」という場合、静止画とも動画とも解釈される。 In this embodiment, the instruction input unit 110d and the display device 110f are implemented as touch panel displays. The communication method used by the short-range wireless communication unit 110i is not particularly limited as long as it is a format for wireless communication at a relatively short distance, and various known methods such as Bluetooth and wireless LAN can be used. Each component shown in FIG. 2B is housed in a housing 110j as shown in FIG. In this specification, the term "image" is interpreted as both a still image and a moving image.

図2(c)は、撮影装置110の機能ブロック図である。図2(b)に示したハードウェア構成において、CPU110aが記憶装置110cに記憶されたプログラムをRAM110bに読み込んで実行することにより、撮影装置110は、図2(c)に示した各手段を実現することができる。図2(c)に示すように、撮影装置110は、画像表示手段111、撮影手段112、コンテンツ再生手段113、表情認識用撮影手段114、画像記録手段115、撮影制御手段116、表情認識手段117を有する。 FIG. 2C is a functional block diagram of the imaging device 110. As shown in FIG. In the hardware configuration shown in FIG. 2(b), the CPU 110a loads the program stored in the storage device 110c into the RAM 110b and executes it, so that the photographing device 110 implements each means shown in FIG. 2(c). can do. As shown in FIG. 2C, the photographing device 110 includes image display means 111, photographing means 112, content reproducing means 113, facial expression recognition photographing means 114, image recording means 115, photographing control means 116, and facial expression recognition means 117. have

画像表示手段111は、コンテンツ再生手段113により再生されるコンテンツに含まれる画像を表示する手段であり、CPU110aがプログラムを実行して液晶ディスプレイ等の表示デバイス110fに出力することにより実現される。撮影手段112は、撮影装置110の前に位置する被写体(被撮影者)であるユーザを撮影する手段であり、CPU110aがプログラムを実行してCCDやCMOS等の撮像素子を備えた撮影デバイス110hに指示を与えることにより実現される。コンテンツ再生手段113は、画像を含むコンテンツを再生する手段である。表情認識用撮影手段114は、被写体であるユーザの表情を認識するためにユーザの表情を撮影する手段であり、CPU110aがプログラムを実行して撮影デバイス110hに指示を与えることにより実現される。なお、表情認識用撮影手段114を実現する場合は、撮影手段112を構成するものと合わせて、撮影デバイス110hが2台必要となる。画像記録手段115は、撮影手段112により撮影された撮影画像を記録する手段である。画像記録手段115は、撮影画像をデータとして記録する態様と、撮影画像を紙媒体に記録する態様を実現する。データとして記録する態様の場合、撮影画像を記憶装置110cに記憶することにより記録する。撮影画像を紙媒体に記録する態様の場合、撮影画像をプリンタ110eに出力することによりプリント出力する。撮影制御手段116は、撮影手段112による撮影タイミングを制御する。表情認識手段117は、表情認識用撮影手段114により撮影された撮影画像を解析して、ユーザの表情を認識する。 The image display means 111 is a means for displaying an image included in the content reproduced by the content reproduction means 113, and is realized by the CPU 110a executing a program and outputting it to the display device 110f such as a liquid crystal display. The photographing means 112 is a means for photographing a user who is a subject (a person to be photographed) positioned in front of the photographing device 110. The CPU 110a executes a program to photograph a photographing device 110h having an image pickup device such as a CCD or a CMOS. It is realized by giving instructions. The content reproduction means 113 is means for reproducing content including images. The facial expression recognition photographing means 114 is means for photographing the facial expression of the user, who is the subject, in order to recognize the facial expression of the user, and is realized by the CPU 110a executing a program and giving an instruction to the photographing device 110h. It should be noted that, in order to implement the facial expression recognition photographing means 114, two photographing devices 110h are required in addition to those constituting the photographing means 112. FIG. The image recording means 115 is a means for recording the photographed image photographed by the photographing means 112 . The image recording unit 115 realizes a mode of recording a photographed image as data and a mode of recording a photographed image on a paper medium. In the case of recording as data, the captured image is recorded by storing it in the storage device 110c. In the case of recording a photographed image on a paper medium, the photographed image is printed out by outputting it to the printer 110e. The imaging control means 116 controls imaging timing by the imaging means 112 . The facial expression recognition means 117 analyzes the captured image captured by the facial expression recognition imaging means 114 and recognizes the user's facial expression.

撮影装置110は、記憶装置110cに記憶されたプログラムをRAM110bに読み込んで、CPU110aが実行し、他の構成要素に指令を出すことにより、画像表示手段111、撮影手段112、コンテンツ再生手段113、表情認識用撮影手段114、画像記録手段115、撮影制御手段116、表情認識手段117等の各機能を実現する。また、撮影装置110は、記憶装置110cに記憶されたプログラムをRAM110bに読み込んで、CPU110aが実行することにより、様々なデータ処理や、ユーザインターフェースを実現する。 The photographing device 110 loads the program stored in the storage device 110c into the RAM 110b, executes it by the CPU 110a, and issues instructions to other components to display the image display means 111, the photographing means 112, the content reproduction means 113, the facial expressions, and the like. It realizes each function of the photographing means 114 for recognition, the image recording means 115, the photographing control means 116, the facial expression recognition means 117, and the like. Further, the photographing device 110 loads programs stored in the storage device 110c into the RAM 110b and executes them by the CPU 110a, thereby realizing various data processing and user interfaces.

管理サーバ120は、ネットワーク160を介して撮影装置110とデータ通信可能に接続されたサーバコンピュータである。図3は、管理サーバ120の詳細を示す図である。このうち、図3(a)は、管理サーバ120のハードウェア構成図であり、図3(b)は、管理サーバ120の機能ブロック図である。 The management server 120 is a server computer that is connected to the photographing device 110 via the network 160 so as to be capable of data communication. FIG. 3 is a diagram showing details of the management server 120. As shown in FIG. 3A is a hardware configuration diagram of the management server 120, and FIG. 3B is a functional block diagram of the management server 120. As shown in FIG.

管理サーバ120は、汎用のサーバコンピュータで実現することができ、図3(a)に示すように、CPU(Central Processing Unit)120aと、コンピュータのメインメモリであるRAM(Random Access Memory)120bと、CPUが実行するプログラムやデータを記憶するための大容量の記憶装置120c(例えば、ハードディスク、フラッシュメモリ等)と、キーボード、マウス等の入力機器からの入力を受け付ける入力I/F(インタフェース)120dと、外部装置(データ記憶媒体等)とデータ通信するためのデータ入出力I/F(インタフェース)120eと、表示装置(液晶ディスプレイ等)に情報を送出するための表示出力I/F(インタフェース)120fと、ネットワーク160を介して撮影装置110、コンテンツ公開サーバ130、広告サーバ140、ユーザ端末150等の他のコンピュータとネットワーク通信を行うための通信部120gと、を備え、互いにバスを介して接続されている。 The management server 120 can be realized by a general-purpose server computer, and as shown in FIG. A large-capacity storage device 120c (for example, hard disk, flash memory, etc.) for storing programs and data executed by the CPU, and an input I/F (interface) 120d for receiving input from input devices such as a keyboard and mouse. , a data input/output I/F (interface) 120e for data communication with an external device (data storage medium, etc.), and a display output I/F (interface) 120f for sending information to a display device (liquid crystal display, etc.) and a communication unit 120g for performing network communication with other computers such as the photographing device 110, the content publishing server 130, the advertisement server 140, and the user terminal 150 via the network 160, and are connected to each other via a bus. ing.

図3(b)は、管理サーバ120の機能ブロック図である。図3(a)に示したハードウェア構成において、CPU120aが記憶装置120cに記憶されたプログラムをRAM120bに読み込んで実行することにより、管理サーバ120は、図3(b)に示した各手段を機能させることが可能となる。図3(b)に示すように、管理サーバ120は、コンテンツ記憶手段121、ユーザ状態データ記憶手段122、コンテンツ供給手段123、撮影画像取得手段124、ユーザ状態解析手段125を有する。 FIG. 3B is a functional block diagram of the management server 120. As shown in FIG. In the hardware configuration shown in FIG. 3(a), the CPU 120a loads the program stored in the storage device 120c into the RAM 120b and executes it, so that the management server 120 functions as each means shown in FIG. 3(b). It is possible to As shown in FIG. 3B, the management server 120 has content storage means 121 , user state data storage means 122 , content supply means 123 , photographed image acquisition means 124 and user state analysis means 125 .

コンテンツ記憶手段121は、コンテンツを記憶した記憶手段である。本実施形態でコンテンツとは、動画を含むコンテンツデータである。動画には音声が追加されていてもよい。なお、コンテンツは画像を含んでいればよく、必ずしも動画でなく静止画を複数含んでいてもよい。静止画を複数含む場合、所定のタイミングで静止画が切り替わるように設定されている。また、コンテンツには、撮影手段112による撮影タイミングを記録したタイプのものもある。ユーザ状態データ記憶手段122は、ユーザ状態解析手段125により得られたユーザ状態データを記憶する手段である。 The content storage unit 121 is a storage unit that stores content. In this embodiment, content is content data including moving images. Audio may be added to the video. Note that the content only needs to include images, and may include multiple still images instead of moving images. When a plurality of still images are included, the still images are set to be switched at a predetermined timing. Moreover, there is also a type of content in which the timing of photographing by the photographing means 112 is recorded. The user state data storage means 122 is means for storing user state data obtained by the user state analysis means 125 .

コンテンツ供給手段123は、コンテンツ記憶手段121に記憶しているコンテンツを撮影装置110に供給する手段である。撮影画像取得手段124は、撮影装置110から受信した撮影画像を取得する手段である。ユーザ状態解析手段125は、撮影装置110から取得した撮影画像を画像解析して、ユーザの状態であるユーザ状態がどのような状態であるかを判定する手段である。 The content supply means 123 is a means for supplying the content stored in the content storage means 121 to the photographing device 110 . The photographed image acquisition means 124 is means for acquiring the photographed image received from the photographing device 110 . The user state analysis unit 125 is a unit that analyzes the photographed image acquired from the photographing device 110 and determines what kind of user state is the state of the user.

管理サーバ120は、記憶装置120cに記憶されたプログラムをRAM120bに読み込んで、CPU120aが実行し、他の構成要素に指令を出すことにより、コンテンツ記憶手段121、ユーザ状態データ記憶手段122、コンテンツ供給手段123、撮影画像取得手段124、ユーザ状態解析手段125の各機能を実現する。また、記憶装置120cは、コンテンツ記憶手段121、ユーザ状態データ記憶手段122のデータ記憶領域としての役割も果たしている。管理サーバ120は、物理的には1台のコンピュータで実現されていてもよいし、複数台のコンピュータで実現されていてもよい。また、ネットワーク160上で複数に分散されたクラウドシステムとして実現されていてもよい。 The management server 120 loads the program stored in the storage device 120c into the RAM 120b, executes it by the CPU 120a, and issues commands to other components to store content storage means 121, user status data storage means 122, and content supply means. 123 , photographed image acquisition means 124 , and user state analysis means 125 . The storage device 120c also serves as a data storage area for the content storage means 121 and the user state data storage means 122. FIG. The management server 120 may be physically realized by one computer, or may be realized by a plurality of computers. Alternatively, it may be implemented as a cloud system that is distributed over the network 160 .

コンテンツ公開サーバ130は、画像を含むコンテンツを公開するサーバコンピュータである。コンテンツ公開サーバ130は、管理サーバ120と同様のハードウェア構成を有しており、記憶装置に記憶されたプログラムを実行することにより、演算処理手段、通信手段等の機能を実現している。コンテンツ公開サーバ130は、管理サーバ120から、公開要求とともにコンテンツを受信すると、記憶装置内にコンテンツを記憶し、当該コンテンツを外部からアクセス可能に設定する。ネットワークを介して外部のコンピュータから取得要求があった場合に、要求されたコンテンツを送信する処理を行う。 The content publishing server 130 is a server computer that publishes content including images. The content publishing server 130 has the same hardware configuration as the management server 120, and implements functions such as arithmetic processing means and communication means by executing programs stored in the storage device. When the content publishing server 130 receives the content together with the publication request from the management server 120, the content publishing server 130 stores the content in the storage device and sets the content to be accessible from the outside. When there is an acquisition request from an external computer via a network, it performs a process of transmitting the requested content.

コンテンツ公開サーバ130は、物理的には1台のコンピュータで実現されていてもよいし、複数台のコンピュータで実現されていてもよい。また、ネットワーク160上で複数に分散されたクラウドシステムとして実現されていてもよい。 Content publishing server 130 may be physically realized by one computer, or may be realized by a plurality of computers. Alternatively, it may be implemented as a cloud system that is distributed over the network 160 .

広告サーバ140は、ネットワーク160を介して管理サーバ120とデータ通信可能に接続されたサーバコンピュータである。図4は、広告サーバ140の詳細を示す図である。このうち、図4(a)は、広告サーバ140のハードウェア構成図であり、図4(b)は、広告サーバ140の機能ブロック図である。 The advertisement server 140 is a server computer connected to the management server 120 via the network 160 so as to be capable of data communication. FIG. 4 is a diagram showing details of the advertisement server 140. As shown in FIG. 4A is a hardware configuration diagram of the advertisement server 140, and FIG. 4B is a functional block diagram of the advertisement server 140. FIG.

広告サーバ140は、汎用のサーバコンピュータで実現することができ、図4(a)に示すように、CPU(Central Processing Unit)140aと、コンピュータのメインメモリであるRAM(Random Access Memory)140bと、CPUが実行するプログラムやデータを記憶するための大容量の記憶装置140c(例えば、ハードディスク、フラッシュメモリ等)と、キーボード、マウス等の入力機器からの入力を受け付ける入力I/F(インタフェース)140dと、外部装置(データ記憶媒体等)とデータ通信するためのデータ入出力I/F(ンタフェース)140eと、表示装置(液晶ディスプレイ等)に情報を送出するための表示出力I/F(インタフェース)140fと、ネットワーク160を介して撮影装置110、管理サーバ120、コンテンツ公開サーバ130、ユーザ端末150等の他のコンピュータとネットワーク通信を行うための通信部140gと、を備え、互いにバスを介して接続されている。 The advertisement server 140 can be realized by a general-purpose server computer, and as shown in FIG. A large-capacity storage device 140c (for example, hard disk, flash memory, etc.) for storing programs and data executed by the CPU, and an input I/F (interface) 140d for receiving input from input devices such as a keyboard and mouse. , a data input/output I/F (interface) 140e for data communication with an external device (data storage medium, etc.), and a display output I/F (interface) 140f for sending information to a display device (liquid crystal display, etc.) and a communication unit 140g for performing network communication with other computers such as the photographing device 110, the management server 120, the content publishing server 130, and the user terminal 150 via the network 160, and are connected to each other via a bus. ing.

図4(b)は、広告サーバ140の機能ブロック図である。図4(a)に示したハードウェア構成において、CPU140aが記憶装置140cに記憶されたプログラムをRAM140bに読み込んで実行することにより、広告サーバ140は、図4(b)に示した各手段を機能させることが可能となる。図4(b)に示すように、広告サーバ140は、コンテンツ記憶手段141、広告効果分析データ記憶手段142、コンテンツ送信手段143、ユーザ状態データ取得手段144、広告効果分析手段145、を有する。 FIG. 4B is a functional block diagram of the advertisement server 140. As shown in FIG. In the hardware configuration shown in FIG. 4(a), the CPU 140a loads the program stored in the storage device 140c into the RAM 140b and executes it, so that the advertising server 140 functions as each means shown in FIG. 4(b). It is possible to As shown in FIG. 4(b), the advertising server 140 has content storage means 141, advertising effect analysis data storage means 142, content transmission means 143, user state data acquisition means 144, and advertising effect analysis means 145.

コンテンツ記憶手段141は、管理サーバ120のコンテンツ記憶手段121と同様、コンテンツを記憶した記憶手段である。広告効果分析データ記憶手段142は、広告効果分析手段145により得られた広告効果分析データを記憶する手段である。 The content storage unit 141 is a storage unit that stores content, like the content storage unit 121 of the management server 120 . The advertising effectiveness analysis data storage means 142 is means for storing the advertising effectiveness analysis data obtained by the advertising effectiveness analysis means 145 .

コンテンツ送信手段143は、コンテンツ記憶手段141に記憶しているコンテンツを管理サーバ120に送信する手段である。ユーザ状態データ取得手段144は、管理サーバ120から受信したユーザ状態データを取得する手段である。広告効果分析手段145は、管理サーバ120から取得したユーザ状態データと、別途記憶している商品売上データを基に分析を行い、ユーザ状態と商品売上の関係を示す広告効果分析データを作成する手段である。 The content transmission means 143 is means for transmitting the contents stored in the content storage means 141 to the management server 120 . The user status data acquisition means 144 is means for acquiring user status data received from the management server 120 . The advertising effect analysis means 145 is a means for performing analysis based on the user state data acquired from the management server 120 and separately stored product sales data, and creating advertising effect analysis data indicating the relationship between the user state and product sales. is.

広告サーバ140は、記憶装置140cに記憶されたプログラムをRAM140bに読み込んで、CPU140aが実行し、他の構成要素に指令を出すことにより、コンテンツ記憶手段141、広告効果分析データ記憶手段142、コンテンツ送信手段143、ユーザ状態データ取得手段144、広告効果分析手段145の各機能を実現する。また、記憶装置140cは、コンテンツ記憶手段141、広告効果分析データ記憶手段142のデータ記憶領域としての役割も果たしている。広告サーバ140は、物理的には1台のコンピュータで実現されていてもよいし、複数台のコンピュータで実現されていてもよい。また、ネットワーク160上で複数に分散されたクラウドシステムとして実現されていてもよい。 The advertisement server 140 loads the program stored in the storage device 140c into the RAM 140b, executes it by the CPU 140a, and issues commands to other components to perform content storage means 141, advertisement effect analysis data storage means 142, and content transmission. The functions of means 143, user state data acquisition means 144, and advertisement effect analysis means 145 are realized. The storage device 140 c also serves as a data storage area for the content storage means 141 and the advertising effect analysis data storage means 142 . Advertising server 140 may be physically realized by one computer, or may be realized by a plurality of computers. Alternatively, it may be implemented as a cloud system that is distributed over the network 160 .

図5は、ユーザ端末150のハードウェア構成図である。ユーザ端末150は、多機能の携帯型端末であるスマートフォンにより実現される。図5に示すように、CPU(Central Processing Unit)150aと、メインメモリであるRAM(Random Access Memory)150bと、CPUが実行するプログラムやデータを記憶するための不揮発性の記憶装置150c(例えば、ハードディスク、フラッシュメモリ等)と、キーボード、タッチパネル等の指示入力部150dと、外部装置(データ記憶媒体等)とデータ通信するためのデータ入出力I/F(インタフェース)150eと、表示デバイス(液晶ディスプレイ等)150fと、ネットワーク160を介して管理サーバ120等の他のコンピュータとネットワーク通信を行うための通信部150gと、画像の撮影を行う撮影デバイス150hと、他の端末とネットワーク160を介さずに直接無線通信を行う近距離無線通信部140iと、マイクロフォンやスピーカ等の音声入出力部150jと、を備え、互いにバスを介して接続されている。近距離無線通信部150iが用いる通信方式としては、比較的近距離で無線通信を行う形式であれば特に限定されないが、例えばbluetooth、無線LAN等の公知の様々な方式を用いることができる。 FIG. 5 is a hardware configuration diagram of the user terminal 150. As shown in FIG. The user terminal 150 is implemented by a smart phone, which is a multifunctional portable terminal. As shown in FIG. 5, a CPU (Central Processing Unit) 150a, a RAM (Random Access Memory) 150b as a main memory, and a non-volatile storage device 150c (for example, hard disk, flash memory, etc.), a keyboard, an instruction input unit 150d such as a touch panel, a data input/output I/F (interface) 150e for data communication with an external device (data storage medium, etc.), a display device (liquid crystal display etc.) 150f, a communication unit 150g for performing network communication with other computers such as the management server 120 via the network 160, a photographing device 150h for photographing an image, and other terminals without the network 160. A short-range wireless communication unit 140i for direct wireless communication and an audio input/output unit 150j such as a microphone and a speaker are provided, and are connected to each other via a bus. The communication method used by the short-range wireless communication unit 150i is not particularly limited as long as it is a format for wireless communication at a relatively short distance, and various known methods such as Bluetooth and wireless LAN can be used.

ユーザ端末150としては、CPUの演算処理部等を備え、情報処理機能、ネットワーク通信機能等を有していれば、ノートPC、タブレット等、スマートフォン以外のものを用いることも可能である。 As the user terminal 150, it is possible to use a device other than a smart phone, such as a notebook PC, a tablet, etc., as long as it has an arithmetic processing unit of a CPU, etc., and has an information processing function, a network communication function, and the like.

<2.処理動作>
次に、図1に示した本実施形態に係る撮影システムの処理動作について説明する。図6は、撮影システムによる処理動作を示すシーケンス図である。
<2. Processing operation>
Next, the processing operation of the imaging system according to this embodiment shown in FIG. 1 will be described. FIG. 6 is a sequence diagram showing processing operations by the imaging system.

広告サーバ140には、商品やサービス等の広告情報が含まれるコンテンツが記憶されている。コンテンツに含まれる広告情報の態様は特に限定されない。例えば、商品やサービス等の名称が文字情報として表示されたり、商品自体の映像が含まれていたりする等、視聴者が商品やサービスを認識可能な何らかの態様で広告として含まれていればよい。このようなコンテンツは、広告依頼者等の依頼により制作され、広告サーバ140に登録される。 The advertisement server 140 stores content including advertisement information such as products and services. The mode of advertising information included in the content is not particularly limited. For example, the name of the product or service may be displayed as text information, or the image of the product itself may be included as an advertisement in some form that allows the viewer to recognize the product or service. Such content is produced at the request of an advertisement client or the like and registered in the advertisement server 140 .

広告サーバ140は、任意のタイミングで、コンテンツを管理サーバ120に送信する(ステップS1)。管理サーバ120は、受信したコンテンツを登録する。具体的には、広告サーバ140から受信したコンテンツを管理サーバ120内の記憶装置に記憶する。 The advertisement server 140 transmits content to the management server 120 at arbitrary timing (step S1). The management server 120 registers the received content. Specifically, the content received from the advertisement server 140 is stored in the storage device within the management server 120 .

そして、管理サーバ120は、任意のタイミングで、コンテンツを撮影装置110に送信する(ステップS2)。具体的には、コンテンツ供給手段123が撮影装置110に送信することにより、コンテンツを供給する。そして、撮影装置110は、受信したコンテンツを登録する。具体的には、管理サーバ120から受信したコンテンツを撮影装置110内の記憶装置110cに記憶する。 Then, the management server 120 transmits the content to the imaging device 110 at arbitrary timing (step S2). Specifically, the content is supplied by the content supply means 123 transmitting it to the photographing device 110 . Then, the imaging device 110 registers the received content. Specifically, the content received from the management server 120 is stored in the storage device 110c within the imaging device 110 .

次に、撮影装置110は、コンテンツの再生とユーザの撮影を行う(ステップS3)。具体的には、撮影装置110のコンテンツ再生手段113が、記憶されているコンテンツを再生して、画像表示手段111に表示する。これにより、撮影装置110の前にいるユーザにコンテンツを視聴させることができる。また、コンテンツ再生手段113によるコンテンツの再生と並行して、撮影手段112がユーザの撮影を行う。好ましくは、コンテンツ再生手段113によるコンテンツの再生開始と同時に、撮影手段112が撮影を開始する。コンテンツ再生手段113によるコンテンツの再生開始より前に撮影手段112が撮影を開始してもよい。 Next, the photographing device 110 reproduces the content and photographs the user (step S3). Specifically, the content reproduction means 113 of the photographing device 110 reproduces the stored content and displays it on the image display means 111 . This allows the user in front of the imaging device 110 to view the content. In parallel with the reproduction of the content by the content reproducing unit 113, the photographing unit 112 photographs the user. Preferably, the photographing means 112 starts photographing at the same time when the content reproducing means 113 starts reproducing the content. The photographing unit 112 may start photographing before the content reproducing unit 113 starts reproducing the content.

撮影手段112は、撮影制御手段116による制御に基づいてコンテンツに応じたタイミングで撮影を行い、コンテンツ再生手段113によるコンテンツの再生終了に合わせて撮影を終了する。好ましくは、コンテンツ再生手段113によるコンテンツの再生終了と同時に、撮影手段112による撮影を終了する。撮影手段112は、コンテンツ再生手段113によるコンテンツの再生終了後も継続して撮影するようにしてもよい。コンテンツの再生終了後も継続して撮影することにより、コンテンツ視聴の余韻を含んだ表情を撮影することができる。例えば、コンテンツ再生手段113によるコンテンツの再生終了5秒後に、撮影手段112が撮影を終了するようにしてもよいし、外部から操作が行われるまで撮影を継続するようにしてもよい。外部から操作の操作としては、例えば、ユーザによる「撮影画像選択画面(図10(d)参照)」への移行操作などがある。なお、ステップS3の処理の詳細については後述する。 The photographing means 112 performs photographing at a timing corresponding to the content under the control of the photographing control means 116, and finishes photographing when the content reproduction means 113 finishes reproducing the content. Preferably, the photographing by the photographing means 112 is finished at the same time as the reproduction of the content by the content reproducing means 113 is finished. The photographing unit 112 may continue photographing even after the content reproduction unit 113 finishes reproducing the content. By continuing to shoot even after the playback of the content is finished, it is possible to shoot the expression including the afterglow of viewing the content. For example, the photographing unit 112 may finish photographing five seconds after content reproduction by the content reproducing unit 113 ends, or may continue photographing until an external operation is performed. The operation from the outside includes, for example, the user's operation to shift to the "photographed image selection screen (see FIG. 10D)". Details of the processing in step S3 will be described later.

コンテンツの再生とユーザの撮影を終えたら、撮影装置110は、コンテンツに関する情報の取得要求を行ったユーザ端末150に、再生を終えたコンテンツに関する情報を提供する(ステップS4)。コンテンツに関する情報の取得要求と、コンテンツに関する情報の提供は、特に限定されず、様々な態様で行うことができる。例えば、撮影装置110は、コンテンツの再生後、画像表示手段111に表示し終えたコンテンツに関する情報にアクセスするための情報を記録したコード情報(バーコード、二次元コード等)を表示する。そして、スマートフォン等が備えるコード情報読み取り機能および通信機能を利用して、ユーザ端末150で表示されているコード情報を読み取る。さらに、ユーザ端末150は、記録された情報を用いて所定のサイト(サーバ)にアクセスし、コンテンツに関する情報を取得する。コンテンツに関する情報には、コンテンツで広告された商品の情報も記録されており、ユーザは、コンテンツそのものの詳細情報に加えて対応する商品についても詳しく知ることができる。 After reproducing the content and photographing the user, the photographing device 110 provides information regarding the reproduced content to the user terminal 150 that requested acquisition of information regarding the content (step S4). The acquisition request for content-related information and the provision of content-related information are not particularly limited, and can be performed in various manners. For example, after reproducing the content, the imaging device 110 displays code information (barcode, two-dimensional code, etc.) recording information for accessing information about the content that has been displayed on the image display means 111 . Then, the code information displayed on the user terminal 150 is read using the code information reading function and communication function of the smartphone or the like. Further, the user terminal 150 accesses a predetermined site (server) using the recorded information and obtains information regarding the content. The information on the content includes information on the product advertised in the content, so that the user can know the details of the corresponding product in addition to the detailed information on the content itself.

コンテンツの再生とユーザの撮影を終えたら、撮影装置110は、ステップS4における処理と並行して、撮影画像の記録を行う(ステップS5)。ステップS3におけるユーザの撮影処理により、撮影装置110は、コンテンツの再生時刻に合わせたユーザの撮影画像を取得している。そのため、撮影装置110は、撮影画像を所定の態様で記録する。撮影画像の記録態様としては、特に限定されないが、例えば、紙媒体に撮影画像をプリントして記録する態様や、所定の様式のデータとして記録する態様がある。ステップS5における処理についても、ステップS3と同様、詳細は後述する。 After reproducing the content and capturing the image of the user, the image capturing device 110 records the captured image in parallel with the processing in step S4 (step S5). By the user's image capturing process in step S3, the image capturing apparatus 110 acquires the user's captured image at the content playback time. Therefore, the imaging device 110 records the captured image in a predetermined manner. Although there are no particular limitations on the manner in which the photographed image is recorded, for example, there is a manner in which the photographed image is printed and recorded on a paper medium, and a manner in which the photographed image is recorded as data in a predetermined format. The details of the processing in step S5 will be described later, similarly to step S3.

撮影画像が取得されたら、撮影装置110は、取得した撮影画像を管理サーバ120に送信する(ステップS6)。送信される撮影画像には、コンテンツを特定するためのコンテンツIDが関連付けられている。管理サーバ120では、撮影画像取得手段124が撮影画像を取得する。なお、再生を終えたコンテンツに関する情報をユーザ端末150に提供するステップS4の処理は、ステップS5、S6の後に行ってもよい。 After the captured image is obtained, the imaging device 110 transmits the obtained captured image to the management server 120 (step S6). A captured image to be transmitted is associated with a content ID for specifying the content. In the management server 120, the photographed image obtaining means 124 obtains the photographed image. Note that the process of step S4 for providing the user terminal 150 with information about the content that has been reproduced may be performed after steps S5 and S6.

撮影装置110から撮影画像を取得したら、管理サーバ120では、撮影画像に対してユーザ状態の解析を行う(ステップS7)。具体的には、ユーザ状態解析手段125が、撮影画像を画像解析して、ユーザの状態であるユーザ状態がどのような状態であるかを判定する。ユーザ状態としては、画像を解析して取得できるものであれば、どのようなものであってもよい。本実施形態では、撮影画像に写っているユーザの表情を解析してユーザの感情を判定している。判定される感情の状態としては、喜び、怒り、哀しみ、楽しい等に区分できる。そして、感情の各区分について0%~100%までの%単位で、その程度も判定する。このような画像解析による感情の判定は、公知の画像解析技術により実現することができる。本実施形態では、AI(人工知能)を用いた画像解析により実現している。AIを用いた表情の解析技術としては、例えば、株式会社ユーザーローカルが提供する「ユーザーローカル 表情推定AI」や、Affectiva社が提供する感情認識AI「Affdex」を用いることができる。上記のようにして、感情の状態がユーザ状態データとして得られる。 After acquiring the photographed image from the photographing device 110, the management server 120 analyzes the user state for the photographed image (step S7). Specifically, the user state analysis means 125 analyzes the captured image and determines what kind of state the user state, which is the state of the user, is. Any user state can be used as long as it can be obtained by analyzing an image. In this embodiment, the user's emotion is determined by analyzing the facial expression of the user appearing in the captured image. Emotional states to be determined can be classified into joy, anger, sadness, joy, and the like. Then, for each category of emotion, the degree is also determined in units of % from 0% to 100%. Such determination of emotion by image analysis can be realized by a known image analysis technique. In this embodiment, it is realized by image analysis using AI (artificial intelligence). As the facial expression analysis technology using AI, for example, “User Local Facial Expression Estimation AI” provided by User Local Co., Ltd. and emotion recognition AI “Affdex” provided by Affectiva can be used. As described above, the emotional state is obtained as user state data.

ユーザ状態データが得られたら、管理サーバ120は、ユーザ状態データを広告サーバ140に送信する(ステップS8)。広告サーバ140では、管理サーバ120から取得したユーザ状態データを、コンテンツIDと関連付けて記憶する。ステップS1において、広告サーバ140から供給されたコンテンツについては、ステップS2~ステップS8に示した処理が行われ、そのコンテンツの視聴者であるユーザのユーザ状態データが広告サーバ140に蓄積されていく。 After obtaining the user state data, the management server 120 transmits the user state data to the advertisement server 140 (step S8). The advertisement server 140 stores the user state data acquired from the management server 120 in association with the content ID. In step S1, the content supplied from the advertisement server 140 is subjected to the processing shown in steps S2 to S8, and the user state data of the user who is the viewer of the content is accumulated in the advertisement server 140.

一方、管理サーバ120は、コンテンツ公開サーバ130に対してコンテンツ公開の設定を行う(ステップS9)。具体的には、管理サーバ120が管理しているコンテンツについて、公開時期の情報をコンテンツ公開サーバ130に送信する。コンテンツ公開サーバ130では、管理サーバ120から受信したコンテンツを登録し、そのコンテンツの公開時期を設定する。具体的には、受信したコンテンツを、コンテンツ公開サーバ130の記憶装置内に記憶し、その記憶領域への外部からのアクセスを、所定の公開時期にのみ可能になるように設定する。このような処理を実行することにより、公開時期になると、撮影装置110で再生されたコンテンツを、コンテンツ公開サーバ130にアクセスして閲覧することができる。公開時期として設定された公開開始時になるまでは、外部からコンテンツ公開サーバ130にアクセスしても、そのコンテンツを視聴することはできない。 On the other hand, the management server 120 sets contents disclosure to the contents disclosure server 130 (step S9). Specifically, for the content managed by the management server 120 , information on the publication time is transmitted to the content publication server 130 . The content publishing server 130 registers the content received from the management server 120 and sets the timing of publishing the content. Specifically, the received content is stored in the storage device of the content publishing server 130, and the storage area is set to be accessible from the outside only at a predetermined publication time. By executing such processing, the content reproduced by the photographing device 110 can be viewed by accessing the content publishing server 130 at the time of publication. Even if the content publishing server 130 is accessed from the outside, the content cannot be viewed until the publication start time set as the publication time.

ステップS9において設定された公開時期になると、外部から対応するコンテンツを視聴可能となる。ステップS4において、コンテンツに関する情報としてコンテンツのアドレスを撮影装置110から取得したユーザは、そのアドレスを用いてコンテンツ公開サーバ130にアクセスすることにより、自分が撮影装置110で視聴したコンテンツにアクセスすることができる(ステップS10)。公開時期になっているコンテンツにアクセスがあると、コンテンツ公開サーバ130は、アクセス元のユーザ端末150等にコンテンツを送信する(ステップS11)。 When the release time set in step S9 comes, the corresponding content can be viewed from the outside. In step S4, the user who has acquired the address of the content from the photographing device 110 as the information on the content can access the content viewed by the photographing device 110 by accessing the content publishing server 130 using the address. Yes (step S10). When there is an access to the content that is due to be published, the content publication server 130 transmits the content to the user terminal 150 or the like that is the source of the access (step S11).

また、ユーザ端末150からは、広告サーバ140へアクセスすることもできる(ステップS12)。ステップS4において、コンテンツに関する情報として広告サーバ140内の広告情報のアドレス(URL等)を撮影装置110から取得したユーザは、そのアドレスを用いて広告サーバ140にアクセスすることにより、自分がコンテンツ公開サーバ130で視聴したコンテンツで広告された商品等を紹介するWEBサイトにアクセスすることができる。公開している広告情報にアクセスがあると、広告サーバ140は、アクセス元のユーザ端末150等に広告情報を送信する(ステップS13)。 The user terminal 150 can also access the advertisement server 140 (step S12). In step S4, the user who obtains the address (URL, etc.) of the advertisement information in the advertisement server 140 as the information on the content from the photographing device 110 accesses the advertisement server 140 using that address, thereby creating a content publishing server. It is possible to access a website that introduces products advertised in the content viewed at 130 . When the publicized advertisement information is accessed, the advertisement server 140 transmits the advertisement information to the user terminal 150 or the like that is the access source (step S13).

上述のように、ステップS8において、広告サーバ140には、管理サーバ120からユーザ状態データを受信する。そして、広告サーバ140から供給された各コンテンツについて、そのコンテンツの視聴者のユーザ状態データが広告サーバ140に蓄積されていく。広告サーバ140では、蓄積されたユーザ状態データと商品の売上を分析して、広告効果の分析を行う(ステップS14)。具体的には、広告効果分析手段145が、コンテンツIDと関連付けられたユーザ状態データと、コンテンツIDと関連付けられた商品IDを基に、商品IDで特定される商品ごとの売上データとユーザ状態データを関連付ける。これにより、コンテンツによるユーザ状態の変化、商品売上の変化を広告効果分析データとして得ることができる。得られた広告効果分析データは広告効果分析データ記憶手段142に記憶される。 As described above, in step S8, the advertising server 140 receives user state data from the management server 120. FIG. Then, for each content supplied from the advertising server 140 , user state data of viewers of the content is accumulated in the advertising server 140 . The advertisement server 140 analyzes the accumulated user state data and product sales to analyze the advertisement effect (step S14). Specifically, based on the user state data associated with the content ID and the product ID associated with the content ID, the advertising effect analysis unit 145 generates sales data and user state data for each product identified by the product ID. associate. As a result, it is possible to obtain changes in user status and changes in product sales due to content as advertising effect analysis data. The obtained advertisement effect analysis data is stored in the advertisement effect analysis data storage means 142 .

<3.撮影装置の詳細>
図6に示したシーケンス図で説明したように、撮影装置110は、主にステップS3~ステップS5の処理を行った。次に、撮影装置110の処理動作の詳細について説明する。上述のように、撮影装置110は、ステップS2における処理により管理サーバ120からコンテンツを取得し、記憶装置110c内に記憶している。そして、コンテンツ再生手段113がコンテンツを再生し、画像表示手段111に表示する。同時に撮影手段112が撮影を開始し、撮影装置110の前にいるユーザを撮影する。撮影手段112が撮影を行う態様としては、様々な態様がある。
<3. Details of the imaging device>
As described with the sequence diagram shown in FIG. 6, the imaging device 110 mainly performed the processing of steps S3 to S5. Next, the details of the processing operation of the imaging device 110 will be described. As described above, the photographing device 110 acquires content from the management server 120 through the processing in step S2 and stores it in the storage device 110c. Then, the content reproduction means 113 reproduces the content and displays it on the image display means 111 . At the same time, the photographing means 112 starts photographing and photographs the user in front of the photographing device 110 . There are various modes in which the imaging means 112 performs imaging.

図7は、本実施形態に係る撮影手段の撮影態様を示す図である。図7(a)は、コンテンツ再生時の画面の変化を示している。図7(b)は、右向きの矢印により時間経過を示しており、右に進むほど時間が経過することを示している。図7(c)は、コンテンツ再生時のユーザの表情を示している。図7(d)~図7(i)は、撮影態様を示している。図7(d)~図7(h)における★(星)マークは、撮影するタイミングを示している。本実施形態では、第1~第5の撮影態様がある。第1~第5の撮影態様のうち、第1~第3の撮影態様は、撮影画像として静止画を取得するためのものであり、第4、第5の撮影態様は、撮影画像として動画を取得するためのものである。 FIG. 7 is a diagram showing a photographing mode of the photographing means according to this embodiment. FIG. 7(a) shows changes in the screen during content reproduction. FIG. 7(b) shows the passage of time with a rightward arrow, indicating that the more time goes to the right, the more time elapses. FIG. 7(c) shows the facial expression of the user during content reproduction. FIGS. 7(d) to 7(i) show shooting modes. The star marks in FIGS. 7(d) to 7(h) indicate the shooting timing. In this embodiment, there are first to fifth imaging modes. Among the first to fifth shooting modes, the first to third shooting modes are for acquiring still images as shot images, and the fourth and fifth shooting modes are for acquiring moving images as shot images. It is for obtaining.

図7(d)に示すように、第1の撮影態様は、コンテンツの再生中に一定の時間間隔で静止画撮影するものである。第1の撮影態様の場合、撮影手段112は、コンテンツ再生手段113によるコンテンツの再生開始と同時に撮影を開始する。そして、時間間隔は任意であるが、例えば1秒間隔でユーザの撮影を行う。例えばコンテンツが60秒の内容である場合、60枚の写真が撮影される。 As shown in FIG. 7D, in the first shooting mode, still images are shot at regular time intervals during content reproduction. In the case of the first shooting mode, the shooting unit 112 starts shooting at the same time when the content playback unit 113 starts playing back the content. The user is photographed at an arbitrary time interval, for example, at intervals of one second. For example, if the content is 60 seconds long, 60 pictures are taken.

図7(e)に示すように、第2の撮影態様は、コンテンツに応じて定められた所定の時間帯において撮影するものである。第2の撮影態様の場合、コンテンツとして、コンテンツ本体のデータに撮影タイミングが付加されたものを用いる。コンテンツ再生手段113はコンテンツを読み込むと、コンテンツ内に記録された撮影タイミングを撮影制御手段116に渡す。そして、撮影制御手段116は、取得した撮影タイミングで、撮影手段112に撮影させる。コンテンツ本体のデータに付加される撮影タイミングとしては特に限定されず様々な態様とすることができる。例えば、コンテンツが60秒の内容である場合に、開始から1秒~5秒、15秒~30秒などと設定することができる。第2の撮影態様における撮影タイミングは、実際にコンテンツを見ながら内容が盛り上がるところ(見どころ)の時間を設定しておいてもよい。このように盛り上がるところを撮影タイミングとして設定しておくことにより、ユーザの豊かな表情を撮影し易くなる。 As shown in FIG. 7(e), the second shooting mode is to shoot in a predetermined time period determined according to the content. In the case of the second shooting mode, as the content, data in which the shooting timing is added to the data of the main body of the content is used. After reading the content, the content reproducing means 113 passes the shooting timing recorded in the content to the shooting control means 116 . Then, the photographing control means 116 causes the photographing means 112 to photograph at the acquired photographing timing. The photographing timing to be added to the data of the content body is not particularly limited, and can be in various forms. For example, if the content is 60 seconds long, it can be set to 1 to 5 seconds, 15 to 30 seconds, etc. from the start. As for the shooting timing in the second shooting mode, the time when the content becomes exciting (highlight) may be set while actually viewing the content. By setting such exciting times as shooting timings, it becomes easier to shoot the user's rich facial expressions.

図7(f)に示すように、第3の撮影態様は、コンテンツ再生中におけるユーザの表情に応じて撮影するものである。第3の撮影態様の場合、撮影手段112に加えて表情認識用撮影手段114を用いる。表情認識用撮影手段114は、コンテンツ再生手段113によるコンテンツの再生開始と同時に撮影を開始する。表情認識用撮影手段114は、撮影により取得した撮影画像を撮影制御手段116に渡す。撮影制御手段116は、取得した撮影画像を解析して被写体の感情がどのような状態であるかを判定する。具体的には、ステップS7において管理サーバ120が行ったのと同様に、公知の画像解析技術により判定することができる。そして、撮影制御手段116は、事前に設定された条件に該当した場合に撮影手段112に対して撮影を指示する。例えば、条件を「楽しい70%以上」と設定しておいた場合、撮影制御手段116は、表情認識用撮影手段114から取得した撮影画像を解析し、解析の結果、「楽しい70%以上」と判定された場合に、撮影手段112に対して撮影を指示する。この瞬間に撮影手段112が撮影すると、「楽しい70%以上」の表情をした撮影画像が得られる。このような処理により、第3の撮影態様では、ユーザの表情に応じた撮影を行うことができる。図7(c)と図7(f)を対比するとわかるように、第3の撮影態様の場合、ユーザの表情が豊かなときに撮影が行われる。 As shown in FIG. 7(f), the third shooting mode is to shoot according to the facial expression of the user during content reproduction. In the case of the third photographing mode, photographing means 114 for facial expression recognition is used in addition to photographing means 112 . The photographing means 114 for facial expression recognition starts photographing at the same time when the content reproduction means 113 starts reproducing the content. The photographing means 114 for facial expression recognition transfers the photographed image obtained by photographing to the photographing control means 116 . The photographing control means 116 analyzes the acquired photographed image and determines what kind of emotional state the subject is in. Specifically, similar to the management server 120 in step S7, determination can be made by a known image analysis technique. Then, the photographing control means 116 instructs the photographing means 112 to photograph when a preset condition is satisfied. For example, if the condition is set as "70% or more happy", the photographing control means 116 analyzes the photographed image acquired from the facial expression recognition photographing means 114, and as a result of the analysis, "70% or more happy" is determined. If determined, the photographing means 112 is instructed to photograph. If the photographing means 112 photographs at this moment, a photographed image with an expression of "70% or more happy" is obtained. By such processing, in the third shooting mode, shooting according to the user's facial expression can be performed. As can be seen by comparing FIG. 7(c) and FIG. 7(f), in the case of the third shooting mode, shooting is performed when the user's expression is rich.

図7(g)に示すように、第4の撮影態様は、コンテンツの再生中、連続して動画撮影し、その中から一部をユーザの表情に応じて抽出するものである。第4の撮影態様の場合、撮影手段112は、コンテンツ再生手段113によるコンテンツの再生開始と同時に動画の撮影を開始する。そして、コンテンツの再生時間全体に渡って動画撮影を行い。動画である撮影画像を取得する。例えばコンテンツが60秒の場合、ユーザを撮影した60秒の撮影画像が得られる。撮影画像が得られたら、表情認識手段117が解析を行う。具体的には、ステップS7や第3の撮影態様で説明した場合と同様、撮影画像を解析してユーザの感情がどのような状態であるかを判定する。そして、表情認識手段117は、事前に設定された条件に該当した範囲の画像を撮影画像から抽出する。例えば、条件を「楽しい70%以上」と設定しておいた場合、表情認識手段117は、撮影手段112から取得した撮影画像を解析し、解析の結果、「楽しい70%以上」と判定された範囲の画像のみを抽出する。この結果、「楽しい70%以上」の表情をした撮影画像のみが得られる。このような処理により、第4の撮影態様では、ユーザの表情に応じた動画像のみを取得することができる。例えば、図7の例では、図7(g)のように全体に渡って撮影された動画のうち、図7(i)に示した範囲だけ抽出されることになる。 As shown in FIG. 7(g), in the fourth shooting mode, moving images are shot continuously while content is being reproduced, and a part of the shots is extracted according to the user's facial expression. In the case of the fourth shooting mode, the shooting unit 112 starts shooting a moving image at the same time when the content playback unit 113 starts playing back the content. Then, video shooting is performed over the entire playback time of the content. Acquire a captured image that is a moving image. For example, if the content is 60 seconds, a 60-second captured image of the user is obtained. When the photographed image is obtained, the facial expression recognition means 117 analyzes it. Specifically, similarly to the case described in step S7 and the third imaging mode, the photographed image is analyzed to determine the emotional state of the user. Then, the facial expression recognition means 117 extracts an image within a range corresponding to a condition set in advance from the photographed image. For example, if the condition is set as "70% or more happy", the expression recognition means 117 analyzes the photographed image acquired from the photographing means 112, and as a result of the analysis, "70% or more happy" is determined. Extract only range images. As a result, only photographed images with expressions of "70% or more happy" are obtained. Through such processing, only the moving image corresponding to the user's facial expression can be acquired in the fourth shooting mode. For example, in the example of FIG. 7, only the range shown in FIG. 7(i) is extracted from the moving image captured over the entire area as shown in FIG. 7(g).

図7(h)に示すように、第5の撮影態様は、コンテンツに応じて定められた所定の時間帯において動画撮影するものである。第5の撮影態様の場合も、第2の撮影態様の場合と同様、コンテンツとして、コンテンツ本体のデータに撮影タイミングが付加されたものを用いる。第2の撮影態様との違いは、撮影画像を動画として取得する点である。コンテンツ再生手段113はコンテンツを読み込むと、コンテンツ内に記録された撮影タイミングを撮影制御手段116に渡す。そして、撮影制御手段116は、取得した撮影タイミングで、撮影手段112に撮影させる。コンテンツ本体のデータに付加される撮影タイミングとしては特に限定されず様々な態様とすることができる。例えば、コンテンツが60秒の内容である場合に、開始から1秒~5秒、15秒~30秒などと設定することができる。第5の撮影態様における撮影タイミングは、実際にコンテンツを見ながら盛り上がるところの時間を設定しておいてもよい。このように盛り上がるところを撮影タイミングとして設定しておくことにより、ユーザの豊かな表情を撮影し易くなる。 As shown in FIG. 7(h), the fifth shooting mode is to shoot a moving image in a predetermined time period determined according to the content. In the case of the fifth shooting mode as well, as in the case of the second shooting mode, data in which the shooting timing is added to the data of the main body of the content is used as the content. The difference from the second imaging mode is that the captured image is acquired as a moving image. After reading the content, the content reproducing means 113 passes the shooting timing recorded in the content to the shooting control means 116 . Then, the photographing control means 116 causes the photographing means 112 to photograph at the acquired photographing timing. The photographing timing to be added to the data of the content body is not particularly limited, and can be in various forms. For example, if the content is 60 seconds long, it can be set to 1 to 5 seconds, 15 to 30 seconds, etc. from the start. The shooting timing in the fifth shooting mode may be set at a time when the user actually gets excited while watching the content. By setting such exciting times as shooting timings, it becomes easier to shoot the user's rich facial expressions.

以上のように、本実施形態に係る撮影装置の撮影態様の場合、コンテンツを見ている時のユーザの自然な表情を撮影することができる。すなわち、撮影のために作ったものではない表情を撮影することができる。 As described above, in the case of the photographing mode of the photographing device according to the present embodiment, it is possible to photograph the natural expression of the user when viewing the content. In other words, it is possible to shoot a facial expression that is not created for shooting.

<4.撮影時の様子>
図8は、撮影時における撮影装置とユーザの関係を示す図である。図8において、Uはユーザを示し、HはそのときのユーザUの表情を示している。まず、図8(a)に示すように、ユーザは、テーマパーク等に設置された撮影装置110の前に移動する。そして、撮影装置110は、コンテンツの再生を開始する。この際、図8(b)に示すように、表示デバイス110fには、コンテンツの動画が表示される。なお、コンテンツの再生は、所定のタイミングで自動的に開始するようにしてもよいし、表示デバイス110fに表示された操作ボタン(図示省略)を操作することにより開始するようにしてもよい。
<4. State at the time of shooting>
FIG. 8 is a diagram showing the relationship between the photographing device and the user at the time of photographing. In FIG. 8, U indicates the user, and H indicates the facial expression of the user U at that time. First, as shown in FIG. 8A, the user moves in front of a photographing device 110 installed in a theme park or the like. Then, the imaging device 110 starts playing back the content. At this time, as shown in FIG. 8B, the moving image of the content is displayed on the display device 110f. The reproduction of the content may be automatically started at a predetermined timing, or may be started by operating an operation button (not shown) displayed on the display device 110f.

コンテンツの再生中に、例えば、上記第1の撮影態様~第5の撮影態様のようにして、撮影手段112がユーザの撮影を行う。図8(c)では、コンテンツの内容が盛り上がった際に、ユーザの撮影を行った状態を示している。このとき、ユーザUの表情Hは笑った状態となっている。コンテンツの再生を終えると、撮影装置110は、撮影画像と事前に用意されている背景画像を合成して合成画像を生成する。さらに、図8(d)に示すように、撮影装置110は、合成画像を表示デバイス110fに表示する。撮影画像内のユーザUの表情Hは笑った時のものであり、好ましい合成画像が得られる。ユーザは、表示されている合成画像が気に入った場合は、表示デバイス110f操作ボタンを操作して合成画像をプリント出力する。 During reproduction of the content, the photographing means 112 photographs the user in the first to fifth photographing modes, for example. FIG. 8(c) shows a state in which the user takes a picture when the contents are exciting. At this time, the facial expression H of the user U is in a smiling state. After finishing the reproduction of the content, the photographing device 110 combines the captured image and the background image prepared in advance to generate a composite image. Further, as shown in FIG. 8D, the imaging device 110 displays the synthesized image on the display device 110f. The facial expression H of the user U in the photographed image is the one when the user U is smiling, and a preferable composite image is obtained. If the user likes the displayed composite image, the user operates the display device 110f operation button to print out the composite image.

図9はコンテンツの再生終了直後の表示デバイス110fの画面の様子を示す図である。このうち、図9(a)は、図8(d)に示した表示デバイス110fに表示された合成画像と同じである。また、図9(b)は、表示デバイス110fに表示されたコンテンツ詳細情報を示す図である。図9(a)に示した合成画像の表示後、一定時間経過後に、撮影装置110は、表示を切り替えて、図9(b)に示すように、コンテンツ詳細情報を表示する。合成画像からコンテンツ詳細情報への表示切替は、撮影装置110が自動的に行ってもよいし、ユーザが操作ボタンを操作して行ってもよい。また、図9(b)に示したようなコンテンツ詳細情報から合成画像に表示を戻したりしてもよい。 FIG. 9 is a diagram showing the state of the screen of the display device 110f immediately after the end of content reproduction. Among them, FIG. 9(a) is the same as the synthesized image displayed on the display device 110f shown in FIG. 8(d). FIG. 9B is a diagram showing detailed content information displayed on the display device 110f. After a certain period of time has passed since the synthesized image shown in FIG. 9A is displayed, the imaging device 110 switches the display to display detailed content information as shown in FIG. 9B. The display switching from the composite image to the content detailed information may be automatically performed by the imaging device 110, or may be performed by the user operating the operation button. Also, the display may be returned to the synthesized image from the content detailed information as shown in FIG. 9B.

図9(b)に示すように、コンテンツ詳細情報としては、コンテンツのタイトル(名称)や、コンテンツの提供元、コンテンツ公開のアドレス(公開サイトのURL)および公開開始日、コード情報等を表示する。コード情報には、コンテンツ詳細情報の全部または一部を記録している。図9(b)の例ではコード情報としてバーコードを用いている。合成画像を紙媒体に記録してプリント出力する場合は、図9(a)に示したような合成画像のみを印刷してもよいし、一方の面に図9(a)に示したような合成画像を印刷し、他方の面に図9(b)に示したようなコンテンツ詳細情報を印刷してもよい。また、合成画像をデータとして記録して出力する場合は、合成画像とコンテンツ詳細情報をデータのままユーザが所持するユーザ端末150に送信する。データとして記録して出力する場合、撮影装置110は、通信部110gによりネットワーク160を介してユーザ端末150に送信してもよいし、近距離無線通信部110iにより近距離無線通信を行ってユーザ端末150に送信してもよい。 As shown in FIG. 9B, as the content detailed information, the content title (name), content provider, content publication address (public site URL), publication start date, code information, and the like are displayed. . The code information records all or part of the detailed content information. In the example of FIG. 9B, a bar code is used as the code information. When the composite image is recorded on a paper medium and printed out, only the composite image as shown in FIG. A composite image may be printed, and the content detailed information as shown in FIG. 9B may be printed on the other side. When recording and outputting the synthesized image as data, the synthesized image and the content detailed information are transmitted as data to the user terminal 150 possessed by the user. When recording and outputting data, the imaging device 110 may transmit the data to the user terminal 150 via the network 160 using the communication unit 110g, or perform short-range wireless communication using the short-range wireless communication unit 110i to the user terminal. 150.

<5.画面変化の様子>
図10は、撮影装置110の表示デバイス110fの画面変化の様子を示す図である。ここでは、撮影装置110の処理を表示デバイス110fの画面の状態を用いて説明する。撮影装置110による撮影画像提供サービスを提供する場合、撮影装置110は、図10(a)に示すような初期画面を、表示デバイス110fに表示する。図10(a)の例では、サービス名を「ナチュラルフォトサービス」とした場合を示している。撮影装置110に対してサービスを開始する操作をユーザが行うと、撮影装置110は、図10(b)に示すようなコンテンツ選択画面を、表示デバイス110fに表示する。図10(b)は、コンテンツ選択画面として、「わらい」「おどろき」「泣き」のような感情に対応したタイトルが選択可能に表示された例を示している。なお、表情認識用撮影手段114がユーザの表情を撮影し、取得した撮影画像に対して、表情認識手段117が解析を行い、顔認識により年齢・性別等のユーザ属性を推定し、ユーザ属性に合った推奨動画タイトルやサムネイル画像を表示させるようにしてもよい。
<5. How the screen changes>
FIG. 10 is a diagram showing how the screen of the display device 110f of the imaging device 110 changes. Here, the processing of the photographing device 110 will be described using the state of the screen of the display device 110f. When providing a photographed image providing service by the photographing device 110, the photographing device 110 displays an initial screen as shown in FIG. 10(a) on the display device 110f. The example of FIG. 10A shows a case where the service name is "natural photo service". When the user performs an operation to start the service on the imaging device 110, the imaging device 110 displays a content selection screen as shown in FIG. 10B on the display device 110f. FIG. 10B shows an example of a content selection screen in which titles corresponding to emotions such as "strange,""surprised," and "crying" are displayed so as to be selectable. The facial expression recognizing photographing means 114 photographs the facial expression of the user, and the facial expression recognizing means 117 analyzes the acquired photographed image, estimates user attributes such as age and gender by face recognition, and determines the user attributes. Matching recommended video titles and thumbnail images may be displayed.

ユーザによりコンテンツが選択されると、上述のように、撮影装置110は、選択されたコンテンツを再生するとともに、撮影を開始する。この間、再生されたコンテンツの動画は、図10(c)に示すように、表示デバイス110fに表示される。図10(c)の例では、コンテンツの動画に、コンテンツを提供している食品会社名も表示されている。上述のように、コンテンツが再生されている間、撮影手段112は、コンテンツを見ているユーザを撮影する。 When the content is selected by the user, the photographing device 110 reproduces the selected content and starts photographing as described above. During this time, the moving image of the reproduced content is displayed on the display device 110f as shown in FIG. 10(c). In the example of FIG. 10(c), the name of the food company providing the content is also displayed in the moving image of the content. As described above, while the content is being reproduced, the photographing means 112 photographs the user viewing the content.

選択されたコンテンツの再生が終了すると、撮影装置110は、図10(d)に示すように、複数の撮影画像を表示デバイス110fに並べて表示する。図10(d)の例では、撮影画像として静止画(写真)を表示した場合を示している。表示デバイス110fに表示された撮影画像からユーザが1つを選択する操作を撮影装置110に対して行うと、撮影装置110は、選択された撮影画像を認識する。そして、撮影装置110は、選択された撮影画像を表示デバイス110fに表示する。また、撮影装置110は、同じ画面において、合成対象として選択可能な複数の背景画像も表示する。 When the reproduction of the selected content ends, the photographing device 110 displays a plurality of photographed images side by side on the display device 110f as shown in FIG. 10(d). The example in FIG. 10D shows a case where a still image (photograph) is displayed as the captured image. When the user performs an operation of selecting one of the captured images displayed on the display device 110f on the imaging device 110, the imaging device 110 recognizes the selected captured image. Then, the imaging device 110 displays the selected captured image on the display device 110f. The photographing device 110 also displays a plurality of background images that can be selected as synthesis targets on the same screen.

図10(e)は、ユーザに選択された撮影画像を中心にして、画面上部に選択可能な複数の背景画像を表示した例を示す図である。図10(e)に示す例では、表示デバイス110fに、さらに、「次へ」ボタンと「戻る」ボタンが表示されている。タッチパネルも兼ねる表示デバイス110fにユーザが触れて、背景画像を選択すると、撮影装置110は、選択された背景画像を用いて合成した新たな合成画像を生成して、表示デバイス110fに表示する。他の背景画像を選択すると、撮影装置110は、選択された他の背景画像を用いて合成した新たな合成画像を生成して、表示デバイス110fに表示する。これにより、ユーザは、切り替えて表示された背景画像の中から合成対象とするものを選択することができる。撮影画像を変更したいときは「戻る」ボタンにタッチすると図10(d)に示した画面に戻る。図10(e)に示したように合成画像が表示された状態で、別途設けられたボタン(図示省略)等がユーザにより操作されると、撮影装置110は、図9(b)に示したようにコンテンツ詳細情報の表示を行う。 FIG. 10E is a diagram showing an example in which a plurality of selectable background images are displayed in the upper part of the screen, centering on the photographed image selected by the user. In the example shown in FIG. 10(e), the display device 110f further displays a "next" button and a "return" button. When the user touches the display device 110f, which also serves as a touch panel, to select a background image, the imaging device 110 generates a new composite image using the selected background image and displays it on the display device 110f. When another background image is selected, the photographing device 110 generates a new synthesized image synthesized using the selected other background image, and displays it on the display device 110f. Thereby, the user can select one to be synthesized from the background images displayed by switching. If you want to change the captured image, touch the "return" button to return to the screen shown in FIG. 10(d). When the user operates a separately provided button (not shown) or the like while the synthesized image is displayed as shown in FIG. Content detailed information is displayed as follows.

撮影画像と背景画像の選択が完了したところでユーザにより「次へ」ボタンがタッチされると、撮影装置110は、図10(f)に示すように、画像記録態様の選択画面を表示デバイス110fに表示する。図10(f)の例では、紙媒体に記録するための「プリントする」と、データとして記録するための「メールで送る」と、「プリントとメール両方」の選択肢が表示されている。ユーザにより、いずれかの選択肢を選択する操作が行われると、撮影装置110は、選択された内容に応じた態様で画像記録処理を行う。 When the user touches the "Next" button after completing the selection of the captured image and the background image, the image capturing apparatus 110 displays the image recording mode selection screen on the display device 110f as shown in FIG. 10(f). indicate. In the example of FIG. 10(f), options of "print" for recording on a paper medium, "send by e-mail" for recording as data, and "both print and e-mail" are displayed. When the user performs an operation to select one of the options, the imaging device 110 performs image recording processing in a mode according to the content of the selection.

上記実施形態において、管理サーバ120のユーザ状態解析手段125は、撮影画像を解析して、ユーザ状態としてユーザの感情を判定するようにしたが、他の態様でユーザ状態を取得するようにしてもよい。ユーザ状態としては、感情以外にも、体温、脈拍、着目箇所等がある。着目箇所とは、ユーザが着目していた画像上の箇所である。着目箇所の解析技術としては、例えば、株式会社ユーザーローカルが提供する「ユーザーローカル 視線推定AI」を用いることができる。この技術は、ディープラーニングによって映像内の人物がどこを見ているかを推定するものである。体温・脈拍の検出技術としては、旭化成エレクトロニクス株式会社が提供するVitalBit(登録商標)を用いることができる。この技術は、近赤外線カメラを用いて非接触に脈拍をセンシングするものである。 In the above embodiment, the user state analysis means 125 of the management server 120 analyzes the photographed image and determines the user's emotion as the user state. good. User states include body temperature, pulse rate, point of interest, etc., in addition to emotions. The point of interest is a point on the image on which the user is paying attention. As a technique for analyzing the point of interest, for example, “User Local Gaze Estimation AI” provided by User Local Co., Ltd. can be used. This technology uses deep learning to estimate where the person in the video is looking. VitalBit (registered trademark) provided by Asahi Kasei Electronics Corporation can be used as the body temperature/pulse detection technology. This technology uses a near-infrared camera to sense the pulse without contact.

上記実施形態に示したように、コンテンツは動画を含んでいる。この動画は1つのストーリー(物語)に従っていることが通常である。しかし、コンテンツが分岐可能な複数のストーリーを有し、ユーザの選択に基づいて異なるストーリーに従った動画を再生するようにしてもよい。図11は、分岐可能な複数のストーリーを有するコンテンツの画像の変化の様子を示す図である。 As shown in the above embodiments, the content includes animation. This moving image usually follows one story. However, the content may have multiple stories that can be branched, and videos according to different stories may be played based on the user's selection. FIG. 11 is a diagram showing how an image of content having a plurality of stories that can be branched changes.

この場合も、撮影装置110は、コンテンツのストーリーに従って、表示デバイス110fに動画を表示する。図11の例では、途中までは1つのストーリーであるため、図11(a)(b)に示すように決まった動画を表示する。そして、コンテンツの分岐位置に到達すると、撮影装置110は、ユーザ選択画面を表示する(図11(c))。図11(j)はユーザ選択画面の詳細を示す図である。撮影装置110は、ユーザ選択画面として複数のストーリーに対応した画像を選択可能に表示する。図11(j)の例では、ユーザ選択画面には、「クラブ」「カフェ」の2つのストーリーそれぞれに対応した画像が表示される。ユーザ選択画面において、ユーザにより画像が選択されると、撮影装置110は、選択された画像に対応するストーリーに従った動画を表示する。 Also in this case, the imaging device 110 displays the moving image on the display device 110f according to the story of the content. In the example of FIG. 11, since there is one story halfway through, the determined moving images are displayed as shown in FIGS. 11(a) and 11(b). Then, when the content branch position is reached, the photographing device 110 displays a user selection screen (FIG. 11(c)). FIG. 11(j) is a diagram showing details of the user selection screen. The photographing device 110 selectably displays images corresponding to a plurality of stories as a user selection screen. In the example of FIG. 11(j), images corresponding to the two stories "club" and "cafe" are displayed on the user selection screen. When the user selects an image on the user selection screen, the imaging device 110 displays a moving image according to the story corresponding to the selected image.

図11(j)に示したユーザ選択画面において「クラブ」が選択されると、撮影装置110は、図11(d)~(f)のように動画を表示する。一方、図11(j)に示したユーザ選択画面において「カフェ」が選択されると、撮影装置110は、図11(g)~(i)のように動画を表示する。コンテンツの再生終了後、撮影装置110は、アンケート画面を表示し(図示省略)、年齢や性別のユーザ属性を回答させるようにしてもよい。上記実施形態の場合と同様、コンテンツが再生されている間は、所定のタイミングで撮影デバイス110hが撮影を行って撮影画像を取得している。この後、撮影装置110は、撮影画像を管理サーバ120に送信する。この際、アンケート画面に従って回答されたユーザ属性を併せて送信してもよい。 When "club" is selected on the user selection screen shown in FIG. 11(j), the imaging device 110 displays moving images as shown in FIGS. 11(d) to 11(f). On the other hand, when "Cafe" is selected on the user selection screen shown in FIG. 11(j), the photographing device 110 displays moving images as shown in FIGS. 11(g) to (i). After the reproduction of the content is finished, the photographing device 110 may display a questionnaire screen (not shown) and ask the user to answer the user attributes such as age and sex. As in the case of the above embodiment, while the content is being reproduced, the image capturing device 110h captures images at predetermined timings to obtain captured images. After that, the imaging device 110 transmits the captured image to the management server 120 . At this time, user attributes answered according to the questionnaire screen may be transmitted together.

本実施形態に係る撮影システムでは、上記のような処理により、撮影画像が得られるため、ユーザとしては、自然で豊かな表情をした自分の写真が得られることになる。本実施形態に係る撮影システムは、図示しない課金機構を備え、ユーザ本人から撮影画像の料金を得るようにしてもよい。この場合、課金機構として、現金の投入口や電子マネーの読み取り装置などを用いることができる。一方、本実施形態に係る撮影システムでは、コンテンツに広告が含まれており、コンテンツの画像を見たユーザが、広告主や商品を認識することが可能となっている。したがって、本実施形態に係る撮影システムを利用することにより、広告主は、商品の広告をユーザに対して行うことができる。そのため、撮影装置110がユーザの利用に基づく課金情報を生成、広告サーバ140に送信し、受信した広告サーバ140で集計した課金額に基づいて、広告主が支払うようにしてもよい。 In the photographing system according to the present embodiment, a photographed image is obtained by the above-described processing, so that the user can obtain a photograph of himself with a natural and rich expression. The photographing system according to the present embodiment may include a billing mechanism (not shown) so that the user himself/herself charges for the photographed image. In this case, a cash slot, an electronic money reader, or the like can be used as the billing mechanism. On the other hand, in the photographing system according to the present embodiment, advertisements are included in the content, and the user who sees the image of the content can recognize the advertiser and the product. Therefore, by using the imaging system according to this embodiment, the advertiser can advertise the product to the user. Therefore, the photographing device 110 may generate billing information based on the user's usage, transmit the billing information to the advertising server 140 , and the advertiser may pay based on the received billing amount collected by the advertising server 140 .

以上、本開示の好適な実施形態について説明したが、本開示は、上記実施形態に限定されず、種々の変形が可能である。例えば、上記実施形態に係る撮影システムでは、管理サーバ120、コンテンツ公開サーバ130、広告サーバ140を備える構成としたが、コンテンツ公開サーバ130、広告サーバ140は必須ではなく、必要に応じて追加することができるものである。 Although the preferred embodiments of the present disclosure have been described above, the present disclosure is not limited to the above embodiments, and various modifications are possible. For example, although the imaging system according to the above embodiment is configured to include the management server 120, the content publishing server 130, and the advertising server 140, the content publishing server 130 and the advertising server 140 are not essential, and can be added as necessary. is possible.

100・・・撮影システム
110・・・撮影装置
111・・・画像表示手段
112・・・撮影手段
113・・・コンテンツ再生手段
114・・・表情認識用撮影手段
115・・・画像記録手段
116・・・撮影制御手段
117・・・表情認識手段
120・・・管理サーバ
121・・・コンテンツ記憶手段
122・・・ユーザ状態データ記憶手段
123・・・コンテンツ供給手段
124・・・撮影画像取得手段
125・・・ユーザ状態解析手段
130・・・コンテンツ公開サーバ
140・・・広告サーバ
150・・・ユーザ端末
160・・・ネットワーク
DESCRIPTION OF SYMBOLS 100... Photographing system 110... Photographing apparatus 111... Image display means 112... Photographing means 113... Content reproducing means 114... Photographing means for facial expression recognition 115... Image recording means 116. Photographing control means 117 Facial expression recognition means 120 Management server 121 Content storage means 122 User state data storage means 123 Content supply means 124 Photographed image acquisition means 125 ... User state analysis means 130 ... Content publishing server 140 ... Advertising server 150 ... User terminal 160 ... Network

Claims (7)

コンテンツに含まれる画像を表示する画像表示手段と、
ユーザを撮影する撮影手段と、
前記コンテンツを再生するコンテンツ再生手段と、
前記コンテンツ再生手段による前記コンテンツの再生時に合わせて前記撮影手段による撮影タイミングを制御する撮影制御手段と、
前記撮影手段の撮影により取得された撮影画像を記録する画像記録手段と、
を有する撮影装置。
image display means for displaying an image included in content;
a photographing means for photographing a user;
content reproduction means for reproducing the content;
a photographing control means for controlling timing of photographing by the photographing means in accordance with reproduction of the content by the content reproducing means;
an image recording means for recording a photographed image acquired by photographing by the photographing means;
A photographing device having a
前記撮影手段は、前記コンテンツ再生手段によるコンテンツの再生中に一定の時間間隔で撮影する、請求項1に記載の撮影装置。 2. The photographing apparatus according to claim 1, wherein said photographing means photographs at regular time intervals during reproduction of content by said content reproducing means. 前記撮影手段は、前記コンテンツに応じて定められた所定の時間帯において撮影する、請求項1に記載の撮影装置。 2. The photographing apparatus according to claim 1, wherein said photographing means photographs in a predetermined time period determined according to said content. 被写体の表情を認識するための表情認識用撮影手段をさらに有し、前記撮影手段は、表情認識用撮影手段により撮影された被写体の表情に応じて被写体を撮影する、請求項1に記載の撮影装置。 2. The photographing method according to claim 1, further comprising facial expression recognition photographing means for recognizing the expression of the subject, wherein the photographing means photographs the subject according to the subject's facial expression photographed by the facial expression recognition photographing means. Device. 人物の表情を認識する表情認識手段をさらに有し、
前記撮影手段は、前記コンテンツの再生中に連続して動画を撮影し、
前記表情認識手段は、撮影された動画における被写体の表情に応じて、抽出する範囲を決定し、
前記画像記録手段は、前記決定された動画を記録する、請求項1に記載の撮影装置。
further comprising facial expression recognition means for recognizing facial expressions of a person;
The shooting means shoots moving images continuously during playback of the content,
The facial expression recognition means determines a range to be extracted according to the facial expression of the subject in the captured moving image,
2. The photographing device according to claim 1, wherein said image recording means records said determined moving image.
請求項1から請求項5のいずれか一項に記載の撮影装置と、
前記撮影装置と接続された管理サーバと、を有し、
前記管理サーバは、
前記コンテンツ再生手段により再生されるコンテンツを前記撮影装置に供給するコンテンツ供給手段と、
前記撮影装置から前記撮影画像を取得する撮影画像取得手段と、
前記撮影画像のユーザ状態を解析するユーザ状態解析手段と、
を有する撮影システム。
The imaging device according to any one of claims 1 to 5;
a management server connected to the imaging device;
The management server is
a content supplying means for supplying the content reproduced by the content reproducing means to the photographing device;
a photographed image obtaining means for obtaining the photographed image from the photographing device;
user state analysis means for analyzing the user state of the captured image;
A shooting system with
前記撮影装置と接続された広告サーバをさらに有し、
前記広告サーバは、
前記コンテンツを前記管理サーバに送信するコンテンツ送信手段と、
前記管理サーバから前記ユーザ状態解析手段により解析された前記ユーザ状態のデータでるユーザ状態データを取得するユーザ状態データ取得手段と、
を有する請求項6に記載の撮影システム。
further comprising an advertisement server connected to the photographing device;
The ad server
content transmission means for transmitting the content to the management server;
user status data acquisition means for acquiring user status data, which is data of the user status analyzed by the user status analysis means, from the management server;
The imaging system according to claim 6, comprising:
JP2021017681A 2021-02-05 2021-02-05 Imaging apparatus and imaging system Pending JP2022120646A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021017681A JP2022120646A (en) 2021-02-05 2021-02-05 Imaging apparatus and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021017681A JP2022120646A (en) 2021-02-05 2021-02-05 Imaging apparatus and imaging system

Publications (1)

Publication Number Publication Date
JP2022120646A true JP2022120646A (en) 2022-08-18

Family

ID=82849162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021017681A Pending JP2022120646A (en) 2021-02-05 2021-02-05 Imaging apparatus and imaging system

Country Status (1)

Country Link
JP (1) JP2022120646A (en)

Similar Documents

Publication Publication Date Title
CN105791692B (en) Information processing method, terminal and storage medium
US8745502B2 (en) System and method for interfacing interactive systems with social networks and media playback devices
TW484108B (en) Automatic user performance capture system
US9560411B2 (en) Method and apparatus for generating meta data of content
KR102091848B1 (en) Method and apparatus for providing emotion information of user in an electronic device
EP2997533A2 (en) Audience-aware advertising
US20160307599A1 (en) Methods and Systems for Creating, Combining, and Sharing Time-Constrained Videos
CN109716782A (en) Customize the method and system of immersion media content
US20120233633A1 (en) Using image of video viewer to establish emotion rank of viewed video
JP7343660B2 (en) Image processing device, image processing method, program and recording medium
KR101123370B1 (en) service method and apparatus for object-based contents for portable device
JP7260505B2 (en) Information processing device, information processing method, information processing program, and terminal device
JP7202935B2 (en) Attention level calculation device, attention level calculation method, and attention level calculation program
US20170333794A1 (en) Apparatus and method for servicing user participation-type game by using real-time flash-mob
JP7206741B2 (en) HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM
CN115378901B (en) Work sending method, display method, terminal and server
JP2022120646A (en) Imaging apparatus and imaging system
JP7229601B2 (en) Information processing system
CN110008357A (en) Event recording method, device, electronic equipment and storage medium
JP7469977B2 (en) COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS
CN111666793A (en) Video processing method, video processing device and electronic equipment
KR20030039211A (en) A system having function of synthesizing user&#39;s image with an animation object
JP7210340B2 (en) Attention Level Utilization Apparatus, Attention Level Utilization Method, and Attention Level Utilization Program
Chen et al. The Impact of AR Filter Combines Blockchain Virtual Online Pets and brings Blockchain into our lives
JP7302804B1 (en) Systems, methods, and computer readable media for recommending live streams