JP2015099421A - Video content management device and portable communication terminal - Google Patents

Video content management device and portable communication terminal Download PDF

Info

Publication number
JP2015099421A
JP2015099421A JP2013237710A JP2013237710A JP2015099421A JP 2015099421 A JP2015099421 A JP 2015099421A JP 2013237710 A JP2013237710 A JP 2013237710A JP 2013237710 A JP2013237710 A JP 2013237710A JP 2015099421 A JP2015099421 A JP 2015099421A
Authority
JP
Japan
Prior art keywords
content
video content
video
search
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013237710A
Other languages
Japanese (ja)
Inventor
中村 三津明
Mitsuaki Nakamura
三津明 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013237710A priority Critical patent/JP2015099421A/en
Publication of JP2015099421A publication Critical patent/JP2015099421A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a video content management device for enabling a user who photographs video content to automatically extract the video content photographed as a subject by designating the video content.SOLUTION: A video content management device includes: a video content storage part 21 for storing two or more video content; a content information storage part 22 for storing content information including the photographer, subject and photographic place of the video content in association with the video content; a search request reception part 23 for receiving a search request with any video content designated as content for search; and a content search part 24 for extracting the video content associated with the photographic place whose distance to the photographic place of the content for search is equal to or less than a predetermined value by setting the photographer of the content for search as a subject from among the video content stored in the video content storage part 21 on the basis of the search request.

Description

本発明は、映像コンテンツ管理装置及び携帯通信端末に係り、さらに詳しくは、2以上の映像コンテンツの中から所望の映像コンテンツを抽出する映像コンテンツ管理装置の改良に関する。   The present invention relates to a video content management apparatus and a portable communication terminal, and more particularly to an improvement of a video content management apparatus that extracts desired video content from two or more video contents.

ライフログは、ユーザの生活、行動、体験を映像、音声などのデジタルデータに変換して位置及び時刻と共に記録する技術である。この様なライフログには、ユーザ自身が記録装置を操作してデジタルデータを記録する手動記録方式と、デジタルデータを常時記録する自動記録方式がある。いわゆるライフログカメラは、自動記録方式のカメラであり、衣服や身体に装着して被写体を常時撮影し、撮影映像を自動的に記録する。この様なライフログカメラによれば、撮影者視点の映像を記録し続けるので、ユーザは、所望のシーンに遭遇した際に慌ててカメラを構える必要がなく、シャッターチャンスを逃すことがない。また、ユーザは、過去の撮影映像を閲覧することにより、撮影時点にかかわらず曖昧な記憶を補完することができる。   Life log is a technology that converts a user's life, behavior, and experience into digital data such as video and audio, and records the data together with position and time. Such a life log includes a manual recording method in which a user himself / herself operates a recording device to record digital data, and an automatic recording method in which digital data is constantly recorded. A so-called life log camera is an automatic recording type camera, which is worn on clothes or a body, always shoots a subject, and automatically records a shot image. According to such a life log camera, since the video of the photographer's viewpoint is continuously recorded, when the user encounters a desired scene, the user does not have to hold the camera and never miss a photo opportunity. In addition, the user can supplement the ambiguous memory by browsing past photographed images regardless of the photographing time point.

通常、撮影者は、自分自身が撮影した映像を閲覧し、或いは、編集することができる。また、撮影映像をネットワーク上のサーバー装置にアップロードすれば、撮影映像を撮影者以外のユーザに公開することもできる。近年、撮影映像の公開対象を特定のユーザに制限する技術が提案されている(例えば、特許文献1)。この特許文献1には、固定カメラが撮影した映像を公開する際の公開対象を、映像撮影時に固定カメラの設置位置付近にいたユーザに絞り込むことが記載されている。また、長時間の撮影映像に対し、所望の映像シーンの検索を容易化する技術が提案されている(例えば、特許文献2)。この特許文献2には、地図上で領域を指定することにより、撮影映像から当該領域が撮影されている映像シーンを抽出することが記載されている。   Usually, a photographer can view or edit a video photographed by himself. Also, if the captured video is uploaded to a server device on the network, the captured video can be disclosed to users other than the photographer. In recent years, there has been proposed a technique for restricting a disclosure target of a captured video to a specific user (for example, Patent Document 1). Japanese Patent Application Laid-Open No. H10-260260 describes that the disclosure target when a video captured by a fixed camera is disclosed is narrowed down to users who are near the installation position of the fixed camera at the time of video recording. In addition, a technique for facilitating search for a desired video scene for a long-time shot video has been proposed (for example, Patent Document 2). This Patent Document 2 describes that a video scene in which the area is shot is extracted from a shot video by designating the area on a map.

ライフログカメラの撮影映像は、衣服などに装着したカメラで撮影されることから、撮影者を視点とする画像からなり、撮影者自身が映像内に登場することはない。このため、上述した様な従来の撮影システムでは、自分自身を被写体として撮影したければ、その都度、カメラを自分自身に向けて撮影し、撮影終了後に元の位置に戻さなければならず、煩雑であるという問題があった。   Since the video captured by the life log camera is captured by a camera attached to clothes or the like, it is composed of an image with the photographer as the viewpoint, and the photographer himself does not appear in the video. For this reason, in the conventional photographing system as described above, each time you want to photograph yourself as a subject, you have to photograph the camera toward yourself and return it to the original position after the photographing. There was a problem of being.

一方、ネットワーク上のサーバー装置に保持されている撮影映像の中には、ユーザ自身が被写体として登場する映像シーンを含むものが存在する場合がある。例えば、2以上の構成メンバーからなる家族や友人グループ内で撮影映像を共有するシステムでは、構成メンバー同士で撮影し合えば、ある構成メンバーが撮影した撮影映像に他の構成メンバーが被写体として登場する映像シーンが含まれることになる。この様な映像シーンを含む撮影映像をサーバー装置からダウンロードして表示すれば、ユーザは、他人を視点とする撮影映像によって自分自身の生活や行動を確認することができる。また、ユーザは、自分のカメラの撮影範囲に入らず撮影出来ていないが、他人のカメラでは撮影出来ている物を撮影映像によって確認し、或いは、その様な物が被写体として撮影された映像を共有することができる。しかしながら、サーバー装置上の多数の撮影映像の中から、所望の映像シーンを含む撮影映像を探し出すのは、容易ではなかった。   On the other hand, there are cases where the captured video held in the server device on the network includes a video scene in which the user himself appears as a subject. For example, in a system for sharing a shot video within a family or friend group of two or more constituent members, if the constituent members shoot together, other constituent members appear as subjects in the video shot by one constituent member A video scene will be included. If a captured image including such a video scene is downloaded from the server device and displayed, the user can confirm his / her own life and behavior with the captured image from the viewpoint of another person. In addition, the user is not within the shooting range of his / her camera and has not been able to shoot, but can check what the other person's camera can shoot with a shoot video, or can view a video of such a shoot as a subject. Can be shared. However, it has not been easy to find a photographed image including a desired image scene from a large number of photographed images on the server device.

特開2013−9256号公報JP 2013-9256 A 特開2011−259265号公報JP2011-259265A

本発明は、上記事情に鑑みてなされたものであり、映像コンテンツを指定することにより、当該映像コンテンツを撮影中のユーザが被写体として撮影された映像コンテンツを抽出することができる映像コンテンツ管理装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and a video content management apparatus that can extract video content shot as a subject by a user who is shooting the video content by specifying the video content. The purpose is to provide.

本発明による映像コンテンツ管理装置は、2以上の映像コンテンツを保持する映像コンテンツ記憶手段と、上記映像コンテンツの撮影者、被写体及び撮影場所を上記映像コンテンツに対応づけて記憶するコンテンツ情報記憶手段と、上記映像コンテンツのいずれかを検索用コンテンツとして指定した検索要求を受信する検索要求受信手段と、上記検索要求に基づいて、上記映像コンテンツ記憶手段に保持されている上記映像コンテンツの中から、上記検索用コンテンツの撮影者を被写体とし、かつ、上記検索用コンテンツの撮影場所までの距離が所定値以下となる撮影場所に対応づけられた映像コンテンツを抽出するコンテンツ検索手段とを備えて構成される。   A video content management apparatus according to the present invention includes a video content storage unit that holds two or more video contents, a content information storage unit that stores a photographer, a subject, and a shooting location of the video content in association with the video content, Search request receiving means for receiving a search request designating one of the video contents as search content, and the search from the video content held in the video content storage means based on the search request And content search means for extracting video content associated with a shooting location whose distance to the shooting location of the search content is a predetermined value or less.

この映像コンテンツ管理装置は、映像コンテンツの撮影者、被写体及び撮影場所を映像コンテンツに対応づけて記憶するため、検索要求を受信した場合に、検索要求で指定された検索用コンテンツに対応づけて記憶する撮影者、被写体及び撮影場所を元に映像コンテンツを検索することができる。従って、ユーザは、映像コンテンツのいずれかを検索用コンテンツとして指定することにより、検索用コンテンツを撮影中のユーザが被写体として撮影された映像コンテンツを抽出することができる。特に、検索用コンテンツの撮影場所までの距離に基づいて映像コンテンツを抽出するので、検索用コンテンツを撮影中のユーザ自身が撮影された映像コンテンツを正しく抽出することができる。   Since this video content management apparatus stores the video content photographer, the subject, and the shooting location in association with the video content, when the search request is received, the video content management apparatus stores the video content in association with the search content specified in the search request. The video content can be searched based on the photographer, the subject, and the shooting location. Therefore, the user can extract the video content captured by the user who is capturing the search content as a subject by designating any of the video content as the search content. In particular, since the video content is extracted based on the distance to the shooting location of the search content, it is possible to correctly extract the video content shot by the user who is shooting the search content.

本発明は、映像コンテンツのいずれかを検索用コンテンツとして指定することにより、検索用コンテンツを撮影中のユーザが被写体として撮影された映像コンテンツを抽出することができる映像コンテンツ管理装置を提供することができる。   It is an object of the present invention to provide a video content management apparatus that allows a user who is shooting a search content to extract video content shot as a subject by designating any of the video content as search content. it can.

本発明の実施の形態による撮影映像表示システム1の一構成例を示したシステム図である。1 is a system diagram illustrating a configuration example of a captured video display system 1 according to an embodiment of the present invention. 図1の携帯通信端末10の構成例を示した斜視図であり、携帯通信端末10の一例として、薄型筐体11の背面にカメラ16を備えた携帯電話機が示されている。FIG. 2 is a perspective view illustrating a configuration example of the mobile communication terminal 10 in FIG. 1, and a mobile phone including a camera 16 on the back surface of a thin housing 11 is illustrated as an example of the mobile communication terminal 10. 図2の携帯通信端末10内の機能構成の一例を示したブロック図である。It is the block diagram which showed an example of the function structure in the portable communication terminal 10 of FIG. 図3の主制御部100の構成例を示したブロック図である。FIG. 4 is a block diagram illustrating a configuration example of a main control unit 100 in FIG. 3. 映像共有メンバー2間で撮影し合う様子を模式的に示した説明図である。It is explanatory drawing which showed typically a mode that the image | video sharing member 2 mutually image | photographs. 図1の映像コンテンツ管理装置20の構成例を示したブロック図である。It is the block diagram which showed the structural example of the video content management apparatus 20 of FIG. 図3の携帯通信端末10における撮影時の動作の一例を示したフローチャートである。4 is a flowchart showing an example of an operation at the time of shooting in the mobile communication terminal 10 of FIG. 3. 図3の携帯通信端末10における映像再生時の動作の一例を示したフローチャートである。4 is a flowchart showing an example of an operation during video reproduction in the mobile communication terminal 10 of FIG. 3. 映像コンテンツ管理装置20の他の構成例を示したブロック図である。6 is a block diagram illustrating another configuration example of the video content management apparatus 20. FIG.

<撮影映像表示システム1>
図1は、本発明の実施の形態による撮影映像表示システム1の一構成例を示したシステム図である。この撮影映像表示システム1は、被写体を撮影して映像コンテンツを生成する2以上の携帯通信端末10と、2以上の映像コンテンツを保持し、携帯通信端末10からの検索要求に応じて、映像コンテンツを検索する映像コンテンツ管理装置20とからなる。
<Photographed video display system 1>
FIG. 1 is a system diagram showing a configuration example of a captured video display system 1 according to an embodiment of the present invention. The captured video display system 1 holds two or more mobile communication terminals 10 that capture a subject and generate video content, and holds the two or more video contents. In response to a search request from the mobile communication terminal 10, the video content is displayed. And a video content management apparatus 20 that searches for the video content.

携帯通信端末10及び映像コンテンツ管理装置20は、移動体電話回線網、LAN(ローカルエリアネットワーク)、インターネットなどの通信ネットワーク3を介して互いに接続される。携帯通信端末10により撮影された映像コンテンツは、映像コンテンツ管理装置20へアップロードされる。また、携帯通信端末10を使用するユーザは、自分自身が撮影した映像コンテンツであれば、映像コンテンツ管理装置20からダウンロードすることにより、必要に応じて閲覧し、或いは、編集することができる。   The mobile communication terminal 10 and the video content management apparatus 20 are connected to each other via a communication network 3 such as a mobile telephone network, a LAN (local area network), and the Internet. Video content shot by the mobile communication terminal 10 is uploaded to the video content management apparatus 20. Further, the user using the mobile communication terminal 10 can view or edit the video content taken by himself / herself as necessary by downloading it from the video content management apparatus 20.

この撮影映像表示システム1では、2以上の映像共有メンバー2、例えば、「ユーザA」、「ユーザB」及び「ユーザC」間で映像コンテンツが共有され、他人が撮影した映像コンテンツであっても、映像コンテンツ管理装置20から取得して閲覧し、或いは、編集することができる。   In this photographed video display system 1, video content is shared between two or more video sharing members 2, for example, "User A", "User B", and "User C", and even video content shot by others. It can be acquired from the video content management device 20 and viewed or edited.

<携帯通信端末10>
図2は、図1の携帯通信端末10の構成例を示した斜視図であり、携帯通信端末10の一例として、薄型筐体11の背面にカメラ16を備えた携帯電話機が示されている。図中の(a)には、薄型筐体11の前面が示され、(b)には、背面が示されている。この携帯通信端末10は、薄型筐体11、画面表示部12、受話用のレシーバ13、送話用のマイクロホン14、操作キー15a〜15c及びカメラ16を備えた端末装置である。
<Mobile communication terminal 10>
FIG. 2 is a perspective view showing a configuration example of the mobile communication terminal 10 of FIG. 1. As an example of the mobile communication terminal 10, a mobile phone provided with a camera 16 on the back surface of the thin housing 11 is shown. (A) in the drawing shows the front surface of the thin casing 11, and (b) shows the back surface. The mobile communication terminal 10 is a terminal device including a thin casing 11, a screen display unit 12, a receiver 13 for receiving a voice, a microphone 14 for transmitting, operation keys 15 a to 15 c, and a camera 16.

薄型筐体11は、薄型の直方体形状からなり、一方の主面が前面であり、他方の主面が背面である。この薄型筐体11は、端末操作者から見て、上下方向を長手方向とする縦長形状からなり、画面表示部12、レシーバ13、マイクロホン14及び操作キー15a〜15cは、薄型筐体11の前面に配置されている。   The thin housing 11 has a thin rectangular parallelepiped shape, and one main surface is the front surface and the other main surface is the back surface. The thin casing 11 has a vertically long shape as viewed from the terminal operator with the vertical direction as the longitudinal direction. The screen display unit 12, the receiver 13, the microphone 14, and the operation keys 15 a to 15 c are arranged on the front surface of the thin casing 11. Is arranged.

レシーバ13は、薄型筐体11の長手方向における一方の端部、すなわち、上端部に配置され、マイクロホン14及び操作キー15a〜15cは、他方の端部、すなわち、下端部に配置されている。画面表示部12は、文字や画像からなる各種情報を画面上に表示する表示装置である。レシーバ13は、受話音を出力するための音声出力装置である。マイクロホン14は、送話音を入力するための音声入力装置である。   The receiver 13 is disposed at one end in the longitudinal direction of the thin casing 11, that is, the upper end, and the microphone 14 and the operation keys 15a to 15c are disposed at the other end, that is, the lower end. The screen display unit 12 is a display device that displays various information including characters and images on the screen. The receiver 13 is a sound output device for outputting a received sound. The microphone 14 is a voice input device for inputting a transmission sound.

操作キー15a〜15cは、いずれも押下型の接点式スイッチからなり、各種機能が割り当てられる。例えば、操作キー15aは、前の画面に戻るためのリターンキーである。また、操作キー15bは、ホーム画面を表示するためのホームキーである。また、操作キー15cは、メニュー画面を表示するためのメニューキーである。   Each of the operation keys 15a to 15c includes a push-down contact type switch, and various functions are assigned thereto. For example, the operation key 15a is a return key for returning to the previous screen. The operation key 15b is a home key for displaying a home screen. The operation key 15c is a menu key for displaying a menu screen.

カメラ16は、被写体を撮影し、映像コンテンツを生成する撮像装置である。映像コンテンツには、静止画像と動画像とがあり、これらの画像種別を任意に指定することができる。カメラ16の撮影倍率、絞り、画像種別などの撮影条件は、撮影パラメータによって指定される。カメラ16によって撮影された映像コンテンツは、映像コンテンツ管理装置20へアップロードされる。また、映像コンテンツ管理装置20からダウンロードした映像コンテンツは、画面表示部12に表示される。   The camera 16 is an imaging device that captures a subject and generates video content. Video contents include still images and moving images, and these image types can be arbitrarily designated. Shooting conditions such as the shooting magnification, aperture, and image type of the camera 16 are specified by shooting parameters. The video content shot by the camera 16 is uploaded to the video content management apparatus 20. Further, the video content downloaded from the video content management device 20 is displayed on the screen display unit 12.

図3は、図2の携帯通信端末10内の機能構成の一例を示したブロック図である。この携帯通信端末10は、画面表示部12、レシーバ13、マイクロホン14、操作キー15a〜15c、カメラ16、主制御部100、セルラー通信部101、操作部102、姿勢センサ103、表示制御部104、音声処理部105及びメモリ106により構成される。   FIG. 3 is a block diagram illustrating an example of a functional configuration in the mobile communication terminal 10 of FIG. The mobile communication terminal 10 includes a screen display unit 12, a receiver 13, a microphone 14, operation keys 15a to 15c, a camera 16, a main control unit 100, a cellular communication unit 101, an operation unit 102, an attitude sensor 103, a display control unit 104, The audio processing unit 105 and the memory 106 are included.

主制御部100は、通話制御などの主要な制御を行う。セルラー通信部101は、移動体電話回線網に接続し、セルラー基地局を介して相手先端末と通信する無線通信部である。操作部102は、ユーザ操作に応じた操作信号を生成し、主制御部100へ出力する。表示制御部104は、画面表示部12の表示制御を行う。音声処理部105は、マイクロホン14により集音された音声信号を増幅し、デジタルデータに変換して主制御部100へ出力する一方、主制御部100から出力された音声データをアナログ信号に変換して駆動信号を生成し、レシーバ13へ出力する。   The main control unit 100 performs main control such as call control. The cellular communication unit 101 is a wireless communication unit that connects to a mobile telephone network and communicates with a counterpart terminal via a cellular base station. The operation unit 102 generates an operation signal corresponding to the user operation and outputs the operation signal to the main control unit 100. The display control unit 104 performs display control of the screen display unit 12. The audio processing unit 105 amplifies the audio signal collected by the microphone 14, converts it into digital data and outputs it to the main control unit 100, while converting the audio data output from the main control unit 100 into an analog signal. Drive signal is generated and output to the receiver 13.

メモリ106には、主制御部100が上述した処理を実行するためのアプリケーションプログラム、カメラ16により撮影された映像コンテンツ、撮影者情報が保持される。撮影者情報は、映像コンテンツの撮影者を示す情報、例えば、ユーザ名及びユーザIDであり、映像コンテンツに対応づけて記憶される。ユーザ名及びユーザIDは、映像共有メンバー2を特定するための識別情報である。ここでは、映像コンテンツは、一連の静止画像から構成され、動画像の撮影と同時にマイクロホン14により集音された音声データを含むものとする。   The memory 106 holds an application program for the main control unit 100 to execute the above-described processing, video content shot by the camera 16, and photographer information. The photographer information is information indicating the photographer of the video content, for example, a user name and a user ID, and is stored in association with the video content. The user name and user ID are identification information for specifying the video sharing member 2. Here, the video content is composed of a series of still images, and includes audio data collected by the microphone 14 at the same time as capturing a moving image.

姿勢センサ103は、映像コンテンツの撮影場所を特定するために、自端末の姿勢を検出するセンサであり、自端末の位置及びカメラ16の向きを検出する。姿勢センサ103は、映像コンテンツの撮影中、一定の時間間隔で自端末の姿勢を繰り返し検出する。例えば、自端末の位置は、GPS(Global Positioning System:全地球測位システム)衛星から送信される測位信号を受信し、複数のGPS衛星から受信した測位信号に基づいて、求められる。なお、位置の検出方法には、セルラー通信部101の受信信号からセルラー基地局の位置情報を取得し、この位置情報を利用して位置を検出する方式、WiFi(Wireless Fidelity)を利用して位置情報を取得し、この位置情報を利用して位置を検出する方式、或いは、これらの方式を組み合わせて位置を検出する方式を採用しても良い。   The orientation sensor 103 is a sensor that detects the orientation of the terminal itself in order to specify the shooting location of the video content, and detects the position of the terminal itself and the orientation of the camera 16. The posture sensor 103 repeatedly detects the posture of the terminal itself at regular time intervals during video content shooting. For example, the position of the own terminal is obtained based on positioning signals received from a plurality of GPS satellites by receiving positioning signals transmitted from GPS (Global Positioning System) satellites. As a method for detecting the position, a method of acquiring the position information of the cellular base station from the received signal of the cellular communication unit 101 and detecting the position using this position information, the position using WiFi (Wireless Fidelity) is used. A method of acquiring information and detecting a position using this position information, or a method of detecting a position by combining these methods may be adopted.

一方、カメラ16の向きは、加速度を検出し、加速度の大きさ、向き、加速度の単位時間当たりの変化量に基づいて、求められる。例えば、加速度は、可動部の位置変化を静電容量の変化によって検出する静電容量型の加速度センサを用いて検出される。なお、向きの検出方法には、地磁気を検出する地磁気センサを用いて向きを検出する方式、角速度を検出するジャイロセンサを用いて向きを検出する方式、電子コンパスを用いて向きを検出する方式、或いは、これらのセンサを組み合わせてを用いて向きを検出する方式を採用しても良い。   On the other hand, the orientation of the camera 16 is obtained based on the acceleration magnitude, the magnitude of the acceleration, the orientation, and the amount of change in acceleration per unit time. For example, the acceleration is detected using a capacitance-type acceleration sensor that detects a change in the position of the movable portion based on a change in capacitance. The direction detection method includes a method of detecting the direction using a geomagnetic sensor that detects geomagnetism, a method of detecting the direction using a gyro sensor that detects angular velocity, a method of detecting the direction using an electronic compass, Or you may employ | adopt the system which detects direction using combining these sensors.

<主制御部100>
図4は、図3の主制御部100の構成例を示したブロック図である。この主制御部100は、撮影場所検出部110、共有メンバー情報記憶部111、被写体識別部112、コンテンツ情報生成部113、公開条件指定部114、検索要求生成部115、映像コンテンツ取得部116及び映像コンテンツ再生部117により構成される。
<Main control unit 100>
FIG. 4 is a block diagram showing a configuration example of the main control unit 100 of FIG. The main control unit 100 includes a shooting location detection unit 110, a shared member information storage unit 111, a subject identification unit 112, a content information generation unit 113, a disclosure condition specification unit 114, a search request generation unit 115, a video content acquisition unit 116, and a video. The content playback unit 117 is configured.

撮影場所検出部110は、姿勢センサ103により検出された自端末の位置及びカメラ16の向きに基づいて、映像コンテンツの撮影場所を検出し、その検出結果をコンテンツ情報生成部113へ出力する。例えば、撮影場所検出部110は、まず、カメラ16から撮影パラメータを取得して被写体までの距離を求める。そして、撮影場所検出部110は、自端末の地図上の位置、カメラ16の向きを示す方位角及び仰俯角、被写体までの距離、並びに、撮影倍率に基づいて、地図上の撮像エリアを特定し、自端末の地図上の位置及び撮像エリアを撮影場所とする。   The shooting location detection unit 110 detects the shooting location of the video content based on the position of the terminal and the orientation of the camera 16 detected by the attitude sensor 103, and outputs the detection result to the content information generation unit 113. For example, the shooting location detection unit 110 first acquires shooting parameters from the camera 16 and obtains the distance to the subject. Then, the shooting location detection unit 110 identifies the imaging area on the map based on the position of the terminal on the map, the azimuth and elevation angles indicating the orientation of the camera 16, the distance to the subject, and the shooting magnification. The location on the map of the terminal and the imaging area are taken as shooting locations.

共有メンバー情報記憶部111には、映像共有メンバー2の外観上の特徴を示すメンバー特徴情報が保持される。例えば、顔や身体の外形形状、特徴点の位置がメンバー特徴情報として保持される。なお、メンバー特徴情報には、映像共有メンバー2の顔や身体が撮影された静止画像、例えば、サムネイル画像を用いても良い。   The shared member information storage unit 111 holds member feature information indicating the appearance characteristics of the video sharing member 2. For example, the external shape of the face and body and the position of the feature point are held as member feature information. The member feature information may be a still image obtained by photographing the face or body of the video sharing member 2, for example, a thumbnail image.

被写体識別部112は、メモリ106から映像コンテンツを読み出し、共有メンバー情報記憶部111内のメンバー特徴情報に基づいて、映像コンテンツ内に現れる被写体を識別し、その識別結果をコンテンツ情報生成部113へ出力する。被写体の識別は、エッジ検出などの手法を用いて映像コンテンツから被写体を抽出し、抽出された被写体をメンバー特徴情報と照合して被写体を特定することによって行われる。   The subject identifying unit 112 reads the video content from the memory 106, identifies the subject appearing in the video content based on the member feature information in the shared member information storage unit 111, and outputs the identification result to the content information generating unit 113. To do. The identification of the subject is performed by extracting the subject from the video content by using a method such as edge detection, and specifying the subject by comparing the extracted subject with the member feature information.

なお、被写体識別には、メンバー特徴情報として予め保持された照合用の音声データと、映像コンテンツの撮影と共に録音された音声データとを比較して被写体を識別する方法を画像認識の上記方法と組み合わせて用いる構成を採用しても良い。   For subject identification, a method for identifying a subject by comparing audio data for collation stored in advance as member characteristic information with audio data recorded together with video content shooting is combined with the above method of image recognition. The configuration used may be adopted.

公開条件指定部114は、操作部102からの操作信号に基づいて、映像コンテンツの公開条件を指定する。この公開条件は、公開許可情報及び公開禁止情報からなる。公開許可情報には、公開を許可する映像共有メンバー2、撮影時間帯及び撮影場所が指定される。公開禁止情報には、公開を禁止する映像共有メンバー2、撮影時間帯及び撮影場所が指定される。つまり、ユーザは、映像コンテンツごとに、上記した公開許可情報及び公開禁止情報を指定することができる。   The disclosure condition specifying unit 114 specifies the disclosure condition of the video content based on the operation signal from the operation unit 102. This disclosure condition includes disclosure permission information and disclosure prohibition information. In the release permission information, the video sharing member 2 permitted to be released, the shooting time zone, and the shooting location are designated. In the disclosure prohibition information, the video sharing member 2, the photographing time zone, and the photographing location that are prohibited from being disclosed are designated. That is, the user can designate the above-described disclosure permission information and disclosure prohibition information for each video content.

コンテンツ情報生成部113は、映像コンテンツの撮影場所及び被写体の識別結果に基づいて、コンテンツ情報を生成する。このコンテンツ情報は、検索用の付加情報であり、撮影者、被写体の識別結果、撮影場所、コンテンツ名、タイトル、撮影日時及び公開条件からなる。セルラー通信部101は、メモリ106から映像コンテンツを読み出し、映像コンテンツ及びコンテンツ情報を映像コンテンツ管理装置20へ送信する。   The content information generation unit 113 generates content information based on the video content shooting location and the subject identification result. This content information is additional information for search, and includes a photographer, a subject identification result, a shooting location, a content name, a title, a shooting date and a release condition. The cellular communication unit 101 reads video content from the memory 106 and transmits the video content and content information to the video content management device 20.

検索要求生成部115は、操作部102からの操作信号に基づいて、映像コンテンツ管理装置20が保持する映像コンテンツのいずれかを検索用コンテンツとして指定した検索要求を生成し、セルラー通信部101へ出力する。検索要求は、セルラー通信部101から映像コンテンツ管理装置20へ送信される。映像コンテンツ取得部116は、セルラー通信部101を介し、検索用コンテンツと、映像コンテンツ管理装置20が検索要求に基づいて抽出した目的コンテンツとを映像コンテンツ管理装置20から取得する。   Based on the operation signal from the operation unit 102, the search request generation unit 115 generates a search request specifying any of the video contents held by the video content management apparatus 20 as the search content, and outputs the search request to the cellular communication unit 101. To do. The search request is transmitted from the cellular communication unit 101 to the video content management apparatus 20. The video content acquisition unit 116 acquires the search content and the target content extracted by the video content management device 20 based on the search request from the video content management device 20 via the cellular communication unit 101.

目的コンテンツは、映像コンテンツ管理装置20が保持する映像コンテンツであり、検索用コンテンツの撮影者を被写体とし、かつ、検索用コンテンツの撮影場所までの距離が所定値以下となる場所で撮影された映像コンテンツからなる。   The target content is video content held by the video content management apparatus 20, and is video captured at a place where the photographer of the search content is a subject and the distance to the search content shooting location is a predetermined value or less. Consists of content.

映像コンテンツ再生部117は、映像コンテンツ取得部116により取得された映像コンテンツを再生するためのビデオデータを生成し、表示制御部104及び音声処理部105へ出力する。画面表示部12には、映像コンテンツを示す動画像が表示され、レシーバ13から音声が出力される。検索用コンテンツ及び目的コンテンツは、その両方が同時に表示され、或いは、いずれか一方が切り替え可能に表示される。   The video content reproduction unit 117 generates video data for reproducing the video content acquired by the video content acquisition unit 116 and outputs the video data to the display control unit 104 and the audio processing unit 105. A moving image indicating video content is displayed on the screen display unit 12, and audio is output from the receiver 13. The search content and the target content are both displayed at the same time, or either one is displayed so as to be switchable.

ユーザは、映像コンテンツ管理装置20が保持する映像コンテンツのいずれかを検索用コンテンツとして指定することにより、検索用コンテンツの撮影者を被写体とし、かつ、検索用コンテンツの撮影場所に近い場所で撮影された映像コンテンツを映像コンテンツ管理装置20から取得して再生させることができる。例えば、ユーザは、自分自身が撮影した映像コンテンツを検索用コンテンツとして指定するだけで、検索用コンテンツを撮影中のユーザ自身が被写体として撮影された映像コンテンツを映像コンテンツ管理装置20から取得して閲覧することができる。   The user designates one of the video contents held by the video content management apparatus 20 as the search content, so that the photographer of the search content is taken as a subject and is shot at a location close to the shooting location of the search content. The obtained video content can be acquired from the video content management apparatus 20 and played back. For example, the user simply designates video content captured by himself / herself as search content, and acquires and browses video content captured by the user himself / herself who is capturing the search content from the video content management apparatus 20. can do.

図5は、映像共有メンバー2間で撮影し合う様子を模式的に示した説明図である。映像共有メンバー2のユーザAは、映像共有メンバー2のユーザBを被写体とし、ユーザBの位置を含む撮像エリアEaを撮影している。また、映像共有メンバー2のユーザCは、映像共有メンバー2のユーザAを被写体とし、ユーザAの位置を含む撮像エリアEcを撮影している。   FIG. 5 is an explanatory view schematically showing a state in which the video sharing members 2 shoot each other. The user A of the video sharing member 2 takes the user B of the video sharing member 2 as a subject and shoots the imaging area Ea including the position of the user B. Also, the user C of the video sharing member 2 takes the user A of the video sharing member 2 as a subject and shoots the imaging area Ec including the position of the user A.

撮像エリアEa,Ecは、地図上の領域からなり、撮影者の位置(携帯通信端末10の位置)、カメラ16の向き、被写体までの距離及び撮影倍率から求められる。各ユーザA〜Cは、携帯通信端末10を用いて撮影した映像コンテンツを映像コンテンツ管理装置20へアップロードする。   The imaging areas Ea and Ec are areas on the map, and are obtained from the position of the photographer (position of the mobile communication terminal 10), the direction of the camera 16, the distance to the subject, and the photographing magnification. Each user A to C uploads video content shot using the mobile communication terminal 10 to the video content management device 20.

従って、ユーザAは、自分自身が撮影した映像コンテンツを検索用コンテンツに指定するだけで、ユーザ自身が被写体として撮影され、しかも、検索用コンテンツの撮影場所に近い位置から撮影された映像コンテンツを映像コンテンツ管理装置20から取得して閲覧することができる。この例では、ユーザCにより撮影された映像コンテンツを映像コンテンツ管理装置20から取得して閲覧することができる。   Accordingly, the user A simply designates the video content photographed by himself / herself as the search content, and the user himself / herself is photographed as a subject, and the video content photographed from a position close to the photographing location of the search content is represented as a video. It can be acquired from the content management apparatus 20 and browsed. In this example, the video content shot by the user C can be acquired from the video content management apparatus 20 and browsed.

<映像コンテンツ管理装置20>
図6は、図1の映像コンテンツ管理装置20の構成例を示したブロック図である。この映像コンテンツ管理装置20は、映像コンテンツ記憶部21、コンテンツ情報記憶部22、検索要求受信部23、コンテンツ検索部24及び映像コンテンツ送信部25により構成される。映像コンテンツ記憶部21には、アップロードされた2以上の映像コンテンツ21aが保持される。
<Video content management apparatus 20>
FIG. 6 is a block diagram showing a configuration example of the video content management apparatus 20 of FIG. The video content management apparatus 20 includes a video content storage unit 21, a content information storage unit 22, a search request reception unit 23, a content search unit 24, and a video content transmission unit 25. The video content storage unit 21 holds two or more uploaded video contents 21a.

コンテンツ情報記憶部22には、コンテンツ情報22aが映像コンテンツに対応づけて記憶される。コンテンツ情報22aには、撮影者を示す撮影者情報と、映像コンテンツ内に現れる被写体を示す被写体情報と、撮影場所を示す撮影場所情報と、撮影時刻を示す撮影時刻情報とが含まれる。   The content information storage unit 22 stores content information 22a in association with video content. The content information 22a includes photographer information indicating a photographer, subject information indicating a subject appearing in the video content, shooting location information indicating a shooting location, and shooting time information indicating a shooting time.

検索要求受信部23は、通信ネットワーク3を介して携帯通信端末10に接続し、映像コンテンツ記憶部21内に保持されている映像コンテンツ21aのいずれかを検索用コンテンツとして指定した検索要求を受信する。   The search request receiving unit 23 is connected to the mobile communication terminal 10 via the communication network 3 and receives a search request designating one of the video contents 21 a held in the video content storage unit 21 as the search content. .

コンテンツ検索部24は、受信した検索要求に基づいて、コンテンツ情報記憶部22を検索し、映像コンテンツ記憶部21に保持されている映像コンテンツ21aの中から、検索用コンテンツの撮影者を被写体とし、かつ、検索用コンテンツの撮影場所までの距離が所定値以下となる撮影場所に対応づけられた映像コンテンツを目的コンテンツとして抽出する。例えば、検索用コンテンツの撮影者の位置を撮像エリア内に含む映像コンテンツが目的コンテンツとして抽出される。   The content search unit 24 searches the content information storage unit 22 based on the received search request, and takes the photographer of the search content as a subject from the video content 21a held in the video content storage unit 21. In addition, the video content associated with the shooting location where the distance to the shooting location of the search content is a predetermined value or less is extracted as the target content. For example, video content including the position of the photographer of the search content in the imaging area is extracted as the target content.

映像コンテンツ送信部25は、映像コンテンツ記憶部21から、検索用コンテンツと、コンテンツ検索部24により抽出された目的コンテンツとを読み出し、検索用コンテンツと共に目的コンテンツを検索要求の要求元の携帯通信端末10へ送信する。コンテンツ検索部24は、検索精度を上げるために、撮影時刻情報に基づいて、目的コンテンツを抽出する。   The video content transmission unit 25 reads the search content and the target content extracted by the content search unit 24 from the video content storage unit 21, and the mobile communication terminal 10 that requested the search request for the target content together with the search content. Send to. The content search unit 24 extracts target content based on the shooting time information in order to increase the search accuracy.

具体的には、検索用コンテンツの撮影者を被写体とし、かつ、検索用コンテンツの撮影場所までの距離が所定値以下となる撮影場所に対応づけられ、かつ、検索用コンテンツの撮影時刻との時間差が所定値以下となる撮影時刻に対応づけられた映像コンテンツが目的コンテンツとして抽出される。撮影時刻情報を用いて目的コンテンツを特定することにより、被写体の識別精度が低くても、検索用コンテンツの撮影場所に近い位置から検索用コンテンツの撮影者が被写体として撮影された映像コンテンツを正しく抽出することができる。   Specifically, the photographer of the search content is the subject, the distance to the capture location of the search content is a predetermined value or less, and the time difference from the capture time of the search content The video content associated with the shooting time when becomes less than a predetermined value is extracted as the target content. By identifying the target content using the shooting time information, even if the subject identification accuracy is low, the video content captured by the search content photographer as the subject can be correctly extracted from a position close to the search content shooting location. can do.

図7のステップS101〜S113は、図3の携帯通信端末10における撮影時の動作の一例を示したフローチャートである。まず、主制御部100は、カメラ16から映像データを取得するとともに、マイクロホン14により集音された音声データを取得し、映像コンテンツとしてメモリ106内に格納する(ステップS101)。   Steps S101 to S113 in FIG. 7 are flowcharts illustrating an example of an operation at the time of shooting in the mobile communication terminal 10 in FIG. First, the main control unit 100 acquires video data from the camera 16, acquires audio data collected by the microphone 14, and stores it in the memory 106 as video content (step S101).

次に、主制御部100は、メモリ106内から映像コンテンツを読み出して被写体を抽出し、メンバー特徴情報と照合して被写体を特定する(ステップS102,S103)。主制御部100は、前回の照合結果と今回の照合結果とを比較し、映像内の被写体に変化があれば、被写体を示す情報を更新する(ステップS104,S105)。例えば、前回の照合時にいなかった被写体が映像内に現れた場合、当該被写体に関連づけて撮影開始時刻が記憶される。また、前回の照合時にいた被写体が映像内からいなくなった場合は、当該被写体に関連づけて撮影終了時刻がコンテンツ情報として記憶される。   Next, the main control unit 100 reads out the video content from the memory 106, extracts the subject, and specifies the subject by collating with the member feature information (steps S102 and S103). The main control unit 100 compares the previous collation result with the current collation result, and updates the information indicating the subject if there is a change in the subject in the video (steps S104 and S105). For example, when a subject that was not in the previous collation appears in the video, the shooting start time is stored in association with the subject. If the subject that was in the previous collation disappears from the video, the shooting end time is stored as content information in association with the subject.

次に、主制御部100は、撮影パラメータに変化があれば、撮影場所を示す情報を更新する(ステップS106,S107)。例えば、撮影倍率、絞りが変更された場合、変更後のパラメータ値及び変更時刻がコンテンツ情報に追加され、撮影場所情報が更新される。また、主制御部100は、自端末の姿勢に所定レベルを越える変化があれば、撮影場所情報を更新する(ステップS108,S109)。例えば、自端末の位置、カメラ16の向きが一定値以上変化した場合、変更後のパラメータ値及び変更時刻がコンテンツ情報に追加され、撮影場所情報が更新される。   Next, if there is a change in the shooting parameter, the main control unit 100 updates the information indicating the shooting location (steps S106 and S107). For example, when the shooting magnification and aperture are changed, the changed parameter value and change time are added to the content information, and the shooting location information is updated. In addition, if there is a change in the attitude of the terminal that exceeds a predetermined level, the main control unit 100 updates the shooting location information (steps S108 and S109). For example, when the position of the terminal itself and the direction of the camera 16 change by a certain value or more, the changed parameter value and the change time are added to the content information, and the shooting location information is updated.

主制御部100は、撮影が継続している間、ステップS101からステップS109までの処理手順を繰り返す(ステップS110)。次に、主制御部100は、撮影が終了すれば、ユーザ操作に基づいて、コンテンツ情報を編集する(ステップS111)。例えば、特定できなかった被写体に対し、ユーザ名、ユーザIDが指定される。次に、主制御部100は、ユーザ操作に基づいて、公開条件を指定し、映像コンテンツ及びコンテンツ情報を映像コンテンツ管理装置20へアップロードしてこの処理を終了する(ステップS112,S113)。   The main control unit 100 repeats the processing procedure from step S101 to step S109 while shooting continues (step S110). Next, when the photographing is finished, the main control unit 100 edits the content information based on the user operation (step S111). For example, a user name and a user ID are specified for a subject that could not be specified. Next, the main control unit 100 designates a disclosure condition based on a user operation, uploads video content and content information to the video content management apparatus 20, and ends this processing (steps S112 and S113).

図8のステップS201〜S208は、図3の携帯通信端末10における映像再生時の動作の一例を示したフローチャートである。まず、主制御部100は、ユーザ操作に基づいて、映像コンテンツ管理装置20が保持する映像コンテンツのいずれかを検索用コンテンツとして指定し、検索要求を映像コンテンツ管理装置20へ送信する(ステップS201,S202)。例えば、ユーザ自身が撮影した映像コンテンツが検索用コンテンツに指定される。   Steps S201 to S208 in FIG. 8 are flowcharts showing an example of an operation during video reproduction in the mobile communication terminal 10 in FIG. First, the main control unit 100 designates one of the video contents held by the video content management apparatus 20 as a search content based on a user operation, and transmits a search request to the video content management apparatus 20 (step S201, S202). For example, video content captured by the user is designated as search content.

次に、主制御部100は、映像コンテンツ管理装置20からの応答があれば、検索用コンテンツと目的コンテンツの映像ブロックとを映像コンテンツ管理装置20から取得する(ステップS203,S204)。目的コンテンツは、検索用コンテンツの撮影者を被写体とし、かつ、検索用コンテンツの撮影場所までの距離が所定値以下となる撮影場所に対応づけられ、さらに、検索用コンテンツの撮影時刻との時間差が所定値以下となる撮影時刻に対応づけられた映像コンテンツのうち、ユーザ自身への公開が許可されている映像コンテンツである。   Next, if there is a response from the video content management device 20, the main control unit 100 acquires the search content and the video block of the target content from the video content management device 20 (steps S203 and S204). The target content is associated with a shooting location where the photographer of the search content is the subject, and the distance to the shooting location of the search content is equal to or less than a predetermined value. Further, there is a time difference from the shooting time of the search content. Of the video content associated with the shooting time that is equal to or less than a predetermined value, the video content is permitted to be disclosed to the user.

次に、主制御部100は、取得した検索用コンテンツを再生し(ステップS205)、ユーザによる表示切替の指示があれば、表示映像を目的コンテンツの映像ブロックに変更する(ステップS206,S207)。主制御部100は、再生が継続している間、ステップS206からステップS207までの処理手順を繰り返す(ステップS208)。   Next, the main control unit 100 reproduces the acquired search content (step S205), and if there is a display switching instruction from the user, the main control unit 100 changes the display video to a video block of the target content (steps S206 and S207). The main control unit 100 repeats the processing procedure from step S206 to step S207 while the reproduction continues (step S208).

本実施の形態による映像コンテンツ管理装置20は、映像コンテンツの撮影者、被写体及び撮影場所を映像コンテンツに対応づけて記憶するので、検索要求を受信した場合に、検索要求で指定された検索用コンテンツに対応づけて記憶する撮影者、被写体及び撮影場所を元に映像コンテンツを検索することができる。従って、ユーザは、映像コンテンツのいずれかを検索用コンテンツとして指定することにより、検索用コンテンツを撮影中のユーザ自身が被写体として撮影された映像コンテンツを自動抽出することができる。特に、撮影場所及び撮影時刻を特定して映像コンテンツを抽出するので、検索用コンテンツを撮影中のユーザ自身が撮影された映像コンテンツを正しく抽出することができる。   Since the video content management apparatus 20 according to the present embodiment stores the video content photographer, subject, and shooting location in association with the video content, the search content specified in the search request when the search request is received. The video content can be searched based on the photographer, the subject, and the shooting location stored in association with each other. Therefore, the user can automatically extract video content in which the user who is shooting the search content is shot as a subject by designating any of the video content as search content. In particular, since the video content is extracted by specifying the shooting location and the shooting time, it is possible to correctly extract the video content shot by the user who is shooting the search content.

例えば、ユーザは、他人を視点とする映像コンテンツによって自分自身の生活や行動を確認することができる。また、ユーザは、自分のカメラの撮影範囲に入らず撮影出来ていないが、他人のカメラでは撮影出来ている物を映像コンテンツによって確認し、或いは、その様な物が被写体として撮影された映像コンテンツを映像共有メンバー2内で共有することができる。   For example, the user can confirm his / her own life and behavior with video content from the perspective of others. In addition, the user can not shoot without entering the shooting range of his / her camera, but the video content confirms what the other person's camera can shoot with the video content, or such video content shot as a subject Can be shared within the video sharing member 2.

なお、本実施の形態では、携帯通信端末10が手で保持する形状の携帯電話機である場合の例について説明したが、本発明は、携帯通信端末10の構成をこれに限定するものではない。例えば、メガネのつる部分にカメラを収容した頭部装着型の端末装置や、電話機能を備えない端末装置にも本発明は適用することができる。   In the present embodiment, an example in which the mobile communication terminal 10 is a mobile phone having a shape held by hand has been described, but the present invention does not limit the configuration of the mobile communication terminal 10. For example, the present invention can be applied to a head-mounted terminal device in which a camera is housed in a vine portion of a pair of glasses or a terminal device that does not have a telephone function.

また、本実施の形態では、映像コンテンツに対応づけて、撮影者、被写体及び撮影場所を含むコンテンツ情報を記憶し、映像コンテンツ単位で被写体や撮影場所を検索用コンテンツと照合する場合の例について説明したが、本発明は、映像コンテンツの抽出方法をこれに限定するものではない。例えば、撮影時間、被写体又は撮影場所に基づいて映像コンテンツをブロック化した映像ブロックに対応づけてコンテンツ情報を記憶し、映像ブロック単位で被写体や撮影場所を検索用コンテンツと照合するような構成であっても良い。   In the present embodiment, an example in which content information including a photographer, a subject, and a shooting location is stored in association with video content and the subject and shooting location are collated with search content in units of video content will be described. However, the present invention does not limit the video content extraction method to this. For example, the content information is stored in association with the video block obtained by blocking the video content based on the shooting time, the subject, or the shooting location, and the subject or shooting location is collated with the search content for each video block. May be.

図9は、映像コンテンツ管理装置20の他の構成例を示したブロック図である。携帯通信端末10のコンテンツ情報生成部113は、撮影時間、被写体又は撮影場所に基づいて映像コンテンツをブロック化した映像ブロックごとに、コンテンツ情報を生成する。映像ブロックは、映像コンテンツにおける時間軸上の一部分からなる。   FIG. 9 is a block diagram showing another configuration example of the video content management apparatus 20. The content information generation unit 113 of the mobile communication terminal 10 generates content information for each video block obtained by blocking the video content based on the shooting time, the subject, or the shooting location. A video block consists of a part of the video content on the time axis.

例えば、撮影時間が一定時間以上となり、或いは、撮影場所が一定距離以上変化し、或いは、被写体として現れる人物が変化するごとに、映像ブロックが区分される。各映像ブロックのコンテンツ情報は、被写体の識別結果、撮影開始時刻、撮影終了時刻及び撮影場所からなる。なお、映像ブロックは、映像が断片的になるのを避けるために、所定時間長以上の塊として区分される。   For example, the video block is divided every time the shooting time becomes a certain time or more, the shooting location changes by a certain distance or more, or the person who appears as the subject changes. The content information of each video block includes a subject identification result, a shooting start time, a shooting end time, and a shooting location. Note that the video block is classified as a block having a predetermined time length or more in order to prevent the video from being fragmented.

映像コンテンツ管理装置20のコンテンツ情報記憶部22には、上述した映像ブロックに対応づけてコンテンツ情報22aが記憶される。従って、撮影時間が長い映像コンテンツの場合、撮影場所が大きく変化する映像コンテンツの場合、又は、被写体として現れる人物が変化する映像コンテンツの場合は、1つの映像コンテンツ21aに2以上のコンテンツ情報22aが対応づけられる。   The content information storage unit 22 of the video content management device 20 stores content information 22a in association with the video block described above. Accordingly, in the case of video content having a long shooting time, in the case of video content in which the shooting location changes greatly, or in the case of video content in which the person appearing as a subject changes, two or more pieces of content information 22a are included in one video content 21a. It is matched.

コンテンツ検索部24は、映像コンテンツ記憶部21に保持されている映像コンテンツ21aの中から、映像ブロック単位で被写体及び撮影場所を検索用コンテンツと照合して、目的コンテンツを抽出する。具体的には、検索用コンテンツの撮影者を被写体とし、かつ、検索用コンテンツの撮影場所までの距離が所定値以下となる撮影場所に対応づけられた映像ブロックを含む映像コンテンツを目的コンテンツとして抽出する。この様に構成することにより、映像ブロックを特定して映像コンテンツを抽出するので、検索精度を向上させることができる。   The content search unit 24 extracts the target content from the video content 21a held in the video content storage unit 21 by comparing the subject and shooting location with the search content in units of video blocks. Specifically, video content including a video block associated with a shooting location where the photographer of the search content is the subject and the distance to the shooting location of the search content is a predetermined value or less is extracted as the target content. To do. With this configuration, the video content is extracted by specifying the video block, so that the search accuracy can be improved.

映像コンテンツ送信部25は、コンテンツ検索部24により抽出された目的コンテンツのうち、検索用コンテンツの撮影者を被写体とする映像ブロックであって、検索用コンテンツの撮影場所までの距離が所定値以下となる撮影場所に対応づけられた映像ブロックを検索要求の要求元へ送信する。検索用コンテンツの撮影者が被写体として撮影され、しかも、検索用コンテンツの撮影場所に近い場所から撮影された映像ブロックのみを送信することにより、目的コンテンツ全体を送信する場合に比べ、通信負荷を低減させることができる。   The video content transmission unit 25 is a video block whose subject is the photographer of the search content among the target content extracted by the content search unit 24, and the distance to the shooting location of the search content is equal to or less than a predetermined value. The video block associated with the shooting location is transmitted to the request source of the search request. Compared to sending the entire target content by sending only video blocks shot from the location where the photographer of the search content is photographed as the subject and close to the shooting location of the search content. Can be made.

本発明の実施の形態による映像コンテンツ管理装置20及び携帯通信端末10の構成と対応する作用効果とを以下に整理してまとめる。
第1の本発明による映像コンテンツ管理装置20は、2以上の映像コンテンツを保持する映像コンテンツ記憶部21と、映像コンテンツの撮影者、被写体及び撮影場所を含むコンテンツ情報を映像コンテンツに対応づけて記憶するコンテンツ情報記憶部22と、映像コンテンツのいずれかを検索用コンテンツとして指定した検索要求を受信する検索要求受信部23と、検索要求に基づいて、映像コンテンツ記憶部21に保持されている映像コンテンツの中から、検索用コンテンツの撮影者を被写体とし、かつ、検索用コンテンツの撮影場所までの距離が所定値以下となる撮影場所に対応づけられた映像コンテンツを抽出するコンテンツ検索部24とを備えて構成される。この映像コンテンツ管理装置20は、映像コンテンツの撮影者、被写体及び撮影場所を映像コンテンツに対応づけて記憶するので、検索要求を受信した場合に、検索要求で指定された検索用コンテンツに対応づけて記憶する撮影者、被写体及び撮影場所を元に映像コンテンツを検索することができる。
The configurations of the video content management apparatus 20 and the mobile communication terminal 10 according to the embodiment of the present invention and the corresponding operational effects are organized and summarized below.
The video content management apparatus 20 according to the first aspect of the present invention stores a video content storage unit 21 that holds two or more video contents, and content information including the video content photographer, subject, and shooting location in association with the video content. Content information storage unit 22 that performs search request reception unit 23 that receives a search request that designates one of the video contents as search content, and video content that is held in video content storage unit 21 based on the search request And a content search unit 24 for extracting video content associated with a shooting location where the photographer of the search content is a subject and the distance to the shooting location of the search content is a predetermined value or less. Configured. Since this video content management apparatus 20 stores the video content photographer, subject, and shooting location in association with the video content, when the search request is received, the video content management device 20 associates it with the search content specified in the search request. Video content can be searched based on the photographer, subject, and shooting location stored.

第2の本発明による映像コンテンツ管理装置20は、上記構成に加え、コンテンツ情報記憶部22が、映像コンテンツの撮影時刻を映像コンテンツに対応づけて記憶し、コンテンツ検索部24が、検索用コンテンツの撮影者を被写体とし、かつ、検索用コンテンツの撮影場所までの距離が所定値以下となる撮影場所に対応づけられ、かつ、検索用コンテンツの撮影時刻との時間差が所定値以下となる撮影時刻に対応づけられた映像コンテンツを抽出するように構成される。この映像コンテンツ管理装置20では、撮影時刻を特定して映像コンテンツを抽出するので、被写体の識別精度が低くても、検索用コンテンツの撮影場所に近い場所から検索用コンテンツの撮影者が撮影された映像コンテンツを正しく抽出することができる。   In the video content management apparatus 20 according to the second aspect of the invention, in addition to the above configuration, the content information storage unit 22 stores the video content shooting time in association with the video content, and the content search unit 24 stores the search content. When the photographer is a subject, the distance to the shooting location of the search content is set to a predetermined value or less, and the time difference from the search time of the search content is a predetermined value or less. It is configured to extract the associated video content. Since the video content management apparatus 20 extracts the video content by specifying the shooting time, even if the subject identification accuracy is low, the photographer of the search content was shot from a location close to the shooting location of the search content. Video content can be extracted correctly.

第3の本発明による映像コンテンツ管理装置20は、上記構成に加え、コンテンツ情報記憶部22が、映像コンテンツにおける時間軸上の一部分からなる映像ブロックに対応づけて被写体及び撮影場所を記憶し、コンテンツ検索部24が、検索用コンテンツの撮影者を被写体とし、かつ、検索用コンテンツの撮影場所までの距離が所定値以下となる撮影場所に対応づけられた映像ブロックを含む映像コンテンツを抽出するように構成される。この映像コンテンツ管理装置20では、映像ブロックを特定して映像コンテンツを抽出するので、検索精度を向上させることができる。例えば、映像コンテンツが被写体及び撮影場所の異なる2以上の映像ブロックを含む場合に、検索用コンテンツの撮影者及び撮影場所とは一致しない映像ブロックしか含んでいない映像コンテンツが誤って抽出されるのを防止することができる。   In the video content management apparatus 20 according to the third aspect of the present invention, in addition to the above-described configuration, the content information storage unit 22 stores a subject and a shooting location in association with a video block formed of a part on the time axis in the video content. The search unit 24 extracts video content including a video block associated with a shooting location where the photographer of the search content is a subject and the distance to the shooting location of the search content is a predetermined value or less. Composed. In this video content management apparatus 20, since video content is extracted by specifying a video block, the search accuracy can be improved. For example, when the video content includes two or more video blocks with different subjects and shooting locations, video content including only video blocks that do not match the photographer and shooting location of the search content is erroneously extracted. Can be prevented.

第4の本発明による映像コンテンツ管理装置20は、上記構成に加え、コンテンツ検索部24により抽出された映像コンテンツのうち、検索用コンテンツの撮影者を被写体とする映像ブロックであって、検索用コンテンツの撮影場所までの距離が所定値以下となる撮影場所に対応づけられた映像ブロックを検索要求の要求元へ送信する映像コンテンツ送信部25を備えて構成される。この映像コンテンツ管理装置20では、映像コンテンツ全体を送信する場合に比べ、通信負荷を低減させることができる。   The video content management apparatus 20 according to the fourth aspect of the present invention, in addition to the above configuration, is a video block whose subject is the photographer of the search content among the video content extracted by the content search unit 24. The video content transmitting unit 25 is configured to transmit a video block associated with a shooting location whose distance to the shooting location is equal to or less than a predetermined value to the request source of the search request. This video content management apparatus 20 can reduce the communication load as compared with the case where the entire video content is transmitted.

第5の本発明による携帯通信端末10は、2以上の映像コンテンツのいずれかが検索用コンテンツとして指定されれば、検索用コンテンツの撮影者を被写体とし、かつ、検索用コンテンツの撮影場所までの距離が所定値以下となる場所で撮影された映像コンテンツを抽出する映像コンテンツ管理装置20と通信する携帯通信端末であって、被写体を撮影し、映像コンテンツを生成するカメラ16と、映像コンテンツの撮影場所を検出する撮影場所検出部110と、映像コンテンツの撮影者を示す撮影者情報を保持する撮影者情報記憶手段と、映像共有メンバーの外観上の特徴を示すメンバー特徴情報を保持する共有メンバー情報記憶部111と、メンバー特徴情報に基づいて、映像コンテンツ内に現れる被写体を識別する被写体識別部112と、映像コンテンツ、撮影場所、撮影者情報及び被写体の識別結果を映像コンテンツ管理装置20へ送信するセルラー通信部101と、ユーザ操作に基づいて、映像コンテンツ管理装置20が保持する映像コンテンツのいずれかを検索用コンテンツとして指定した検索要求を生成する検索要求生成部115と、映像コンテンツ管理装置20が検索要求に基づいて抽出した映像コンテンツを取得する映像コンテンツ取得部116と、映像コンテンツ取得部116により取得された映像コンテンツを再生する映像コンテンツ再生部117とを備えて構成される。この携帯通信端末10によれば、ユーザは、検索用コンテンツを指定して検索要求を送信することにより、検索用コンテンツを撮影中のユーザ自身が被写体として撮影された映像コンテンツを取得して閲覧することができる。   The mobile communication terminal 10 according to the fifth aspect of the present invention, if any of the two or more video contents is designated as the search content, takes the photographer of the search content as the subject and reaches the shooting location of the search content. A mobile communication terminal that communicates with a video content management apparatus 20 that extracts video content shot at a location where the distance is less than or equal to a predetermined value, the camera 16 shooting a subject and generating video content, and shooting of the video content A shooting location detection unit 110 that detects a location, a photographer information storage unit that holds photographer information that indicates a photographer of video content, and shared member information that holds member feature information that indicates appearance characteristics of a video sharing member A storage unit 111 and a subject identification unit 112 that identifies a subject that appears in the video content based on the member feature information. The cellular communication unit 101 that transmits the video content, the shooting location, the photographer information, and the identification result of the subject to the video content management device 20, and any of the video content held by the video content management device 20 based on a user operation Acquired by the search request generation unit 115 that generates a search request specified as the search content, the video content acquisition unit 116 that acquires the video content extracted by the video content management apparatus 20 based on the search request, and the video content acquisition unit 116 And a video content playback unit 117 for playing back the video content. According to the mobile communication terminal 10, the user acquires the video content photographed as a subject and browses the user himself / herself who is photographing the search content by specifying the search content and transmitting a search request. be able to.

1 撮影映像表示システム
2 映像共有メンバー
10 携帯通信端末
12 画面表示部
13 受話用のレシーバ
14 送話用のマイクロホン
15a〜15c 操作キー
16 カメラ
100 主制御部
101 セルラー通信部
102 操作部
103 姿勢センサ
104 表示制御部
105 音声処理部
106 メモリ
110 撮影場所検出部
111 共有メンバー情報記憶部
112 被写体識別部
113 コンテンツ情報生成部
114 公開条件指定部
115 検索要求生成部
116 映像コンテンツ取得部
117 映像コンテンツ再生部
20 映像コンテンツ管理装置
21 映像コンテンツ記憶部
22 コンテンツ情報記憶部
23 検索要求受信部
24 コンテンツ検索部
25 映像コンテンツ送信部
DESCRIPTION OF SYMBOLS 1 Photographed image display system 2 Image sharing member 10 Mobile communication terminal 12 Screen display unit 13 Receiver 14 for receiving microphones Microphones 15a to 15c for transmitting operation key 16 Camera 100 Main control unit 101 Cellular communication unit 102 Operation unit 103 Attitude sensor 104 Display control unit 105 Audio processing unit 106 Memory 110 Shooting location detection unit 111 Shared member information storage unit 112 Subject identification unit 113 Content information generation unit 114 Release condition specification unit 115 Search request generation unit 116 Video content acquisition unit 117 Video content reproduction unit 20 Video content management device 21 Video content storage unit 22 Content information storage unit 23 Search request reception unit 24 Content search unit 25 Video content transmission unit

Claims (5)

2以上の映像コンテンツを保持する映像コンテンツ記憶手段と、
上記映像コンテンツの撮影者、被写体及び撮影場所を上記映像コンテンツに対応づけて記憶するコンテンツ情報記憶手段と、
上記映像コンテンツのいずれかを検索用コンテンツとして指定した検索要求を受信する検索要求受信手段と、
上記検索要求に基づいて、上記映像コンテンツ記憶手段に保持されている上記映像コンテンツの中から、上記検索用コンテンツの撮影者を被写体とし、かつ、上記検索用コンテンツの撮影場所までの距離が所定値以下となる撮影場所に対応づけられた映像コンテンツを抽出するコンテンツ検索手段とを備えたことを特徴とする映像コンテンツ管理装置。
Video content storage means for holding two or more video content;
Content information storage means for storing a photographer, a subject, and a shooting location of the video content in association with the video content;
Search request receiving means for receiving a search request designating any of the video contents as search content;
Based on the search request, the distance from the video content stored in the video content storage means to the photographer of the search content as a subject and the shooting content shooting location is a predetermined value. A video content management apparatus comprising: content search means for extracting video content associated with a shooting location as described below.
上記コンテンツ情報記憶手段は、上記映像コンテンツの撮影時刻を上記映像コンテンツに対応づけて記憶し、
上記コンテンツ検索手段は、上記検索用コンテンツの撮影者を被写体とし、かつ、上記検索用コンテンツの撮影場所までの距離が所定値以下となる撮影場所に対応づけられ、かつ、上記検索用コンテンツの撮影時刻との時間差が所定値以下となる撮影時刻に対応づけられた映像コンテンツを抽出することを特徴とする請求項1に記載の映像コンテンツ管理装置。
The content information storage means stores the shooting time of the video content in association with the video content,
The content search means is associated with a shooting location where the photographer of the search content is a subject, the distance to the shooting location of the search content is equal to or less than a predetermined value, and the search content is shot. The video content management apparatus according to claim 1, wherein video content associated with a shooting time at which a time difference from the time is equal to or less than a predetermined value is extracted.
上記コンテンツ情報記憶手段は、上記映像コンテンツにおける時間軸上の一部分からなる映像ブロックに対応づけて被写体及び撮影場所を記憶し、
上記コンテンツ検索手段は、上記検索用コンテンツの撮影者を被写体とし、かつ、上記検索用コンテンツの撮影場所までの距離が上記所定値以下となる撮影場所に対応づけられた上記映像ブロックを含む映像コンテンツを抽出することを特徴とする請求項1又は2に記載の映像コンテンツ管理装置。
The content information storage means stores a subject and a shooting location in association with a video block consisting of a part on the time axis in the video content,
The content search means includes a video block including the video block associated with a shooting location where the photographer of the search content is a subject and the distance to the shooting location of the search content is equal to or less than the predetermined value. The video content management apparatus according to claim 1, wherein the video content management apparatus extracts a video content.
上記コンテンツ検索手段により抽出された映像コンテンツのうち、上記検索用コンテンツの撮影者を被写体とする上記映像ブロックであって、上記検索用コンテンツの撮影場所までの距離が上記所定値以下となる撮影場所に対応づけられた上記映像ブロックを上記検索要求の要求元へ送信する映像ブロック送信手段を備えたことを特徴とする請求項3に記載の映像コンテンツ管理装置。   Of the video content extracted by the content search means, the video block whose subject is the photographer of the search content, and the shooting location where the distance to the shooting location of the search content is equal to or less than the predetermined value 4. The video content management apparatus according to claim 3, further comprising video block transmission means for transmitting the video block associated with the request to a request source of the search request. 2以上の映像コンテンツのいずれかが検索用コンテンツとして指定されれば、上記検索用コンテンツの撮影者を被写体とし、かつ、上記検索用コンテンツの撮影場所までの距離が所定値以下となる場所で撮影された映像コンテンツを抽出する映像コンテンツ管理装置と通信する携帯通信端末において、
被写体を撮影し、映像コンテンツを生成する撮像手段と、
上記映像コンテンツの撮影場所を検出する撮影場所検出手段と、
上記映像コンテンツの撮影者を示す撮影者情報を保持する撮影者情報記憶手段と、
映像共有メンバーの外観上の特徴を示すメンバー特徴情報を保持する共有メンバー情報記憶手段と、
上記メンバー特徴情報に基づいて、上記映像コンテンツ内に現れる被写体を識別する被写体識別手段と、
上記映像コンテンツ、上記撮影場所、上記撮影者情報及び上記被写体の識別結果を上記映像コンテンツ管理装置へ送信するコンテンツ送信手段と、
ユーザ操作に基づいて、上記映像コンテンツ管理装置が保持する映像コンテンツのいずれかを検索用コンテンツとして指定した検索要求を生成する検索要求生成手段と、
上記映像コンテンツ管理装置が上記検索要求に基づいて抽出した映像コンテンツを取得する映像コンテンツ取得手段と、
上記映像コンテンツ取得手段により取得された映像コンテンツを再生する映像コンテンツ再生手段とを備えたことを特徴とする携帯通信端末。
If any of the two or more video contents is designated as the search content, the photograph is taken at the place where the photographer of the search content is a subject and the distance to the shooting location of the search content is equal to or less than a predetermined value. In a mobile communication terminal that communicates with a video content management device that extracts video content that has been recorded,
Imaging means for photographing a subject and generating video content;
Shooting location detection means for detecting the shooting location of the video content;
Photographer information storage means for holding photographer information indicating the photographer of the video content;
Shared member information storage means for holding member feature information indicating appearance features of the video sharing member;
Subject identifying means for identifying a subject appearing in the video content based on the member feature information;
Content transmitting means for transmitting the video content, the shooting location, the photographer information, and the identification result of the subject to the video content management device;
Search request generating means for generating a search request designating any of the video contents held by the video content management apparatus as search content based on a user operation;
Video content acquisition means for acquiring the video content extracted based on the search request by the video content management device;
A mobile communication terminal comprising: a video content reproduction unit that reproduces the video content acquired by the video content acquisition unit.
JP2013237710A 2013-11-18 2013-11-18 Video content management device and portable communication terminal Pending JP2015099421A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013237710A JP2015099421A (en) 2013-11-18 2013-11-18 Video content management device and portable communication terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013237710A JP2015099421A (en) 2013-11-18 2013-11-18 Video content management device and portable communication terminal

Publications (1)

Publication Number Publication Date
JP2015099421A true JP2015099421A (en) 2015-05-28

Family

ID=53376011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013237710A Pending JP2015099421A (en) 2013-11-18 2013-11-18 Video content management device and portable communication terminal

Country Status (1)

Country Link
JP (1) JP2015099421A (en)

Similar Documents

Publication Publication Date Title
US9888136B2 (en) Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
JP5218989B2 (en) Communication terminal device and program
KR101910346B1 (en) Picture processing method and apparatus
JP5763075B2 (en) Object information providing method and photographing apparatus to which the object information is applied
JP2008099268A (en) Apparatus and method for tagging id on photograph on the basis of geographical relative position
WO2014030407A1 (en) Control device and storage medium
KR20140031252A (en) Adjacent person specifying apparatus
JP2008288882A (en) Photography system and photographic apparatus
US9635234B2 (en) Server, client terminal, system, and program
JP2006338553A (en) Content reproducing device
JP2008244660A (en) Image analysis system automatically acquiring related information from captured image, mobile terminal, method, and program
JP2010081427A (en) Imaging apparatus and program
CN104469319A (en) Method and device for separating image collection and image display
JP2007235508A (en) Picture taking system, imaging device, and information providing device
JP2010081428A (en) Imaging apparatus and program
CN106231198B (en) Shoot the method and device of image
JP2009060337A (en) Electronic camera and display device
JP2010068247A (en) Device, method, program and system for outputting content
JP2010041527A (en) Photographing support method, system, program
KR20050082593A (en) Method and device for storing image file using gps
JP5550114B2 (en) Imaging device
JP2015099421A (en) Video content management device and portable communication terminal
JP2016051981A (en) Imaging apparatus and imaging system
JP5253595B2 (en) Imaging system and imaging apparatus
WO2016110967A1 (en) Information processing device, information processing method, and processing program used therefor