JP2010206600A - System and method for imparting position information to video content - Google Patents
System and method for imparting position information to video content Download PDFInfo
- Publication number
- JP2010206600A JP2010206600A JP2009050619A JP2009050619A JP2010206600A JP 2010206600 A JP2010206600 A JP 2010206600A JP 2009050619 A JP2009050619 A JP 2009050619A JP 2009050619 A JP2009050619 A JP 2009050619A JP 2010206600 A JP2010206600 A JP 2010206600A
- Authority
- JP
- Japan
- Prior art keywords
- information
- video
- video content
- unit
- tag
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は映像コンテンツへの位置情報付与システムおよび方法に関し、特に、ユーザが、デジカメ、ビデオカメラ等の撮影機器で撮影した静止画像または動画像に自動的に地名や施設名などの位置情報を付けて保管することのできる映像コンテンツへの位置情報付与システムおよび方法に関する。 The present invention relates to a system and method for assigning position information to video content, and in particular, a user automatically attaches position information such as a place name or a facility name to a still image or a moving image taken by a photographing device such as a digital camera or a video camera. The present invention relates to a system and method for assigning position information to video content that can be stored in a stored manner.
従来は、デジカメ、ビデオカメラ等の撮影者が撮影した映像を見ながら、手入力で、撮影時の記憶やメモに従って位置情報または場所情報を映像コンテンツに入力していた。また、下記の特許文献1に開示されているように、撮影機器にGPS装置を付加して撮影映像と共に位置情報を映像コンテンツに記録することが行われていた。
Conventionally, position information or location information is manually input to video content according to a memory or memo at the time of shooting while watching a video shot by a photographer such as a digital camera or a video camera. In addition, as disclosed in
しかしながら、前記した手入力で位置情報または場所情報を映像コンテンツに入力する方法は、正確に位置情報または場所情報を入力することはできるが、手間がかかり、効率が悪いという課題があった。また、前記撮影機器にGPS装置を付加して位置情報を取得する方法は、GPS装置を付加する分の撮影機器のコスト増になるという課題があった。 However, although the above-described method for inputting position information or location information into video content can input position information or location information accurately, there is a problem that it takes time and is inefficient. Further, the method of acquiring position information by adding a GPS device to the photographing device has a problem that the cost of the photographing device is increased by adding the GPS device.
本発明は、前記課題に鑑みてなされたものであり、その目的は、通常の撮影機器で撮影した画像に、携帯電話番号を用いて簡易に位置情報を付与することのできる映像コンテンツへの位置情報付与システムおよび方法を提供することにある。 The present invention has been made in view of the above problems, and its purpose is to provide a position on video content that can easily add position information to an image taken with a normal photographing device using a mobile phone number. It is to provide an information providing system and method.
前記の目的を達成するために、本発明は、予め、顔写真、名前および携帯電話番号を少なくとも登録された家庭個別DB(データベース)と、映像撮影時間情報が付加された映像コンテンツを受信する映像入力部と、前記映像入力部で受信した映像コンテンツの映像撮影時間情報を抽出する時間情報抽出部と、前記映像コンテンツから抽出された顔情報と前記家庭個別DBに登録されている顔写真情報とを比較して、該映像コンテンツ中の人物の名前を認識する顔認識部と、前記時間情報抽出部で抽出した映像撮影時間情報と、前記顔認識部で認識された人物の携帯電話番号とに基づいて、撮影場所の地名および施設名候補の少なくとも一つを取得し、前記映像コンテンツのタグ情報とするタグ付与部と、前記タグ付与部で付与された撮影場所の地名または施設名候補のタグ情報を、前記映像コンテンツと共に保存するVoDコンテンツ保存部とを具備した点に特徴がある。 In order to achieve the above-described object, the present invention provides a home individual DB (database) in which at least a facial photograph, a name, and a mobile phone number are registered in advance, and a video that receives video content to which video shooting time information is added. An input unit, a time information extraction unit that extracts video shooting time information of video content received by the video input unit, face information extracted from the video content, and face photo information registered in the home individual DB And a face recognition unit for recognizing the name of a person in the video content, the video shooting time information extracted by the time information extraction unit, and the mobile phone number of the person recognized by the face recognition unit. A tag providing unit that acquires at least one of a place name and a facility name candidate of a shooting location based on the tag information of the video content, and the shooting location assigned by the tag adding unit Place name or tag information of the facility name candidates, is characterized in that and a VoD content storage unit to store with the video content.
また、前記タグ付与部は、前記映像撮影時間情報と携帯電話番号とにより携帯電話位置情報DBにアクセスして該映像撮影時間情報に対応する位置情報を得、該位置情報を基に地図情報DBにアクセスして該位置情報に対応する地名および施設名候補の少なくとも一つを得る点に他の特徴がある。 Further, the tag providing unit accesses the mobile phone position information DB by using the video shooting time information and the mobile phone number, obtains position information corresponding to the video shooting time information, and generates a map information DB based on the position information. There is another feature in that at least one of a place name and a facility name candidate corresponding to the position information is obtained by accessing.
また、予め、家庭個別DB(データベース)に顔写真、名前および携帯電話番号を少なくとも登録する工程と、映像撮影時間情報が付加された映像コンテンツを受信する工程と、前記映像コンテンツから顔情報を抽出する工程と、該抽出された顔情報と前記家庭個別DBに登録されている顔写真情報とを比較する工程と、該比較により、前記映像コンテンツ中の人物の名前を認識する工程と、前記映像入力部で受信した映像撮影時間情報と、前記顔認識部で認識された人物の携帯電話番号とに基づいて、撮影場所の地名および施設名候補の少なくとも一つを取得する工程と、該取得した地名および施設名候補の少なくとも一つを前記映像コンテンツのタグ情報とする工程と、前記タグ付与部で付与された撮影場所の地名または施設名候補のタグ情報を、前記映像コンテンツと共に保存する工程とからなる映像コンテンツへの位置情報付与方法に他の特徴がある。 In addition, a step of registering at least a face photograph, a name, and a mobile phone number in a home individual DB (database), a step of receiving video content with video shooting time information added thereto, and extracting facial information from the video content Comparing the extracted face information with the face photo information registered in the home individual DB, recognizing the name of a person in the video content by the comparison, and the video Acquiring at least one of a place name and a facility name candidate of the shooting location based on the video shooting time information received by the input unit and the mobile phone number of the person recognized by the face recognition unit; A step of using at least one of a place name and a facility name candidate as tag information of the video content, and a place name or facility name candidate tag of the shooting location assigned by the tag assignment unit. Information, there are other features in the position information addition process to the video content comprising the step of storing with the video content.
本発明は、撮影カメラにGPS機能を装着することなく、1人1台を持つまでに普及している携帯電話を巧みに利用して撮影画像の場所情報を自動的に付与できるという効果、およびこのためユーザは撮影画像に簡易かつ安価に位置情報を付与できるという効果がある。 The present invention has the effect that the location information of the photographed image can be automatically given by skillfully using a mobile phone that is prevalent until one person has one without attaching a GPS function to the photographing camera, and For this reason, there is an effect that the user can easily and inexpensively add the position information to the captured image.
以下に、図面を参照して、本発明を詳細に説明する。図1は、本発明が実施されるネットワーク環境の一例の説明図である。 Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 is an explanatory diagram of an example of a network environment in which the present invention is implemented.
PC等の端末装置2からは、顔映像、名前、携帯電話番号などの家庭情報がインターネット網3を介してサーバ4へアップロードされる。また、撮像装置1はビデオカメラ、デジカメなどからなり、該撮像装置1で撮影されたユーザ個人等の映像データ(静止画像、動画像)は、PC等の端末装置2を経由して、または直接にWiFi、WiMax等によりインターネット網3に送られる。インターネット網3に送られた家庭情報、及び映像データ又は映像コンテンツ(以下、映像コンテンツと呼ぶ)はサーバの情報・映像入力部からサーバ4に入力される。該サーバ4の構成は後で詳細に説明するが、映像コンテンツの顔情報から名前や携帯電話番号などを認識する機能、サーバ4に接続されている携帯電話位置情報DB(データベース)5にアクセスして映像コンテンツの時間情報を基に位置情報(GPS情報)を取得する機能、該取得した位置情報を基に地図情報DB6にアクセスし地図情報を取得する機能、映像コンテンツにタグ情報(位置情報、地名、施設名情報など)を付与する機能、映像ファイル作成機能、該映像ファイルを保管する機能、IDおよびパスワードを生成して該映像コンテンツに関連させる機能、VoD受信要求のアクセスに対応する機能、フィードバック情報に対応する機能などを有している。なお、前記携帯電話位置情報DB5および地図情報DB6は、インターネット網3に接続されることもできる。
From the
サーバ4はVoD視聴装置8からインターネット網3又はVoDインフラ網7を介してアクセスされると、前記IDおよびパスワードを照合した上で要求された画像コンテンツを映像出力部からVoDインフラ網7を介してVoD視聴装置8へ送出する。VoD視聴装置8はテレビやDVR等からなり、ユーザは該VoD視聴装置8の映像面上に映出された画像コンテンツの映像分類情報を用いて、見たい映像コンテンツやチャプター(映像シーン)を選択的に映出することにより、効率的にかつ自宅に居ながら楽しむことができる。また、サーバ4で自動的に付けられた前記タグ情報に満足しない場合には、ユーザは好みのタグ情報をサーバ4にフィードバックして、タグ情報を修正することができる。つまり、サーバ4は、該フィードバック情報により前記タグ情報を修正すると共に、タグ情報付与の精度が向上するように学習することができる。
When the
次に、前記サーバ4の構成の詳細を、図2のブロック図を参照して詳細に説明する。図2において、図1と同じ符号は同一または同等物を示す。なお、本発明では、ユーザは携帯電話を所持していることを前提とするものであり、ユーザが携帯電話を持ちながら所望の場所に移動すると、その行路は時間と共に、例えば携帯電話会社の携帯電話位置情報DB5に記録されるものとする。
Next, details of the configuration of the
サーバ4は、前記端末装置2からの家庭情報(例えば、顔映像、名前、携帯電話番号)などが入力する情報入力部41、情報入力部41に入力した家庭情報などを受け付ける情報受付部42、該家庭情報などを登録する家庭個別DB登録部43を有している。前記家庭情報は、図3に具体例が示されているように、名前、顔画像および携帯電話番号がリンクされて構成される。
The
また、サーバ4は、インターネット網経由で送られてきた映像コンテンツ(動画・静止画)が入力する映像入力部44、該映像コンテンツから時間情報を抽出する時間情報抽出部45を有している。該時間情報は、デジカメ、ビデオカメラ等の撮影機器が本来的に有する時計機能により映像コンテンツに付加される情報である。また、サーバ4は例えばDVフォーマットの映像をMPEG2や非圧縮映像に変換する映像規格変換部46を有する。また、サーバ4は、顔認識部47および特徴量抽出部48を有する。該顔認識部47は、映像コンテンツから顔データを抜き出し、家庭個別DB登録部43に予め登録されている家庭情報の顔映像と比較し、映像コンテンツに登場している人の名前と、その人と対応する携帯電話番号(その人が持っている携帯電話機の電話番号)とを取得する。
The
映像特徴量DB49には地名や施設名がそれらの映像特徴と対で格納されており、特徴量抽出部48は映像コンテンツの中から映像全体あるいは顔以外の背景などから特徴量を抽出し、前記映像特徴量DB49と比較して、地名や施設名などを取得する。例えば、銀座、渋谷、東京タワー、ディズニーランド、都庁などの地名や施設名を取得する。なお、該特徴量抽出部48および映像特徴量DB49は、ユーザが携帯電話機を所持していない場合、あるいは所持を忘れた場合に有用となるものであり、本発明には必須のものではない。
In the video
サーバ4は、また、タグ付与部50を有している。該タグ付与部50は、前記時間情報抽出部45から時間情報を受け取り、顔認識部47からは映っている人の名前と携帯電話番号を受け取り、特徴量抽出部48からは地名や施設名などのデータを受け取る。そして、前記携帯電話番号と時間情報を基に、位置情報取得部51を介して携帯電話位置情報DB5をアクセスし、位置情報を得る。例えば、「座標:35.632546,139.881328」という位置情報を得る。この位置情報だけでは、具体的な場所が分からないからこの位置情報を基に地名・施設名取得部52を介して地図情報DB6をアクセスし、具体的な地名・施設名などの候補情報、例えば、「浦安、ディズニーランド、幕張」などの候補情報を得る。タグ付与部50は、以上の情報またはデータから、映像コンテンツにタグ情報を付与する。このタグ情報は、例えば映像コンテンツのシーン毎に付けられるのが好ましい。
The
サーバ4は、さらに、映像規格変換部46よりの映像コンテンツとタグ情報が付与されている映像ファイルを作成する映像ファイル(TS;Transport stream)作成部53、該映像ファイルを格納するVoDコンテンツ保存部54および図1の映像出力部に相当するVoD送出部55を有する。さらに、図1のフィードバック情報入力部に相当するVoD受信部56を有し、該VoD受信部56は、ユーザからのVoD視聴要求とフィードバック情報とを識別し、VoD視聴要求であればVoDコンテンツ保存部54にVoD視聴要求を送り、一方フィードバック情報であれば該フィードバック情報をフィードバック処理部57に送る。タグ付与部50は、フィードバック処理部57から修正情報を受けると、映像ファイル作成部53およびVoDコンテンツ保存部54に送付済みの該当する映像コンテンツに付与されているタグ情報を修正すると共に、修正内容に応じて、家庭個別DB登録部43および映像特徴量DB49のデータを修正する。
The
次に、前記サーバ4の動作を、図4、図5のフローチャートを参照して説明する。まず、サーバ4の家庭個別DB登録部43に、家庭情報を予め登録する動作を図4のフローチャートを参照して説明する。ステップS1では、例えば図3のような家庭情報(個人や家族の顔画像、名前、携帯電話番号など)が入力される。ステップS2では、ユーザが入力内容が正しいことが確認されたか否かの判断がなされ、正しいことが確認された後、登録操作がなされると、ステップS3に進んで、前記入力された家庭情報が前記家庭個別DB登録部43に登録される。
Next, the operation of the
次に、サーバ4の動作を、図5のフローチャートを参照して説明する。ステップS11では、端末装置2から、撮影者の名前や携帯電話番号が入力された後、映像コンテンツ(静止画、動画)が入力されると、映像入力部44は撮影者の名前や携帯電話番号および映像コンテンツを受信する。ステップS12では、時間情報抽出部45で、映像コンテンツから時間情報を抽出する。抽出された時間情報は前記タグ付与部50に送られる。ステップS13では、映像規格変換部46で映像フォーマットが変換される。例えばDVフォーマットの映像がMPEG2や非圧縮映像に変換される。ステップS14では、顔認識部47にて、静止画や動画のシーン内の顔画像が抽出され、ステップS15では家庭個別DB登録部43を参照して顔認識ができた画像であるか否かの判断がなされる。この判断が肯定の場合にはステップS17に進んで撮影日時情報と撮影者と顔認識対象者(複数でもよい)の携帯電話番号とを、タグ情報として付与する。一方、顔認識ができなかった画像であれば、ステップS18に進んで、撮影日時情報と、撮影者の携帯電話番号とをタグ情報として付与する。
Next, the operation of the
その後ステップS19に進み、タグ付与部50は、携帯会社の位置情報DB5にアクセスし、前記撮影日時情報と携帯電話番号とを基に、その時刻の位置情報を取得する。次いで、ステップS20に進み、地図情報DB6にアクセスし、該位置情報を基に、該位置情報の地名や施設名及び近くの地名や施設名を付与候補として取得する。次に、ステップS21では、映像ファイル作成部53が、映像規格変換部46からの映像コンテンツに、タグ情報(撮影日時、顔認識された人の名前、地名や施設名等)を付与して映像ファイルを作成する。ステップS22では、作成された映像ファイルがVoDコンテンツ保存部54に一時的に保存される。
Thereafter, the process proceeds to step S19, where the
次に図6に進み、ステップS23では、該映像ファイルがVoDコンテンツ保存部54から読み出され、VoD送出部55からVoD視聴装置8に送出される。そこで、映像コンテンツに付与されているタグ情報はユーザによって閲覧及びチェックされ、修正すべきタグ情報があれば(ステップS24が肯定)、ステップS25に進んで映像コンテンツのタグ情報の修正がなされる。また、ステップS26では、家庭個別DB登録部43のデータや、映像特徴DBのデータが更新(修正)される。そして、映像コンテンツに付与されるタグ情報が確定され、ステップS27にてVoDコンテンツ保存部54に保存される。一方、タグ情報の修正のフィードバック情報がなければ、タグ情報はそのまま確定されて保存される。
Next, proceeding to FIG. 6, in step S <b> 23, the video file is read from the VoD
図7に、本実施形態の動作の一具体例を示す。今、時間情報9時40分〜10時40分までの映像コンテンツ60が映像入力としてサーバ4に送られてきたとすると、顔認識(個人認識)部47は映像コンテンツ60から顔抽出をする。図7の例では、10時〜10時20分の間に写っている人の顔を抽出する。そして、家庭個別DB登録部43に予め登録されている家庭情報の顔映像と比較し、映像コンテンツに登場している人の名前と、その人と対応する携帯電話番号(その人が持っている携帯電話機の電話番号)とを取得する。いま、図3のデータが家庭個別DB登録部43に登録されているとすると、名前「はるか」と携帯電話番号「090−1111−1111」が取得される。また、前記時間情報(撮影日時情報)は、時間情報抽出部45で抽出されタグ付与部45に送られる。
FIG. 7 shows a specific example of the operation of this embodiment. Now, assuming that the
タグ付与部50では、映像コンテンツ60に対して撮影者の携帯電話番号「090−3333−3333」を付与すると共に、前記10時〜10時20分の映像に対しては「はるか」と携帯電話番号「090−1111−1111」とをタグ情報として付与する。また、撮影者と「はるか」の携帯電話番号を基に前記携帯電話位置情報DB5および地図情報DB6を前記のようにアクセスし、地名、施設名などの情報、例えば「浦安、ディズニーランド、幕張」を取得する。そして、前記映像コンテンツ60に、タグ情報、すなわち前記撮影者の携帯電話番号「090−3333−3333」、「はるか」、「090−1111−1111」および「浦安、ディズニーランド、幕張」を付与する。このタグ情報が付された映像コンテンツ60は、映像ファイル化され、一時的にVoDコンテンツ保持部54に保持された後、ユーザのVoD視聴装置8(図1参照)へ送られる。ユーザは受信した映像コンテンツを閲覧して、前記撮影者の携帯電話番号「090−3333−3333」、「はるか」、「090−1111−1111」に間違いがあれば修正し、地名、施設名候補「浦安、ディズニーランド、幕張」の中から所望のものを選択する。これらの修正情報および選択情報はサーバ4にフィードバック情報として返送される。そうすると、サーバ4のタグ付与部50は、映像コンテンツのタグ情報を指示された通りに修正または決定すると共に、家庭個別DB登録部43や映像特徴量DB49のデータを更新修正する。
The
なお、携帯電話会社が有する前記携帯電話位置情報DB5は個人情報に係わるものであるので、本発明のサービス提供者は、該携帯電話位置情報DB5の提供について予め同意を得たことを確認したユーザ(携帯電話契約者)にのみ本発明のサービスを提供することができることに留意する必要がある。
Since the mobile phone
以上の実施形態では、本発明の典型例を説明したが、本発明の精神から逸脱しない範囲での変形は、本発明に含まれることは明らかである。 In the above embodiments, typical examples of the present invention have been described. However, it is obvious that modifications within the scope not departing from the spirit of the present invention are included in the present invention.
1・・・撮像装置、2・・・端末装置、3・・・インターネット網、4・・・サーバ、5・・・携帯電話位置情報DB、6・・・地図情報DB、7・・・VoDインフラ網、8・・・VoD視聴装置、43・・・家庭個別DB登録部、44・・・映像入力部、45・・・時間情報抽出部、46・・・映像規格変換部、47・・・顔認識(個人認識)部、50・・・タグ付与部、51・・・位置情報取得部、52・・・地名・施設名取得部、53・・・映像ファイル(TS)作成部、54・・・VoDコンテンツ保存部、55・・・VoD送出部、56・・・VoD受信部、57・・・フィードバック処理部。
DESCRIPTION OF
Claims (7)
映像撮影時間情報が付加された映像コンテンツを受信する映像入力部と、
前記映像入力部で受信した映像コンテンツの映像撮影時間情報を抽出する時間情報抽出部と、
前記映像コンテンツから抽出された顔情報と前記家庭個別DBに登録されている顔写真情報とを比較して、該映像コンテンツ中の人物の名前を認識する顔認識部と、
前記時間情報抽出部で抽出した映像撮影時間情報と、前記顔認識部で認識された人物の携帯電話番号とに基づいて、撮影場所の地名および施設名候補の少なくとも一つを取得し、前記映像コンテンツのタグ情報とするタグ付与部と、
前記タグ付与部で付与された撮影場所の地名または施設名候補のタグ情報を、前記映像コンテンツと共に保存するVoDコンテンツ保存部とを具備する映像コンテンツへの位置情報付与システム。 A home individual DB (database) in which at least face photos, names and mobile phone numbers are registered in advance;
A video input unit for receiving video content with video shooting time information added thereto;
A time information extraction unit that extracts video shooting time information of the video content received by the video input unit;
A face recognition unit that compares the face information extracted from the video content and the face photo information registered in the home individual DB, and recognizes the name of a person in the video content;
Based on the video shooting time information extracted by the time information extraction unit and the mobile phone number of the person recognized by the face recognition unit, at least one of a place name and a facility name candidate of the shooting location is acquired, and the video A tag assigning unit as tag information of content;
A position information addition system for video content, comprising: a VoD content storage unit for storing tag information of a place name or facility name candidate of the shooting location provided by the tag addition unit together with the video content.
該フィードバック処理部から選択のフィードバック情報を受けると、前記タグ付与部は、前記撮影場所を該選択情報で通知された地名又は施設名に決定することを特徴とする請求項1に記載の映像コンテンツへの位置情報付与システム。 A feedback processing unit for processing the feedback information;
2. The video content according to claim 1, wherein upon receiving feedback information of selection from the feedback processing unit, the tag providing unit determines the shooting location as a place name or facility name notified by the selection information. System for giving location information.
映像撮影時間情報が付加された映像コンテンツを受信する工程と、
前記映像コンテンツから顔情報を抽出する工程と、
該抽出された顔情報と前記家庭個別DBに登録されている顔写真情報とを比較する工程と、
該比較により、前記映像コンテンツ中の人物の名前を認識する工程と、
前記映像入力部で受信した映像撮影時間情報と、前記顔認識部で認識された人物の携帯電話番号とに基づいて、撮影場所の地名および施設名候補の少なくとも一つを取得する工程と、該取得した地名および施設名候補の少なくとも一つを前記映像コンテンツのタグ情報とする工程と、
前記タグ付与部で付与された撮影場所の地名または施設名候補のタグ情報を、前記映像コンテンツと共に保存する工程とからなる映像コンテンツへの位置情報付与方法。 Registering at least a face photo, a name and a mobile phone number in the home individual DB (database) in advance
Receiving video content with video shooting time information added thereto;
Extracting face information from the video content;
Comparing the extracted face information with the face photo information registered in the home individual DB;
Recognizing the name of the person in the video content by the comparison;
Acquiring at least one of a place name and a facility name candidate of the shooting location based on the video shooting time information received by the video input unit and the mobile phone number of the person recognized by the face recognition unit; Using at least one of the acquired place name and facility name candidate as tag information of the video content;
A method for assigning position information to video content, comprising: storing tag information of a place name or facility name candidate of a shooting location given by the tag giving unit together with the video content.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009050619A JP5213764B2 (en) | 2009-03-04 | 2009-03-04 | System and method for adding position information to video content |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009050619A JP5213764B2 (en) | 2009-03-04 | 2009-03-04 | System and method for adding position information to video content |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010206600A true JP2010206600A (en) | 2010-09-16 |
JP5213764B2 JP5213764B2 (en) | 2013-06-19 |
Family
ID=42967609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009050619A Expired - Fee Related JP5213764B2 (en) | 2009-03-04 | 2009-03-04 | System and method for adding position information to video content |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5213764B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012231349A (en) * | 2011-04-27 | 2012-11-22 | Hitachi Consumer Electronics Co Ltd | Storage device and portable terminal |
WO2014103020A1 (en) * | 2012-12-28 | 2014-07-03 | 富士通株式会社 | File selection system, informa tion processing device, terminal device, file selection method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11331937A (en) * | 1998-03-09 | 1999-11-30 | Sony Corp | Information system |
JP2008166984A (en) * | 2006-12-27 | 2008-07-17 | Olympus Imaging Corp | Image processing system, method, and apparatus |
JP2008198135A (en) * | 2007-02-15 | 2008-08-28 | Sony Corp | Information delivery system, information delivery device and information delivery method |
-
2009
- 2009-03-04 JP JP2009050619A patent/JP5213764B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11331937A (en) * | 1998-03-09 | 1999-11-30 | Sony Corp | Information system |
JP2008166984A (en) * | 2006-12-27 | 2008-07-17 | Olympus Imaging Corp | Image processing system, method, and apparatus |
JP2008198135A (en) * | 2007-02-15 | 2008-08-28 | Sony Corp | Information delivery system, information delivery device and information delivery method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012231349A (en) * | 2011-04-27 | 2012-11-22 | Hitachi Consumer Electronics Co Ltd | Storage device and portable terminal |
WO2014103020A1 (en) * | 2012-12-28 | 2014-07-03 | 富士通株式会社 | File selection system, informa tion processing device, terminal device, file selection method, and program |
JPWO2014103020A1 (en) * | 2012-12-28 | 2017-01-12 | 富士通株式会社 | File selection system, information processing apparatus, terminal device, file selection method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5213764B2 (en) | 2013-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7831598B2 (en) | Data recording and reproducing apparatus and method of generating metadata | |
TWI247254B (en) | A display processing device, a display control method, a display processing method and a display processing program | |
US20140331178A1 (en) | Digital image tagging apparatuses, systems, and methods | |
US20110184980A1 (en) | Apparatus and method for providing image | |
US20100076976A1 (en) | Method of Automatically Tagging Image Data | |
JP2005190155A (en) | Information input device, method for inputting information, control program, and storage medium | |
US20150189118A1 (en) | Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program | |
KR101729206B1 (en) | System and method for image sharing | |
JP5213764B2 (en) | System and method for adding position information to video content | |
KR20110094970A (en) | Method and apparatus for managing tag of multimedia content | |
JP5849177B2 (en) | Image information processing system | |
JP5121845B2 (en) | Content receiving apparatus and content transmitting / receiving system | |
JP2011509544A (en) | A pseudo real-time indexing method for digital media files | |
CN102055743A (en) | Digital content transferring system and method | |
CN104978389A (en) | Method, system, and client for content management | |
US8824854B2 (en) | Method and arrangement for transferring multimedia data | |
JP4357178B2 (en) | Image server | |
KR20120080379A (en) | Method and apparatus of annotating in a digital camera | |
JPWO2012137341A1 (en) | Image information processing server | |
JP2009043006A (en) | Peripheral information providing system, server and peripheral information providing method | |
JP5635253B2 (en) | Network camera | |
JP2012186732A (en) | Imaging device, method of controlling imaging device, and program | |
JP2005236729A (en) | Digital image storage system | |
KR102250374B1 (en) | A mobile device managing images taken by an imaging device in association with schedule information and a method for managing images using the same | |
KR20140083569A (en) | Server and method for selecting pictures having same position data with position data of contents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130226 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160308 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |