JP2010068247A - Device, method, program and system for outputting content - Google Patents
Device, method, program and system for outputting content Download PDFInfo
- Publication number
- JP2010068247A JP2010068247A JP2008232624A JP2008232624A JP2010068247A JP 2010068247 A JP2010068247 A JP 2010068247A JP 2008232624 A JP2008232624 A JP 2008232624A JP 2008232624 A JP2008232624 A JP 2008232624A JP 2010068247 A JP2010068247 A JP 2010068247A
- Authority
- JP
- Japan
- Prior art keywords
- content
- unit
- information
- recording
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、画像や音声を含んだコンテンツを、所望の相手方の機器に出力する装置、方法、プログラムおよびシステムに関する。 The present invention relates to an apparatus, a method, a program, and a system for outputting content including images and audio to a desired counterpart device.
特許文献1では、複数の装置(デジタルスチルカメラなど)間で、各装置が有する画像データに対する編集の結果を複数の装置で共有する。
In
特許文献2では、画像内の人物の顔のサイズや位置に基づいて、撮像者にとっての重要度を判定する。 In Patent Document 2, the importance level for the photographer is determined based on the size and position of a person's face in the image.
特許文献3は、電子アルバム間でのデータ共有に関し、伝送元・伝送先の画像群の特徴量を検出し、一定値以上の特徴量を持つ画像を相手方に送信する
。
Patent Document 3 relates to data sharing between electronic albums, detects the feature amount of a transmission source / destination image group, and transmits an image having a feature amount of a certain value or more to the other party.
特許文献4では、デジタルカメラから取り込まれる撮影画像ファイルには、デジタルカメラの識別情報が含まれている。この撮影画像ファイルがHDDに記憶される。電子アルバム作成装置は、識別情報に基づいて画像を抽出し、電子アルバムを作成する。これにより、各参加者毎の電子アルバムを簡単に作成することができる。
近年、デジタルスチルカメラ、デジタルビデオカメラ、デジタルオーディオレコーダ、カメラ付きあるいは録音機能付き携帯電話などのデジタルコンテンツ記録装置が、記録媒体の容量増大に伴って広く普及している。これらの機器を用いて記録媒体に大量に記録された静止画像、動画像、音声の整理や分類の手間も、これに応じて非常に大きくなっている。さらに、近年、ネットワークでデジタルコンテンツを共有するサービスも普及しており、ユーザ各自の保管する記録媒体には、自分自身が記録したコンテンツや、他のユーザの管理するコンピュータからダウンロードしたコンテンツが混在していると、それらの整理や分類の手間はさらに増す。 In recent years, digital content recording devices such as digital still cameras, digital video cameras, digital audio recorders, camera-equipped mobile phones with recording functions, and the like have become widespread as the capacity of recording media increases. The effort for organizing and classifying still images, moving images, and sounds recorded in large amounts on a recording medium using these devices has become very large accordingly. Furthermore, in recent years, services for sharing digital contents over a network have also become widespread, and the recording media stored by each user include contents recorded by themselves and contents downloaded from computers managed by other users. If this is the case, the time and effort for organizing and classifying them will increase further.
この点、特許文献1では、複数の機器間で画像を共有する際に、1台で行った画像編集内容を別の機器でも共有する技術が開示されている。ただし、あくまでも画像が共有された後での編集にとどまり、どのように画像を共有するかには触れられていない。
In this regard,
特許文献2では、画像中の顔の位置やサイズを基に重要度を判定する。こうした重要度判定(特徴量検出)を用いた画像共有方法として、特許文献3が挙げられるが、単に画像の特徴量のみを使った共有がユーザにとって魅力的であるとは限らない。例えば、ユーザが知らない人物の写真を共有されても、うれしいとは感じないであろう。逆に、あるユーザが記録したコンテンツが何の特徴のないものであっても、他のユーザが共有を欲する場合もあるが、特許文献3ではこれに対応できない。 In Patent Document 2, importance is determined based on the position and size of a face in an image. As an image sharing method using such importance determination (feature amount detection), Patent Literature 3 can be cited, but sharing using only the feature amount of an image is not always attractive to the user. For example, if you share a picture of a person you don't know, you won't feel happy. Conversely, even if content recorded by a certain user does not have any characteristics, other users may want to share it, but Patent Document 3 cannot cope with this.
現状のデジタルスチルカメラだけでなく、静止画、音声、あるいは音声付き動画を記録可能な携帯電話も広く普及しており、1人のユーザが1台のデジタルコンテンツ記録装置を持ち歩くことは日常的になっている以上、各ユーザが雑多に記録するコンテンツのうち他のユーザにとって有用なコンテンツを効果的に共有することが求められる。 In addition to current digital still cameras, mobile phones capable of recording still images, audio, or moving images with audio are also widely used, and it is routine for one user to carry one digital content recording device. Therefore, it is required to effectively share contents useful for other users among the contents that are recorded by each user.
本発明は、複数の電子機器のユーザ間でコンテンツの共有を簡易かつ効果的にすることを目的とする。 An object of the present invention is to simplify and effectively share content among users of a plurality of electronic devices.
本発明に係るコンテンツ出力装置は、画像および音声のうち少なくとも一方を含むコンテンツを記録するコンテンツ記録部と、コンテンツ記録部によるコンテンツの記録時、閲覧時および共有時のうち少なくとも1つを含む状況に関するコンテンツ状況情報をコンテンツと対応づけて記録するコンテンツ状況情報記録部と、コンテンツを他の機器に出力可能な出力部と、他の機器の取得した現在または過去の状況情報を入力する入力部と、入力部の入力した他の機器の状況情報とコンテンツ状況情報記録部の記録したコンテンツ状況情報とを比較し、比較の結果に応じてコンテンツ記録部の記録したコンテンツを他の機器に出力するよう出力部を制御する制御部と、を備える。 A content output device according to the present invention relates to a content recording unit that records content including at least one of an image and sound, and a situation that includes at least one of recording, browsing, and sharing of content by the content recording unit A content status information recording unit that records content status information in association with the content, an output unit that can output the content to another device, an input unit that inputs current or past status information acquired by the other device, Compare the status information of the other device input by the input unit with the content status information recorded by the content status information recording unit, and output the content recorded by the content recording unit to another device according to the comparison result A control unit for controlling the unit.
コンテンツ状況情報は、コンテンツの記録時の位置情報を含み、他の機器の状況情報は、現在の位置情報を含み、制御部は、入力部の入力した他の機器の位置情報とコンテンツ状況情報記録部の記録した位置情報との間の距離に基づいてコンテンツ記録部の記録したコンテンツを他の機器に出力するよう出力部を制御する。 The content status information includes location information at the time of recording the content, the status information of other devices includes the current location information, and the control unit records the location information of the other devices input by the input unit and the content status information. The output unit is controlled to output the content recorded by the content recording unit to another device based on the distance between the position information recorded by the unit and the position information.
コンテンツ状況情報は、コンテンツの記録時の位置情報を含み、他の機器の状況情報は、他の機器によるコンテンツの記録時における位置情報を含み、制御部は、入力部の入力した他の機器の位置情報とコンテンツ状況情報記録部の記録した位置情報とが一致するか否かに応じてコンテンツ記録部の記録したコンテンツを他の機器に出力するよう出力部を制御する。 The content status information includes position information at the time of recording the content, the status information of other devices includes the position information at the time of recording of content by other devices, and the control unit includes the other device input by the input unit. The output unit is controlled to output the content recorded by the content recording unit to another device according to whether or not the position information and the position information recorded by the content status information recording unit match.
制御部は、コンテンツ記録部の記録したコンテンツの総数と他の機器の位置情報の記録したコンテンツの総数の差異に応じてコンテンツ記録部の記録したコンテンツを他の機器に出力するよう出力部を制御する。 The control unit controls the output unit to output the content recorded by the content recording unit to another device according to the difference between the total number of content recorded by the content recording unit and the total number of content recorded by the position information of the other device. To do.
制御部は、コンテンツ記録部がコンテンツを記録した時の位置情報と他の機器がコンテンツを記録した時の位置情報との近接度に応じてコンテンツ記録部の記録したコンテンツを他の機器に出力するよう出力部を制御する。 The control unit outputs the content recorded by the content recording unit to another device according to the proximity of the position information when the content recording unit records the content and the position information when the other device records the content. Control the output unit.
コンテンツ状況情報は、コンテンツの記録時の日時情報を含み、他の機器の状況情報は、他の機器によるコンテンツの記録時における日時情報を含み、制御部は、入力部の入力した他の機器の日時情報とコンテンツ状況情報記録部の記録した日時情報とが一致するか否かに応じてコンテンツ記録部の記録したコンテンツを他の機器に出力するよう出力部を制御する。 The content status information includes date / time information at the time of content recording, the status information of other devices includes date / time information at the time of recording of content by other devices, and the control unit The output unit is controlled to output the content recorded by the content recording unit to another device according to whether the date / time information and the date / time information recorded by the content status information recording unit match.
コンテンツ記録部は画像を記録する撮像部を含み、制御部は、撮像部が記録した画像の撮像範囲内に他の機器が存在するか否かを判断し、判断の結果に応じて撮像部の記録した画像を他の機器に出力するよう出力部を制御する。 The content recording unit includes an imaging unit that records an image, and the control unit determines whether there is another device within the imaging range of the image recorded by the imaging unit, and determines whether the imaging unit is in accordance with the determination result. The output unit is controlled to output the recorded image to another device.
コンテンツ記録部は画像を記録する撮像部を含み、制御部は、撮像部が記録した画像と、他の機器の取得した画像とが重複部分を有するか否かを判断し、判断の結果に応じて撮像部の記録した画像を他の機器に出力するよう出力部を制御する。 The content recording unit includes an imaging unit that records an image, and the control unit determines whether or not the image recorded by the imaging unit and an image acquired by another device have an overlapping portion, and according to the determination result The output unit is controlled to output the image recorded by the imaging unit to another device.
所望の機器の識別情報を登録する登録部を備え、入力部は、他の機器の識別情報を入力し、制御部は、登録部の登録した識別情報と入力部の入力した識別情報とが一致するか否かを判断し、判断の結果に応じてコンテンツ記録部の記録したコンテンツを他の機器に出力するよう出力部を制御する。 A registration unit for registering identification information of a desired device is provided, the input unit inputs identification information of another device, and the control unit matches the identification information registered by the registration unit with the identification information input by the input unit. The output unit is controlled to output the content recorded by the content recording unit to another device according to the determination result.
本発明に係るコンテンツ出力方法は、コンピュータが、画像および音声のうち少なくとも一方を含むコンテンツを記録するステップと、コンテンツの記録時、閲覧時および共有時のうち少なくとも1つを含む状況に関するコンテンツ状況情報をコンテンツと対応づけて記録するステップと、他の機器の取得した現在または過去の状況情報を入力するステップと、入力した他の機器の状況情報と記録したコンテンツ状況情報とを比較し、比較の結果に応じて記録したコンテンツを他の機器に出力するステップと、を実行する。 The content output method according to the present invention includes a step in which a computer records content including at least one of an image and sound, and content status information relating to a status including at least one of content recording, browsing, and sharing Is recorded in association with the content, the step of inputting the current or past status information acquired by the other device, the status information of the other device that has been input and the recorded content status information are compared. Outputting the recorded content according to the result to another device.
このコンテンツ出力方法をコンピュータに実行させるプログラムも本発明に含まれる。 A program for causing a computer to execute the content output method is also included in the present invention.
この発明によると、相手の機器の状態情報と自己のコンテンツ記録時の状態情報とを比較し、その結果に応じてコンテンツを相手の機器に出力するから、お互いの状況に関連性のある場合に自動的にコンテンツの共有を行うことができる。 According to the present invention, the status information of the counterpart device is compared with the status information at the time of recording the content, and the content is output to the counterpart device according to the result. Content can be automatically shared.
<第1実施形態>
図1は本発明の好ましい実施形態に係るコンテンツ共有システムの概略構成図である。このシステムは、複数のコンテンツ記録機器1で構成される。図1の画像共有システムは、それぞれ静止画や音声付き動画を記録可能なデジタルスチルカメラ1a、携帯電話1b、PDA1cを含んでいる。これらの機器は、静止画、動画、音声の記録を可能な電子回路を備えているコンテンツ記録機器1に包含される点で本質的な差異はない。
<First Embodiment>
FIG. 1 is a schematic configuration diagram of a content sharing system according to a preferred embodiment of the present invention. This system includes a plurality of
図2は、コンテンツ記録機器1のブロック図である。コンテンツ記録機器1は、USBポート・有線・無線LANアダプタ・人体通信用の微弱電流を入出力する電極などの公知のデータ通信手段で構成されたデータ送受信部(通信I/F)11、RAM、ROM、ハードディスク、メモリカードやDVDなどの可搬性記録媒体などで構成された記憶部12を備えている。
FIG. 2 is a block diagram of the
また、コンテンツ記録機器1は、被写体像を撮像素子の受光面に結像する撮像レンズ、被写体像をアナログ画像信号に光電変換して出力するCCDやCMOSなどの撮像素子、撮像素子から出力されたアナログ画像信号をデジタル画像データに変換するAD変換部を含む撮像部15、撮像部15から出力された画像データの画素数の変更、シャープネス補正、ガンマ補正、コントラスト補正、ホワイトバランス補正などを行う画像処理部14を含んでいる。
The
また、コンテンツ記録機器1は、集音用のマイク、マイクから取得されたアナログ音声信号を増幅後デジタルデータに変換し、所定の圧縮記録形式(MPEG4など)で圧縮するなどのデータ処理がなされ、撮像部15の取得した静止画あるいは動画とともに、あるいはその画像とは別個に圧縮音声を記憶部12に保存する録音部16を含んでいる。
Further, the
記憶部12は、撮影で得た画像データ(静止画、動画)や録音で得た音声データ、あるいはその双方を記録したデータ(例えばMP4ファイル)、テキストデータで記述された付帯情報その他のコンテンツを保持する手段であり、例えばスマートメディアと呼ばれるメモリカードが使用される。記録メディアの形態はこれに限定されず、PCカード、コンパクトフラッシュ(登録商標)、磁気ディスク、光ディスク、光磁気ディスク、メモリスティックなどでもよく、電子的、磁気的、もしくは光学的、またはこれらの組み合わせによる方式などに従って読み書き可能な媒体を用いることができる。異種・同種の記録メディアを問わず、複数の媒体を装着可能な構成にしてもよい。また、保存する手段は、着脱可能なリムーバブルメディアに限らず、内蔵された記録媒体(内蔵メモリ)であってもよい。また、記憶部12には、各コンテンツ記録機器1に固有の機器情報(ID)が記録されている。
The
また、コンテンツ記録機器1は、記憶部12の不揮発性記憶媒体(ROMや磁気ディスクなど)に予め記憶されているか、あるいは録音部16の格納した音声、操作音、シャッタ音、AFの合焦音などの各種音声データを、アナログ音声信号変換や増幅などのデータ処理を行い、スピーカに出力する音声処理回路17を含んでいる。
In addition, the
RTC(リアルタイムクロック)18は、現在日時情報を出力する。この現在時刻情報は、撮像部15による記録用画像の撮影日時情報として、画像や音声などのコンテンツとともに、例えばテキストデータで記述されたメタ情報やヘッダ情報として、記憶部12に記憶することができる。撮影日時情報から派生する情報、例えば午前、午後、昼間、夕方、夜間、朝といった時間帯情報、春夏秋冬といった季節情報も、撮影日時情報に含めることができる。
An RTC (real time clock) 18 outputs current date and time information. This current time information can be stored in the
位置情報取得部19は、GPS受信機で構成され、GPS衛星からの電波を受信して軌道からの距離を測定することにより、現在位置情報を得る。この現在位置情報は、撮像部102による記録用画像の撮影位置情報として、画像や音声などのコンテンツとともに、例えばテキストデータで記述されたメタ情報やヘッダ情報として、記憶部12に記憶することができる。現在位置情報の取得元は、GPS受信機でなくてもよく、コンテンツ記録機器1の通信範囲内にある最も近傍の位置通知サーバからその位置情報の通知を受け、これをコンテンツ記録機器1の概略の位置情報とすることもできる。
The position
情報処理部(CPU)30は、レリーズスイッチ、モードダイヤル、テンキー等を含む操作部20の各種のボタンやキーからのユーザ操作部材への指示入力に基づいてコンテンツ記録機器1内の各回路を統括制御することができる。情報処理部30の実行するプログラムは記憶部12のROMやDVDなどに記憶され、適宜RAMにロードされて実行される。ただし、図示しない外部のプログラム配信サーバから通信I/F11を経由してプログラムを受信し、これをCPU30が実行してもよく、プログラムは必ずしもローカルデータとして常に記憶部12に記憶されなくてもよい。
The information processing unit (CPU) 30 controls each circuit in the
情報処理部30の実行するプログラムは、共有有無決定部31、ユーザ情報登録部32、枚数チェック部33、位置チェック部34、タイミングチェック部35、画像合成可能有無チェック部36を含んでいる。これらのプログラムによって実現される処理の内容は後述する。
The program executed by the
表示部13は、デコーダーやディスプレイを含み、情報処理部30の指示に応じ、映像を表示する。
The
デジタルスチルカメラ1a、携帯電話1b、PDA1cは、いずれも図2の各ブロックを備えているものとするが、それ以外の回路構成も備えることができる。例えば、携帯電話1bは、移動体電話通信網と通信する通信回路、通信回路で受信した音声信号を拡声する再生回路、マイクで集音した音声をデジタル音声にして通信回路を介し所望の相手方電話機に送信する送信回路などを備えている。
The digital
以下、デジタルスチルカメラ1a、携帯電話1b、PDA1cなどの異なるコンテンツ記録機器1がそれぞれ個別に備える共通のブロックを区別するため、これらのブロックの符号に「a」、「b」、「c」、「A」、「B」などの副添え字(subsuffix)を付することもある。例えば、共有有無決定部31aは、デジタルスチルカメラ1aの備えるブロックを示す。
Hereinafter, in order to distinguish common blocks individually provided in different
図3は、本システムの1つ目の利用形態を示す。カメラ1a、携帯電話1b、PDA1cの各ユーザは、互いにあるいは一方的に友人と認識する他ユーザの保有するコンテンツ記録機器1のIDを、操作部20や通信I/F11を介して自己の保有するコンテンツ記録機器1に入力する。ユーザ情報登録部32は、入力された他ユーザのコンテンツ記録機器1のIDを「友達機器情報」として記憶部12に格納する。
FIG. 3 shows a first usage pattern of this system. Each user of the
友達機器情報の入力の形態は特に限定されない。カメラ1aの操作部20がタッチパネルを備えていれば、カメラ1aにアクセスして友達機器情報の登録を要求してきた他のコンテンツ記録機器1、例えば携帯電話1b、PDA1cの一覧を表示部13に表示し、その中から友達機器情報がタッチされると、タッチされた機器のIDが友達機器情報としてカメラ1aの記憶部12に格納される。あるいは、通信I/F11を介してカメラ1aをパソコンに接続し、パソコンからカメラ1aに送信されたIDを友達機器情報として、カメラ1aの記憶部12aに格納する。あるいは、カメラ1aの通信I/F11への無線接続を要求してきた他のコンテンツ記録機器1、例えば携帯電話1b、PDA1cが、カメラ1aが予め発行した真正なパスワードその他の接続コードを、カメラ1aに送信した場合、その真正な接続コードを送ってきたコンテンツ記録機器1のIDを友達機器情報として、カメラ1aの記憶部12aに格納する。
The form of inputting the friend device information is not particularly limited. If the
その他、カメラ1aはメールや人体通信などで他のコンテンツ記録機器1から送られてきたIDのうち操作部20を介して選択された所望のものを友達機器情報として記憶部12aに格納してもよい。メールや人体通信は個人的な通信手段であり、ある程度人間関係が構築されているユーザ間で行われることが推測されるから、友達機器情報の送受信に適している。
In addition, the
友達機器情報は、さらに、個々のコンテンツあるいはその識別情報に対応づけることができる。ただし、ある友達機器情報が個々のコンテンツと対応づけられず記憶部12に格納されていれば、いずれのコンテンツについてもその友達機器情報が対応づけられているとみなす。
The friend device information can further be associated with individual contents or identification information thereof. However, if certain friend device information is stored in the
ここでは、カメラ1aの記憶部12aには、画像I1に携帯電話1bのID「B」が友達機器情報として対応づけられて格納されており、さらに、画像I3にPDA1cのID「C」が友達機器情報として対応づけられて格納されているものとする。また、携帯電話1bの記憶部12bには、画像I2にカメラ1aのID「A」が友達機器情報として対応づけられて記憶部12に格納されているものとする。なお、PDA1cはカメラ1aや携帯電話1bのIDを友達機器情報として記憶部12bに格納していないため、PDA1cの記録したコンテンツがカメラ1aや携帯電話1bによって共有されることはないが、これらのIDを友達機器情報として記憶部12bに格納すれば、共有は可能である。
Here, in the storage unit 12a of the
ただし、友達機器情報は、各コンテンツ記録機器1の記憶部12のローカル情報とする必然性はなく、図示しないサーバに保管され、そのサーバに各コンテンツ記録機器1がアクセスして自己の機器IDに対応する友達機器情報のIDのみを参照できるようにしてもよい。
However, the friend device information is not necessarily local information in the
コンテンツの提供元となるコンテンツ記録機器1(共有元機器)の共有有無決定部31は、記憶部12の友達機器情報を参照し、撮像部15によって記録された静止画や動画、あるいは録音部16で記録された音声に加え、それらに付随する情報として操作部20から入力されたり(例えば、撮影者コメント)、情報処理部30によって指定された(例えば操作部20から撮像指示が入力されたときのRTC18の現在時刻情報や位置情報取得部19の位置情報)付帯情報を含むテキストデータを含むコンテンツの共有相手方となるコンテンツ記録機器1(共有先機器)を決定する。そして、共有有無決定部31は、決定された共有先機器に対し、コンテンツを送信するよう通信I/F11を制御する。なお、共有元機器の共有有無決定部31は、共有相手方のコンテンツ記録機器1からのコンテンツ共有の要求を受信してからコンテンツの共有相手方を決定してもよい。
The sharing presence /
例えば、カメラ1aが、撮像部15aを介して画像I1を記録したとする。この場合、共有有無決定部31aは、記憶部12aの画像I1に対応する友達機器情報を参照し、撮像部15aによって記録された画像I1の共有相手方となるコンテンツ記録機器1を決定する。具体的には、共有有無決定部31aは、記憶部12aの画像I1に対応する友達機器情報と同一の機器情報を有するコンテンツ記録機器1、すなわち携帯電話1bを、画像I1の共有相手方に決定する。そして、カメラ1aが通信I/F11aを介して携帯電話1bに画像I1を送信する。画像I1に音声情報や付帯情報が付属していれば、画像I1とともにこれも送る。
For example, it is assumed that the
あるいは、携帯電話1bが、撮像部15bを介して画像I2を記録したとする。この場合、共有有無決定部31bは、記憶部12bの画像I2に対応する友達機器情報を参照し、撮像部15bによって記録された画像I2の共有相手方となるコンテンツ記録機器1を決定する。具体的には、共有有無決定部31bは、記憶部12bの画像I1に対応する友達機器情報と同一の機器情報を有するコンテンツ記録機器1、すなわちカメラ1aを、記録された画像I1の共有相手方に決定する。そして、携帯電話1bが通信I/F11bを介してカメラ1aに画像I2を送信する。画像I2に音声情報や付帯情報が付属していれば、画像I2とともにこれも送る。
Alternatively, it is assumed that the
あるいは、カメラ1aが、撮像部15aを介して画像I3を記録したとする。この場合、共有有無決定部31aは、記憶部12aの画像I3に対応する友達機器情報を参照し、撮像部15aによって記録された画像I1の共有相手方となるコンテンツ記録機器1を決定する。具体的には、共有有無決定部31aは、記憶部12aの画像I3に対応する友達機器情報と同一の機器情報を有するコンテンツ記録機器1、すなわち携帯電話1bを、画像I3の共有相手方に決定する。そして、カメラ1aが通信I/F11aを介して携帯電話1bに画像I3を送信する。画像I3に音声情報や付帯情報が付属していれば、画像I3とともにこれも送る。なお、画像I1とI3は同じでもよい。この場合、カメラ1aから携帯電話1bとPDC1cの双方に同じ画像I1が送信される。
Alternatively, it is assumed that the
こうすることで、ユーザ自身が友達と認めた他のユーザの保有するコンテンツ記録機器1だけに自ら記録したコンテンツを共有させることができ、後から手動でいちいちコンテンツを送る操作も省ける。
In this way, the user can share the recorded content only with the
なお、画像の送信の態様は各種採用される。例えば、静止画像ファイル、動画ファイル、音声ファイルそのものをダウンロードさせてもよいし、ストリーミング配信のように受信側は再生のみ可能でデータそのものの保存はできないものでもよい。 Various image transmission modes are employed. For example, a still image file, a moving image file, or an audio file itself may be downloaded, or the receiving side may only be able to reproduce but not the data itself, such as streaming distribution.
図4は、本システムの2つ目の利用形態を示す。ここでは、カメラ1a、携帯電話1b、PDC1cなどのコンテンツ記録機器1が本システムを構成する。図3のシステムと同様、各コンテンツ記録機器1は、所望の友達機器情報を記憶部12に格納している。ここでは、カメラ1aの記憶部12aには、携帯電話1bのID「B」とPDA1cのID「C」が友達機器情報として対応づけられて格納されているとする。
FIG. 4 shows a second usage pattern of the present system. Here, the
共有元機器の共有有無決定部31は、記憶部12の友達機器情報を参照し、撮像部15によって記録された静止画や動画、あるいは録音部16で記録された音声、あるいはそれらに付随する情報として操作部20から入力されたり(例えば、撮影者コメント)、情報処理部30によって指定された(例えば操作部20から撮像指示が入力されたときのRTC18の現在時刻情報や位置情報取得部19の位置情報)付帯情報を含むテキストデータを含むコンテンツの共有相手方となるコンテンツ記録機器1を決定する。
The sharing presence /
次に、共有元機器の位置チェック部34は、決定された共有先機器に対し、現在位置情報の送信を通信I/F11を介して要求する。共有相手方のコンテンツ記録機器1は、位置情報の送信要求を通信I/F11を介して受信したことに応じ、位置情報取得部19から現在位置情報を取得し、これをコンテンツの提供元となるコンテンツ記録機器1に送信する。
Next, the
次に、共有元機器の位置チェック部34は、自己の位置情報取得部19から(あるいは記録済みのコンテンツの付帯情報から)、現在位置情報を取得した上、これを共有先機器から受信した現在位置情報と比較する。その比較の結果、両者の間の距離が所定の閾値(例えば5m)未満である場合、共有元機器の共有有無決定部31は、共有先機器にコンテンツを送信するよう通信I/F11を制御する。
Next, the
図4では、カメラ1aが共有元機器であり、カメラ1aから見て携帯電話1bもPDA1cも共有先機器である。しかし、携帯電話1bはカメラ1aからの距離が所定の閾値の範囲内になく、カメラ1aの記録したコンテンツは携帯電話1bに送信されない。一方、PDA1cはカメラ1aからの距離が所定の閾値の範囲内にあり、カメラ1aの記録したコンテンツはPDA1cに送信される。
In FIG. 4, the
この結果、共有元機器・共有先機器の双方の現在位置情報同士を比較した結果に応じてコンテンツを送信すると、一緒に旅行に行くなど行動を共にする友達同士が近くにいたときにコンテンツが送信されることになる。また、共有元機器の記録したコンテンツの付帯情報に記録された現在位置情報と、共有先機器の現在位置情報とを比較した結果に応じてコンテンツを送信すると、先にあるユーザが既にコンテンツ記録を行った場所の近くに、そのユーザの友達機器が来たときにコンテンツが送信されることになる。 As a result, when content is sent according to the comparison result of the current location information of both the sharing source device and the sharing destination device, the content is sent when friends who are acting together such as going on a trip are nearby Will be. In addition, when the content is transmitted according to the result of comparing the current position information recorded in the incidental information of the content recorded by the sharing source device and the current position information of the sharing destination device, the previous user has already recorded the content. The content will be sent when the friend device of the user comes near the place where he went.
図5は、本システムの3つ目の利用形態を示す。ここでは、カメラ1a、携帯電話1b、PDC1cなどのコンテンツ記録機器1が本システムを構成する。図3のシステムと同様、各コンテンツ記録機器1は、友達機器情報を記憶部12に格納している。ここでは、カメラ1aの記憶部12aには、PDA1cのID「C」が友達機器情報として格納されているとする。また、PDA1cの記憶部12aには、カメラ1aのID「A」と携帯電話のID「B」が友達機器情報として格納されているとする。
FIG. 5 shows a third usage pattern of the present system. Here, the
共有元機器の共有有無決定部31は、記憶部12の友達機器情報を参照し、撮像部15によって記録された静止画や動画、あるいは録音部16で記録された音声、あるいはそれらに付随する情報として操作部20から入力されたり(例えば、撮影者コメント)、情報処理部30によって指定された(例えば操作部20から撮像指示が入力されたときのRTC18の現在時刻情報や位置情報取得部19の位置情報)付帯情報を含むテキストデータのを含むコンテンツの共有相手方となるコンテンツ記録機器1を決定する。
The sharing presence /
次に、共有元機器の位置チェック部34は、決定された共有先機器から、コンテンツ交換の要求を受け付ける。共有相手方のコンテンツ記録機器1は、自己の記録したコンテンツの付帯情報から現在位置情報を取得し、これをコンテンツの提供元となるコンテンツ記録機器1に送信する。
Next, the
次に、共有元機器の位置チェック部34は、共有対象となる記録済みのコンテンツの付帯情報から現在位置情報を取得した上、これを共有先機器から受信したコンテンツの付帯情報の現在位置情報と比較する。その比較の結果、両者が一致する場合(あるいは完全に一致しなくても、それが所定の誤差、例えば1mの範囲内である場合)、共有元機器の共有有無決定部31は、共有先機器にコンテンツを送信するよう通信I/F11を制御する。共有先機器の共有有無決定部31は、自己の記録したコンテンツを、コンテンツ交換の要求を受け入れた共有元機器に送信するよう通信I/F11を制御する。これにより、同一の場所で記録されたコンテンツを、友達機器同士で互いに提供し合うことができ、同じ場所で得た思い出を友達同士で共有できる。
Next, the
例えば、図5(a)に示すように、カメラ1aが画像I1を記録し、この画像I1の付帯情報には、撮影場所「aaabb」という撮影位置情報、「2008/8/1」という撮影日時情報が記録されているとする。一方、図5(b)に示すように、PDA1cが画像I4を記録し、この画像I4の付帯情報には、撮影場所「aaabb」という撮影位置情報、「2008/9/1」という撮影日時情報が記録されているとする。
For example, as shown in FIG. 5 (a), the
PDA1cは、共有先機器としてカメラ1aおよび携帯電話1bを決定している。カメラ1aからPDA1cに対し、画像I1およびその付帯情報を添付した画像交換の要求が送信された場合、PDA1cは、これらを受信すると、画像I1の付帯情報の位置情報と、画像I4の付帯情報の位置情報とを比較し、両者が一致するか(あるいは完全に一致しなくても所定の誤差範囲内であるか)否かを判断する。ここでは、両者とも「aaabb」であり、一致するため、PDA1cは、画像交換の要求を許可し、画像I1をカメラ1aに送信し、また、カメラ1aからの画像I4も受け入れる。このコンテンツの交換は、コンテンツ記録機器1同士で実際に互いにコンテンツを送受信し合ってもよいが、コンテンツ記録機器1の間にサーバが介在していれば、そのサーバ内の処理として、共有先機器のIDに対応してサーバに格納されたコンテンツと共有元機器のIDに対応してサーバに格納されたコンテンツとの交換を行ってもよい。
The
こうすれば、互いに同じような場所の近くで記録した画像などのコンテンツを交換できる。 In this way, it is possible to exchange contents such as images recorded near the same place.
図6は、本システムの4つ目の利用形態を示す。ここでは、カメラ1a、PDC1cなどのコンテンツ記録機器1の他、サーバコンピュータなどで構成された外部ストレージ2が本システムを構成する。図3のシステムと同様、各コンテンツ記録機器1は、友達機器情報を記憶部12に格納している。ここでは、外部ストレージ2のデータベースには、カメラ1aからアップロードされた画像I1と、画像I1のアップロード元すなわち共有元機器のID「A」と、画像I1の提供先機器としてカメラ1aから指定されたPDA1cのID「C」が友達機器情報として格納されているとする。また、PDA1cの記憶部12cには、カメラ1aのID「A」友達機器情報として格納されているとする。
FIG. 6 shows a fourth usage pattern of the present system. Here, in addition to the
1つ目〜3つ目の利用形態では、コンテンツ記録機器1自身が友達機器情報もコンテンツも記録し、自分自身でコンテンツを送信していたが、その機能を外部ストレージ2が代行してもよい。すなわち、カメラ1aの記憶部12aには外部ストレージ2のアドレスなどアクセスに必要な情報(アクセス情報)を格納しておき、PDA1cからカメラ1aに対してPDA1cのIDを示した画像共有のコンテンツ共有の要求があった場合、カメラ1aはアクセス情報に従って外部ストレージ2に接続し、PDA1cから受信した共有先機器(PDA1c)のID「C」と自己(共有元機器であるカメラ1a)のID「A」を転送して、共有の可否決定とそれに応じたコンテンツ送信を依頼する。
In the first to third usage forms, the
外部ストレージ2は当該依頼を受信すると、データベースを参照し、依頼に添付された共有元機器「A」に対応する友達機器IDを抽出する。そして、抽出された友達機器IDと依頼に添付された共有先機器とを照合し、両者が一致すれば、抽出された友達機器IDに対応する画像その他のコンテンツを、当該抽出された友達機器IDを有する共有先機器に送信する。ここでは、PDA1cのID「C」がデータベースから友達機器IDとして抽出されるから、カメラ1aの依頼に添付された共有先機器であるPDA1cのID「C」と一致し、外部ストレージ2からPDA1cに、カメラ1a「A」に対応づけてデータベースに格納されている画像I1が送信される。さらに、2つ目または3つ目の利用形態の共有元機器と同様に、外部ストレージ2が友達機器IDに加えて位置情報同士の照合を行い、両者が一致すれば画像を送ってもよい。
When the external storage 2 receives the request, the external storage 2 refers to the database and extracts the friend device ID corresponding to the sharing source device “A” attached to the request. Then, the extracted friend device ID is compared with the sharing destination device attached to the request, and if the two match, the image or other content corresponding to the extracted friend device ID is displayed as the extracted friend device ID. To the sharing destination device. Here, since the ID “C” of the
また、詳細は省略するが、画像I1に位置情報を含んだ付帯情報が記憶されており、PDA1cから共有要求に位置情報が含まれていれば、両者の位置の近接度の照合を外部ストレージ2で代行させることで、カメラ1aとPDA1cの近さ、あるいは両者の記録したコンテンツの記録場所の近さに応じて、コンテンツの共有の可否を決定でき、それに応じた外部ストレージ2から共有先機器へのコンテンツの送信を行える。
Although the details are omitted, if the incidental information including the position information is stored in the image I1 and the position information is included in the sharing request from the
また、3つ目あるいは4つ目の利用形態において、両コンテンツ記録機器1の記録した位置情報の近接度に、位置情報以外の他のパラメータを基準にした条件を組み合わせ、組み合わせの条件を満たした場合に初めてコンテンツの交換を行ってもよい。
In the third or fourth usage mode, the proximity of the position information recorded by both
例えば、図7に示すように、共有先機器・共有元機器の記録した画像の撮影位置情報の差D(両位置の遠近)に、共有先機器・共有元機器の記録した画像の撮影枚数の差の絶対値N(両枚数の大小)を基準にした条件を組み合わせる。ここで、撮影位置の差の閾値をD0、撮影枚数の差の絶対値の閾値をN0とする。D0やN0は任意に設定されるが、例えばD0=5m、N0=10枚である。位置チェック部34は、DとD0の大小の比較を行い、枚数チェック部33は、NとN0の大小の比較を行う。
For example, as shown in FIG. 7, the difference D (the distance between both positions) between the shooting position information of the images recorded by the sharing destination device and the sharing source device indicates the number of shots of the images recorded by the sharing destination device and the sharing source device. The conditions based on the absolute value N of the difference (the size of both sheets) are combined. Here, the threshold value for the difference between the shooting positions is D0, and the threshold value for the absolute value of the difference in the number of shots is N0. D0 and N0 are arbitrarily set. For example, D0 = 5 m and N0 = 10. The
共有元機器は、記憶部12に格納された図7の共有条件マトリクスに従い、共有の可否を決定する。すなわち、D<D0かつN<N0(条件R1)であれば、共有する。これは、共有先機器・共有元機器のユーザは互いに近いところで撮影を行っており、一緒に行動していると考えられるから、枚数の差の大小にかかわらず似たような写真を別々に撮る無駄を省ける。
The sharing source device determines whether sharing is possible according to the sharing condition matrix of FIG. 7 stored in the
D<D0かつN≧N0(条件R2)であれば、共有する。これは、共有先機器・共有元機器のユーザは互いに近いところで撮影を行っており、一緒に行動していると考えられるから、似たような写真を別々に撮る無駄を省けるからである。 If D <D0 and N ≧ N0 (condition R2), share. This is because the users of the sharing destination device and the sharing source device are shooting close to each other and acting together, thereby eliminating the need to take similar pictures separately.
D≧D0かつN<N0(条件R3)であれば、共有しない。これは、共有先機器・共有元機器のユーザは互いに離れたところで撮影を行っており、別々に行動しているから、ある程度互いの撮影枚数がたまってから共有させる方が効率的だからである。 If D ≧ D0 and N <N0 (condition R3), they are not shared. This is because the users of the sharing destination device and the sharing source device take pictures at a distance from each other and act separately, so that it is more efficient to share after the number of shots of each other has accumulated to some extent.
D≧D0かつN≧N0(条件R4)であれば、共有する。これは、共有先機器・共有元機器のユーザは互いに離れたところで撮影を行っているが、どちらか一方の撮影枚数が大幅に他方を上回っており、そのような沢山撮影を行ったユーザの関心の高さを示す以上、その友達のユーザにも共有させることで高い興味対象を共有できるからである。 If D ≧ D0 and N ≧ N0 (condition R4), they are shared. This is because the users of the sharing destination device and the sharing source device are shooting at a distance from each other, but the number of shots of either one is significantly greater than the other, and the interest of the user who has taken such a lot of shooting This is because a high interest can be shared by sharing with a friend's user.
なお、N0=∞とすれば、単純に撮影場所の遠近だけで(条件R1/R3だけで)共有する・しないが決まる図4と同様となる。図7のマトリクスは一例に過ぎず、どの条件の組み合わせを共有する/しないに結び付けるかは任意に設定しうる。共有元機器の操作部20からマトリクスの内容を任意に設定できてもよい。
If N0 = ∞, it is the same as in FIG. 4 in which sharing / not sharing is determined only by the distance from the shooting location (only by the condition R1 / R3). The matrix in FIG. 7 is merely an example, and it is possible to arbitrarily set which combination of conditions is linked to sharing / not sharing. The contents of the matrix may be arbitrarily set from the
あるいは、5つ目の利用形態として、共有元機器のタイミングチェック部35が、共有先機器・共有元機器の記録したコンテンツの撮影日時情報、録音日時情報その他の記録日時を比較し、両者が同一か、その誤差が所定の値未満(例えば5分未満)であれば共有すると決定し、誤差が所定の値以上であれば共有しないと決定する。こうすると、自分がコンテンツを記録したときに友達がどこで何をしているのかを共有されたコンテンツから把握できる。共有先機器は、同じ時間に記録されたコンテンツ同士を関連づけて再生してもよい。例えば、共有先機器は、共有元機器から受信した画像と、その画像の付帯情報に記録された記録日時と同一の記録日時で記録した画像とを並列して表示部13に表示してもよい。
Alternatively, as a fifth usage mode, the
また、6つ目の利用形態として、共有元機器の撮影した画像の撮影範囲内に共有先機器が含まれている場合、その画像を共有先機器に送信する。 Further, as a sixth usage mode, when the sharing destination device is included in the shooting range of the image taken by the sharing source device, the image is transmitted to the sharing destination device.
ユーザが友達と画像を共有するかどうかを決める際に、その友達がその画像に写っているかどうかは重要な判断基準の1つである。よって、例えば、コンピュータでこのような判断を自動的にすれば、その友達の顔がその画像から検出されたか否かに応じて共有する/しないを決定できると考えられる。しかし、例えば、図8に示すように、友達を被写体SB1として撮影した画像が小さすぎて、その友達SB1の顔を検出できなかったり、あるいは友達とは無関係の人物被写体SB2を友達SB1の顔として誤認識してしまうと、共有すべき画像が共有されなかったり、あるいは共有しなくてもよい画像が共有される問題が起きる。あるいは、図9に示すように、友達の被写体SB3が画像に入っていても、それが正面を向いていなければ顔検出ができず、この画像は共有されない。 When a user decides whether or not to share an image with a friend, whether or not the friend is reflected in the image is one of important judgment criteria. Thus, for example, if such a determination is automatically made by a computer, it can be determined whether to share or not to share depending on whether or not the face of the friend is detected from the image. However, for example, as shown in FIG. 8, the image of a friend photographed as the subject SB1 is too small to detect the face of the friend SB1, or the person subject SB2 unrelated to the friend is the face of the friend SB1. If it is misrecognized, there arises a problem that an image to be shared is not shared or an image that may not be shared is shared. Alternatively, as shown in FIG. 9, even if a friend's subject SB3 is included in the image, face detection cannot be performed unless the subject SB3 faces the front, and the image is not shared.
そこで、共有先機器は、共有先機器の位置情報と、共有元機器の撮影画角とを比較し、当該撮影画角内に共有先機器がある場合は、当該撮影画角で撮影された画像を共有先機器共有する。 Therefore, the sharing destination device compares the position information of the sharing destination device with the shooting angle of view of the sharing source device, and if the sharing destination device is within the shooting angle of view, the image shot at the shooting angle of view. Share the destination device.
具体的には、例えば、共有元機器1−Yは、撮像部15−Yによる撮像開始に先立ち、共有先機器と通信し、共有先機器の位置情報を取得する。共有元機器は、撮影方向を検出する装置、例えば地磁気を検出する電子コンパスや、共有元機器内の異なる位置に設置された複数のGPS受信機から取得した位置情報の差異に基づいて撮影方向を推定する装置を有している。 Specifically, for example, the sharing source device 1-Y communicates with the sharing destination device prior to the start of imaging by the imaging unit 15-Y, and acquires position information of the sharing destination device. The sharing source device determines the shooting direction based on a difference in position information acquired from a device that detects the shooting direction, for example, an electronic compass that detects geomagnetism, or a plurality of GPS receivers installed at different positions in the sharing source device. It has an estimation device.
次に、共有元機器1−Yは、自己の位置情報と撮像方向と共有先機器1−Xの位置情報とに基づき、共有先機器1−Xが自己の撮像部15−Yの撮像範囲に入っているか否かを判断する。これは、図10に示すように、撮像方向から光軸lの向きを決め、その光軸を基準にした画角θ(厳密には、画角は仰角と方位角の2種類がある)に基づいて、撮影範囲Rを決める。そして、共有元機器1−Yの撮影範囲Rに共有先機器1−Xの位置情報Pが含まれているか否かを判断し、撮影範囲Rに位置情報Pが含まれていれば、共有先機器1−Xが自己の撮像部15−Yの撮像範囲に入っていると判断する。なお、公知のように、撮像部15−Yのズームレンズのズーミング量に応じて撮像用レンズの焦点距離も変わり、撮像用レンズの画角θも変化して撮像範囲も変化する。 Next, the sharing source device 1-Y has the image capturing range of the image capturing unit 15-Y of the own image capturing unit 15-Y based on the own position information, the imaging direction, and the position information of the sharing destination device 1-X. Judge whether it is in or not. As shown in FIG. 10, the direction of the optical axis l is determined from the imaging direction, and the angle of view θ is based on the optical axis (strictly speaking, there are two types of angle of view: elevation angle and azimuth angle). Based on this, the photographing range R is determined. Then, it is determined whether or not the position information P of the sharing destination device 1-X is included in the shooting range R of the sharing source device 1-Y, and if the position information P is included in the shooting range R, the sharing destination It is determined that the device 1-X is within the imaging range of its own imaging unit 15-Y. As is well known, the focal length of the imaging lens changes according to the zooming amount of the zoom lens of the imaging unit 15-Y, the angle of view θ of the imaging lens also changes, and the imaging range also changes.
そして、その撮影範囲Rに位置情報Pを有する共有先機器1−Xの位置情報を示す映像をOSD回路40−Yによって生成し、撮像部15−Yが定期的に出力するスルー画に重畳して表示部13−Yに表示してもよい。 Then, an image showing the position information of the sharing destination device 1-X having the position information P in the shooting range R is generated by the OSD circuit 40-Y, and is superimposed on the through image periodically output by the imaging unit 15-Y. May be displayed on the display unit 13-Y.
図11はスルー画の一例である。表示部13に表示されたスルー画には、2人の被写体SB4およびSB5が写っており、被写体SB4の位置に共有先機器1−Xの位置情報があるとする。
FIG. 11 is an example of a through image. Assume that the through image displayed on the
この場合、その共有先機器1−Xの位置情報を表示部13−Yに表示すれば、友達が撮影範囲内に入っていることを撮影者が認識でき好都合である。共有先機器の位置情報の表示形態は何でもよい。 In this case, if the position information of the sharing destination device 1-X is displayed on the display unit 13-Y, it is convenient for the photographer to recognize that the friend is within the photographing range. The display form of the location information of the sharing destination device may be anything.
例えば、図12に示すように、共有先機器1−Xの位置情報に最も近接する人物被写体をスルー画から検出し、その人物被写体を囲む枠Fや、あるいはその人物被写体を覆う網かけなど、その検出された人物被写体が友達であることを識別させる映像(友達識別映像)をOSD回路40−Yによって生成し、スルー画に合成し、表示部13−Yに表示する。人物被写体の検出の方法は公知のもの(エッジ検出など)を用いればよい。 For example, as shown in FIG. 12, the person subject closest to the position information of the sharing destination device 1-X is detected from the through image, and the frame F surrounding the person subject or the shading covering the person subject, etc. A video (friend identification video) for identifying that the detected human subject is a friend is generated by the OSD circuit 40-Y, combined with the through image, and displayed on the display unit 13-Y. A known method (such as edge detection) may be used as a method for detecting a human subject.
あるいは、図13に示すように、共有先機器1−Xを示すアイコンやマークなどのグラフィックGをOSD回路40−Yによって生成し、共有先機器1−Xの位置情報に対応するスルー画上の座標に、このグラフィックGを合成し、表示部13−Yに表示する。 Alternatively, as illustrated in FIG. 13, a graphic G such as an icon or a mark indicating the sharing destination device 1 -X is generated by the OSD circuit 40 -Y, and on the through image corresponding to the position information of the sharing destination device 1 -X. This graphic G is synthesized with the coordinates and displayed on the display unit 13-Y.
共有元機器に、友達機器情報が複数登録されており、かつこの複数の友達機器情報に対応する複数のコンテンツ記録機器1が撮影範囲に含まれている場合、共有元機器からどのコンテンツ記録機器1を共有先機器にするかを操作部20から選択できてもよい。
When a plurality of friend device information are registered in the sharing source device and a plurality of
例えば、図14に示すように、共有元機器の表示部13には、共有元機器の記憶部12に登録された友達機器情報に対応するコンテンツ記録機器1のうち、共有元機器の撮影範囲に含まれる全てのコンテンツ記録機器1の位置情報に応じた友達識別映像F1、F2、F3を表示させる。
For example, as shown in FIG. 14, the
操作部20の1つとして、表示部13に積層したタッチパネルを用意しておき、友達識別映像F1、F2、F3のうち所望のものの表示部分のタッチがされたことを当該タッチパネルで検出すると、共有有無決定部31は、タッチされた表示部分に対応する位置情報を送ってきたコンテンツ記録機器1を、共有先機器に決定し、記憶部12にある所望のコンテンツのダウンロードをその決定された共有先機器に許可する。
As one of the
7つ目の利用形態として、2つのコンテンツ記録機器1の記録した画像の関連性に応じて、画像を共有する。
As a seventh usage mode, images are shared according to the relevance of images recorded by the two
例えば、図15に示すような撮影シーンで、あるコンテンツ記録機器1−Aが画像X1とX2とX3を撮影したとする。また、コンテンツ記録機器1−Aには、友達機器情報としてコンテンツ記録機器1−Bが登録されているとする。 For example, it is assumed that a content recording device 1-A captures images X1, X2, and X3 in a shooting scene as shown in FIG. In addition, it is assumed that the content recording device 1-B is registered as friend device information in the content recording device 1-A.
この場合、1つ目の利用形態と同様、コンテンツ記録機器1−Aは、登録された友達機器情報に応じてコンテンツ記録機器1−Bを共有先機器と決定し、画像X1とX2とX3をコンテンツ記録機器1−Bに送信する。コンテンツ記録機器1−Bは、画像X1とX2とX3を受信して、記憶部12に格納する。コンテンツ記録機器1−Bがコンテンツ記録機器1−Aから受信した画像X1、X2、X3を共有候補画像と呼ぶ。共有候補画像は、後述のチェック画像との照合にのみ用いられ、共有先機器が自由に表示や記憶することはできないものとするが、共有元機器が共有先機器に共有候補画像の完全な共有を許可すれば、それが可能となる。
In this case, as in the first usage pattern, the content recording device 1-A determines that the content recording device 1-B is a sharing destination device according to the registered friend device information, and selects the images X1, X2, and X3. Transmit to the content recording device 1-B. The content recording device 1-B receives the images X1, X2, and X3 and stores them in the
コンテンツ記録機器1−Bは、操作部20から撮影モードが設定されたことに応じ、撮像部15によって継続的に出力されるスルー画を表示部13に表示する。このとき、画像合成可能有無チェック部36は、撮像部15から得られたスルー画から所定のタイミングで(好ましくはスルー画の出力周期と同じタイミングであるが、処理の負担を軽減するためにそれ以上の周期でもよい)、画像を取得する。この画像をチェック画像と呼ぶ。
The content recording device 1 -B displays a through image continuously output by the
コンテンツ記録機器1−Bの画像合成可能有無チェック部36−Bは、チェック画像と共有候補画像とを照合し、重複する画素領域があるか否かを判断する。これは、周知のパノラマ画像の合成の際の重複画素の判断と同様にすればよい。画像合成可能有無チェック部36は、重複する画素領域がある場合、その旨を通信I/F11を介してコンテンツ記録機器1−Aに通知し、共有候補画像の完全な共有の許可を要求する。この要求に応じて、コンテンツ記録機器1−Aの画像合成可能有無チェック部36−Aは、コンテンツ記録機器1−Bに対し、共有候補画像の表示を許可する旨の通知を送信する。この通知を受信したコンテンツ記録機器1−Bの画像合成可能有無チェック部36−Bは、共有候補画像を共有画像に設定し、OSD回路40によって共有画像とチェック画像との重複領域を示す映像を生成し、チェック画像に合成する。
The image composition possibility check unit 36-B of the content recording device 1-B collates the check image with the sharing candidate image and determines whether there is an overlapping pixel region. This may be performed in the same manner as the determination of overlapping pixels when a known panoramic image is synthesized. If there is an overlapping pixel area, the image composition
なお、上記とは逆に、コンテンツ記録機器1−Bからチェック画像をコンテンツ記録機器1−Aに送って、コンテンツ記録機器1−Aがチェック画像と共有候補画像とを照合し、重複する画素領域がある場合は共有候補画像を共有画像としてコンテンツ記録機器1−Bに送ってもよい。こうすれば、共有が許可されなかった共有候補画像というものがそもそも存在しなくなり、意図しない画像の不正使用が防げる。 Contrary to the above, a check image is sent from the content recording device 1-B to the content recording device 1-A, and the content recording device 1-A collates the check image with the sharing candidate image, thereby overlapping pixel regions. If there is, the sharing candidate image may be sent to the content recording device 1-B as a shared image. In this way, there is no sharing candidate image that is not permitted to be shared, and unintentional unauthorized use of the image can be prevented.
図16では、スルー画のうち共有候補画像X1、X2、X3に相当する領域が点線の枠の映像で示されている。 In FIG. 16, regions corresponding to the share candidate images X1, X2, and X3 in the through image are indicated by a dotted frame image.
あるいは、スルー画と共有画像とを用いて撮影シーン全体の概観を示すこともできる。 Alternatively, an overview of the entire photographic scene can be shown using the through image and the shared image.
例えば、図17(a)に示すような画像X4をコンテンツ記録機器1−Aが記録し、図17(b)に示すような画像X5をコンテンツ記録機器1−Bがスルー画として取得したとする。これらの画像は、互いに画素が重複する領域ORを有している。上記と同様、コンテンツ記録機器1−Bが重複がある旨をコンテンツ記録機器1−Aに通知し、これに応じてコンテンツ記録機器1−Aは許可を送ることで、画像X5は、共有画像としてコンテンツ記録機器1−Aからコンテンツ記録機器1−Bへ送信される。 For example, it is assumed that the content recording device 1-A records the image X4 as shown in FIG. 17A and the content recording device 1-B acquires the image X5 as shown in FIG. 17B as a through image. . These images have an area OR in which pixels overlap each other. As described above, the content recording device 1-B notifies the content recording device 1-A that there is an overlap, and in response to this, the content recording device 1-A sends permission, so that the image X5 becomes a shared image. It is transmitted from the content recording device 1-A to the content recording device 1-B.
コンテンツ記録機器1−Bの画像合成可能有無チェック部36は、受信した画像X4とスルー画との重複領域ORを検出し、画像X4とX5の領域OR同士を重ね合わせることでパノラマ画像Wを作成し、パノラマ画像Wを13に表示する。
The image
図18は、画像X4・X5を重ね合わせたパノラマ画像Wの一例を示している。パノラマ画像Wは、表示部13に既に表示されているスルー画のポップアップ画面として示すと、現在の撮影範囲と友達からもらった共有画像の重複部分との関係が比較でき便利である。ただし、パノラマ画像Wだけを表示部13に表示してもよい。
FIG. 18 shows an example of a panoramic image W in which the images X4 and X5 are superimposed. When the panoramic image W is shown as a pop-up screen of a through image already displayed on the
なお、図示した画像X1、X2、X3、X4、X5の位置や構図は例示に過ぎず、図示されたものに限定されない。また、共有画像が2つ以下でも同様の処理が可能である。また、共有画像との重複を比較する画像(例えば上記の画像X5)はスルー画でなく記録済みの画像でもよい。 The positions and compositions of the illustrated images X1, X2, X3, X4, and X5 are merely examples, and are not limited to those illustrated. The same processing can be performed with two or less shared images. In addition, the image to be compared with the shared image (for example, the image X5 described above) may be a recorded image instead of a through image.
図19は本システムで実行されるコンテンツ共有処理のフローチャートを示す。この処理は、コンテンツ記録機器1(共有元機器)のCPU30が実行を制御する。この処理を規定するプログラムは共有元機器の記憶部12に記憶されている。この処理は、上記の利用形態を総合した内容である。
FIG. 19 shows a flowchart of content sharing processing executed in the present system. This process is controlled by the
S0では、操作部20への撮像指示入力に応じた撮像部15による静止画や動画の撮像、あるいは操作部20への録音指示入力に応じた録音部16による録音を行い、得られたコンテンツを記憶部12に格納する。同時に、RTC18から出力された記録日時情報、位置情報取得部19から出力された記録位置情報、その他CPU30が指定したRAMの情報(焦点距離、絞り値、シャッタスピード、コメントなど)を、コンテンツの付帯情報として、コンテンツを本体データとするファイルのヘッダやメタデータやタグ情報として記憶部12に格納する。ただし、両者が識別情報などで関連づけられていれば、別々のデータとして記憶してもよい。
In S0, a still image or a moving image is captured by the
S1では、ユーザ情報登録部32が、操作部20、通信I/F11、あるいは可搬性記録媒体などを介して入力された友達機器のIDを記憶部12に登録する。共有有無決定部31は、登録された友達機器のIDを有するコンテンツ記録機器1、すなわち共有先機器から、当該共有先機器の記録したコンテンツの記録日時情報、記録位置情報、総コンテンツ記録数を取得する。ただし、共有先機器においても、S0と同様コンテンツの記録処理が行われていなければならない。
In S <b> 1, the user
S2では、位置チェック部34が、自己の記憶部12に格納されたコンテンツの付帯情報の記録位置情報と、共有先機器から取得した記録位置情報とを比較し、両者の差異が所定の誤差範囲内にあり実質的に同一であるか否かを判断する。Yesの場合はS3、Noの場合はS5に進む。
In S2, the
S3では、枚数チェック部33が、共有元機器の記憶部12に格納された総コンテンツ数と、共有先機器から取得した総コンテンツ記録数とを比較し、両者の差の絶対値が所定の閾値以上であるか否かを判断する。Yesの場合はS6、Noの場合はS4に進む。なお、枚数とは、静止画の数に限らず、動画の数でも、音声ファイルの数でもよい。
In S3, the
S4では、共有先機器の画像合成可能有無チェック部36が、共有候補画像とスルー画あるいは記録済み画像の重複領域の有無を判断する。そして、共有先機器の画像合成可能有無チェック部36が、判断に応じて、共有の許可の要求を送信する。共有元機器のタイミングチェック部35は、共有の許可の要求を受信したか否かを判断する。Yesの場合はS6、Noの場合はS5に進む。
In S4, the image composition
S5では、タイミングチェック部35が、自己の記憶部12に格納されたコンテンツの付帯情報の記録日時情報と、共有先機器から取得した記録日時情報とを比較し、両者の差異が所定の範囲内にあるか否かを判断する。Yesの場合はS3、Noの場合はS5に進む。なお、双方の記録日時情報の全て(年月日分秒)が一致することは稀であるから、どの部分の一致を判断するかを予め操作部20から設定可能にしてもよい。例えば、年同士、月同士、日同士、年および月同士、年および月および日同士のいずれかのパラメータを比較してその一致を判断する。
In S5, the
S6では、共有元機器から共有先機器にコンテンツを送る。上述のように共有先が複数ある場合は、その中から所望のものを選択させて選択された機器だけにコンテンツを送る。なお、S4でYesと判断されてS6に進んだ場合は、共有の許可を送信する。 In S6, the content is sent from the sharing source device to the sharing destination device. As described above, when there are a plurality of sharing destinations, a desired one is selected from them and the content is sent only to the selected device. If it is determined Yes in S4 and the process proceeds to S6, a sharing permission is transmitted.
S7では、共有元機器から共有先機器にコンテンツを送らない。なお、S4・S5でNoと判断されてS7に進んだ場合は、共有の許可を送信しない。 In S7, content is not sent from the sharing source device to the sharing destination device. If it is determined No in S4 and S5 and the process proceeds to S7, sharing permission is not transmitted.
なお、S4を除いて、共有先機器の記録したコンテンツの種類と共有先機器の記録したコンテンツの種類は同じでも異なってもよい。例えば、一方の記録したコンテンツが静止画、他方が音声であったり、一方が静止画、他方が動画であったり、一方が動画、他方が音声であったり、あるいは双方とも静止画、音声、動画である場合のいずれでもよい。もっとも、共有内容を単純化するには、双方とも同じ種類のコンテンツを取得した場合に限って共有してもよい。 Except for S4, the type of content recorded by the sharing destination device and the type of content recorded by the sharing destination device may be the same or different. For example, one recorded content is still image, the other is audio, one is still image, the other is video, one is video, the other is audio, or both are still images, audio, video Any of the cases may be used. However, in order to simplify the shared contents, both may share only when the same type of contents is acquired.
また、S2、S3、S4、S5の判断は、論理和または論理積として任意に組み合わせることができる。例えば、図19では、S5でYesならばS6に進むとしているが、S5でYesとなりかつS3と同様の判断を行ってYesならば(論理和)S6に進むとしてもよく、図示の判断分岐は例示に過ぎない。 The determinations of S2, S3, S4, and S5 can be arbitrarily combined as a logical sum or a logical product. For example, in FIG. 19, if Yes in S5, the process proceeds to S6. However, if Yes in S5 and the same determination as in S3 is performed (Yes), the process may proceed to S6. It is only an example.
<その他の実施形態>
共有先機器は、自己が共有元機器になる場合を除いて、撮像部15や録音部16を有している必要はない。また、共有先機器でコンテンツの表示や拡声などの再生をしない場合は、表示部13や音声処理回路17を有している必要はない。例えば、図6のような外部ストレージ2がその一例である。
<Other embodiments>
The sharing destination device does not need to include the
さらに、コンテンツ記録機器1同士が直接接続されていなくてもよく、例えば図20に示すように、外部ストレージ2を介して、共有元機器であるカメラ1aと、共有先機器であるPDA1cとが接続され、カメラ1aから一旦外部ストレージ2にアップロードされた共有画像がPDA1cにダウンロードされて画像の閲覧や音声再生など様々な利用に供されるようにしてもよい。
Furthermore, the
また、共有有無決定部31、ユーザ情報登録部32、枚数チェック部33、位置チェック部34、タイミングチェック部35、画像合成可能有無チェック部36が実行する処理の内容は、コンテンツの記録とは直接関係ないため、コンテンツ記録機器1以外の一般的なコンピュータ、例えば外部ストレージ2の情報処理装置(CPUとRAMその他のその周辺機器)でも実行できる。
The contents of the processes executed by the sharing presence /
また、上記の実施形態では、共有先機器から取得したコンテンツの記録位置情報や記録時間情報などの状況情報と、共有元機器のコンテンツの記録位置情報や記録時間情報などの状況情報とを比較し、両者が一致すれば共有を行っていた。しかし、この状況情報には、記録位置情報や記録時間情報の他、共有元機器のコンテンツに共有先機器からアクセスやダウンロードや実際の再生(画像やテキストならば共有先機器の表示部13での表示、音声ならば共有先機器の音声処理回路17での再生)があったときにRTC18の出力した現在時刻情報や、位置情報取得部19の出力した現在位置情報を含めることもできる。共有元機器あるいは共有先機器の情報処理部30は、自己のコンテンツに共有先機器からアクセスや実際のダウンロードがあったとき、上記の現在時刻情報や現在位置情報を、当該コンテンツの付帯情報として記録しておけば、他の機器から取得した状況情報との照合と、照合に応じた当該コンテンツの共有の可否を決定することができる。
In the above embodiment, the status information such as the recording position information and recording time information of the content acquired from the sharing destination device is compared with the status information such as the recording position information and recording time information of the content of the sharing source device. If the two match, they were sharing. However, in this situation information, in addition to recording position information and recording time information, the content of the sharing source device is accessed from the sharing destination device, downloaded or actually played back (if it is an image or text, it is displayed on the
このように、コンテンツ記録時の付帯情報の他、コンテンツ共有時や閲覧時に記録された付帯情報の照合結果に応じてコンテンツを共有すれば、誰かと一緒に見たり聞いたり共有したりしていたコンテンツを、また別の誰かと共有することができる。 In this way, in addition to the incidental information at the time of content recording, if the content was shared according to the collation result of the incidental information recorded at the time of content sharing or browsing, it was seen, heard or shared with someone You can share the content with someone else.
1:コンテンツ記録機器、11:データ送受信部(通信I/F)、12:記憶部、13:表示部、15:撮像部、16:録音部、17:音声処理回路、18:RTC、19:位置情報取得部、20:操作部、30:CPU 1: Content recording device, 11: Data transmission / reception unit (communication I / F), 12: Storage unit, 13: Display unit, 15: Imaging unit, 16: Recording unit, 17: Audio processing circuit, 18: RTC, 19: Position information acquisition unit, 20: operation unit, 30: CPU
Claims (12)
前記コンテンツ記録部によるコンテンツの記録時、閲覧時および共有時のうち少なくとも1つを含む状況に関するコンテンツ状況情報を前記コンテンツと対応づけて記録するコンテンツ状況情報記録部と、
前記コンテンツを他の機器に出力可能な出力部と、
前記他の機器の取得した現在または過去の状況情報を入力する入力部と、
前記入力部の入力した他の機器の状況情報と前記コンテンツ状況情報記録部の記録したコンテンツ状況情報とを比較し、前記比較の結果に応じて前記コンテンツ記録部の記録したコンテンツを前記他の機器に出力するよう前記出力部を制御する制御部と、
を備えるコンテンツ出力装置。 A content recording unit for recording content including at least one of image and sound;
A content status information recording unit that records content status information related to a status including at least one of at the time of recording, browsing, and sharing of content by the content recording unit, in association with the content;
An output unit capable of outputting the content to another device;
An input unit for inputting current or past situation information acquired by the other device;
The status information of the other device input by the input unit is compared with the content status information recorded by the content status information recording unit, and the content recorded by the content recording unit is compared with the other device according to the comparison result. A control unit that controls the output unit to output to
A content output device comprising:
前記他の機器の状況情報は、現在の位置情報を含み、
前記制御部は、前記入力部の入力した他の機器の位置情報と前記コンテンツ状況情報記録部の記録した位置情報との間の距離に基づいて前記コンテンツ記録部の記録したコンテンツを前記他の機器に出力するよう前記出力部を制御する請求項1に記載のコンテンツ出力装置。 The content status information includes location information at the time of recording the content,
The status information of the other device includes current position information,
The control unit is configured to record content recorded by the content recording unit based on a distance between position information of another device input by the input unit and position information recorded by the content status information recording unit. The content output device according to claim 1, wherein the output unit is controlled so as to output to the content.
前記他の機器の状況情報は、前記他の機器によるコンテンツの記録時における位置情報を含み、
前記制御部は、前記入力部の入力した他の機器の位置情報と前記コンテンツ状況情報記録部の記録した位置情報とが一致するか否かに応じて前記コンテンツ記録部の記録したコンテンツを前記他の機器に出力するよう前記出力部を制御する請求項1に記載のコンテンツ出力装置。 The content status information includes location information at the time of recording the content,
The status information of the other device includes position information at the time of recording content by the other device,
The control unit determines the content recorded by the content recording unit according to whether or not the position information of another device input by the input unit matches the position information recorded by the content status information recording unit. The content output apparatus according to claim 1, wherein the output unit is controlled to output to a device.
前記他の機器の状況情報は、前記他の機器によるコンテンツの記録時における日時情報を含み、
前記制御部は、前記入力部の入力した他の機器の日時情報と前記コンテンツ状況情報記録部の記録した日時情報とが一致するか否かに応じて前記コンテンツ記録部の記録したコンテンツを前記他の機器に出力するよう前記出力部を制御する請求項1に記載のコンテンツ出力装置。 The content status information includes date and time information at the time of recording the content,
The status information of the other device includes date and time information at the time of recording the content by the other device,
The control unit determines the content recorded by the content recording unit according to whether the date / time information of another device input by the input unit matches the date / time information recorded by the content status information recording unit. The content output apparatus according to claim 1, wherein the output unit is controlled to output to a device.
前記制御部は、前記撮像部が記録した画像の撮像範囲内に前記他の機器が存在するか否かを判断し、前記判断の結果に応じて前記撮像部の記録した画像を前記他の機器に出力するよう前記出力部を制御する請求項1に記載のコンテンツ出力装置。 The content recording unit includes an imaging unit for recording an image,
The control unit determines whether or not the other device exists within the imaging range of the image recorded by the imaging unit, and determines the image recorded by the imaging unit according to the result of the determination. The content output device according to claim 1, wherein the output unit is controlled so as to output to the content.
前記制御部は、前記撮像部が記録した画像と、前記他の機器の取得した画像とが重複部分を有するか否かを判断し、前記判断の結果に応じて前記撮像部の記録した画像を前記他の機器に出力するよう前記出力部を制御する請求項1に記載のコンテンツ出力装置。 The content recording unit includes an imaging unit for recording an image,
The control unit determines whether an image recorded by the imaging unit and an image acquired by the other device have an overlapping portion, and the image recorded by the imaging unit is determined according to the determination result. The content output apparatus according to claim 1, wherein the output unit is controlled to output to the other device.
前記入力部は、前記他の機器の識別情報を入力し、
前記制御部は、前記登録部の登録した識別情報と前記入力部の入力した識別情報とが一致するか否かを判断し、前記判断の結果に応じて前記コンテンツ記録部の記録したコンテンツを前記他の機器に出力するよう前記出力部を制御する請求項1〜8のいずれかに記載のコンテンツ出力装置。 A registration unit for registering identification information of a desired device;
The input unit inputs identification information of the other device,
The control unit determines whether the identification information registered by the registration unit matches the identification information input by the input unit, and the content recorded by the content recording unit is determined according to a result of the determination. The content output device according to claim 1, wherein the output unit is controlled to output to another device.
画像および音声のうち少なくとも一方を含むコンテンツを記録するステップと、
前記コンテンツの記録時、閲覧時および共有時のうち少なくとも1つを含む状況に関するコンテンツ状況情報を前記コンテンツと対応づけて記録するステップと、
前記他の機器の取得した現在または過去の状況情報を入力するステップと、
前記入力した他の機器の状況情報と前記記録したコンテンツ状況情報とを比較し、前記比較の結果に応じて前記記録したコンテンツを前記他の機器に出力するステップと、
を実行するコンテンツ出力方法。 Computer
Recording content including at least one of image and sound;
Recording content status information related to a status including at least one of when recording, browsing, and sharing the content in association with the content;
Inputting the current or past status information acquired by the other device;
Comparing the input status information of the other device with the recorded content status information, and outputting the recorded content to the other device according to the result of the comparison;
Content output method to execute.
前記コンテンツ出力装置に状況情報を入力する他の機器と、
を含むコンテンツ出力システム。 The content output device according to any one of claims 1 to 9,
Another device for inputting status information to the content output device;
Content output system including
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008232624A JP2010068247A (en) | 2008-09-10 | 2008-09-10 | Device, method, program and system for outputting content |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008232624A JP2010068247A (en) | 2008-09-10 | 2008-09-10 | Device, method, program and system for outputting content |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010068247A true JP2010068247A (en) | 2010-03-25 |
Family
ID=42193433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008232624A Pending JP2010068247A (en) | 2008-09-10 | 2008-09-10 | Device, method, program and system for outputting content |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010068247A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012005028A (en) * | 2010-06-21 | 2012-01-05 | Canon Inc | Imaging device, information distribution device, transmission method, information distribution method, and program |
JP2012216885A (en) * | 2011-03-31 | 2012-11-08 | Nikon Corp | Imaging apparatus and image sharing system |
JP2016507799A (en) * | 2012-12-03 | 2016-03-10 | 株式会社カカオ | Server and method for recommending photo sharing, and device for displaying photo sharing interface area |
JP2016539403A (en) * | 2013-10-14 | 2016-12-15 | ノキア テクノロジーズ オサケユイチア | Method and apparatus for identifying media files based on contextual relationships |
JP2018077736A (en) * | 2016-11-10 | 2018-05-17 | 富士通株式会社 | Information processing device, information processing method, and information process system |
-
2008
- 2008-09-10 JP JP2008232624A patent/JP2010068247A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012005028A (en) * | 2010-06-21 | 2012-01-05 | Canon Inc | Imaging device, information distribution device, transmission method, information distribution method, and program |
JP2012216885A (en) * | 2011-03-31 | 2012-11-08 | Nikon Corp | Imaging apparatus and image sharing system |
JP2016507799A (en) * | 2012-12-03 | 2016-03-10 | 株式会社カカオ | Server and method for recommending photo sharing, and device for displaying photo sharing interface area |
JP2016539403A (en) * | 2013-10-14 | 2016-12-15 | ノキア テクノロジーズ オサケユイチア | Method and apparatus for identifying media files based on contextual relationships |
US10437830B2 (en) | 2013-10-14 | 2019-10-08 | Nokia Technologies Oy | Method and apparatus for identifying media files based upon contextual relationships |
JP2018077736A (en) * | 2016-11-10 | 2018-05-17 | 富士通株式会社 | Information processing device, information processing method, and information process system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3944160B2 (en) | Imaging apparatus, information processing apparatus, control method thereof, and program | |
WO2017221659A1 (en) | Image capturing device, display device, and image capturing and displaying system | |
JP7187395B2 (en) | COMMUNICATION TERMINAL, COMMUNICATION TERMINAL CONTROL METHOD, AND COMMUNICATION SYSTEM | |
CN103945131A (en) | Electronic device and image acquisition method | |
US20130100329A1 (en) | Image pickup apparatus | |
JP2010079788A (en) | Content management device, system, method and program | |
JP2015220616A (en) | Electronic apparatus | |
US9973649B2 (en) | Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program | |
JP4901258B2 (en) | Camera and data display method | |
JP2007235239A (en) | Image processing apparatus, image display apparatus and image processing method | |
JP2010068247A (en) | Device, method, program and system for outputting content | |
JP2010081428A (en) | Imaging apparatus and program | |
US20100166316A1 (en) | Method and apparatus for processing a digital image including a face detection finction | |
EP3955152A1 (en) | Image processing device, image processing method, program, and imaging device | |
JP5047592B2 (en) | Sentence publishing device with image, program, and method | |
KR20100101960A (en) | Digital camera, system and method for grouping photography | |
JP2009111827A (en) | Photographing apparatus and image file providing system | |
JP2007020054A (en) | Method and device for managing image | |
JP6704301B2 (en) | Imaging device and imaging display system | |
JP2013187617A (en) | Information terminal, mobile telephone, image transmission method and computer program | |
JP7101285B2 (en) | Display device | |
JP2010183565A (en) | Image capturing apparatus, image retrieval device, and program | |
JP2014216904A (en) | Imaging apparatus, image reproduction apparatus, data recording method, image reproduction method, and program | |
JP5687480B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP2021125846A (en) | Program, recording medium, and information processing apparatus |