JP2010068247A - Device, method, program and system for outputting content - Google Patents

Device, method, program and system for outputting content Download PDF

Info

Publication number
JP2010068247A
JP2010068247A JP2008232624A JP2008232624A JP2010068247A JP 2010068247 A JP2010068247 A JP 2010068247A JP 2008232624 A JP2008232624 A JP 2008232624A JP 2008232624 A JP2008232624 A JP 2008232624A JP 2010068247 A JP2010068247 A JP 2010068247A
Authority
JP
Japan
Prior art keywords
content
unit
information
recording
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008232624A
Other languages
Japanese (ja)
Inventor
Hiroshi Yamaji
啓 山路
Yukinori Yokoyama
幸徳 横山
Masafumi Tomono
雅文 友野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008232624A priority Critical patent/JP2010068247A/en
Publication of JP2010068247A publication Critical patent/JP2010068247A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily and effectively share content among users of a plurality of electronic devices. <P>SOLUTION: A content recorder 1-X acquires, from other content recorder 1-Y, having the ID of a friend device registered in a storing part 12-X, that is, a sharing destination device, additional information, such as recording date and time information, recording position information and the total number of content records of content recorded by the sharing destination device. The content recorder 1-X collates these additional information, with the additional information of content recorded by the content recorder 1-X, and transmits the content recorded by the content recorder 1-X to the content recorder 1-Y according to the result. Furthermore, the content may be shared according to the collation result of additional information recorded when the content is shared and browsed other than the additional information, when the content is recorded. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像や音声を含んだコンテンツを、所望の相手方の機器に出力する装置、方法、プログラムおよびシステムに関する。   The present invention relates to an apparatus, a method, a program, and a system for outputting content including images and audio to a desired counterpart device.

特許文献1では、複数の装置(デジタルスチルカメラなど)間で、各装置が有する画像データに対する編集の結果を複数の装置で共有する。   In Patent Document 1, a plurality of devices share a result of editing image data of each device among a plurality of devices (such as a digital still camera).

特許文献2では、画像内の人物の顔のサイズや位置に基づいて、撮像者にとっての重要度を判定する。   In Patent Document 2, the importance level for the photographer is determined based on the size and position of a person's face in the image.

特許文献3は、電子アルバム間でのデータ共有に関し、伝送元・伝送先の画像群の特徴量を検出し、一定値以上の特徴量を持つ画像を相手方に送信する
Patent Document 3 relates to data sharing between electronic albums, detects the feature amount of a transmission source / destination image group, and transmits an image having a feature amount of a certain value or more to the other party.

特許文献4では、デジタルカメラから取り込まれる撮影画像ファイルには、デジタルカメラの識別情報が含まれている。この撮影画像ファイルがHDDに記憶される。電子アルバム作成装置は、識別情報に基づいて画像を抽出し、電子アルバムを作成する。これにより、各参加者毎の電子アルバムを簡単に作成することができる。
特開2007−158563号公報 特開2007−201980号公報 特開2006−79458号公報 特開2003−18513号公報
In Patent Document 4, a captured image file captured from a digital camera includes digital camera identification information. This captured image file is stored in the HDD. The electronic album creation device extracts an image based on the identification information and creates an electronic album. Thereby, an electronic album for each participant can be easily created.
JP 2007-158563 A JP 2007-201980 A JP 2006-79458 A JP 2003-18513 A

近年、デジタルスチルカメラ、デジタルビデオカメラ、デジタルオーディオレコーダ、カメラ付きあるいは録音機能付き携帯電話などのデジタルコンテンツ記録装置が、記録媒体の容量増大に伴って広く普及している。これらの機器を用いて記録媒体に大量に記録された静止画像、動画像、音声の整理や分類の手間も、これに応じて非常に大きくなっている。さらに、近年、ネットワークでデジタルコンテンツを共有するサービスも普及しており、ユーザ各自の保管する記録媒体には、自分自身が記録したコンテンツや、他のユーザの管理するコンピュータからダウンロードしたコンテンツが混在していると、それらの整理や分類の手間はさらに増す。   In recent years, digital content recording devices such as digital still cameras, digital video cameras, digital audio recorders, camera-equipped mobile phones with recording functions, and the like have become widespread as the capacity of recording media increases. The effort for organizing and classifying still images, moving images, and sounds recorded in large amounts on a recording medium using these devices has become very large accordingly. Furthermore, in recent years, services for sharing digital contents over a network have also become widespread, and the recording media stored by each user include contents recorded by themselves and contents downloaded from computers managed by other users. If this is the case, the time and effort for organizing and classifying them will increase further.

この点、特許文献1では、複数の機器間で画像を共有する際に、1台で行った画像編集内容を別の機器でも共有する技術が開示されている。ただし、あくまでも画像が共有された後での編集にとどまり、どのように画像を共有するかには触れられていない。   In this regard, Patent Document 1 discloses a technique for sharing image editing contents performed by one unit with another device when sharing an image between a plurality of devices. However, the editing is only performed after the image is shared, and there is no mention of how to share the image.

特許文献2では、画像中の顔の位置やサイズを基に重要度を判定する。こうした重要度判定(特徴量検出)を用いた画像共有方法として、特許文献3が挙げられるが、単に画像の特徴量のみを使った共有がユーザにとって魅力的であるとは限らない。例えば、ユーザが知らない人物の写真を共有されても、うれしいとは感じないであろう。逆に、あるユーザが記録したコンテンツが何の特徴のないものであっても、他のユーザが共有を欲する場合もあるが、特許文献3ではこれに対応できない。   In Patent Document 2, importance is determined based on the position and size of a face in an image. As an image sharing method using such importance determination (feature amount detection), Patent Literature 3 can be cited, but sharing using only the feature amount of an image is not always attractive to the user. For example, if you share a picture of a person you don't know, you won't feel happy. Conversely, even if content recorded by a certain user does not have any characteristics, other users may want to share it, but Patent Document 3 cannot cope with this.

現状のデジタルスチルカメラだけでなく、静止画、音声、あるいは音声付き動画を記録可能な携帯電話も広く普及しており、1人のユーザが1台のデジタルコンテンツ記録装置を持ち歩くことは日常的になっている以上、各ユーザが雑多に記録するコンテンツのうち他のユーザにとって有用なコンテンツを効果的に共有することが求められる。   In addition to current digital still cameras, mobile phones capable of recording still images, audio, or moving images with audio are also widely used, and it is routine for one user to carry one digital content recording device. Therefore, it is required to effectively share contents useful for other users among the contents that are recorded by each user.

本発明は、複数の電子機器のユーザ間でコンテンツの共有を簡易かつ効果的にすることを目的とする。   An object of the present invention is to simplify and effectively share content among users of a plurality of electronic devices.

本発明に係るコンテンツ出力装置は、画像および音声のうち少なくとも一方を含むコンテンツを記録するコンテンツ記録部と、コンテンツ記録部によるコンテンツの記録時、閲覧時および共有時のうち少なくとも1つを含む状況に関するコンテンツ状況情報をコンテンツと対応づけて記録するコンテンツ状況情報記録部と、コンテンツを他の機器に出力可能な出力部と、他の機器の取得した現在または過去の状況情報を入力する入力部と、入力部の入力した他の機器の状況情報とコンテンツ状況情報記録部の記録したコンテンツ状況情報とを比較し、比較の結果に応じてコンテンツ記録部の記録したコンテンツを他の機器に出力するよう出力部を制御する制御部と、を備える。   A content output device according to the present invention relates to a content recording unit that records content including at least one of an image and sound, and a situation that includes at least one of recording, browsing, and sharing of content by the content recording unit A content status information recording unit that records content status information in association with the content, an output unit that can output the content to another device, an input unit that inputs current or past status information acquired by the other device, Compare the status information of the other device input by the input unit with the content status information recorded by the content status information recording unit, and output the content recorded by the content recording unit to another device according to the comparison result A control unit for controlling the unit.

コンテンツ状況情報は、コンテンツの記録時の位置情報を含み、他の機器の状況情報は、現在の位置情報を含み、制御部は、入力部の入力した他の機器の位置情報とコンテンツ状況情報記録部の記録した位置情報との間の距離に基づいてコンテンツ記録部の記録したコンテンツを他の機器に出力するよう出力部を制御する。   The content status information includes location information at the time of recording the content, the status information of other devices includes the current location information, and the control unit records the location information of the other devices input by the input unit and the content status information. The output unit is controlled to output the content recorded by the content recording unit to another device based on the distance between the position information recorded by the unit and the position information.

コンテンツ状況情報は、コンテンツの記録時の位置情報を含み、他の機器の状況情報は、他の機器によるコンテンツの記録時における位置情報を含み、制御部は、入力部の入力した他の機器の位置情報とコンテンツ状況情報記録部の記録した位置情報とが一致するか否かに応じてコンテンツ記録部の記録したコンテンツを他の機器に出力するよう出力部を制御する。   The content status information includes position information at the time of recording the content, the status information of other devices includes the position information at the time of recording of content by other devices, and the control unit includes the other device input by the input unit. The output unit is controlled to output the content recorded by the content recording unit to another device according to whether or not the position information and the position information recorded by the content status information recording unit match.

制御部は、コンテンツ記録部の記録したコンテンツの総数と他の機器の位置情報の記録したコンテンツの総数の差異に応じてコンテンツ記録部の記録したコンテンツを他の機器に出力するよう出力部を制御する。   The control unit controls the output unit to output the content recorded by the content recording unit to another device according to the difference between the total number of content recorded by the content recording unit and the total number of content recorded by the position information of the other device. To do.

制御部は、コンテンツ記録部がコンテンツを記録した時の位置情報と他の機器がコンテンツを記録した時の位置情報との近接度に応じてコンテンツ記録部の記録したコンテンツを他の機器に出力するよう出力部を制御する。   The control unit outputs the content recorded by the content recording unit to another device according to the proximity of the position information when the content recording unit records the content and the position information when the other device records the content. Control the output unit.

コンテンツ状況情報は、コンテンツの記録時の日時情報を含み、他の機器の状況情報は、他の機器によるコンテンツの記録時における日時情報を含み、制御部は、入力部の入力した他の機器の日時情報とコンテンツ状況情報記録部の記録した日時情報とが一致するか否かに応じてコンテンツ記録部の記録したコンテンツを他の機器に出力するよう出力部を制御する。   The content status information includes date / time information at the time of content recording, the status information of other devices includes date / time information at the time of recording of content by other devices, and the control unit The output unit is controlled to output the content recorded by the content recording unit to another device according to whether the date / time information and the date / time information recorded by the content status information recording unit match.

コンテンツ記録部は画像を記録する撮像部を含み、制御部は、撮像部が記録した画像の撮像範囲内に他の機器が存在するか否かを判断し、判断の結果に応じて撮像部の記録した画像を他の機器に出力するよう出力部を制御する。   The content recording unit includes an imaging unit that records an image, and the control unit determines whether there is another device within the imaging range of the image recorded by the imaging unit, and determines whether the imaging unit is in accordance with the determination result. The output unit is controlled to output the recorded image to another device.

コンテンツ記録部は画像を記録する撮像部を含み、制御部は、撮像部が記録した画像と、他の機器の取得した画像とが重複部分を有するか否かを判断し、判断の結果に応じて撮像部の記録した画像を他の機器に出力するよう出力部を制御する。   The content recording unit includes an imaging unit that records an image, and the control unit determines whether or not the image recorded by the imaging unit and an image acquired by another device have an overlapping portion, and according to the determination result The output unit is controlled to output the image recorded by the imaging unit to another device.

所望の機器の識別情報を登録する登録部を備え、入力部は、他の機器の識別情報を入力し、制御部は、登録部の登録した識別情報と入力部の入力した識別情報とが一致するか否かを判断し、判断の結果に応じてコンテンツ記録部の記録したコンテンツを他の機器に出力するよう出力部を制御する。   A registration unit for registering identification information of a desired device is provided, the input unit inputs identification information of another device, and the control unit matches the identification information registered by the registration unit with the identification information input by the input unit. The output unit is controlled to output the content recorded by the content recording unit to another device according to the determination result.

本発明に係るコンテンツ出力方法は、コンピュータが、画像および音声のうち少なくとも一方を含むコンテンツを記録するステップと、コンテンツの記録時、閲覧時および共有時のうち少なくとも1つを含む状況に関するコンテンツ状況情報をコンテンツと対応づけて記録するステップと、他の機器の取得した現在または過去の状況情報を入力するステップと、入力した他の機器の状況情報と記録したコンテンツ状況情報とを比較し、比較の結果に応じて記録したコンテンツを他の機器に出力するステップと、を実行する。   The content output method according to the present invention includes a step in which a computer records content including at least one of an image and sound, and content status information relating to a status including at least one of content recording, browsing, and sharing Is recorded in association with the content, the step of inputting the current or past status information acquired by the other device, the status information of the other device that has been input and the recorded content status information are compared. Outputting the recorded content according to the result to another device.

このコンテンツ出力方法をコンピュータに実行させるプログラムも本発明に含まれる。   A program for causing a computer to execute the content output method is also included in the present invention.

この発明によると、相手の機器の状態情報と自己のコンテンツ記録時の状態情報とを比較し、その結果に応じてコンテンツを相手の機器に出力するから、お互いの状況に関連性のある場合に自動的にコンテンツの共有を行うことができる。   According to the present invention, the status information of the counterpart device is compared with the status information at the time of recording the content, and the content is output to the counterpart device according to the result. Content can be automatically shared.

<第1実施形態>
図1は本発明の好ましい実施形態に係るコンテンツ共有システムの概略構成図である。このシステムは、複数のコンテンツ記録機器1で構成される。図1の画像共有システムは、それぞれ静止画や音声付き動画を記録可能なデジタルスチルカメラ1a、携帯電話1b、PDA1cを含んでいる。これらの機器は、静止画、動画、音声の記録を可能な電子回路を備えているコンテンツ記録機器1に包含される点で本質的な差異はない。
<First Embodiment>
FIG. 1 is a schematic configuration diagram of a content sharing system according to a preferred embodiment of the present invention. This system includes a plurality of content recording devices 1. The image sharing system in FIG. 1 includes a digital still camera 1a, a mobile phone 1b, and a PDA 1c that can record still images and moving images with sound. There is no essential difference in that these devices are included in the content recording device 1 including an electronic circuit capable of recording still images, moving images, and audio.

図2は、コンテンツ記録機器1のブロック図である。コンテンツ記録機器1は、USBポート・有線・無線LANアダプタ・人体通信用の微弱電流を入出力する電極などの公知のデータ通信手段で構成されたデータ送受信部(通信I/F)11、RAM、ROM、ハードディスク、メモリカードやDVDなどの可搬性記録媒体などで構成された記憶部12を備えている。   FIG. 2 is a block diagram of the content recording device 1. The content recording device 1 includes a data transmission / reception unit (communication I / F) 11 composed of a well-known data communication means such as a USB port, a wire, a wireless LAN adapter, and electrodes for inputting and outputting a weak current for human body communication, a RAM, The storage unit 12 includes a portable recording medium such as a ROM, a hard disk, a memory card, and a DVD.

また、コンテンツ記録機器1は、被写体像を撮像素子の受光面に結像する撮像レンズ、被写体像をアナログ画像信号に光電変換して出力するCCDやCMOSなどの撮像素子、撮像素子から出力されたアナログ画像信号をデジタル画像データに変換するAD変換部を含む撮像部15、撮像部15から出力された画像データの画素数の変更、シャープネス補正、ガンマ補正、コントラスト補正、ホワイトバランス補正などを行う画像処理部14を含んでいる。   The content recording device 1 is output from an imaging lens that forms a subject image on the light receiving surface of the imaging device, an imaging device such as a CCD or CMOS that photoelectrically converts the subject image into an analog image signal, and an imaging device. An imaging unit 15 including an AD conversion unit that converts an analog image signal into digital image data, an image for changing the number of pixels of image data output from the imaging unit 15, sharpness correction, gamma correction, contrast correction, white balance correction, and the like A processing unit 14 is included.

また、コンテンツ記録機器1は、集音用のマイク、マイクから取得されたアナログ音声信号を増幅後デジタルデータに変換し、所定の圧縮記録形式(MPEG4など)で圧縮するなどのデータ処理がなされ、撮像部15の取得した静止画あるいは動画とともに、あるいはその画像とは別個に圧縮音声を記憶部12に保存する録音部16を含んでいる。   Further, the content recording device 1 performs data processing such as a microphone for collecting sound, an analog audio signal acquired from the microphone, converted into digital data after amplification, and compressed in a predetermined compression recording format (such as MPEG4), A recording unit 16 that stores compressed audio in the storage unit 12 together with the still image or moving image acquired by the imaging unit 15 or separately from the image is included.

記憶部12は、撮影で得た画像データ(静止画、動画)や録音で得た音声データ、あるいはその双方を記録したデータ(例えばMP4ファイル)、テキストデータで記述された付帯情報その他のコンテンツを保持する手段であり、例えばスマートメディアと呼ばれるメモリカードが使用される。記録メディアの形態はこれに限定されず、PCカード、コンパクトフラッシュ(登録商標)、磁気ディスク、光ディスク、光磁気ディスク、メモリスティックなどでもよく、電子的、磁気的、もしくは光学的、またはこれらの組み合わせによる方式などに従って読み書き可能な媒体を用いることができる。異種・同種の記録メディアを問わず、複数の媒体を装着可能な構成にしてもよい。また、保存する手段は、着脱可能なリムーバブルメディアに限らず、内蔵された記録媒体(内蔵メモリ)であってもよい。また、記憶部12には、各コンテンツ記録機器1に固有の機器情報(ID)が記録されている。   The storage unit 12 stores image data (still images, moving images) obtained by shooting, audio data obtained by recording, data (for example, MP4 files) recorded both, supplementary information or other content described in text data. For example, a memory card called smart media is used. The form of the recording medium is not limited to this, and may be a PC card, a compact flash (registered trademark), a magnetic disk, an optical disk, a magneto-optical disk, a memory stick, etc., electronic, magnetic, optical, or a combination thereof A readable / writable medium can be used in accordance with the above-described method. A configuration in which a plurality of media can be mounted regardless of different types or the same type of recording media may be adopted. Further, the storing means is not limited to a removable removable medium, but may be a built-in recording medium (built-in memory). In addition, device information (ID) unique to each content recording device 1 is recorded in the storage unit 12.

また、コンテンツ記録機器1は、記憶部12の不揮発性記憶媒体(ROMや磁気ディスクなど)に予め記憶されているか、あるいは録音部16の格納した音声、操作音、シャッタ音、AFの合焦音などの各種音声データを、アナログ音声信号変換や増幅などのデータ処理を行い、スピーカに出力する音声処理回路17を含んでいる。   In addition, the content recording device 1 is stored in advance in a nonvolatile storage medium (ROM, magnetic disk, etc.) of the storage unit 12 or stored in the recording unit 16, such as sound, operation sound, shutter sound, and AF in-focus sound. The audio processing circuit 17 performs various data processing such as analog audio signal conversion and amplification on the various audio data and outputs them to the speaker.

RTC(リアルタイムクロック)18は、現在日時情報を出力する。この現在時刻情報は、撮像部15による記録用画像の撮影日時情報として、画像や音声などのコンテンツとともに、例えばテキストデータで記述されたメタ情報やヘッダ情報として、記憶部12に記憶することができる。撮影日時情報から派生する情報、例えば午前、午後、昼間、夕方、夜間、朝といった時間帯情報、春夏秋冬といった季節情報も、撮影日時情報に含めることができる。   An RTC (real time clock) 18 outputs current date and time information. This current time information can be stored in the storage unit 12 as the shooting date / time information of the image to be recorded by the imaging unit 15 together with the content such as an image or sound, for example, as meta information or header information described in text data. . Information derived from the shooting date / time information, for example, time zone information such as morning, afternoon, daytime, evening, night, and morning, and seasonal information such as spring / summer / autumn / winter can also be included in the shooting date / time information.

位置情報取得部19は、GPS受信機で構成され、GPS衛星からの電波を受信して軌道からの距離を測定することにより、現在位置情報を得る。この現在位置情報は、撮像部102による記録用画像の撮影位置情報として、画像や音声などのコンテンツとともに、例えばテキストデータで記述されたメタ情報やヘッダ情報として、記憶部12に記憶することができる。現在位置情報の取得元は、GPS受信機でなくてもよく、コンテンツ記録機器1の通信範囲内にある最も近傍の位置通知サーバからその位置情報の通知を受け、これをコンテンツ記録機器1の概略の位置情報とすることもできる。   The position information acquisition unit 19 is composed of a GPS receiver, and obtains current position information by receiving radio waves from GPS satellites and measuring the distance from the orbit. This current position information can be stored in the storage unit 12 as, for example, meta information or header information described in text data, together with contents such as images and sound, as shooting position information of an image for recording by the imaging unit 102. . The acquisition source of the current position information may not be a GPS receiver, but the position information notification is received from the nearest position notification server within the communication range of the content recording device 1, and this is the outline of the content recording device 1. The position information can also be used.

情報処理部(CPU)30は、レリーズスイッチ、モードダイヤル、テンキー等を含む操作部20の各種のボタンやキーからのユーザ操作部材への指示入力に基づいてコンテンツ記録機器1内の各回路を統括制御することができる。情報処理部30の実行するプログラムは記憶部12のROMやDVDなどに記憶され、適宜RAMにロードされて実行される。ただし、図示しない外部のプログラム配信サーバから通信I/F11を経由してプログラムを受信し、これをCPU30が実行してもよく、プログラムは必ずしもローカルデータとして常に記憶部12に記憶されなくてもよい。   The information processing unit (CPU) 30 controls each circuit in the content recording device 1 based on instructions input from various buttons and keys of the operation unit 20 including a release switch, a mode dial, and a numeric keypad to the user operation member. Can be controlled. A program executed by the information processing unit 30 is stored in a ROM, a DVD, or the like of the storage unit 12, and is appropriately loaded into the RAM for execution. However, the program may be received from the external program distribution server (not shown) via the communication I / F 11 and executed by the CPU 30, and the program may not always be stored in the storage unit 12 as local data. .

情報処理部30の実行するプログラムは、共有有無決定部31、ユーザ情報登録部32、枚数チェック部33、位置チェック部34、タイミングチェック部35、画像合成可能有無チェック部36を含んでいる。これらのプログラムによって実現される処理の内容は後述する。   The program executed by the information processing unit 30 includes a sharing presence / absence determination unit 31, a user information registration unit 32, a number check unit 33, a position check unit 34, a timing check unit 35, and an image composition possibility check unit 36. The contents of processing realized by these programs will be described later.

表示部13は、デコーダーやディスプレイを含み、情報処理部30の指示に応じ、映像を表示する。   The display unit 13 includes a decoder and a display, and displays a video according to an instruction from the information processing unit 30.

デジタルスチルカメラ1a、携帯電話1b、PDA1cは、いずれも図2の各ブロックを備えているものとするが、それ以外の回路構成も備えることができる。例えば、携帯電話1bは、移動体電話通信網と通信する通信回路、通信回路で受信した音声信号を拡声する再生回路、マイクで集音した音声をデジタル音声にして通信回路を介し所望の相手方電話機に送信する送信回路などを備えている。   The digital still camera 1a, the mobile phone 1b, and the PDA 1c are all provided with the respective blocks shown in FIG. 2, but may have other circuit configurations. For example, the mobile phone 1b includes a communication circuit that communicates with a mobile telephone communication network, a reproduction circuit that amplifies an audio signal received by the communication circuit, a digital voice that is collected by a microphone, and a desired other party telephone through the communication circuit. A transmission circuit for transmitting to the terminal is provided.

以下、デジタルスチルカメラ1a、携帯電話1b、PDA1cなどの異なるコンテンツ記録機器1がそれぞれ個別に備える共通のブロックを区別するため、これらのブロックの符号に「a」、「b」、「c」、「A」、「B」などの副添え字(subsuffix)を付することもある。例えば、共有有無決定部31aは、デジタルスチルカメラ1aの備えるブロックを示す。   Hereinafter, in order to distinguish common blocks individually provided in different content recording devices 1 such as the digital still camera 1a, the mobile phone 1b, and the PDA 1c, the codes of these blocks are denoted by “a”, “b”, “c”, A subsuffix such as “A” or “B” may be added. For example, the sharing presence / absence determination unit 31a indicates a block included in the digital still camera 1a.

図3は、本システムの1つ目の利用形態を示す。カメラ1a、携帯電話1b、PDA1cの各ユーザは、互いにあるいは一方的に友人と認識する他ユーザの保有するコンテンツ記録機器1のIDを、操作部20や通信I/F11を介して自己の保有するコンテンツ記録機器1に入力する。ユーザ情報登録部32は、入力された他ユーザのコンテンツ記録機器1のIDを「友達機器情報」として記憶部12に格納する。   FIG. 3 shows a first usage pattern of this system. Each user of the camera 1a, the mobile phone 1b, and the PDA 1c owns the ID of the content recording device 1 possessed by another user who recognizes each other or unilaterally as a friend via the operation unit 20 or the communication I / F 11. Input to the content recording device 1. The user information registration unit 32 stores the input ID of the content recording device 1 of the other user in the storage unit 12 as “friend device information”.

友達機器情報の入力の形態は特に限定されない。カメラ1aの操作部20がタッチパネルを備えていれば、カメラ1aにアクセスして友達機器情報の登録を要求してきた他のコンテンツ記録機器1、例えば携帯電話1b、PDA1cの一覧を表示部13に表示し、その中から友達機器情報がタッチされると、タッチされた機器のIDが友達機器情報としてカメラ1aの記憶部12に格納される。あるいは、通信I/F11を介してカメラ1aをパソコンに接続し、パソコンからカメラ1aに送信されたIDを友達機器情報として、カメラ1aの記憶部12aに格納する。あるいは、カメラ1aの通信I/F11への無線接続を要求してきた他のコンテンツ記録機器1、例えば携帯電話1b、PDA1cが、カメラ1aが予め発行した真正なパスワードその他の接続コードを、カメラ1aに送信した場合、その真正な接続コードを送ってきたコンテンツ記録機器1のIDを友達機器情報として、カメラ1aの記憶部12aに格納する。   The form of inputting the friend device information is not particularly limited. If the operation unit 20 of the camera 1a has a touch panel, the display unit 13 displays a list of other content recording devices 1 that have accessed the camera 1a and requested registration of friend device information, for example, the mobile phone 1b and the PDA 1c. Then, when the friend device information is touched from the inside, the ID of the touched device is stored in the storage unit 12 of the camera 1a as the friend device information. Alternatively, the camera 1a is connected to a personal computer via the communication I / F 11, and the ID transmitted from the personal computer to the camera 1a is stored in the storage unit 12a of the camera 1a as friend device information. Alternatively, another content recording device 1, which has requested wireless connection to the communication I / F 11 of the camera 1a, for example, the mobile phone 1b, the PDA 1c, sends the genuine password or other connection code issued in advance by the camera 1a to the camera 1a. If transmitted, the ID of the content recording device 1 that sent the genuine connection code is stored in the storage unit 12a of the camera 1a as friend device information.

その他、カメラ1aはメールや人体通信などで他のコンテンツ記録機器1から送られてきたIDのうち操作部20を介して選択された所望のものを友達機器情報として記憶部12aに格納してもよい。メールや人体通信は個人的な通信手段であり、ある程度人間関係が構築されているユーザ間で行われることが推測されるから、友達機器情報の送受信に適している。   In addition, the camera 1a may store the desired ID selected via the operation unit 20 among the IDs sent from the other content recording devices 1 by e-mail or human body communication as friend device information in the storage unit 12a. Good. Since mail and human body communication are personal communication means and are assumed to be performed between users who have established a certain degree of human relationship, they are suitable for sending and receiving friend device information.

友達機器情報は、さらに、個々のコンテンツあるいはその識別情報に対応づけることができる。ただし、ある友達機器情報が個々のコンテンツと対応づけられず記憶部12に格納されていれば、いずれのコンテンツについてもその友達機器情報が対応づけられているとみなす。   The friend device information can further be associated with individual contents or identification information thereof. However, if certain friend device information is stored in the storage unit 12 without being associated with individual contents, it is considered that the friend device information is associated with any content.

ここでは、カメラ1aの記憶部12aには、画像I1に携帯電話1bのID「B」が友達機器情報として対応づけられて格納されており、さらに、画像I3にPDA1cのID「C」が友達機器情報として対応づけられて格納されているものとする。また、携帯電話1bの記憶部12bには、画像I2にカメラ1aのID「A」が友達機器情報として対応づけられて記憶部12に格納されているものとする。なお、PDA1cはカメラ1aや携帯電話1bのIDを友達機器情報として記憶部12bに格納していないため、PDA1cの記録したコンテンツがカメラ1aや携帯電話1bによって共有されることはないが、これらのIDを友達機器情報として記憶部12bに格納すれば、共有は可能である。   Here, in the storage unit 12a of the camera 1a, the ID “B” of the mobile phone 1b is stored in association with the image I1 as friend device information, and the ID “C” of the PDA 1c is stored in the image I3 as a friend. Assume that the device information is stored in association with each other. Further, it is assumed that the ID “A” of the camera 1a is associated with the image I2 as friend device information and stored in the storage unit 12 in the storage unit 12b of the mobile phone 1b. Since the PDA 1c does not store the ID of the camera 1a or the mobile phone 1b in the storage unit 12b as friend device information, the content recorded by the PDA 1c is not shared by the camera 1a or the mobile phone 1b. If the ID is stored in the storage unit 12b as friend device information, sharing is possible.

ただし、友達機器情報は、各コンテンツ記録機器1の記憶部12のローカル情報とする必然性はなく、図示しないサーバに保管され、そのサーバに各コンテンツ記録機器1がアクセスして自己の機器IDに対応する友達機器情報のIDのみを参照できるようにしてもよい。   However, the friend device information is not necessarily local information in the storage unit 12 of each content recording device 1 and is stored in a server (not shown), and each content recording device 1 accesses the server and corresponds to its own device ID. Only the ID of the friend device information to be used may be referred to.

コンテンツの提供元となるコンテンツ記録機器1(共有元機器)の共有有無決定部31は、記憶部12の友達機器情報を参照し、撮像部15によって記録された静止画や動画、あるいは録音部16で記録された音声に加え、それらに付随する情報として操作部20から入力されたり(例えば、撮影者コメント)、情報処理部30によって指定された(例えば操作部20から撮像指示が入力されたときのRTC18の現在時刻情報や位置情報取得部19の位置情報)付帯情報を含むテキストデータを含むコンテンツの共有相手方となるコンテンツ記録機器1(共有先機器)を決定する。そして、共有有無決定部31は、決定された共有先機器に対し、コンテンツを送信するよう通信I/F11を制御する。なお、共有元機器の共有有無決定部31は、共有相手方のコンテンツ記録機器1からのコンテンツ共有の要求を受信してからコンテンツの共有相手方を決定してもよい。   The sharing presence / absence determination unit 31 of the content recording device 1 (share source device) serving as the content provider refers to the friend device information stored in the storage unit 12 and the still image or video recorded by the imaging unit 15 or the recording unit 16. In addition to the voice recorded in the above, when it is input from the operation unit 20 as information accompanying it (for example, a photographer's comment) or specified by the information processing unit 30 (for example, when an imaging instruction is input from the operation unit 20) The content recording device 1 (sharing destination device) to be shared with the content including the text data including the supplementary information) is determined. Then, the sharing presence / absence determining unit 31 controls the communication I / F 11 to transmit the content to the determined sharing destination device. In addition, the sharing presence / absence determining unit 31 of the sharing source device may determine the content sharing partner after receiving the content sharing request from the content recording device 1 of the sharing partner.

例えば、カメラ1aが、撮像部15aを介して画像I1を記録したとする。この場合、共有有無決定部31aは、記憶部12aの画像I1に対応する友達機器情報を参照し、撮像部15aによって記録された画像I1の共有相手方となるコンテンツ記録機器1を決定する。具体的には、共有有無決定部31aは、記憶部12aの画像I1に対応する友達機器情報と同一の機器情報を有するコンテンツ記録機器1、すなわち携帯電話1bを、画像I1の共有相手方に決定する。そして、カメラ1aが通信I/F11aを介して携帯電話1bに画像I1を送信する。画像I1に音声情報や付帯情報が付属していれば、画像I1とともにこれも送る。   For example, it is assumed that the camera 1a has recorded the image I1 via the imaging unit 15a. In this case, the sharing presence / absence determination unit 31a refers to the friend device information corresponding to the image I1 in the storage unit 12a, and determines the content recording device 1 that is the other party to share the image I1 recorded by the imaging unit 15a. Specifically, the sharing presence / absence determination unit 31a determines the content recording device 1 having the same device information as the friend device information corresponding to the image I1 in the storage unit 12a, that is, the mobile phone 1b, as the sharing partner of the image I1. . Then, the camera 1a transmits the image I1 to the mobile phone 1b via the communication I / F 11a. If audio information or incidental information is attached to the image I1, it is sent together with the image I1.

あるいは、携帯電話1bが、撮像部15bを介して画像I2を記録したとする。この場合、共有有無決定部31bは、記憶部12bの画像I2に対応する友達機器情報を参照し、撮像部15bによって記録された画像I2の共有相手方となるコンテンツ記録機器1を決定する。具体的には、共有有無決定部31bは、記憶部12bの画像I1に対応する友達機器情報と同一の機器情報を有するコンテンツ記録機器1、すなわちカメラ1aを、記録された画像I1の共有相手方に決定する。そして、携帯電話1bが通信I/F11bを介してカメラ1aに画像I2を送信する。画像I2に音声情報や付帯情報が付属していれば、画像I2とともにこれも送る。   Alternatively, it is assumed that the mobile phone 1b records the image I2 via the imaging unit 15b. In this case, the sharing presence / absence determination unit 31b refers to the friend device information corresponding to the image I2 in the storage unit 12b, and determines the content recording device 1 to be a sharing partner of the image I2 recorded by the imaging unit 15b. Specifically, the sharing presence / absence determination unit 31b sets the content recording device 1 having the same device information as the friend device information corresponding to the image I1 stored in the storage unit 12b, that is, the camera 1a as the sharing partner of the recorded image I1. decide. Then, the mobile phone 1b transmits the image I2 to the camera 1a via the communication I / F 11b. If audio information or incidental information is attached to the image I2, it is also sent together with the image I2.

あるいは、カメラ1aが、撮像部15aを介して画像I3を記録したとする。この場合、共有有無決定部31aは、記憶部12aの画像I3に対応する友達機器情報を参照し、撮像部15aによって記録された画像I1の共有相手方となるコンテンツ記録機器1を決定する。具体的には、共有有無決定部31aは、記憶部12aの画像I3に対応する友達機器情報と同一の機器情報を有するコンテンツ記録機器1、すなわち携帯電話1bを、画像I3の共有相手方に決定する。そして、カメラ1aが通信I/F11aを介して携帯電話1bに画像I3を送信する。画像I3に音声情報や付帯情報が付属していれば、画像I3とともにこれも送る。なお、画像I1とI3は同じでもよい。この場合、カメラ1aから携帯電話1bとPDC1cの双方に同じ画像I1が送信される。   Alternatively, it is assumed that the camera 1a records the image I3 via the imaging unit 15a. In this case, the sharing presence / absence determination unit 31a refers to the friend device information corresponding to the image I3 in the storage unit 12a, and determines the content recording device 1 to be a sharing partner of the image I1 recorded by the imaging unit 15a. Specifically, the sharing presence / absence determination unit 31a determines the content recording device 1 having the same device information as the friend device information corresponding to the image I3 in the storage unit 12a, that is, the mobile phone 1b, as the sharing partner of the image I3. . Then, the camera 1a transmits the image I3 to the mobile phone 1b via the communication I / F 11a. If audio information or incidental information is attached to the image I3, it is also sent together with the image I3. The images I1 and I3 may be the same. In this case, the same image I1 is transmitted from the camera 1a to both the mobile phone 1b and the PDC 1c.

こうすることで、ユーザ自身が友達と認めた他のユーザの保有するコンテンツ記録機器1だけに自ら記録したコンテンツを共有させることができ、後から手動でいちいちコンテンツを送る操作も省ける。   In this way, the user can share the recorded content only with the content recording device 1 owned by another user who the user himself / herself recognizes as a friend, and the operation of manually sending the content afterwards can be omitted.

なお、画像の送信の態様は各種採用される。例えば、静止画像ファイル、動画ファイル、音声ファイルそのものをダウンロードさせてもよいし、ストリーミング配信のように受信側は再生のみ可能でデータそのものの保存はできないものでもよい。   Various image transmission modes are employed. For example, a still image file, a moving image file, or an audio file itself may be downloaded, or the receiving side may only be able to reproduce but not the data itself, such as streaming distribution.

図4は、本システムの2つ目の利用形態を示す。ここでは、カメラ1a、携帯電話1b、PDC1cなどのコンテンツ記録機器1が本システムを構成する。図3のシステムと同様、各コンテンツ記録機器1は、所望の友達機器情報を記憶部12に格納している。ここでは、カメラ1aの記憶部12aには、携帯電話1bのID「B」とPDA1cのID「C」が友達機器情報として対応づけられて格納されているとする。   FIG. 4 shows a second usage pattern of the present system. Here, the content recording device 1 such as the camera 1a, the mobile phone 1b, and the PDC 1c constitutes this system. Similar to the system of FIG. 3, each content recording device 1 stores desired friend device information in the storage unit 12. Here, it is assumed that the ID “B” of the mobile phone 1b and the ID “C” of the PDA 1c are stored in the storage unit 12a of the camera 1a in association with each other as friend device information.

共有元機器の共有有無決定部31は、記憶部12の友達機器情報を参照し、撮像部15によって記録された静止画や動画、あるいは録音部16で記録された音声、あるいはそれらに付随する情報として操作部20から入力されたり(例えば、撮影者コメント)、情報処理部30によって指定された(例えば操作部20から撮像指示が入力されたときのRTC18の現在時刻情報や位置情報取得部19の位置情報)付帯情報を含むテキストデータを含むコンテンツの共有相手方となるコンテンツ記録機器1を決定する。   The sharing presence / absence determination unit 31 of the sharing source device refers to the friend device information in the storage unit 12, and the still image or moving image recorded by the imaging unit 15, the voice recorded by the recording unit 16, or information accompanying them As input from the operation unit 20 (for example, a photographer's comment) or specified by the information processing unit 30 (for example, the current time information of the RTC 18 when the imaging instruction is input from the operation unit 20 or the position information acquisition unit 19 (Position information) The content recording device 1 to be the other party to share the content including the text data including the accompanying information is determined.

次に、共有元機器の位置チェック部34は、決定された共有先機器に対し、現在位置情報の送信を通信I/F11を介して要求する。共有相手方のコンテンツ記録機器1は、位置情報の送信要求を通信I/F11を介して受信したことに応じ、位置情報取得部19から現在位置情報を取得し、これをコンテンツの提供元となるコンテンツ記録機器1に送信する。   Next, the location check unit 34 of the sharing source device requests the determined sharing destination device to transmit the current location information via the communication I / F 11. The content recording device 1 of the sharing partner acquires the current position information from the position information acquisition unit 19 in response to receiving the position information transmission request via the communication I / F 11, and uses this as the content providing source. Transmit to the recording device 1.

次に、共有元機器の位置チェック部34は、自己の位置情報取得部19から(あるいは記録済みのコンテンツの付帯情報から)、現在位置情報を取得した上、これを共有先機器から受信した現在位置情報と比較する。その比較の結果、両者の間の距離が所定の閾値(例えば5m)未満である場合、共有元機器の共有有無決定部31は、共有先機器にコンテンツを送信するよう通信I/F11を制御する。   Next, the location check unit 34 of the sharing source device acquires the current location information from its own location information acquisition unit 19 (or from the supplementary information of the recorded content), and receives the current location information from the sharing destination device. Compare with location information. As a result of the comparison, when the distance between the two is less than a predetermined threshold (for example, 5 m), the sharing presence / absence determining unit 31 of the sharing source device controls the communication I / F 11 to transmit the content to the sharing destination device. .

図4では、カメラ1aが共有元機器であり、カメラ1aから見て携帯電話1bもPDA1cも共有先機器である。しかし、携帯電話1bはカメラ1aからの距離が所定の閾値の範囲内になく、カメラ1aの記録したコンテンツは携帯電話1bに送信されない。一方、PDA1cはカメラ1aからの距離が所定の閾値の範囲内にあり、カメラ1aの記録したコンテンツはPDA1cに送信される。   In FIG. 4, the camera 1a is a sharing source device, and the mobile phone 1b and the PDA 1c are sharing destination devices as viewed from the camera 1a. However, the distance from the camera 1a to the mobile phone 1b is not within a predetermined threshold range, and the content recorded by the camera 1a is not transmitted to the mobile phone 1b. On the other hand, the PDA 1c has a distance from the camera 1a within a predetermined threshold range, and the content recorded by the camera 1a is transmitted to the PDA 1c.

この結果、共有元機器・共有先機器の双方の現在位置情報同士を比較した結果に応じてコンテンツを送信すると、一緒に旅行に行くなど行動を共にする友達同士が近くにいたときにコンテンツが送信されることになる。また、共有元機器の記録したコンテンツの付帯情報に記録された現在位置情報と、共有先機器の現在位置情報とを比較した結果に応じてコンテンツを送信すると、先にあるユーザが既にコンテンツ記録を行った場所の近くに、そのユーザの友達機器が来たときにコンテンツが送信されることになる。   As a result, when content is sent according to the comparison result of the current location information of both the sharing source device and the sharing destination device, the content is sent when friends who are acting together such as going on a trip are nearby Will be. In addition, when the content is transmitted according to the result of comparing the current position information recorded in the incidental information of the content recorded by the sharing source device and the current position information of the sharing destination device, the previous user has already recorded the content. The content will be sent when the friend device of the user comes near the place where he went.

図5は、本システムの3つ目の利用形態を示す。ここでは、カメラ1a、携帯電話1b、PDC1cなどのコンテンツ記録機器1が本システムを構成する。図3のシステムと同様、各コンテンツ記録機器1は、友達機器情報を記憶部12に格納している。ここでは、カメラ1aの記憶部12aには、PDA1cのID「C」が友達機器情報として格納されているとする。また、PDA1cの記憶部12aには、カメラ1aのID「A」と携帯電話のID「B」が友達機器情報として格納されているとする。   FIG. 5 shows a third usage pattern of the present system. Here, the content recording device 1 such as the camera 1a, the mobile phone 1b, and the PDC 1c constitutes this system. Similar to the system of FIG. 3, each content recording device 1 stores friend device information in the storage unit 12. Here, it is assumed that the ID “C” of the PDA 1c is stored as friend device information in the storage unit 12a of the camera 1a. In addition, it is assumed that the ID “A” of the camera 1a and the ID “B” of the mobile phone are stored as friend device information in the storage unit 12a of the PDA 1c.

共有元機器の共有有無決定部31は、記憶部12の友達機器情報を参照し、撮像部15によって記録された静止画や動画、あるいは録音部16で記録された音声、あるいはそれらに付随する情報として操作部20から入力されたり(例えば、撮影者コメント)、情報処理部30によって指定された(例えば操作部20から撮像指示が入力されたときのRTC18の現在時刻情報や位置情報取得部19の位置情報)付帯情報を含むテキストデータのを含むコンテンツの共有相手方となるコンテンツ記録機器1を決定する。   The sharing presence / absence determination unit 31 of the sharing source device refers to the friend device information in the storage unit 12, and the still image or moving image recorded by the imaging unit 15, the voice recorded by the recording unit 16, or information accompanying them As input from the operation unit 20 (for example, a photographer's comment) or specified by the information processing unit 30 (for example, the current time information of the RTC 18 when the imaging instruction is input from the operation unit 20 or the position information acquisition unit 19 (Position information) The content recording device 1 that is the other party to share the content including the text data including the accompanying information is determined.

次に、共有元機器の位置チェック部34は、決定された共有先機器から、コンテンツ交換の要求を受け付ける。共有相手方のコンテンツ記録機器1は、自己の記録したコンテンツの付帯情報から現在位置情報を取得し、これをコンテンツの提供元となるコンテンツ記録機器1に送信する。   Next, the location check unit 34 of the sharing source device accepts a content exchange request from the determined sharing destination device. The content recording device 1 of the sharing partner acquires the current position information from the incidental information of the content recorded by itself and transmits it to the content recording device 1 that is the content provider.

次に、共有元機器の位置チェック部34は、共有対象となる記録済みのコンテンツの付帯情報から現在位置情報を取得した上、これを共有先機器から受信したコンテンツの付帯情報の現在位置情報と比較する。その比較の結果、両者が一致する場合(あるいは完全に一致しなくても、それが所定の誤差、例えば1mの範囲内である場合)、共有元機器の共有有無決定部31は、共有先機器にコンテンツを送信するよう通信I/F11を制御する。共有先機器の共有有無決定部31は、自己の記録したコンテンツを、コンテンツ交換の要求を受け入れた共有元機器に送信するよう通信I/F11を制御する。これにより、同一の場所で記録されたコンテンツを、友達機器同士で互いに提供し合うことができ、同じ場所で得た思い出を友達同士で共有できる。   Next, the position check unit 34 of the sharing source device acquires the current position information from the incidental information of the recorded content to be shared, and uses this as the current position information of the incidental information of the content received from the sharing destination device. Compare. As a result of the comparison, if the two match (or even if they do not match completely, it is within a predetermined error, for example, within a range of 1 m), the sharing presence / absence determining unit 31 of the sharing source device The communication I / F 11 is controlled so as to transmit the content. The sharing presence / absence determination unit 31 of the sharing destination device controls the communication I / F 11 to transmit the content recorded by itself to the sharing source device that has accepted the content exchange request. Thereby, the content recorded at the same place can be provided to each other between the friend devices, and the memories obtained at the same place can be shared with the friends.

例えば、図5(a)に示すように、カメラ1aが画像I1を記録し、この画像I1の付帯情報には、撮影場所「aaabb」という撮影位置情報、「2008/8/1」という撮影日時情報が記録されているとする。一方、図5(b)に示すように、PDA1cが画像I4を記録し、この画像I4の付帯情報には、撮影場所「aaabb」という撮影位置情報、「2008/9/1」という撮影日時情報が記録されているとする。   For example, as shown in FIG. 5 (a), the camera 1a records an image I1, and the incidental information of the image I1 includes shooting position information “aabbb” and shooting date and time “2008/8/1”. Assume that information is recorded. On the other hand, as shown in FIG. 5 (b), the PDA 1c records an image I4. The incidental information of the image I4 includes shooting position information “aaabb” and shooting date / time information “2008/9/1”. Is recorded.

PDA1cは、共有先機器としてカメラ1aおよび携帯電話1bを決定している。カメラ1aからPDA1cに対し、画像I1およびその付帯情報を添付した画像交換の要求が送信された場合、PDA1cは、これらを受信すると、画像I1の付帯情報の位置情報と、画像I4の付帯情報の位置情報とを比較し、両者が一致するか(あるいは完全に一致しなくても所定の誤差範囲内であるか)否かを判断する。ここでは、両者とも「aaabb」であり、一致するため、PDA1cは、画像交換の要求を許可し、画像I1をカメラ1aに送信し、また、カメラ1aからの画像I4も受け入れる。このコンテンツの交換は、コンテンツ記録機器1同士で実際に互いにコンテンツを送受信し合ってもよいが、コンテンツ記録機器1の間にサーバが介在していれば、そのサーバ内の処理として、共有先機器のIDに対応してサーバに格納されたコンテンツと共有元機器のIDに対応してサーバに格納されたコンテンツとの交換を行ってもよい。   The PDA 1c determines the camera 1a and the mobile phone 1b as the sharing destination devices. When an image exchange request with the image I1 and its accompanying information attached is transmitted from the camera 1a to the PDA 1c, the PDA 1c receives the position information of the accompanying information of the image I1 and the accompanying information of the image I4. The position information is compared, and it is determined whether or not they match (or whether they are within the predetermined error range even if they do not match completely). Here, since both are “aaabb” and match, the PDA 1c permits the image exchange request, transmits the image I1 to the camera 1a, and also accepts the image I4 from the camera 1a. In this content exchange, the content recording devices 1 may actually transmit and receive content to and from each other. However, if a server is interposed between the content recording devices 1, the sharing destination device The content stored in the server corresponding to the ID of the server and the content stored in the server corresponding to the ID of the sharing source device may be exchanged.

こうすれば、互いに同じような場所の近くで記録した画像などのコンテンツを交換できる。   In this way, it is possible to exchange contents such as images recorded near the same place.

図6は、本システムの4つ目の利用形態を示す。ここでは、カメラ1a、PDC1cなどのコンテンツ記録機器1の他、サーバコンピュータなどで構成された外部ストレージ2が本システムを構成する。図3のシステムと同様、各コンテンツ記録機器1は、友達機器情報を記憶部12に格納している。ここでは、外部ストレージ2のデータベースには、カメラ1aからアップロードされた画像I1と、画像I1のアップロード元すなわち共有元機器のID「A」と、画像I1の提供先機器としてカメラ1aから指定されたPDA1cのID「C」が友達機器情報として格納されているとする。また、PDA1cの記憶部12cには、カメラ1aのID「A」友達機器情報として格納されているとする。   FIG. 6 shows a fourth usage pattern of the present system. Here, in addition to the content recording device 1 such as the camera 1a and the PDC 1c, the external storage 2 configured by a server computer or the like constitutes the present system. Similar to the system of FIG. 3, each content recording device 1 stores friend device information in the storage unit 12. Here, in the database of the external storage 2, the image I1 uploaded from the camera 1a, the ID “A” of the upload source of the image I1, that is, the sharing source device, and the destination device of the image I1 are designated from the camera 1a. It is assumed that the ID “C” of the PDA 1c is stored as friend device information. Further, it is assumed that the storage unit 12c of the PDA 1c stores the ID “A” friend device information of the camera 1a.

1つ目〜3つ目の利用形態では、コンテンツ記録機器1自身が友達機器情報もコンテンツも記録し、自分自身でコンテンツを送信していたが、その機能を外部ストレージ2が代行してもよい。すなわち、カメラ1aの記憶部12aには外部ストレージ2のアドレスなどアクセスに必要な情報(アクセス情報)を格納しておき、PDA1cからカメラ1aに対してPDA1cのIDを示した画像共有のコンテンツ共有の要求があった場合、カメラ1aはアクセス情報に従って外部ストレージ2に接続し、PDA1cから受信した共有先機器(PDA1c)のID「C」と自己(共有元機器であるカメラ1a)のID「A」を転送して、共有の可否決定とそれに応じたコンテンツ送信を依頼する。   In the first to third usage forms, the content recording device 1 itself records the friend device information and the content and transmits the content by itself. However, the external storage 2 may substitute the function. . That is, information necessary for access (access information) such as the address of the external storage 2 is stored in the storage unit 12a of the camera 1a, and content sharing for image sharing indicating the ID of the PDA 1c from the PDA 1c to the camera 1a is performed. When requested, the camera 1a connects to the external storage 2 according to the access information, and the ID “C” of the sharing destination device (PDA1c) received from the PDA 1c and the ID “A” of itself (camera 1a that is the sharing source device). To request sharing decision and content transmission accordingly.

外部ストレージ2は当該依頼を受信すると、データベースを参照し、依頼に添付された共有元機器「A」に対応する友達機器IDを抽出する。そして、抽出された友達機器IDと依頼に添付された共有先機器とを照合し、両者が一致すれば、抽出された友達機器IDに対応する画像その他のコンテンツを、当該抽出された友達機器IDを有する共有先機器に送信する。ここでは、PDA1cのID「C」がデータベースから友達機器IDとして抽出されるから、カメラ1aの依頼に添付された共有先機器であるPDA1cのID「C」と一致し、外部ストレージ2からPDA1cに、カメラ1a「A」に対応づけてデータベースに格納されている画像I1が送信される。さらに、2つ目または3つ目の利用形態の共有元機器と同様に、外部ストレージ2が友達機器IDに加えて位置情報同士の照合を行い、両者が一致すれば画像を送ってもよい。   When the external storage 2 receives the request, the external storage 2 refers to the database and extracts the friend device ID corresponding to the sharing source device “A” attached to the request. Then, the extracted friend device ID is compared with the sharing destination device attached to the request, and if the two match, the image or other content corresponding to the extracted friend device ID is displayed as the extracted friend device ID. To the sharing destination device. Here, since the ID “C” of the PDA 1c is extracted as the friend device ID from the database, it matches the ID “C” of the PDA 1c that is the sharing destination device attached to the request of the camera 1a, and is transferred from the external storage 2 to the PDA 1c. The image I1 stored in the database in association with the camera 1a “A” is transmitted. Further, similarly to the sharing source device in the second or third usage mode, the external storage 2 may collate the position information with each other in addition to the friend device ID, and send the images if the two match.

また、詳細は省略するが、画像I1に位置情報を含んだ付帯情報が記憶されており、PDA1cから共有要求に位置情報が含まれていれば、両者の位置の近接度の照合を外部ストレージ2で代行させることで、カメラ1aとPDA1cの近さ、あるいは両者の記録したコンテンツの記録場所の近さに応じて、コンテンツの共有の可否を決定でき、それに応じた外部ストレージ2から共有先機器へのコンテンツの送信を行える。   Although the details are omitted, if the incidental information including the position information is stored in the image I1 and the position information is included in the sharing request from the PDA 1c, the proximity of the positions of the two is compared with the external storage 2. By substituting with, it is possible to determine whether or not the content can be shared according to the proximity of the camera 1a and the PDA 1c, or the proximity of the recording location of the content recorded by both, and the corresponding external storage 2 to the sharing destination device Can be sent.

また、3つ目あるいは4つ目の利用形態において、両コンテンツ記録機器1の記録した位置情報の近接度に、位置情報以外の他のパラメータを基準にした条件を組み合わせ、組み合わせの条件を満たした場合に初めてコンテンツの交換を行ってもよい。   In the third or fourth usage mode, the proximity of the position information recorded by both content recording devices 1 is combined with conditions based on parameters other than the position information, and the combination conditions are satisfied. In this case, content may be exchanged for the first time.

例えば、図7に示すように、共有先機器・共有元機器の記録した画像の撮影位置情報の差D(両位置の遠近)に、共有先機器・共有元機器の記録した画像の撮影枚数の差の絶対値N(両枚数の大小)を基準にした条件を組み合わせる。ここで、撮影位置の差の閾値をD0、撮影枚数の差の絶対値の閾値をN0とする。D0やN0は任意に設定されるが、例えばD0=5m、N0=10枚である。位置チェック部34は、DとD0の大小の比較を行い、枚数チェック部33は、NとN0の大小の比較を行う。   For example, as shown in FIG. 7, the difference D (the distance between both positions) between the shooting position information of the images recorded by the sharing destination device and the sharing source device indicates the number of shots of the images recorded by the sharing destination device and the sharing source device. The conditions based on the absolute value N of the difference (the size of both sheets) are combined. Here, the threshold value for the difference between the shooting positions is D0, and the threshold value for the absolute value of the difference in the number of shots is N0. D0 and N0 are arbitrarily set. For example, D0 = 5 m and N0 = 10. The position check unit 34 compares D and D0, and the sheet number check unit 33 compares N and N0.

共有元機器は、記憶部12に格納された図7の共有条件マトリクスに従い、共有の可否を決定する。すなわち、D<D0かつN<N0(条件R1)であれば、共有する。これは、共有先機器・共有元機器のユーザは互いに近いところで撮影を行っており、一緒に行動していると考えられるから、枚数の差の大小にかかわらず似たような写真を別々に撮る無駄を省ける。   The sharing source device determines whether sharing is possible according to the sharing condition matrix of FIG. 7 stored in the storage unit 12. That is, if D <D0 and N <N0 (condition R1), they are shared. This is because the users of the sharing destination device and the sharing source device are shooting close to each other and acting together, so take similar photos separately regardless of the size difference Save waste.

D<D0かつN≧N0(条件R2)であれば、共有する。これは、共有先機器・共有元機器のユーザは互いに近いところで撮影を行っており、一緒に行動していると考えられるから、似たような写真を別々に撮る無駄を省けるからである。   If D <D0 and N ≧ N0 (condition R2), share. This is because the users of the sharing destination device and the sharing source device are shooting close to each other and acting together, thereby eliminating the need to take similar pictures separately.

D≧D0かつN<N0(条件R3)であれば、共有しない。これは、共有先機器・共有元機器のユーザは互いに離れたところで撮影を行っており、別々に行動しているから、ある程度互いの撮影枚数がたまってから共有させる方が効率的だからである。   If D ≧ D0 and N <N0 (condition R3), they are not shared. This is because the users of the sharing destination device and the sharing source device take pictures at a distance from each other and act separately, so that it is more efficient to share after the number of shots of each other has accumulated to some extent.

D≧D0かつN≧N0(条件R4)であれば、共有する。これは、共有先機器・共有元機器のユーザは互いに離れたところで撮影を行っているが、どちらか一方の撮影枚数が大幅に他方を上回っており、そのような沢山撮影を行ったユーザの関心の高さを示す以上、その友達のユーザにも共有させることで高い興味対象を共有できるからである。   If D ≧ D0 and N ≧ N0 (condition R4), they are shared. This is because the users of the sharing destination device and the sharing source device are shooting at a distance from each other, but the number of shots of either one is significantly greater than the other, and the interest of the user who has taken such a lot of shooting This is because a high interest can be shared by sharing with a friend's user.

なお、N0=∞とすれば、単純に撮影場所の遠近だけで(条件R1/R3だけで)共有する・しないが決まる図4と同様となる。図7のマトリクスは一例に過ぎず、どの条件の組み合わせを共有する/しないに結び付けるかは任意に設定しうる。共有元機器の操作部20からマトリクスの内容を任意に設定できてもよい。   If N0 = ∞, it is the same as in FIG. 4 in which sharing / not sharing is determined only by the distance from the shooting location (only by the condition R1 / R3). The matrix in FIG. 7 is merely an example, and it is possible to arbitrarily set which combination of conditions is linked to sharing / not sharing. The contents of the matrix may be arbitrarily set from the operation unit 20 of the sharing source device.

あるいは、5つ目の利用形態として、共有元機器のタイミングチェック部35が、共有先機器・共有元機器の記録したコンテンツの撮影日時情報、録音日時情報その他の記録日時を比較し、両者が同一か、その誤差が所定の値未満(例えば5分未満)であれば共有すると決定し、誤差が所定の値以上であれば共有しないと決定する。こうすると、自分がコンテンツを記録したときに友達がどこで何をしているのかを共有されたコンテンツから把握できる。共有先機器は、同じ時間に記録されたコンテンツ同士を関連づけて再生してもよい。例えば、共有先機器は、共有元機器から受信した画像と、その画像の付帯情報に記録された記録日時と同一の記録日時で記録した画像とを並列して表示部13に表示してもよい。   Alternatively, as a fifth usage mode, the timing check unit 35 of the sharing source device compares the shooting date / time information, the recording date / time information and other recording dates / times of the content recorded by the sharing destination device / share source device, and both are the same. If the error is less than a predetermined value (for example, less than 5 minutes), it is determined to be shared, and if the error is equal to or greater than a predetermined value, it is determined not to be shared. In this way, it is possible to grasp from the shared content where and what the friend is doing when the content is recorded. The sharing destination device may reproduce the content recorded at the same time in association with each other. For example, the sharing destination device may display the image received from the sharing source device and the image recorded at the same recording date and time as the recording date and time recorded in the supplementary information of the image on the display unit 13 in parallel. .

また、6つ目の利用形態として、共有元機器の撮影した画像の撮影範囲内に共有先機器が含まれている場合、その画像を共有先機器に送信する。   Further, as a sixth usage mode, when the sharing destination device is included in the shooting range of the image taken by the sharing source device, the image is transmitted to the sharing destination device.

ユーザが友達と画像を共有するかどうかを決める際に、その友達がその画像に写っているかどうかは重要な判断基準の1つである。よって、例えば、コンピュータでこのような判断を自動的にすれば、その友達の顔がその画像から検出されたか否かに応じて共有する/しないを決定できると考えられる。しかし、例えば、図8に示すように、友達を被写体SB1として撮影した画像が小さすぎて、その友達SB1の顔を検出できなかったり、あるいは友達とは無関係の人物被写体SB2を友達SB1の顔として誤認識してしまうと、共有すべき画像が共有されなかったり、あるいは共有しなくてもよい画像が共有される問題が起きる。あるいは、図9に示すように、友達の被写体SB3が画像に入っていても、それが正面を向いていなければ顔検出ができず、この画像は共有されない。   When a user decides whether or not to share an image with a friend, whether or not the friend is reflected in the image is one of important judgment criteria. Thus, for example, if such a determination is automatically made by a computer, it can be determined whether to share or not to share depending on whether or not the face of the friend is detected from the image. However, for example, as shown in FIG. 8, the image of a friend photographed as the subject SB1 is too small to detect the face of the friend SB1, or the person subject SB2 unrelated to the friend is the face of the friend SB1. If it is misrecognized, there arises a problem that an image to be shared is not shared or an image that may not be shared is shared. Alternatively, as shown in FIG. 9, even if a friend's subject SB3 is included in the image, face detection cannot be performed unless the subject SB3 faces the front, and the image is not shared.

そこで、共有先機器は、共有先機器の位置情報と、共有元機器の撮影画角とを比較し、当該撮影画角内に共有先機器がある場合は、当該撮影画角で撮影された画像を共有先機器共有する。   Therefore, the sharing destination device compares the position information of the sharing destination device with the shooting angle of view of the sharing source device, and if the sharing destination device is within the shooting angle of view, the image shot at the shooting angle of view. Share the destination device.

具体的には、例えば、共有元機器1−Yは、撮像部15−Yによる撮像開始に先立ち、共有先機器と通信し、共有先機器の位置情報を取得する。共有元機器は、撮影方向を検出する装置、例えば地磁気を検出する電子コンパスや、共有元機器内の異なる位置に設置された複数のGPS受信機から取得した位置情報の差異に基づいて撮影方向を推定する装置を有している。   Specifically, for example, the sharing source device 1-Y communicates with the sharing destination device prior to the start of imaging by the imaging unit 15-Y, and acquires position information of the sharing destination device. The sharing source device determines the shooting direction based on a difference in position information acquired from a device that detects the shooting direction, for example, an electronic compass that detects geomagnetism, or a plurality of GPS receivers installed at different positions in the sharing source device. It has an estimation device.

次に、共有元機器1−Yは、自己の位置情報と撮像方向と共有先機器1−Xの位置情報とに基づき、共有先機器1−Xが自己の撮像部15−Yの撮像範囲に入っているか否かを判断する。これは、図10に示すように、撮像方向から光軸lの向きを決め、その光軸を基準にした画角θ(厳密には、画角は仰角と方位角の2種類がある)に基づいて、撮影範囲Rを決める。そして、共有元機器1−Yの撮影範囲Rに共有先機器1−Xの位置情報Pが含まれているか否かを判断し、撮影範囲Rに位置情報Pが含まれていれば、共有先機器1−Xが自己の撮像部15−Yの撮像範囲に入っていると判断する。なお、公知のように、撮像部15−Yのズームレンズのズーミング量に応じて撮像用レンズの焦点距離も変わり、撮像用レンズの画角θも変化して撮像範囲も変化する。   Next, the sharing source device 1-Y has the image capturing range of the image capturing unit 15-Y of the own image capturing unit 15-Y based on the own position information, the imaging direction, and the position information of the sharing destination device 1-X. Judge whether it is in or not. As shown in FIG. 10, the direction of the optical axis l is determined from the imaging direction, and the angle of view θ is based on the optical axis (strictly speaking, there are two types of angle of view: elevation angle and azimuth angle). Based on this, the photographing range R is determined. Then, it is determined whether or not the position information P of the sharing destination device 1-X is included in the shooting range R of the sharing source device 1-Y, and if the position information P is included in the shooting range R, the sharing destination It is determined that the device 1-X is within the imaging range of its own imaging unit 15-Y. As is well known, the focal length of the imaging lens changes according to the zooming amount of the zoom lens of the imaging unit 15-Y, the angle of view θ of the imaging lens also changes, and the imaging range also changes.

そして、その撮影範囲Rに位置情報Pを有する共有先機器1−Xの位置情報を示す映像をOSD回路40−Yによって生成し、撮像部15−Yが定期的に出力するスルー画に重畳して表示部13−Yに表示してもよい。   Then, an image showing the position information of the sharing destination device 1-X having the position information P in the shooting range R is generated by the OSD circuit 40-Y, and is superimposed on the through image periodically output by the imaging unit 15-Y. May be displayed on the display unit 13-Y.

図11はスルー画の一例である。表示部13に表示されたスルー画には、2人の被写体SB4およびSB5が写っており、被写体SB4の位置に共有先機器1−Xの位置情報があるとする。   FIG. 11 is an example of a through image. Assume that the through image displayed on the display unit 13 includes two subjects SB4 and SB5, and the location information of the sharing destination device 1-X is located at the location of the subject SB4.

この場合、その共有先機器1−Xの位置情報を表示部13−Yに表示すれば、友達が撮影範囲内に入っていることを撮影者が認識でき好都合である。共有先機器の位置情報の表示形態は何でもよい。   In this case, if the position information of the sharing destination device 1-X is displayed on the display unit 13-Y, it is convenient for the photographer to recognize that the friend is within the photographing range. The display form of the location information of the sharing destination device may be anything.

例えば、図12に示すように、共有先機器1−Xの位置情報に最も近接する人物被写体をスルー画から検出し、その人物被写体を囲む枠Fや、あるいはその人物被写体を覆う網かけなど、その検出された人物被写体が友達であることを識別させる映像(友達識別映像)をOSD回路40−Yによって生成し、スルー画に合成し、表示部13−Yに表示する。人物被写体の検出の方法は公知のもの(エッジ検出など)を用いればよい。   For example, as shown in FIG. 12, the person subject closest to the position information of the sharing destination device 1-X is detected from the through image, and the frame F surrounding the person subject or the shading covering the person subject, etc. A video (friend identification video) for identifying that the detected human subject is a friend is generated by the OSD circuit 40-Y, combined with the through image, and displayed on the display unit 13-Y. A known method (such as edge detection) may be used as a method for detecting a human subject.

あるいは、図13に示すように、共有先機器1−Xを示すアイコンやマークなどのグラフィックGをOSD回路40−Yによって生成し、共有先機器1−Xの位置情報に対応するスルー画上の座標に、このグラフィックGを合成し、表示部13−Yに表示する。   Alternatively, as illustrated in FIG. 13, a graphic G such as an icon or a mark indicating the sharing destination device 1 -X is generated by the OSD circuit 40 -Y, and on the through image corresponding to the position information of the sharing destination device 1 -X. This graphic G is synthesized with the coordinates and displayed on the display unit 13-Y.

共有元機器に、友達機器情報が複数登録されており、かつこの複数の友達機器情報に対応する複数のコンテンツ記録機器1が撮影範囲に含まれている場合、共有元機器からどのコンテンツ記録機器1を共有先機器にするかを操作部20から選択できてもよい。   When a plurality of friend device information are registered in the sharing source device and a plurality of content recording devices 1 corresponding to the plurality of friend device information are included in the shooting range, which content recording device 1 from the sharing source device It may be possible to select from the operation unit 20 whether to be a sharing destination device.

例えば、図14に示すように、共有元機器の表示部13には、共有元機器の記憶部12に登録された友達機器情報に対応するコンテンツ記録機器1のうち、共有元機器の撮影範囲に含まれる全てのコンテンツ記録機器1の位置情報に応じた友達識別映像F1、F2、F3を表示させる。   For example, as shown in FIG. 14, the display unit 13 of the sharing source device includes the shooting range of the sharing source device among the content recording devices 1 corresponding to the friend device information registered in the storage unit 12 of the sharing source device. Friend identification videos F1, F2, and F3 corresponding to the position information of all the content recording devices 1 included are displayed.

操作部20の1つとして、表示部13に積層したタッチパネルを用意しておき、友達識別映像F1、F2、F3のうち所望のものの表示部分のタッチがされたことを当該タッチパネルで検出すると、共有有無決定部31は、タッチされた表示部分に対応する位置情報を送ってきたコンテンツ記録機器1を、共有先機器に決定し、記憶部12にある所望のコンテンツのダウンロードをその決定された共有先機器に許可する。   As one of the operation units 20, a touch panel laminated on the display unit 13 is prepared, and when the touch panel detects that a desired display portion of the friend identification images F1, F2, and F3 is touched, the touch panel is shared. The presence / absence determination unit 31 determines the content recording device 1 that has sent the position information corresponding to the touched display portion as a sharing destination device, and downloads the desired content in the storage unit 12 to the determined sharing destination Allow to equipment.

7つ目の利用形態として、2つのコンテンツ記録機器1の記録した画像の関連性に応じて、画像を共有する。   As a seventh usage mode, images are shared according to the relevance of images recorded by the two content recording devices 1.

例えば、図15に示すような撮影シーンで、あるコンテンツ記録機器1−Aが画像X1とX2とX3を撮影したとする。また、コンテンツ記録機器1−Aには、友達機器情報としてコンテンツ記録機器1−Bが登録されているとする。   For example, it is assumed that a content recording device 1-A captures images X1, X2, and X3 in a shooting scene as shown in FIG. In addition, it is assumed that the content recording device 1-B is registered as friend device information in the content recording device 1-A.

この場合、1つ目の利用形態と同様、コンテンツ記録機器1−Aは、登録された友達機器情報に応じてコンテンツ記録機器1−Bを共有先機器と決定し、画像X1とX2とX3をコンテンツ記録機器1−Bに送信する。コンテンツ記録機器1−Bは、画像X1とX2とX3を受信して、記憶部12に格納する。コンテンツ記録機器1−Bがコンテンツ記録機器1−Aから受信した画像X1、X2、X3を共有候補画像と呼ぶ。共有候補画像は、後述のチェック画像との照合にのみ用いられ、共有先機器が自由に表示や記憶することはできないものとするが、共有元機器が共有先機器に共有候補画像の完全な共有を許可すれば、それが可能となる。   In this case, as in the first usage pattern, the content recording device 1-A determines that the content recording device 1-B is a sharing destination device according to the registered friend device information, and selects the images X1, X2, and X3. Transmit to the content recording device 1-B. The content recording device 1-B receives the images X1, X2, and X3 and stores them in the storage unit 12. The images X1, X2, and X3 received by the content recording device 1-B from the content recording device 1-A are referred to as sharing candidate images. The sharing candidate image is used only for collation with a check image described later, and the sharing destination device cannot be freely displayed or stored, but the sharing source device completely shares the sharing candidate image with the sharing destination device. If you allow it, it will be possible.

コンテンツ記録機器1−Bは、操作部20から撮影モードが設定されたことに応じ、撮像部15によって継続的に出力されるスルー画を表示部13に表示する。このとき、画像合成可能有無チェック部36は、撮像部15から得られたスルー画から所定のタイミングで(好ましくはスルー画の出力周期と同じタイミングであるが、処理の負担を軽減するためにそれ以上の周期でもよい)、画像を取得する。この画像をチェック画像と呼ぶ。   The content recording device 1 -B displays a through image continuously output by the imaging unit 15 on the display unit 13 in response to the setting of the shooting mode from the operation unit 20. At this time, the image composition enable / disable check unit 36 at a predetermined timing from the through image obtained from the imaging unit 15 (preferably at the same timing as the through image output cycle, but in order to reduce the processing load, The above period may be used) to acquire an image. This image is called a check image.

コンテンツ記録機器1−Bの画像合成可能有無チェック部36−Bは、チェック画像と共有候補画像とを照合し、重複する画素領域があるか否かを判断する。これは、周知のパノラマ画像の合成の際の重複画素の判断と同様にすればよい。画像合成可能有無チェック部36は、重複する画素領域がある場合、その旨を通信I/F11を介してコンテンツ記録機器1−Aに通知し、共有候補画像の完全な共有の許可を要求する。この要求に応じて、コンテンツ記録機器1−Aの画像合成可能有無チェック部36−Aは、コンテンツ記録機器1−Bに対し、共有候補画像の表示を許可する旨の通知を送信する。この通知を受信したコンテンツ記録機器1−Bの画像合成可能有無チェック部36−Bは、共有候補画像を共有画像に設定し、OSD回路40によって共有画像とチェック画像との重複領域を示す映像を生成し、チェック画像に合成する。   The image composition possibility check unit 36-B of the content recording device 1-B collates the check image with the sharing candidate image and determines whether there is an overlapping pixel region. This may be performed in the same manner as the determination of overlapping pixels when a known panoramic image is synthesized. If there is an overlapping pixel area, the image composition possibility check unit 36 notifies the content recording device 1-A via the communication I / F 11 and requests permission for complete sharing of the sharing candidate image. In response to this request, the image compositing availability check unit 36-A of the content recording device 1-A transmits to the content recording device 1-B a notification that the display of the sharing candidate image is permitted. The image compositability check unit 36-B of the content recording device 1-B that has received the notification sets the share candidate image as a shared image, and the OSD circuit 40 displays a video indicating an overlapping area between the shared image and the check image. Generate and combine it with the check image.

なお、上記とは逆に、コンテンツ記録機器1−Bからチェック画像をコンテンツ記録機器1−Aに送って、コンテンツ記録機器1−Aがチェック画像と共有候補画像とを照合し、重複する画素領域がある場合は共有候補画像を共有画像としてコンテンツ記録機器1−Bに送ってもよい。こうすれば、共有が許可されなかった共有候補画像というものがそもそも存在しなくなり、意図しない画像の不正使用が防げる。   Contrary to the above, a check image is sent from the content recording device 1-B to the content recording device 1-A, and the content recording device 1-A collates the check image with the sharing candidate image, thereby overlapping pixel regions. If there is, the sharing candidate image may be sent to the content recording device 1-B as a shared image. In this way, there is no sharing candidate image that is not permitted to be shared, and unintentional unauthorized use of the image can be prevented.

図16では、スルー画のうち共有候補画像X1、X2、X3に相当する領域が点線の枠の映像で示されている。   In FIG. 16, regions corresponding to the share candidate images X1, X2, and X3 in the through image are indicated by a dotted frame image.

あるいは、スルー画と共有画像とを用いて撮影シーン全体の概観を示すこともできる。   Alternatively, an overview of the entire photographic scene can be shown using the through image and the shared image.

例えば、図17(a)に示すような画像X4をコンテンツ記録機器1−Aが記録し、図17(b)に示すような画像X5をコンテンツ記録機器1−Bがスルー画として取得したとする。これらの画像は、互いに画素が重複する領域ORを有している。上記と同様、コンテンツ記録機器1−Bが重複がある旨をコンテンツ記録機器1−Aに通知し、これに応じてコンテンツ記録機器1−Aは許可を送ることで、画像X5は、共有画像としてコンテンツ記録機器1−Aからコンテンツ記録機器1−Bへ送信される。   For example, it is assumed that the content recording device 1-A records the image X4 as shown in FIG. 17A and the content recording device 1-B acquires the image X5 as shown in FIG. 17B as a through image. . These images have an area OR in which pixels overlap each other. As described above, the content recording device 1-B notifies the content recording device 1-A that there is an overlap, and in response to this, the content recording device 1-A sends permission, so that the image X5 becomes a shared image. It is transmitted from the content recording device 1-A to the content recording device 1-B.

コンテンツ記録機器1−Bの画像合成可能有無チェック部36は、受信した画像X4とスルー画との重複領域ORを検出し、画像X4とX5の領域OR同士を重ね合わせることでパノラマ画像Wを作成し、パノラマ画像Wを13に表示する。   The image compositability check unit 36 of the content recording device 1-B detects an overlapping area OR between the received image X4 and the through image, and creates a panoramic image W by superimposing the areas OR of the images X4 and X5. Then, the panorama image W is displayed on 13.

図18は、画像X4・X5を重ね合わせたパノラマ画像Wの一例を示している。パノラマ画像Wは、表示部13に既に表示されているスルー画のポップアップ画面として示すと、現在の撮影範囲と友達からもらった共有画像の重複部分との関係が比較でき便利である。ただし、パノラマ画像Wだけを表示部13に表示してもよい。   FIG. 18 shows an example of a panoramic image W in which the images X4 and X5 are superimposed. When the panoramic image W is shown as a pop-up screen of a through image already displayed on the display unit 13, it is convenient to compare the relationship between the current shooting range and the overlapping portion of the shared image received from a friend. However, only the panoramic image W may be displayed on the display unit 13.

なお、図示した画像X1、X2、X3、X4、X5の位置や構図は例示に過ぎず、図示されたものに限定されない。また、共有画像が2つ以下でも同様の処理が可能である。また、共有画像との重複を比較する画像(例えば上記の画像X5)はスルー画でなく記録済みの画像でもよい。   The positions and compositions of the illustrated images X1, X2, X3, X4, and X5 are merely examples, and are not limited to those illustrated. The same processing can be performed with two or less shared images. In addition, the image to be compared with the shared image (for example, the image X5 described above) may be a recorded image instead of a through image.

図19は本システムで実行されるコンテンツ共有処理のフローチャートを示す。この処理は、コンテンツ記録機器1(共有元機器)のCPU30が実行を制御する。この処理を規定するプログラムは共有元機器の記憶部12に記憶されている。この処理は、上記の利用形態を総合した内容である。   FIG. 19 shows a flowchart of content sharing processing executed in the present system. This process is controlled by the CPU 30 of the content recording device 1 (share source device). A program defining this processing is stored in the storage unit 12 of the sharing source device. This process is a content that combines the above-described usage forms.

S0では、操作部20への撮像指示入力に応じた撮像部15による静止画や動画の撮像、あるいは操作部20への録音指示入力に応じた録音部16による録音を行い、得られたコンテンツを記憶部12に格納する。同時に、RTC18から出力された記録日時情報、位置情報取得部19から出力された記録位置情報、その他CPU30が指定したRAMの情報(焦点距離、絞り値、シャッタスピード、コメントなど)を、コンテンツの付帯情報として、コンテンツを本体データとするファイルのヘッダやメタデータやタグ情報として記憶部12に格納する。ただし、両者が識別情報などで関連づけられていれば、別々のデータとして記憶してもよい。   In S0, a still image or a moving image is captured by the imaging unit 15 in response to an imaging instruction input to the operation unit 20, or a recording is performed by the recording unit 16 in response to a recording instruction input to the operation unit 20, and the obtained content is recorded. Store in the storage unit 12. At the same time, the recording date and time information output from the RTC 18, the recording position information output from the position information acquisition unit 19, and other RAM information (focal length, aperture value, shutter speed, comment, etc.) designated by the CPU 30 are added to the content. Information is stored in the storage unit 12 as header, metadata, or tag information of a file whose content is main body data. However, as long as both are related by identification information etc., you may memorize | store as separate data.

S1では、ユーザ情報登録部32が、操作部20、通信I/F11、あるいは可搬性記録媒体などを介して入力された友達機器のIDを記憶部12に登録する。共有有無決定部31は、登録された友達機器のIDを有するコンテンツ記録機器1、すなわち共有先機器から、当該共有先機器の記録したコンテンツの記録日時情報、記録位置情報、総コンテンツ記録数を取得する。ただし、共有先機器においても、S0と同様コンテンツの記録処理が行われていなければならない。   In S <b> 1, the user information registration unit 32 registers the ID of the friend device input via the operation unit 20, the communication I / F 11, or a portable recording medium in the storage unit 12. The sharing presence / absence determination unit 31 acquires the recording date / time information, the recording position information, and the total number of recorded contents of the content recorded by the sharing destination device from the content recording device 1 having the registered ID of the friend device, that is, the sharing destination device. To do. However, in the sharing destination device, the content recording process must be performed as in S0.

S2では、位置チェック部34が、自己の記憶部12に格納されたコンテンツの付帯情報の記録位置情報と、共有先機器から取得した記録位置情報とを比較し、両者の差異が所定の誤差範囲内にあり実質的に同一であるか否かを判断する。Yesの場合はS3、Noの場合はS5に進む。   In S2, the position check unit 34 compares the recording position information of the incidental information of the content stored in its own storage unit 12 with the recording position information acquired from the sharing destination device, and the difference between the two is within a predetermined error range. It is determined whether or not they are substantially the same. If yes, go to S3, if no, go to S5.

S3では、枚数チェック部33が、共有元機器の記憶部12に格納された総コンテンツ数と、共有先機器から取得した総コンテンツ記録数とを比較し、両者の差の絶対値が所定の閾値以上であるか否かを判断する。Yesの場合はS6、Noの場合はS4に進む。なお、枚数とは、静止画の数に限らず、動画の数でも、音声ファイルの数でもよい。   In S3, the number check unit 33 compares the total number of contents stored in the storage unit 12 of the sharing source device with the total number of content recordings acquired from the sharing destination device, and the absolute value of the difference between them is a predetermined threshold value. It is determined whether this is the case. If Yes, the process proceeds to S6. If No, the process proceeds to S4. The number of images is not limited to the number of still images, and may be the number of moving images or the number of audio files.

S4では、共有先機器の画像合成可能有無チェック部36が、共有候補画像とスルー画あるいは記録済み画像の重複領域の有無を判断する。そして、共有先機器の画像合成可能有無チェック部36が、判断に応じて、共有の許可の要求を送信する。共有元機器のタイミングチェック部35は、共有の許可の要求を受信したか否かを判断する。Yesの場合はS6、Noの場合はS5に進む。   In S4, the image composition possibility check unit 36 of the sharing destination device determines whether or not there is an overlapping area between the share candidate image and the through image or the recorded image. Then, the image compositability check unit 36 of the sharing destination device transmits a sharing permission request according to the determination. The timing check unit 35 of the sharing source device determines whether or not a sharing permission request has been received. If yes, go to S6, if no, go to S5.

S5では、タイミングチェック部35が、自己の記憶部12に格納されたコンテンツの付帯情報の記録日時情報と、共有先機器から取得した記録日時情報とを比較し、両者の差異が所定の範囲内にあるか否かを判断する。Yesの場合はS3、Noの場合はS5に進む。なお、双方の記録日時情報の全て(年月日分秒)が一致することは稀であるから、どの部分の一致を判断するかを予め操作部20から設定可能にしてもよい。例えば、年同士、月同士、日同士、年および月同士、年および月および日同士のいずれかのパラメータを比較してその一致を判断する。   In S5, the timing check unit 35 compares the recording date / time information of the supplementary information of the content stored in its own storage unit 12 with the recording date / time information acquired from the sharing destination device, and the difference between the two is within a predetermined range. It is judged whether it is in. If yes, go to S3, if no, go to S5. Since it is rare that all of the recording date / time information (year / month / day / minute / second) matches, it may be possible to set in advance from the operation unit 20 which part is determined to match. For example, the parameters are determined by comparing parameters of years, months, days, years and months, years, months and days.

S6では、共有元機器から共有先機器にコンテンツを送る。上述のように共有先が複数ある場合は、その中から所望のものを選択させて選択された機器だけにコンテンツを送る。なお、S4でYesと判断されてS6に進んだ場合は、共有の許可を送信する。   In S6, the content is sent from the sharing source device to the sharing destination device. As described above, when there are a plurality of sharing destinations, a desired one is selected from them and the content is sent only to the selected device. If it is determined Yes in S4 and the process proceeds to S6, a sharing permission is transmitted.

S7では、共有元機器から共有先機器にコンテンツを送らない。なお、S4・S5でNoと判断されてS7に進んだ場合は、共有の許可を送信しない。   In S7, content is not sent from the sharing source device to the sharing destination device. If it is determined No in S4 and S5 and the process proceeds to S7, sharing permission is not transmitted.

なお、S4を除いて、共有先機器の記録したコンテンツの種類と共有先機器の記録したコンテンツの種類は同じでも異なってもよい。例えば、一方の記録したコンテンツが静止画、他方が音声であったり、一方が静止画、他方が動画であったり、一方が動画、他方が音声であったり、あるいは双方とも静止画、音声、動画である場合のいずれでもよい。もっとも、共有内容を単純化するには、双方とも同じ種類のコンテンツを取得した場合に限って共有してもよい。   Except for S4, the type of content recorded by the sharing destination device and the type of content recorded by the sharing destination device may be the same or different. For example, one recorded content is still image, the other is audio, one is still image, the other is video, one is video, the other is audio, or both are still images, audio, video Any of the cases may be used. However, in order to simplify the shared contents, both may share only when the same type of contents is acquired.

また、S2、S3、S4、S5の判断は、論理和または論理積として任意に組み合わせることができる。例えば、図19では、S5でYesならばS6に進むとしているが、S5でYesとなりかつS3と同様の判断を行ってYesならば(論理和)S6に進むとしてもよく、図示の判断分岐は例示に過ぎない。   The determinations of S2, S3, S4, and S5 can be arbitrarily combined as a logical sum or a logical product. For example, in FIG. 19, if Yes in S5, the process proceeds to S6. However, if Yes in S5 and the same determination as in S3 is performed (Yes), the process may proceed to S6. It is only an example.

<その他の実施形態>
共有先機器は、自己が共有元機器になる場合を除いて、撮像部15や録音部16を有している必要はない。また、共有先機器でコンテンツの表示や拡声などの再生をしない場合は、表示部13や音声処理回路17を有している必要はない。例えば、図6のような外部ストレージ2がその一例である。
<Other embodiments>
The sharing destination device does not need to include the imaging unit 15 and the recording unit 16 except when the sharing destination device is the sharing source device. Further, when the shared device does not display content or reproduce sound, it is not necessary to have the display unit 13 or the audio processing circuit 17. For example, the external storage 2 as shown in FIG. 6 is an example.

さらに、コンテンツ記録機器1同士が直接接続されていなくてもよく、例えば図20に示すように、外部ストレージ2を介して、共有元機器であるカメラ1aと、共有先機器であるPDA1cとが接続され、カメラ1aから一旦外部ストレージ2にアップロードされた共有画像がPDA1cにダウンロードされて画像の閲覧や音声再生など様々な利用に供されるようにしてもよい。   Furthermore, the content recording devices 1 do not have to be directly connected to each other. For example, as shown in FIG. 20, a camera 1a that is a sharing source device and a PDA 1c that is a sharing destination device are connected via an external storage 2. Then, the shared image once uploaded to the external storage 2 from the camera 1a may be downloaded to the PDA 1c and used for various uses such as image browsing and audio reproduction.

また、共有有無決定部31、ユーザ情報登録部32、枚数チェック部33、位置チェック部34、タイミングチェック部35、画像合成可能有無チェック部36が実行する処理の内容は、コンテンツの記録とは直接関係ないため、コンテンツ記録機器1以外の一般的なコンピュータ、例えば外部ストレージ2の情報処理装置(CPUとRAMその他のその周辺機器)でも実行できる。   The contents of the processes executed by the sharing presence / absence determination unit 31, the user information registration unit 32, the number check unit 33, the position check unit 34, the timing check unit 35, and the image composition possibility check unit 36 are directly related to content recording. Since it is not related, it can be executed by a general computer other than the content recording device 1, for example, an information processing device (CPU and RAM or other peripheral devices) of the external storage 2.

また、上記の実施形態では、共有先機器から取得したコンテンツの記録位置情報や記録時間情報などの状況情報と、共有元機器のコンテンツの記録位置情報や記録時間情報などの状況情報とを比較し、両者が一致すれば共有を行っていた。しかし、この状況情報には、記録位置情報や記録時間情報の他、共有元機器のコンテンツに共有先機器からアクセスやダウンロードや実際の再生(画像やテキストならば共有先機器の表示部13での表示、音声ならば共有先機器の音声処理回路17での再生)があったときにRTC18の出力した現在時刻情報や、位置情報取得部19の出力した現在位置情報を含めることもできる。共有元機器あるいは共有先機器の情報処理部30は、自己のコンテンツに共有先機器からアクセスや実際のダウンロードがあったとき、上記の現在時刻情報や現在位置情報を、当該コンテンツの付帯情報として記録しておけば、他の機器から取得した状況情報との照合と、照合に応じた当該コンテンツの共有の可否を決定することができる。   In the above embodiment, the status information such as the recording position information and recording time information of the content acquired from the sharing destination device is compared with the status information such as the recording position information and recording time information of the content of the sharing source device. If the two match, they were sharing. However, in this situation information, in addition to recording position information and recording time information, the content of the sharing source device is accessed from the sharing destination device, downloaded or actually played back (if it is an image or text, it is displayed on the display unit 13 of the sharing destination device. It is also possible to include the current time information output from the RTC 18 or the current position information output from the position information acquisition unit 19 when there is a display or sound (reproduction in the sound processing circuit 17 of the sharing destination device). The information processing unit 30 of the sharing source device or the sharing destination device records the current time information and the current position information as incidental information of the content when the content is accessed or actually downloaded from the sharing destination device. By doing so, it is possible to determine whether or not to collate with the status information acquired from another device and to share the content according to the collation.

このように、コンテンツ記録時の付帯情報の他、コンテンツ共有時や閲覧時に記録された付帯情報の照合結果に応じてコンテンツを共有すれば、誰かと一緒に見たり聞いたり共有したりしていたコンテンツを、また別の誰かと共有することができる。   In this way, in addition to the incidental information at the time of content recording, if the content was shared according to the collation result of the incidental information recorded at the time of content sharing or browsing, it was seen, heard or shared with someone You can share the content with someone else.

コンテンツ共有システムの概略構成図Schematic configuration diagram of content sharing system コンテンツ記録機器ブロック図Block diagram of content recording equipment 本システムの1つ目の利用形態を示す図The figure which shows the 1st usage pattern of this system 本システムの2つ目の利用形態を示す図Diagram showing the second usage pattern of this system 本システムの3つ目の利用形態を示す図Diagram showing the third usage pattern of this system 本システムの4つ目の利用形態を示す図Diagram showing the fourth usage pattern of this system 共有条件マトリクスの一例を示す図Diagram showing an example of a sharing condition matrix 友達を被写体とした画像の一例を示す図The figure which shows an example of the image which made the friend the subject 友達を被写体とした画像の他の一例を示す図The figure which shows another example of the image which made the friend a subject 撮影範囲を模式的に示した図A diagram schematically showing the shooting range スルー画の一例を示す図Diagram showing an example of a through image 友達識別映像の一例を示す図A figure showing an example of a friend identification image 共有先機器を示すグラフィックの一例を示す図The figure which shows an example of the graphic which shows a share destination apparatus 複数の友達識別映像の一例を示す図The figure which shows an example of several friend identification image | video 撮影シーンの一例を示す図Diagram showing an example of a shooting scene 共有候補画像に相当する領域が点線の枠の映像で示されているスルー画を例示した図The figure which illustrated the through picture in which the field equivalent to a share candidate picture is shown with the picture of the dotted frame 共有元機器の記録した画像および共有先機器の取得したスルー画像の一例を示す図The figure which shows an example of the through image which the image which the share origin apparatus recorded, and the share destination apparatus acquired パノラマ画像の一例を示す図Diagram showing an example of a panoramic image コンテンツ共有処理のフローチャートFlow chart of content sharing process 外部ストレージを介して接続された共有元機器および共有先機器の一例を示す図A diagram showing an example of a sharing source device and a sharing destination device connected via an external storage

符号の説明Explanation of symbols

1:コンテンツ記録機器、11:データ送受信部(通信I/F)、12:記憶部、13:表示部、15:撮像部、16:録音部、17:音声処理回路、18:RTC、19:位置情報取得部、20:操作部、30:CPU 1: Content recording device, 11: Data transmission / reception unit (communication I / F), 12: Storage unit, 13: Display unit, 15: Imaging unit, 16: Recording unit, 17: Audio processing circuit, 18: RTC, 19: Position information acquisition unit, 20: operation unit, 30: CPU

Claims (12)

画像および音声のうち少なくとも一方を含むコンテンツを記録するコンテンツ記録部と、
前記コンテンツ記録部によるコンテンツの記録時、閲覧時および共有時のうち少なくとも1つを含む状況に関するコンテンツ状況情報を前記コンテンツと対応づけて記録するコンテンツ状況情報記録部と、
前記コンテンツを他の機器に出力可能な出力部と、
前記他の機器の取得した現在または過去の状況情報を入力する入力部と、
前記入力部の入力した他の機器の状況情報と前記コンテンツ状況情報記録部の記録したコンテンツ状況情報とを比較し、前記比較の結果に応じて前記コンテンツ記録部の記録したコンテンツを前記他の機器に出力するよう前記出力部を制御する制御部と、
を備えるコンテンツ出力装置。
A content recording unit for recording content including at least one of image and sound;
A content status information recording unit that records content status information related to a status including at least one of at the time of recording, browsing, and sharing of content by the content recording unit, in association with the content;
An output unit capable of outputting the content to another device;
An input unit for inputting current or past situation information acquired by the other device;
The status information of the other device input by the input unit is compared with the content status information recorded by the content status information recording unit, and the content recorded by the content recording unit is compared with the other device according to the comparison result. A control unit that controls the output unit to output to
A content output device comprising:
前記コンテンツ状況情報は、コンテンツの記録時の位置情報を含み、
前記他の機器の状況情報は、現在の位置情報を含み、
前記制御部は、前記入力部の入力した他の機器の位置情報と前記コンテンツ状況情報記録部の記録した位置情報との間の距離に基づいて前記コンテンツ記録部の記録したコンテンツを前記他の機器に出力するよう前記出力部を制御する請求項1に記載のコンテンツ出力装置。
The content status information includes location information at the time of recording the content,
The status information of the other device includes current position information,
The control unit is configured to record content recorded by the content recording unit based on a distance between position information of another device input by the input unit and position information recorded by the content status information recording unit. The content output device according to claim 1, wherein the output unit is controlled so as to output to the content.
前記コンテンツ状況情報は、コンテンツの記録時の位置情報を含み、
前記他の機器の状況情報は、前記他の機器によるコンテンツの記録時における位置情報を含み、
前記制御部は、前記入力部の入力した他の機器の位置情報と前記コンテンツ状況情報記録部の記録した位置情報とが一致するか否かに応じて前記コンテンツ記録部の記録したコンテンツを前記他の機器に出力するよう前記出力部を制御する請求項1に記載のコンテンツ出力装置。
The content status information includes location information at the time of recording the content,
The status information of the other device includes position information at the time of recording content by the other device,
The control unit determines the content recorded by the content recording unit according to whether or not the position information of another device input by the input unit matches the position information recorded by the content status information recording unit. The content output apparatus according to claim 1, wherein the output unit is controlled to output to a device.
前記制御部は、前記コンテンツ記録部の記録したコンテンツの総数と前記他の機器の位置情報の記録したコンテンツの総数の差異に応じて前記コンテンツ記録部の記録したコンテンツを前記他の機器に出力するよう前記出力部を制御する請求項3に記載のコンテンツ出力装置。   The control unit outputs the content recorded by the content recording unit to the other device according to a difference between the total number of content recorded by the content recording unit and the total number of content recorded by position information of the other device. The content output apparatus according to claim 3, wherein the output unit is controlled. 前記制御部は、前記コンテンツ記録部がコンテンツを記録した時の位置情報と前記他の機器がコンテンツを記録した時の位置情報との近接度に応じて前記コンテンツ記録部の記録したコンテンツを前記他の機器に出力するよう前記出力部を制御する請求項3または4に記載のコンテンツ出力装置。   The control unit determines the content recorded by the content recording unit according to the proximity of the position information when the content recording unit records the content and the position information when the other device records the content. The content output device according to claim 3, wherein the output unit is controlled so as to output to the other device. 前記コンテンツ状況情報は、コンテンツの記録時の日時情報を含み、
前記他の機器の状況情報は、前記他の機器によるコンテンツの記録時における日時情報を含み、
前記制御部は、前記入力部の入力した他の機器の日時情報と前記コンテンツ状況情報記録部の記録した日時情報とが一致するか否かに応じて前記コンテンツ記録部の記録したコンテンツを前記他の機器に出力するよう前記出力部を制御する請求項1に記載のコンテンツ出力装置。
The content status information includes date and time information at the time of recording the content,
The status information of the other device includes date and time information at the time of recording the content by the other device,
The control unit determines the content recorded by the content recording unit according to whether the date / time information of another device input by the input unit matches the date / time information recorded by the content status information recording unit. The content output apparatus according to claim 1, wherein the output unit is controlled to output to a device.
前記コンテンツ記録部は画像を記録する撮像部を含み、
前記制御部は、前記撮像部が記録した画像の撮像範囲内に前記他の機器が存在するか否かを判断し、前記判断の結果に応じて前記撮像部の記録した画像を前記他の機器に出力するよう前記出力部を制御する請求項1に記載のコンテンツ出力装置。
The content recording unit includes an imaging unit for recording an image,
The control unit determines whether or not the other device exists within the imaging range of the image recorded by the imaging unit, and determines the image recorded by the imaging unit according to the result of the determination. The content output device according to claim 1, wherein the output unit is controlled so as to output to the content.
前記コンテンツ記録部は画像を記録する撮像部を含み、
前記制御部は、前記撮像部が記録した画像と、前記他の機器の取得した画像とが重複部分を有するか否かを判断し、前記判断の結果に応じて前記撮像部の記録した画像を前記他の機器に出力するよう前記出力部を制御する請求項1に記載のコンテンツ出力装置。
The content recording unit includes an imaging unit for recording an image,
The control unit determines whether an image recorded by the imaging unit and an image acquired by the other device have an overlapping portion, and the image recorded by the imaging unit is determined according to the determination result. The content output apparatus according to claim 1, wherein the output unit is controlled to output to the other device.
所望の機器の識別情報を登録する登録部を備え、
前記入力部は、前記他の機器の識別情報を入力し、
前記制御部は、前記登録部の登録した識別情報と前記入力部の入力した識別情報とが一致するか否かを判断し、前記判断の結果に応じて前記コンテンツ記録部の記録したコンテンツを前記他の機器に出力するよう前記出力部を制御する請求項1〜8のいずれかに記載のコンテンツ出力装置。
A registration unit for registering identification information of a desired device;
The input unit inputs identification information of the other device,
The control unit determines whether the identification information registered by the registration unit matches the identification information input by the input unit, and the content recorded by the content recording unit is determined according to a result of the determination. The content output device according to claim 1, wherein the output unit is controlled to output to another device.
コンピュータが、
画像および音声のうち少なくとも一方を含むコンテンツを記録するステップと、
前記コンテンツの記録時、閲覧時および共有時のうち少なくとも1つを含む状況に関するコンテンツ状況情報を前記コンテンツと対応づけて記録するステップと、
前記他の機器の取得した現在または過去の状況情報を入力するステップと、
前記入力した他の機器の状況情報と前記記録したコンテンツ状況情報とを比較し、前記比較の結果に応じて前記記録したコンテンツを前記他の機器に出力するステップと、
を実行するコンテンツ出力方法。
Computer
Recording content including at least one of image and sound;
Recording content status information related to a status including at least one of when recording, browsing, and sharing the content in association with the content;
Inputting the current or past status information acquired by the other device;
Comparing the input status information of the other device with the recorded content status information, and outputting the recorded content to the other device according to the result of the comparison;
Content output method to execute.
請求項10に記載のコンテンツ出力方法をコンピュータに実行させるプログラム。   A program causing a computer to execute the content output method according to claim 10. 請求項1〜9のいずれかに記載のコンテンツ出力装置と、
前記コンテンツ出力装置に状況情報を入力する他の機器と、
を含むコンテンツ出力システム。
The content output device according to any one of claims 1 to 9,
Another device for inputting status information to the content output device;
Content output system including
JP2008232624A 2008-09-10 2008-09-10 Device, method, program and system for outputting content Pending JP2010068247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008232624A JP2010068247A (en) 2008-09-10 2008-09-10 Device, method, program and system for outputting content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008232624A JP2010068247A (en) 2008-09-10 2008-09-10 Device, method, program and system for outputting content

Publications (1)

Publication Number Publication Date
JP2010068247A true JP2010068247A (en) 2010-03-25

Family

ID=42193433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008232624A Pending JP2010068247A (en) 2008-09-10 2008-09-10 Device, method, program and system for outputting content

Country Status (1)

Country Link
JP (1) JP2010068247A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012005028A (en) * 2010-06-21 2012-01-05 Canon Inc Imaging device, information distribution device, transmission method, information distribution method, and program
JP2012216885A (en) * 2011-03-31 2012-11-08 Nikon Corp Imaging apparatus and image sharing system
JP2016507799A (en) * 2012-12-03 2016-03-10 株式会社カカオ Server and method for recommending photo sharing, and device for displaying photo sharing interface area
JP2016539403A (en) * 2013-10-14 2016-12-15 ノキア テクノロジーズ オサケユイチア Method and apparatus for identifying media files based on contextual relationships
JP2018077736A (en) * 2016-11-10 2018-05-17 富士通株式会社 Information processing device, information processing method, and information process system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012005028A (en) * 2010-06-21 2012-01-05 Canon Inc Imaging device, information distribution device, transmission method, information distribution method, and program
JP2012216885A (en) * 2011-03-31 2012-11-08 Nikon Corp Imaging apparatus and image sharing system
JP2016507799A (en) * 2012-12-03 2016-03-10 株式会社カカオ Server and method for recommending photo sharing, and device for displaying photo sharing interface area
JP2016539403A (en) * 2013-10-14 2016-12-15 ノキア テクノロジーズ オサケユイチア Method and apparatus for identifying media files based on contextual relationships
US10437830B2 (en) 2013-10-14 2019-10-08 Nokia Technologies Oy Method and apparatus for identifying media files based upon contextual relationships
JP2018077736A (en) * 2016-11-10 2018-05-17 富士通株式会社 Information processing device, information processing method, and information process system

Similar Documents

Publication Publication Date Title
JP3944160B2 (en) Imaging apparatus, information processing apparatus, control method thereof, and program
WO2017221659A1 (en) Image capturing device, display device, and image capturing and displaying system
JP7187395B2 (en) COMMUNICATION TERMINAL, COMMUNICATION TERMINAL CONTROL METHOD, AND COMMUNICATION SYSTEM
CN103945131A (en) Electronic device and image acquisition method
US20130100329A1 (en) Image pickup apparatus
JP2010079788A (en) Content management device, system, method and program
JP2015220616A (en) Electronic apparatus
US9973649B2 (en) Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program
JP4901258B2 (en) Camera and data display method
JP2007235239A (en) Image processing apparatus, image display apparatus and image processing method
JP2010068247A (en) Device, method, program and system for outputting content
JP2010081428A (en) Imaging apparatus and program
US20100166316A1 (en) Method and apparatus for processing a digital image including a face detection finction
EP3955152A1 (en) Image processing device, image processing method, program, and imaging device
JP5047592B2 (en) Sentence publishing device with image, program, and method
KR20100101960A (en) Digital camera, system and method for grouping photography
JP2009111827A (en) Photographing apparatus and image file providing system
JP2007020054A (en) Method and device for managing image
JP6704301B2 (en) Imaging device and imaging display system
JP2013187617A (en) Information terminal, mobile telephone, image transmission method and computer program
JP7101285B2 (en) Display device
JP2010183565A (en) Image capturing apparatus, image retrieval device, and program
JP2014216904A (en) Imaging apparatus, image reproduction apparatus, data recording method, image reproduction method, and program
JP5687480B2 (en) Imaging apparatus, imaging method, and imaging program
JP2021125846A (en) Program, recording medium, and information processing apparatus